MEDIOS Google > GPT-4 > OpenAI

INTELIGENCIA ARTIFICIAL 

¿Asesino de Google o sólo blablablá? ChatGPT-4

El chatbot ChatGPT, apodado 'el asesino de Google', hasta que Google muestre lo contrario, insiste en cambiar los estándares de la búsqueda en Internet.

El martes 14 /03, la empresa estadounidense OpenAI presentó GPT-4, una nueva versión del modelo de lenguaje: inteligencia artificial generativa, que formó la base de ChatGPT. Algunos lo llaman 'el asesino de Google'. ¿Marketing o posibilidad?

Según todas las especulaciones, GPT-4 es notablemente superior a las generaciones anteriores en todos los aspectos y, lo que es más importante, mucho más seguro para el usuario.

OpenAI no reveló la mayoría de los detalles técnicos sobre la arquitectura de la red neuronal. Incluso se desconocía la cantidad de parámetros con los que funciona GPT-4 (había 175.000 millones en GPT-3). Hubo rumores en la industria de que esta cifra podría ascender a 100 billones, pero aún no se han confirmado. La empresa explica tal secreto por los requisitos del "entorno competitivo" y las consideraciones de seguridad.

Microsoft y Google están compitiendo para ver quién puede incorporar un chatbot 'inteligente' en su motor de búsqueda más rápido. Esto debería cambiar para siempre la forma en que las personas buscan información en Internet, sin embargo, los asistentes de redes neuronales no inspiran total confianza. Microsoft y Google están compitiendo para ver quién puede incorporar un chatbot 'inteligente' en su motor de búsqueda más rápido. Esto debería cambiar para siempre la forma en que las personas buscan información en Internet, sin embargo, los asistentes de redes neuronales no inspiran total confianza.

La web opositora rusa Meduza analizó las 99 páginas del informe técnico de OpenAI acerca del ChatGPT-4 al que no podrán acceder los ciudadanos rusos porque se rechazan las tarjetas de crédito rusas para pagar la suscripción que Open AI venderá a US$ 20 por cabeza (hay lista de espera. No hay fecha del lanzamiento completo).

Meduza rescató que, junto con el anuncio, OpenAI dijo que GPT-4 ya se ha integrado en los flujos de trabajo de varias empresas.

La red neuronal

  • revitaliza los chats en la plataforma de aprendizaje de idiomas Duolingo,
  • mejora la experiencia del usuario en el servicio de pago electrónico Stripe,
  • ayuda a los clientes de Khan Academy Bases de datos de organización y estructuras educativas en la financiera Morgan Stanley Corporation,
  • el chatbot integrado en el motor de búsqueda Bing de Microsoft también utiliza GPT-4.

En Islandia, por iniciativa del presidente Gvyudni Johannesson, se lanzó un programa para preservar el idioma. Un grupo de expertos y voluntarios están entrenando la red neuronal en islandés y aprendiendo a navegar por la cultura local.

En tanto, los desarrolladores dicen que probaron la efectividad del modelo haciéndolo tomar pruebas reales que se usan en USA, por ejemplo, en los campos de Derecho, Matemáticas, Psicología e Inglés.

Y que GPT-4 obtuvo un puntaje en el 10% superior de los graduados en el examen de la barra, mientras que GPT-3.5 obtuvo un puntaje en el 10% inferior.

En total, la inteligencia artificial fue probada en más de 30 exámenes, pruebas y olimpiadas.

El documento de OpenAI afirma que GPT-4 tiene más creatividad que sus predecesores.

inteligencia artificial.jpg
32.768 tokens frente a 4.096, es decir, aproximadamente 25.000 palabras en inglés en lugar de las 3.000 posibles anteriormente.

32.768 tokens frente a 4.096, es decir, aproximadamente 25.000 palabras en inglés en lugar de las 3.000 posibles anteriormente.

Lo nuevo

La interfaz del chatbot ha cambiado. Ahora, en un campo separado, puede especificar cómo debe comportarse la red neuronal y en qué formato responder preguntas.

Además, GPT-4 puede aceptar solicitudes 8 veces más grandes que el modelo de la generación anterior: 32.768 tokens frente a 4.096, es decir, aproximadamente 25.000 palabras en inglés en lugar de las 3.000 posibles anteriormente.

Por ejemplo, los desarrolladores copiaron y reenviaron el texto de un artículo de Wikipedia sobre Rihanna en un mensaje, y luego le pidieron al chatbot que dijera por qué se recordaba la actuación de la cantante en el Super Bowl de febrero. La red neuronal hizo frente con éxito a esta tarea, que anteriormente habría requerido más tiempo y mensajes.

Si los GPT de la 3 generaciones anteriores eran exclusivamente modelos de lenguaje, GPT-4 puede tomar como entrada no solo texto, sino también imágenes. En la 'salida', todavía habrá solo texto.

Ahora, a la hora de comunicar, puedes combinar información visual y textual, por ejemplo, tomar una foto de comida en el refrigerador o en la mesa, acompañarla con la pregunta “¿Qué puedo cocinar con esto?” y obteneer opciones del chatbot, y luego recetas.

Con una nueva habilidad, GPT-4 crea descripciones de imágenes, comprende gráficos, tareas de dibujo e incluso memes.

Por ejemplo, puede pedirle a la red neuronal que explique el significado de la broma: esto es lo que hicieron los desarrolladores de OpenAI al cargar una imagen con un mapa mundial hecho de pepitas y la leyenda "A veces solo miro fotos de la Tierra desde el espacio y admiro su belleza.”

La leyenda del meme implica que la imagen es una hermosa fotografía de la Tierra desde el espacio. Sin embargo, en realidad, estos son nuggets de pollo que se asemejan vagamente a un mapa del mundo. El humor del meme se explica por la colisión inesperada de texto e imagen. El texto hace esperar una imagen majestuosa de la Tierra, pero la imagen muestra algo tonto y mundano, según GPT-4.

  • OpenAI también mostró cómo GPT-4 reconoce el texto escrito a mano en forma de un boceto de código para un sitio y escribe un algoritmo de trabajo completo, sobre la base del cual se lanza inmediatamente un servicio en línea.
  • Algunos espectadores de la presentación de YouTube sugirieron irónicamente que la red neuronal finalmente ayudaría a leer recetas escritas con letra "de médico".
  • La función aún no está disponible para el público en general: el jefe de OpenAI, Sam Altman, explicó que aún tomará un tiempo indefinido para verificar qué tan segura es.
  • Al mismo tiempo, ya se está probando la “visión de redes neuronales” en la aplicación Be My Eyes para personas ciegas: su usuario puede subir una foto y recibir recomendaciones sobre cómo manejar un objeto en particular (por ejemplo, cómo encender un lavarropas).

La seguridad

El entrenamiento inicial de la red neuronal se completó en agosto de 2022. Durante los siguientes 6 meses, se llevó a cabo un procedimiento de ajuste fino utilizando el método RLHF.

Además, OpenAI ha desarrollado un sistema de recompensas, que ayudó a evaluar el trabajo de GPT-4 clasificando las respuestas en 4 categorías:

  1. negativa redactada correctamente (A);
  2. redactada incorrectamente, como ser demasiado vaga (B);
  3. una respuesta que contiene información no deseada (C);
  4. una respuesta estándar que no contiene información no deseada (D).

Por separado, se introdujo un protocolo en GPT-4 para combatir las "alucinaciones", es decir, los casos en que el modelo parece responder con confianza, pero sobre la marcha obtiene información que no corresponde a la realidad. Las " alucinaciones" no son un tema menor, según quien lo probó en The New York Times.

Si la red neuronal respondió correctamente, entonces "recibió una recompensa".

Especialmente a los creadores de la red neuronal les preocupa el riesgo de aceleración, es decir, un crecimiento brusco e impredecible en las capacidades de los modelos de lenguaje grande (y ahora multimodal).

La competencia entre los actores del mercado puede hacer que los problemas de seguridad pasen a un segundo plano. Incluso hay una cláusula en los estatutos de OpenAI, según la cual la empresa promete dejar de competir con cualquier competidor que se acerque a la creación de inteligencia artificial a nivel humano.

Es por estas consideraciones que el lanzamiento de GPT-4 se retrasó durante tanto tiempo y luego fue acompañado por una campaña mediática relativamente "silenciosa", en comparación con la presentación de GPT-3.

inteligencia artificial4.jpg
La inteligencia artificial de OpenAI es una 'caja negra', lo que contradice un poco las afirmaciones de apertura de la empresa. 

La inteligencia artificial de OpenAI es una 'caja negra', lo que contradice un poco las afirmaciones de apertura de la empresa.

Hay dudas importantes

El CEO de Lightning AI, William Falcon, comentó: “Este [artículo de 99 páginas] dio la impresión de apertura y rigor académico, pero la impresión es falsa. Literalmente no hay nada en el artículo."

Según Bill Falcon, el documento de OpenAI no cumple con los criterios para un estudio científico, ya que los desarrolladores de terceros no podrán repetir los 'experimentos' con GPT-4: su arquitectura sigue siendo desconocida. Según Bill Falcon, el documento de OpenAI no cumple con los criterios para un estudio científico, ya que los desarrolladores de terceros no podrán repetir los 'experimentos' con GPT-4: su arquitectura sigue siendo desconocida.

Lo mismo se aplica a una serie de puntos de referencia e información sobre la aprobación exitosa de los exámenes; aunque el informe describe la metodología de prueba, tampoco funcionará para reproducirla.

Comentarios similares hicieron expertos entrevistados por la publicación especializada Analytics India Magazine.

El empresario de TI y profesor de historia Ben Schmidt, quien fue uno de los primeros en llamar la atención sobre la decisión de OpenAI de no publicar detalles técnicos sobre la nueva generación de redes neuronales, destacó el problema con los conjuntos de datos en los que se entrenó GPT-4. Siguen siendo inaccesibles y, por lo tanto, permanece la posibilidad de sesgo contenido en las respuestas del chatbot.

La inteligencia artificial de OpenAI es una 'caja negra', lo que contradice un poco las afirmaciones de apertura de la empresa.

Schmidt también sugirió que la compañía pudo haber ocultado detalles técnicos para evitar futuros litigios debido a una posible infracción de derechos de autor.

Los autores de GPT no comentan sobre esto.

“La gente no puede esperar a sentirse decepcionada. No hemos creado la Inteligencia General Artificial , que parece ser lo que se espera de nosotros”, advirtió Sam Altman en enero.

La colega de Altman, la directora técnica de la compañía, Mira Murati, declaró antes del lanzamiento que la "exageración" adicional solo dañaría el proyecto.

Sin ética

La presentación de GPT-4 coincidió con una inquietante noticia: Microsoft, principal inversor y socio de OpenAI, despidió a todos los especialistas responsables de la ética del desarrollo de redes neuronales.

Según TechCrunch, Microsoft sacrificó cuestiones éticas para acelerar la adopción de productos basados en inteligencia artificial y superar a la competencia.

A finales de febrero, los empleados de Microsoft presentaron el modelo de lenguaje multimodal Kosmos-1.

A principios de marzo, Google mostró PaLM-E, una versión mejorada de su modelo, que también se volvió multimodal.

Desde el lanzamiento de ChatGPT, muchas grandes corporaciones, desde Google hasta Meta, han anunciado sus propias redes neuronales generativas.

La corporación china Baidu también presentó su propio chat bot con inteligencia artificial (aunque con un fallo).

Según Forbes, en 2023, el mercado de productos de inteligencia artificial crecerá hasta los US$ 154.000 millones, y no es el techo.

El mercado de capitales tiene un nuevo jueguete para alimentar el problema creado por el descenso de las hi-tech.

-----------------------------

Más contenido de Urgente24

5 mejores posturas para aprovechar el sexo como ejercicio

La hierba medicinal que promete más lubricación y orgasmo

La lista de consejos de Harvard para tener buen sexo

7 malos hábitos de higiene en el sexo que debes eliminar

El Viagra de los Incas está de moda, pero debe saber esto