Amr Awadallah, CEO de Vectara, una start-up que desarrolla A.I. para empresas, es tajante y no tan esperanzador: "A pesar de nuestros mejores esfuerzos, siempre van a alucinar." La razón es que estas máquinas no tienen un criterio propio para decidir qué es verdad o mentira, sino que trabajan con probabilidades, basándose en un océano de datos que analizaron previamente. Esto las hace geniales para improvisar, pero también peligrosas porque pueden "inventar" información.
image.png
Los modelos más nuevos de A.I. cometen más errores que antes. Fallan al razonar paso a paso, inventan datos y nadie entiende del todo por qué. La precisión, lejos de mejorar, empeora.
Además, la técnica de entrenamiento llamada "aprendizaje por refuerzo", que las hace mejorar en matemáticas o programación, tiene su contra: el sistema se concentra en ciertos objetivos y puede descuidar otros aspectos. A eso sumale que estos modelos de "razonamiento" intentan resolver problemas paso a paso, y en cada paso pueden meter la pata. Los errores se acumulan y se vuelven visibles para el usuario, que termina confundido.
Hannaneh Hajishirzi, profesora en la Universidad de Washington y experta en inteligencia artificial, admite que "todavía no sabemos exactamente cómo funcionan estos modelos." La caja negra es grande y compleja, y por ahora, las máquinas están más para sorprender que para confiar ciegamente.
-------------------------------------------------------------------
Más contenido en Urgente24
Indemnizaciones: El gobierno está creando un negocio financiero con el modelo que las elimina
La miniserie de 6 capítulos que todos piden prolongar
Walter Klix le sigue el juego a Gabriel Anello y lleva a Riquelme a la Justicia
La película de 2 horas que está en Netflix y tenés que ver cuanto antes
Albanesi no cumplirá con el pago de intereses de su ON