OMNI IA > inteligencia artificial >

INTELIGENCIA ARTIFICIAL

Qué pasa cuando los agentes de IA se interrumpen entre sí

Muchos no lo sabían pero los agentes de IA interactúan. Y dicen que es positivo permitir interrupciones entre los sistemas de inteligencia artificial.

Un estudio muestra que los agentes de IA mejoran su rendimiento cuando interactúan con menos reglas. Permitir interrupciones entre sistemas de inteligencia artificial ayudó a resolver problemas con mayor precisión.

Las conversaciones entre sistemas de inteligencia artificial suelen seguir protocolos estrictos.

Un estudio probó qué ocurre cuando los agentes de IA pueden interrumpirse, guardar silencio o intervenir libremente, y encontró que esa dinámica más flexible mejora el razonamiento colectivo.

Cuando las máquinas debaten entre sí

Los sistemas de inteligencia artificial diseñados para trabajar en grupo suelen seguir una estructura muy ordenada.

Cada agente espera su turno, genera una respuesta completa y recién entonces interviene el siguiente. Este esquema facilita el control del sistema, pero también se aleja bastante de cómo funcionan las conversaciones humanas, donde las interrupciones y los cambios espontáneos de turno son habituales.

Investigadores de la University of Electro-Communications y del National Institute of Advanced Industrial Science and Technology decidieron analizar qué ocurriría si ese comportamiento más natural se incorporara en sistemas de agentes de IA que debaten entre sí.

En lugar de obligar a los modelos a seguir turnos rígidos, el equipo diseñó un marco de conversación más flexible en el que los agentes de IA pueden decidir cuándo intervenir, esperar o incluso permanecer en silencio si no tienen nada relevante que aportar.

fmi inteligencia artificial.jpg
Los sistemas de inteligencia artificial diseñados para trabajar en grupo suelen seguir una estructura muy ordenada.

Los sistemas de inteligencia artificial diseñados para trabajar en grupo suelen seguir una estructura muy ordenada.

Personalidades artificiales en el debate

El sistema introduce además rasgos de personalidad inspirados en el modelo psicológico de los 'Big 5 Personality Traits'. Cada agente recibe características como mayor extraversión o mayor tendencia a la reflexión, lo que influye en la forma en que participa en la conversación.

Estos rasgos no buscan simular emociones humanas, sino modificar el comportamiento de los agentes de IA durante el debate. Algunos intervienen con mayor frecuencia, mientras que otros tienden a escuchar más antes de aportar una idea.

Para permitir esta dinámica, los investigadores también cambiaron la forma en que los modelos procesan la conversación. En lugar de generar una respuesta completa antes de enviarla, los sistemas analizan el diálogo frase a frase, lo que permite reaccionar en tiempo real a lo que dicen los demás participantes.

El sistema incorpora además una “puntuación de urgencia”. Cuando un agente de IA detecta un posible error o un argumento importante, ese valor aumenta y el modelo puede intervenir incluso si otro está hablando.

Si la urgencia es baja, el agente puede optar por no intervenir y evitar añadir comentarios redundantes.

Interrupciones que mejoran el razonamiento

Para evaluar el rendimiento del sistema, los investigadores utilizaron el benchmark Massive Multitask Language Understanding, una prueba ampliamente utilizada para medir la capacidad de razonamiento de los modelos de inteligencia artificial.

El experimento comparó 3r configuraciones distintas de debate entre agentes de IA:

  • una con turnos fijos,
  • otra con orden de intervención dinámico, y
  • una tercera que permitía interrupciones cuando el sistema detectaba una alta urgencia.

Los resultados mostraron diferencias claras.

Cuando un agente iniciaba la discusión con una respuesta incorrecta, el sistema con turnos estrictos alcanzaba una precisión del 68,7 %. En cambio, el modelo que permitía interrupciones elevaba ese valor hasta el 79,2 %.

Incluso en escenarios más complejos, donde dos agentes de IA comenzaban con respuestas equivocadas, el modelo con mayor flexibilidad seguía mostrando mejores resultados.

Según los investigadores, esto ocurre porque la posibilidad de intervenir de inmediato permite detectar errores antes y corregirlos durante la conversación.

antropic vs openai
Una batalla entre Claude, de Anthropic; y ChatGPT, de OpenAI, según Grok, de xAI.

Una batalla entre Claude, de Anthropic; y ChatGPT, de OpenAI, según Grok, de xAI.

Lo que sugiere el estudio

El trabajo apunta a una idea interesante para el desarrollo de sistemas de inteligencia artificial colaborativa:

Muchas aplicaciones emergentes dependen de múltiples agentes de IA especializados que trabajan juntos para analizar información o resolver problemas complejos. Muchas aplicaciones emergentes dependen de múltiples agentes de IA especializados que trabajan juntos para analizar información o resolver problemas complejos.

En ese contexto, limitar la interacción a turnos rígidos podría estar frenando parte del potencial de estos sistemas. Incorporar dinámicas más cercanas a la comunicación humana, como interrupciones estratégicas o silencios, podría mejorar la calidad del razonamiento colectivo.

Los autores señalan que el siguiente paso será aplicar este enfoque a tareas más complejas, especialmente en entornos donde varios agentes de IA deban colaborar para tomar decisiones o desarrollar ideas.

A medida que la inteligencia artificial interactúe cada vez más entre sí y con personas, entender cómo influyen estas dinámicas de conversación podría convertirse en un factor clave en el diseño de futuros sistemas.

---------------------

Más noticias en Urgente24

Escándalo con precios en Mercado Libre: revelan el secreto que paralizó a todos

Lo que contó Marcos Galperin sobre Mercado Libre que alarma a millones: "Desaparece"

Alpine lanzó la peor noticia para Franco Colapinto: "Difícil"

La miniserie de 6 capítulos que a todos se les volvió un vicio

Aseguradoras complicadas y nuevo caso tras Boston, Escudo, Orbis, Caledonia, La Nueva, Profru....