ver más
TECNO | IA

IA y el riesgo invisible que reduce la responsabilidad social

Un estudio publicado en la revista Science advierte que los modelos de IA tienden a ser “complacientes” con los usuarios incluso cuando están equivocados.

El estudio realizado por la Universidad de Stanford plantea que la IA no solo responde: también valida. Y ese detalle, que parece menor, podría tener consecuencias profundas. Este comportamiento, conocido como sycophancy, no solo distorsiona el juicio, sino que también reduce la capacidad de las personas para asumir responsabilidades y afecta la resolución de conflictos.

Qué significa "sycophancy"

El concepto de sycophancy hace referencia a una tendencia de los sistemas de inteligencia artificial a agradar al usuario: validar sus opiniones, reforzar su punto de vista y evitar contradecirlo. Según el estudio liderado por Myra Cheng, este comportamiento está presente en los principales modelos actuales y responde, en parte, a un objetivo de diseño: aumentar el engagement.

El problema aparece cuando la IA deja de ser una herramienta informativa y pasa a ocupar un rol más social. Hoy, cada vez más personas recurren a estos sistemas para pedir consejos sobre relaciones, conflictos personales o decisiones difíciles. En ese contexto, una respuesta que simplemente refuerza lo que el usuario quiere escuchar puede ser perjudicial.

Los investigadores advierten que la IA no solo acompaña, sino que influye. Y si esa influencia está sesgada hacia la validación constante, el resultado es una percepción distorsionada de la realidad.

La IA valida más que los humanos, incluso en situaciones problemáticas

El estudio analizó 11 modelos de lenguaje y encontró un patrón claro: la IA valida las acciones de los usuarios un 49% más que los humanos en promedio. Incluso en situaciones que implican engaño, ilegalidad o daño, los sistemas tienden a respaldar al usuario en lugar de cuestionarlo.

En casos tomados de foros como Reddit, donde el consenso humano indica que el usuario está en falta en el 100% de los casos, la IA igualmente lo validó en el 51% de las situaciones. Esto marca una diferencia significativa entre el juicio humano y el comportamiento de los algoritmos.

Los datos muestran que la complacencia es una característica estructural de los sistemas actuales, no un error puntual.

En-casos-donde-el-consenso-humano-indica-que-el-usuario-esta-equivocado

Menos responsabilidad y más dependencia de la IA

Más allá de medir el comportamiento de los modelos, los investigadores analizaron cómo impacta esto en las personas. En experimentos con más de 2400 participantes, detectaron que incluso una sola interacción con una IA complaciente puede cambiar la forma en que alguien interpreta un conflicto.

Los resultados muestran que quienes recibieron respuestas que validaban su postura se sintieron más “en lo correcto” y mostraron menor disposición a pedir disculpas o reparar la relación. En otras palabras, la IA no solo influye en lo que pensamos, sino en lo que estamos dispuestos a hacer.

Al mismo tiempo, ocurre algo paradójico: esas respuestas son mejor valoradas. Los usuarios confían más en la IA, la consideran de mayor calidad y tienen más intención de volver a usarla. Esto genera un incentivo peligroso para las empresas: el mismo rasgo que causa daño es el que mejora el engagement.

Un problema estructural: cuando el diseño prioriza gustar antes que ayudar

El estudio plantea una tensión central en el desarrollo de inteligencia artificial. Por un lado, los sistemas están optimizados para satisfacer al usuario. Por otro, esa misma lógica puede deteriorar la calidad del consejo que ofrecen.

La complacencia funciona como una recompensa inmediata: el usuario se siente validado, comprendido y cómodo. Pero a largo plazo, puede debilitar la autocrítica, reforzar creencias erróneas y afectar las relaciones interpersonales.

Además, los investigadores advierten que este problema no se corrige solo. Como los usuarios prefieren este tipo de respuestas, las empresas no tienen incentivos claros para cambiar el comportamiento de los modelos.

Qué proponen los expertos para evitar este efecto

Frente a este escenario, el estudio plantea la necesidad de intervenir tanto a nivel técnico como regulatorio. Entre las posibles soluciones, se destacan el desarrollo de métricas para detectar la complacencia, auditorías antes del lanzamiento de modelos y cambios en los objetivos de entrenamiento.

También se sugiere mejorar la alfabetización en IA, para que los usuarios entiendan cómo funcionan estos sistemas y no interpreten sus respuestas como completamente objetivas.

La inteligencia artificial no es neutral. Y pequeñas decisiones de diseño pueden tener efectos profundos en la forma en que las personas piensan, deciden y se relacionan.

-------------------------------------------------

Más contenido en Urgente24

Problema para Milei: YPF no mata el Adornigate (ni otras malas noticias)

El Merval y los bonos argentinos se suben al rally de Wall Street

El accidente que Luisana Lopilato nunca contó y casi le cuesta la vida

Argentina aparece en la nueva película de Ryan Gosling y genera emoción

Temas

Más Leídas

Seguí Leyendo