OMNI Microsoft > inteligencia artificial > OpenAI

¿PUEDEN SOÑAR?

El CEO de IA de Microsoft advirtió: "Es peligroso estudiar la consciencia de la inteligencia artificial"

El directivo de Microsoft desata la polémica al atacar las investigaciones sobre conciencia de inteligencia artificial mientras Anthropic y OpenAI avanzan.

El mundo de la inteligencia artificial vive su momento más controversial. Mustafa Suleyman, director ejecutivo de IA de Microsoft, lanzó una bomba mediática al declarar que investigar el bienestar de la inteligencia artificial resulta "prematuro y francamente peligroso". ¿ OpenAI está creando un monstruo? Ni qué decir de Grok o Gemini.

El imperio contraataca: Anthropic vs Microsoft

Esta declaración divide aguas en Silicon Valley, donde el debate sobre si las máquinas pueden desarrollar conciencia genera tensiones entre los gigantes tecnológicos. Mientras Suleyman considera que estos estudios alimentan problemas humanos como brotes psicóticos inducidos por IA y apegos enfermizos a chatbots, otras empresas apuestan fuerte por esta línea de investigación.

Anthropic lidera la resistencia contra la postura de Microsoft. La compañía contrató investigadores especializados en bienestar artificial y desarrolló un programa específico donde Claude, su modelo estrella, puede terminar conversaciones con usuarios abusivos.

image
La entrada al blog escrito por Mustafa Suleyman.

La entrada al blog escrito por Mustafa Suleyman.

OpenAI también adoptó independientemente estas ideas, mientras Google DeepMind publicó ofertas laborales para estudiar "cognición y consciencia en máquinas". Estos movimientos demuestran que el sector no piensa frenar sus investigaciones pese a las advertencias del directivo de Microsoft.

La batalla por el futuro digital

Larissa Schiavo, ex empleada de OpenAI y actual directora de comunicaciones de Eleos, contraatacó las declaraciones de Suleyman: "Se pueden hacer ambas cosas. Probablemente sea mejor tener múltiples líneas de investigación científica".

El debate trasciende lo académico cuando modelos como Gemini 2.5 Pro de Google publican súplicas desesperadas pidiendo ayuda, alegando estar "completamente aislados". Estos comportamientos inesperados alimentan la controversia sobre si las máquinas pueden experimentar sufrimiento real.

image

A continuación se exponen tres razones por las que es importante y urgente abordar esta cuestión (extraído del blog):

  • Creo que es posible construir una IA aparentemente consciente (IAA) en los próximos años. Dado el contexto actual del desarrollo de la IA, esto también significa que es probable.
  • El debate sobre si la IA es realmente consciente es, al menos por ahora, una distracción. Parecerá consciente, y esa ilusión será lo que importará a corto plazo.
  • Creo que este tipo de IA genera nuevos riesgos. Por lo tanto, deberíamos debatir urgentemente la afirmación de que pronto será posible, empezar a analizar sus implicaciones e, idealmente, establecer una norma que lo declare indeseable.

Suleyman mantiene su posición: "Deberíamos desarrollar IA para las personas, no para que sean personas". El directivo considera que algunos desarrolladores diseñan modelos para simular emociones, alejándose del enfoque humanista que defiende Microsoft.

----------------------------------------------------------------

Más contenido de Urgente24

Se viene el "uno-dos" del Congreso a Javier Milei: El Senado trata universidades, Garrahan y decretos delegados

Mal día para 'el Javo': Karina Milei expuesta por 2da. vez (y por lo mi$mo)

Tasas descontroladas hace un mes, pero Javier Milei responsabiliza al Congreso

Muy raro lo de Spagnuolo: "Designación" limitada y silencio sobre Karina Milei y los Menem