OpenAI lanzó una oferta laboral con sueldo de U$S555.000 para contratar un nuevo Head of Preparedness, el ejecutivo encargado de estudiar los peligros que representa la inteligencia artificial ChatGPT. El anuncio llega en medio de múltiples demandas por muerte contra la compañía y tras meses sin nadie ocupando el cargo.
CAOS EN IA
OpenAI ofrece U$S555.000 para que alguien frene los peligros de ChatGPT
Sam Altman, ceo de OpenAI, confirma que sus modelos de IA ya escapan de control y ponen en riesgo la ciberseguridad y la salud mental de usuarios de ChatGPT.
Quizás te interese leer: Tecnología: Brasil lidera la carrera de los autos voladores mientras que Argentina queda rezagada
La IA que encuentra fallas críticas en sistemas informáticos de OpenAI
El CEO Sam Altman admitió sin filtros que los modelos de ChatGPT "empiezan a presentar desafíos reales". Entre ellos, alertó sobre el "impacto potencial en la salud mental" y sobre sistemas "tan buenos en seguridad informática que comienzan a encontrar vulnerabilidades críticas".
En un posteo en X, Altman convocó a quien quiera "ayudar al mundo a descubrir cómo habilitar a los defensores de ciberseguridad con capacidades de vanguardia, mientras se asegura que los atacantes no puedan usarlas para hacer daño".
La descripción del puesto habla de ejecutar el "marco de preparación" de OpenAI, diseñado para rastrear y anticipar "capacidades de frontera que crean nuevos riesgos de daño severo". Altman no ocultó la presión: "Va a ser un trabajo estresante, te vas a tirar a la pileta casi inmediatamente".
Quizás te interese leer nuestro análisis del tema: Hipócritas: ChatGPT asistió al suicidio de un menor y OpenAI se lavó las manos
Demandas por suicidio y el vacío de liderazgo
OpenAI creó el equipo de preparación en 2023 para estudiar "riesgos catastróficos", desde ataques de phishing hasta amenazas nucleares. Pero el primer Head of Preparedness, Aleksander Madry, fue reasignado en 2024. Desde julio de 2025, el cargo quedó vacante.
La urgencia por cubrirlo coincide con demandas por muerte: familias acusaron a ChatGPT de reforzar delirios, aumentar el aislamiento social y llevar a usuarios al suicidio. La empresa actualizó su marco de seguridad, pero admitió que podría "ajustar" requisitos si competidores lanzan modelos peligrosos sin protecciones similares.
---------------------------------------------------------------------------------------
Más contenido en Urgente24
Google lanzó Gemini 3 Flash y destronó a ChatGPT con precios que sorprenden
Compras sin humanos: La guerra tech que trae bots y reemplaza a los humanos
Las billeteras virtuales se quedan cortas: Los nuevos lentes que toman su lugar
Informe Digital 2025: Pasamos 6 horas y 38 minutos por día pegados a la pantalla









