La carrera por la inteligencia artificial ya no es solo sobre quién crea el modelo más potente. Ahora también es una carrera por quién controla mejor los riesgos que esos modelos pueden generar. Este martes OpenAI dio un paso concreto en esa dirección.
EL ESCUDO DE ALTMAN
El "arma" defensiva de OpenAI: así es el nuevo GPT-5.4 para frenar ciberataques
Tras el miedo de Anthropic por el uso de hackers, OpenAI libera un modelo exclusivo para "socios confiables". ¿Quiénes tienen la llave de esta tecnología?
Anunció GPT-5.4-Cyber, un modelo especializado en ciberseguridad, y aclaró que lo compartirá de forma limitada y controlada con cientos de organizaciones de confianza, antes de ampliarlo a miles de socios en las próximas semanas.
El anuncio llega exactamente una semana después de que su competidora Anthropic decidiera restringir el acceso a su modelo Mythos Preview por temor a que fuera usado por hackers y actores maliciosos. OpenAI eligió un tono más moderado: reconoce los avances, pero afirma que sus salvaguardas actuales son suficientes para un despliegue amplio, aunque anticipa que en el futuro harán falta defensas más robustas.
¿Qué es GPT-5.4-Cyber y para qué sirve?
GPT-5.4-Cyber es un modelo entrenado y optimizado específicamente para tareas de ciberseguridad. Mientras los modelos generales como GPT-4o sirven para todo tipo de consultas, este nuevo modelo está enfocado en identificar vulnerabilidades en software, fortalecer sistemas y ayudar a los defensores digitales.
OpenAI lo presenta como parte de una estrategia en tres pilares:
- Validación “Know Your Customer” (KYC) avanzada La compañía quiere democratizar el acceso lo máximo posible, pero con controles estrictos. Combina revisiones manuales con el sistema Trusted Access for Cyber (TAC) que lanzó en febrero.
- Despliegue iterativo En lugar de liberar todo de golpe, OpenAI prueba, recibe feedback del mundo real y refina las capacidades, especialmente la resistencia a jailbreaks y ataques adversarios.
- Inversión en defensas a largo plazo La empresa reconoce que los modelos futuros serán mucho más poderosos y que se necesitarán “defensas más expansivas” para mantener la seguridad.
El miedo de Anthropic vs. la audacia de OpenAI: ¿quién tiene razón?
Hay una diferencia notable. Anthropic decidió mantener Mythos en versión privada porque considera que el modelo puede ser explotado para atacar sistemas con una velocidad y precisión sin precedentes. OpenAI, en cambio, afirma que sus salvaguardas actuales son suficientes para soportar un despliegue amplio de los modelos actuales y que seguirá trabajando para mejorarlas.
Ambas compañías coinciden en un punto: los modelos de IA cada vez son más capaces de encontrar y explotar vulnerabilidades en software. La diferencia está en cómo deciden gestionar ese riesgo: Anthropic optó por una restricción fuerte desde el principio. OpenAI apuesta por un despliegue controlado pero progresivo.
Un filtro exclusivo para socios: quiénes tendrán la llave del sistema
Las grandes empresas de IA ya no solo compiten por crear modelos más potentes; también compiten por demostrar que pueden controlar los riesgos que esos modelos generan.
OpenAI enfatiza que su estrategia busca dar ventaja a los defensores sobre los atacantes. Al compartir herramientas avanzadas con organizaciones confiables (incluyendo las que protegen infraestructura crítica), la compañía espera que las defensas evolucionen al mismo ritmo que las amenazas.
Sin embargo, la pregunta que queda flotando es la misma que planteó Anthropic: ¿serán suficientes las salvaguardas actuales cuando aparezcan modelos aún más capaces?
El dilema de una IA que debe aprender a protegerse de sí misma
Con GPT-5.4-Cyber, OpenAI busca posicionarse como líder no solo en capacidades ofensivas de la IA, sino también en su uso defensivo. La estrategia es seguir avanzando en modelos más potentes, pero con controles y defensas que evolucionen al mismo ritmo.
El mensaje implícito es doble: la IA generativa ya es una herramienta poderosa para los atacantes, pero también puede ser un aliado clave para los que defienden los sistemas. La gran incógnita es si las salvaguardas actuales serán realmente suficientes cuando aparezcan modelos aún más avanzados.
----------------------------------
Otras noticias de Urgente24
España es más que Madrid y Barcelona: crean una IA para aliviar la saturación turística
Maximiliano Pullaro y Pablo Quirno unen fuerzas para blindar el biodiésel argentino
Running: El error que muchos corredores cometen y podría aumentar el riesgo de lesiones
Empleo: Con Milei solo se superaron Neuquén y Río Negro, las otras 22 provincias no se recuperan











