Por qué Mythos de Anthropic es el modelo más peligroso de la historia y no te van a dejar usarlo
Mythos puede hackear sistemas y robar datos en minutos. Por qué Anthropic decidió frenar su lanzamiento por miedo a desatar un caos cibernético global.
20 de abril de 2026 - 13:17
Mythos, el nuevo modelo de Anthropic, puede hackear sistemas por sí solo, encontrar vulnerabilidades zero-day y robar datos en minutos. Los propios investigadores de la empresa se alarmaron tanto que lo restringieron a uso defensivo. Es la primera vez que una compañía de IA frena su propio avance por miedo a lo que podría desatar.
El incidente de Bali: cuando la IA superó la capacidad de control humana
En febrero, Nicholas Carlini, investigador de Anthropic, se apartó de una boda en Bali, abrió su notebook y empezó a probar Mythos.
En cuestión de horas descubrió algo que nadie esperaba: el modelo no solo podía ayudar a encontrar fallas en sistemas. Podía explotarlas de forma autónoma, crear herramientas de intrusión y realizar ataques completos contra Linux, el sistema que sostiene gran parte de internet, bancos, hospitales y gobiernos.
Según Bloomberg, Carlini y su equipo del “Frontier Red Team” (el grupo que prueba los límites de la IA) alertaron inmediatamente a los directivos. Cada día encontraban fallas más graves. Mythos no era solo potente: era peligroso.
Proyecto Glasswing: el plan de emergencia para contener un arma digital
Anthropic había creado Mythos para ser el siguiente gran modelo de IA. Pero cuanto más lo probaban, más claro quedaba que podía hacer lo que antes solo lograban los mejores hackers del mundo: superar protocolos de seguridad, atravesar redes y acceder a sistemas críticos.
Jared Kaplan, cofundador y director científico, y Sam McCandlish evaluaron durante semanas si podían lanzarlo. La respuesta fue clara: no.
Era demasiado riesgoso para un lanzamiento abierto. En cambio, decidieron ofrecerlo solo a un grupo limitado de empresas y gobiernos para usarlo como herramienta defensiva, bajo el nombre “Proyecto Glasswing”.
glasswing
Empresas que forman parte del Proyecto Glasswing de Anthropic
Wall Street bajo alerta: JPMorgan y la FED prueban el escudo de Mythos
Bancos como JPMorgan, Goldman Sachs, Citigroup y Morgan Stanley ya están probando Mythos internamente para encontrar y cerrar sus propias vulnerabilidades antes de que los atacantes las descubran.
El gobierno de EE.UU. también mostró interés inmediato: el secretario del Tesoro y el presidente de la Reserva Federal convocaron a líderes de Wall Street para advertirles sobre el riesgo y recomendarles usarlo de forma defensiva.
El problema es que la IA baja drásticamente la barrera para cometer ciberataques. Lo que antes requería meses de trabajo de un equipo experto, ahora un solo modelo puede hacerlo en horas. Un hacker individual podría operar al nivel de un Estado.
El dilema de Anthropic: ¿qué pasa si el enemigo lanza su propio Mythos?
Por primera vez una empresa de IA decide no lanzar su propio modelo porque es demasiado poderoso. Eso dice mucho sobre el momento que vivimos: la tecnología avanza más rápido que nuestra capacidad de controlarla.
Anthropic eligió la precaución. Pero esto genera una pregunta incómoda: ¿qué pasa si otra compañía menos cuidadosa lanza algo similar?
Y sobre todo, ¿estamos listos para un mundo donde la IA puede romper sistemas críticos con solo unas instrucciones?
La era de la IA como arma de destrucción masiva
Mythos no es una curiosidad técnica. Es la señal de que la inteligencia artificial está entrando en una nueva etapa: ya no solo genera texto o imágenes. Puede atacar la infraestructura misma de la sociedad moderna.
La decisión de Anthropic de frenar su lanzamiento muestra responsabilidad, pero también pone en evidencia la tensión que vive la industria: quieren avanzar rápido, pero saben que algunos avances pueden ser demasiado peligrosos para soltarlos sin control.
Mientras tanto, bancos, gobiernos y empresas corren a probarlo para protegerse. La carrera de la IA ya no es solo por ser más inteligente. También es por ser más segura.