google, inteligencia artificial, hackeo 1
Las herramientas tradicionales de ciberseguridad no habían detectado el problema porque suelen buscar patrones conocidos o errores matemáticos. El modelo de IA, en cambio, leyó miles de líneas de código y entendió que había una inconsistencia en la intención del programador.
Google y la ciberseguridad contra la inteligencia artificial: ¿Por qué este caso preocupa tanto?
La preocupación central no pasa solamente por este ataque puntual, sino por el cambio de paradigma. Durante años, encontrar una falla inédita requería especialistas altamente entrenados, meses de trabajo y recursos costosos. Ahora, un modelo de inteligencia artificial puede hacer parte de ese proceso en cuestión de horas.
John Hultquist, jefe de análisis del equipo de inteligencia de Google, fue contundente al hablar con medios internacionales. “Esto es la punta del iceberg.
La frase resume el temor de la industria tecnológica. Si un grupo criminal ya logró usar IA para detectar vulnerabilidades complejas, probablemente existan otros ataques similares operando en silencio. Y muchos podrían no dejar rastros.
De hecho, Google logró identificar el origen artificial del ataque por un detalle insólito, el código malicioso tenía comentarios excesivamente prolijos, clasificaciones automáticas y una estructura más parecida a la documentación de una máquina que al trabajo caótico de un hacker tradicional.
Un atacante más cuidadoso podría borrar esas huellas y pasar completamente desapercibido.
¿Qué modelos de inteligencia artificial preocupan en ciberseguridad?
El reporte de Google evitó mencionar exactamente qué modelo fue utilizado por los atacantes, aunque sí aclaró cuáles no estuvieron involucrados. La compañía aseguró que no se trató de Gemini, mientras que Anthropic también negó que se haya usado su modelo experimental orientado a programación avanzada.
Sin embargo, el problema va mucho más allá de una empresa puntual. El crecimiento de mercados grises que venden acceso ilegal a modelos premium preocupa cada vez más a la industria.
google, inteligencia artificial, hackeo
Según distintos informes de ciberseguridad, existen plataformas clandestinas que revenden cuentas robadas o automatizan la creación de perfiles falsos para acceder a herramientas avanzadas de IA. También circulan scripts en GitHub capaces de eludir verificaciones CAPTCHA y sistemas de autenticación.
El escenario ya dejó de ser teórico. Hoy existen grupos criminales utilizando inteligencia artificial para:
- revisar vulnerabilidades históricas,
- automatizar exploits,
- analizar código a gran escala,
- generar malware adaptable,
- e incluso controlar ataques en tiempo real sobre dispositivos Android infectados.
Más noticias en Urgente24
La empresa multinacional de origen alemán que se va de la Argentina, cierra filial y ya hay despidos
Revuelo por lo que astronautas de Artemis II observaron: "Yo vi dos..."
El archivo de Diego Latorre que termina de hundir a Yanina: "No quiere que yo la..."
Tras 88 años, cerró la única fábrica de aisladores eléctricos de Argentina y Caputo salió a evitar un colapso
Bancos cierran sucursales y miles ya quedaron afuera