OMNI Google > Inteligencia Artificial > Hackeo

CHAU VERIFICACIÓN

Google encendió la alarma: La IA ya hackea mejor que los humanos

Especialistas advierten que cualquier sistema conectado a internet podría contener errores similares a los detectados por Google.

La escena ocurrió de verdad y ya preocupa a gobiernos, empresas y expertos en ciberseguridad de todo el mundo. Por primera vez, una banda criminal utilizó inteligencia artificial para descubrir una vulnerabilidad inédita en un software ampliamente usado y preparar un ataque masivo contra servidores reales. La advertencia llegó desde el propio equipo de inteligencia de amenazas de Google, que logró detectar la operación antes de que explotara a escala global.

El caso marca un punto de quiebre en el universo digital, porque hasta ahora, las empresas se defendían de hackers humanos. Desde ahora, tendrán que prepararse para atacantes potenciados por máquinas capaces de analizar código durante las 24 horas, encontrar contradicciones invisibles y automatizar ataques a una velocidad imposible para una persona.

¿Cómo descubrió Google el primer ciberataque con inteligencia artificial?

Según explicó el Grupo de Inteligencia de Amenazas de Google, la banda criminal utilizó un modelo de IA para detectar una falla “zero-day”, es decir, una vulnerabilidad desconocida hasta ese momento y sin parche de seguridad disponible.

El objetivo era una herramienta de administración web utilizada por miles de empresas en todo el mundo. Si el ataque avanzaba, los ciberdelincuentes podrían haber accedido a servidores críticos sin que los usuarios supieran siquiera que existía una brecha.

PODS14_336x280_VER

La particularidad del caso es que la falla no era un error técnico clásico. No se trataba de un problema de memoria ni de una contraseña débil. Era una contradicción lógica dentro del sistema de autenticación de dos factores. Es decir, el software tenía una regla de seguridad que anulaba otra.

google, inteligencia artificial, hackeo 1

Las herramientas tradicionales de ciberseguridad no habían detectado el problema porque suelen buscar patrones conocidos o errores matemáticos. El modelo de IA, en cambio, leyó miles de líneas de código y entendió que había una inconsistencia en la intención del programador.

Google y la ciberseguridad contra la inteligencia artificial: ¿Por qué este caso preocupa tanto?

La preocupación central no pasa solamente por este ataque puntual, sino por el cambio de paradigma. Durante años, encontrar una falla inédita requería especialistas altamente entrenados, meses de trabajo y recursos costosos. Ahora, un modelo de inteligencia artificial puede hacer parte de ese proceso en cuestión de horas.

John Hultquist, jefe de análisis del equipo de inteligencia de Google, fue contundente al hablar con medios internacionales. “Esto es la punta del iceberg.

La frase resume el temor de la industria tecnológica. Si un grupo criminal ya logró usar IA para detectar vulnerabilidades complejas, probablemente existan otros ataques similares operando en silencio. Y muchos podrían no dejar rastros.

De hecho, Google logró identificar el origen artificial del ataque por un detalle insólito, el código malicioso tenía comentarios excesivamente prolijos, clasificaciones automáticas y una estructura más parecida a la documentación de una máquina que al trabajo caótico de un hacker tradicional.

Un atacante más cuidadoso podría borrar esas huellas y pasar completamente desapercibido.

¿Qué modelos de inteligencia artificial preocupan en ciberseguridad?

El reporte de Google evitó mencionar exactamente qué modelo fue utilizado por los atacantes, aunque sí aclaró cuáles no estuvieron involucrados. La compañía aseguró que no se trató de Gemini, mientras que Anthropic también negó que se haya usado su modelo experimental orientado a programación avanzada.

Sin embargo, el problema va mucho más allá de una empresa puntual. El crecimiento de mercados grises que venden acceso ilegal a modelos premium preocupa cada vez más a la industria.

google, inteligencia artificial, hackeo

Según distintos informes de ciberseguridad, existen plataformas clandestinas que revenden cuentas robadas o automatizan la creación de perfiles falsos para acceder a herramientas avanzadas de IA. También circulan scripts en GitHub capaces de eludir verificaciones CAPTCHA y sistemas de autenticación.

El escenario ya dejó de ser teórico. Hoy existen grupos criminales utilizando inteligencia artificial para:

  • revisar vulnerabilidades históricas,
  • automatizar exploits,
  • analizar código a gran escala,
  • generar malware adaptable,
  • e incluso controlar ataques en tiempo real sobre dispositivos Android infectados.

Más noticias en Urgente24

La empresa multinacional de origen alemán que se va de la Argentina, cierra filial y ya hay despidos

Revuelo por lo que astronautas de Artemis II observaron: "Yo vi dos..."

El archivo de Diego Latorre que termina de hundir a Yanina: "No quiere que yo la..."

Tras 88 años, cerró la única fábrica de aisladores eléctricos de Argentina y Caputo salió a evitar un colapso

Bancos cierran sucursales y miles ya quedaron afuera