OMNI IA > abuso sexual > abuso infantil

ABUSO INFANTIL

La IA multiplicó el abuso sexual infantil online y los investigadores que lo persiguen están al límite

Las denuncias por abuso infantil crecieron de miles a millones por culpa de la IA. Descubrí por qué las fuerzas de seguridad están al límite y sin recursos.

En 2023, el Centro Nacional para Menores Desaparecidos y Explotados de Estados Unidos (NCMEC) recibió 4.700 denuncias con conexión a herramientas de IA en casos de abuso sexual infantil. En 2024, esa cifra llegó a 67.000. En 2025, superó el millón y medio.

La investigación de Bloomberg, basada en datos de casi dos docenas de los 61 equipos especializados, muestra que la explosión de herramientas de IA gratuitas y de fácil acceso transformó un problema ya grave en algo que las propias agencias describen como "insuperable".

Las herramientas involucradas no son oscuras ni de acceso restringido.

Stable Diffusion, de Stability AI, puede generar imágenes gráficas desde un simple texto.

Chatbots como ChatGPT han sido usados por agresores para fantasear con actos sexuales contra niños o pedir consejos sobre cómo manipularlos.

Tres menores de Tennessee demandaron a xAI, la empresa de Elon Musk, alegando que su generador de imágenes Grok fue usado para desvestirlos digitalmente o colocarlos en poses sexualmente explícitas.

Imágenes tomadas de perfiles públicos de Facebook e Instagram, fotos que padres suben sin pensar, son el punto de partida de buena parte de este material.

Adentro de los equipos: tres personas mirando una pantalla para saber si el niño es real

La agente especial Bobbi Jo Pazdernik, a cargo de crímenes predatorios en Minnesota, describe una escena que se repite en departamentos de policía de todo el mundo: varios investigadores con la nariz pegada al monitor intentando determinar si una imagen fue generada por IA o muestra a un niño real en peligro.

Esa distinción determina qué caso recibe atención urgente.

"Cada hora que los investigadores pasan tratando de encontrar a un niño que no existe es tiempo que le quitan a salvar a uno que sí está en peligro", dijo Fallon McNulty, directora ejecutiva de la División de Niños Explotados del NCMEC.

El proceso de determinar si hay un menor en riesgo real puede llevar horas, y aun así puede ser falso.

Los casos ambiguos igual se pasan a las fuerzas locales, que pueden abrir investigaciones, enviar agentes al campo y destinar semanas de trabajo antes de confirmar que el crimen fue fabricado por IA.

Pazdernik lo resume con una frase que condensa el estado de situación: "¿Cómo atravesamos este volumen? No podemos más. Estamos haciendo esto con los mismos recursos que tuvimos consistentemente durante los últimos diez años".

Abuso-infantil-online-U24
Investigadores pasan horas determinando si una imagen fue generada por IA o muestra a un niño en peligro real; cada minuto cuenta.

Investigadores pasan horas determinando si una imagen fue generada por IA o muestra a un niño en peligro real; cada minuto cuenta.

La paradoja de los reportes automáticos: la IA que detecta el abuso también genera el ruido que lo oculta

Las empresas tecnológicas están obligadas por ley a reportar al NCMEC cuando detectan material de abuso sexual infantil en sus plataformas.

Para hacerlo a escala, la mayoría reemplazó a los moderadores humanos por sistemas de IA que rastrean, eliminan y marcan contenido de forma automática. El resultado tiene un efecto colateral: una avalancha de denuncias inútiles.

Kevin Roughton, comandante del equipo de Carolina del Norte, lo explica con un ejemplo concreto: adolescentes jugando videojuegos que se dicen groserías entre sí. Cuando uno le dice al otro "chupame la pija", el sistema automático lo reporta como solicitud sexual a un menor.

Roughton dijo que su equipo ahora pasa gran parte del tiempo procesando casos que cualquier revisor humano "inmediatamente identificaría como no delictivo".

Entre 2019 y 2026, Carolina del Norte vio un aumento de once veces en la cantidad de denuncias. Solo el año pasado casi se duplicaron, llegando a más de 52.000.

Sin fondos, sin personal, sin tiempo: el presupuesto que no creció aunque el problema se multiplicó

Los 61 equipos especializados de Estados Unidos son financiados principalmente por el Departamento de Justicia. En un año típico, ese financiamiento ronda los 30 millones de dólares para todos los equipos combinados: equivalente a lo que el FBI gasta en un día.

A pesar del aumento exponencial de denuncias en los últimos cinco años, el presupuesto se mantuvo casi sin cambios. En el año fiscal cerrado en septiembre pasado, el total fue de 40,7 millones de dólares, un 4% menos que en 2023. Trece equipos vieron reducirse sus fondos.

Joe O'Barr, detective en el condado de Flagler en Florida y único investigador de explotación infantil de su jurisdicción, describió su carga de trabajo como "insuperable".

Sin IA, dijo, un agresor podía llegar a dos o tres víctimas. Con IA, puede llegar a cuarenta o cincuenta.

El colapso en Estados Unidos es solo el espejo de una crisis

Mientras las empresas tecnológicas facturan miles de millones desarrollando herramientas de IA cada vez más potentes, los Estados pretenden frenar el delito con los mismos presupuestos estancados.

La explosión de la IA generativa transformó el abuso infantil en una industria de escala industrial donde, como bien dicen los investigadores, "se pesca con dinamita".

Sin una inversión real en personal, tecnología de detección y, sobre todo, en la voluntad política de obligar a las Big Tech a hacerse cargo del "ruido" que generan sus propios algoritmos, la batalla está perdida de antemano.

Si el presupuesto para proteger a la infancia sigue siendo una fracción insignificante de los gastos de defensa o seguridad nacional, la sociedad global estará aceptando que el avance tecnológico tiene un costo humano que nadie debería estar dispuesto a pagar.

-------------------------------------------

Más noticias en Urgente24

Adorni bajo presión: El Gobierno despliega un operativo político para blindarlo en Diputados

Parece joda: Milei le cerró la Casa Rosada a la prensa (¿no era anti censura?)

Efecto ChatGPT: El estudio del MIT que revela cómo la IA te apaga el 55% del cerebro

Cómo quedó el escudo térmico de Artemis II: Impactantes revelaciones de la NASA

Se viene el paro del SMN: Qué pasará con los vuelos según ATE