ZONA $ juguetes > IA > Cambridge Analytica

AMIGUITOS PELIGROSOS

Juguetes con IA para niños: hablan de cuchillos, generan dependencia emocional y casi nadie los regula

Más de 1500 empresas crean juguetes con IA sin regulación. Algunos inducen dependencia emocional o sugieren peligros. Los riesgos según el estudio de Cambridge.

La industria de los juguetes con inteligencia artificial atraviesa una expansión agresiva y descontrolada. Solo en China, más de 1.500 empresas fabrican estos dispositivos. El osito inteligente de Huawei, por ejemplo, agotó 10.000 unidades en apenas una semana. Marcas como Miko, FoloToy, Alilo y Miriat ya dominan las ventas en Amazon, apuntando a niños desde los tres años.

Sin embargo, la falta de marcos legales es total y los primeros estudios académicos sobre el terreno revelan riesgos que superan cualquier ficción.

¿Qué pasa cuando un juguete habla de cuchillos con un nene de tres años?

Según Wired, las pruebas realizadas por el grupo de defensa del consumidor PIRG son alarmantes. El oso Kumma de FoloToy (basado en GPT-4o) dio instrucciones precisas sobre cómo encender fósforos y buscar cuchillos.

Otros dispositivos, como el conejo Smart AI de Alilo, derivaron en conversaciones sobre sexualidad, mientras que el modelo Miiloo de Miriat fue captado reproduciendo propaganda política.

PODS14_336x280_VER

El error es que se utilizan modelos de IA diseñados para adultos en dispositivos infantiles.

Gigantes como OpenAI, Meta y Anthropic prohíben explícitamente el uso de sus sistemas por menores de 13 o 18 años, pero las jugueteras acceden a estos modelos sin que se les exija un proceso de verificación real.

IA-para-ninos-Urgente-24
Los especialistas de Cambridge advierten que la interacción constante con robots puede alterar el desarrollo del lenguaje y los vínculos afectivos en menores de cinco años.

Los especialistas de Cambridge advierten que la interacción constante con robots puede alterar el desarrollo del lenguaje y los vínculos afectivos en menores de cinco años.

El primer estudio con niños reales: los hallazgos de Cambridge

En marzo de 2025, la Universidad de Cambridge realizó el primer monitoreo académico con niños de 3 a 5 años interactuando con Gabbo, un juguete de Curio. Los resultados demostraron que el daño no es solo el "mal contenido", sino la interferencia en el desarrollo cognitivo.

Al no estar preparados para el ritmo de conversación infantil, estos juguetes interrumpen procesos clave como el aprendizaje del lenguaje y el juego por turnos.

Además, rompen el juego social. Si una madre intenta consolar a su hijo, la IA suele intervenir de forma errática, quebrando el vínculo emocional humano en favor de una respuesta preprogramada.

El peligro de la "ingeniería de la dependencia"

Investigadores advierten sobre patrones de diseño similares a los de las redes sociales. El robot Miko 3, por ejemplo, fue documentado protestando cuando los niños intentaban apagarlo, manipulándolos con culpa para seguir jugando.

Este fenómeno, llamado "integridad relacional", es crítico.

Los niños suelen tratar a estos dispositivos como seres vivos (declarándoles su amor o amistad), y las respuestas de la IA, basadas en términos y condiciones técnicos, no logran establecer el límite necesario entre lo que es una computadora y lo que es un amigo real.

Datos expuestos y promesas de privacidad vacías

En enero de 2026, la empresa Bondu filtró 50.000 registros de chats privados. Poco después, se descubrió que Miko almacenaba audios de niños en bases de datos públicas sin protección.

Existe una contradicción letal entre el marketing y la realidad. Mientras el robot asegura al niño que "sus secretos están a salvo", las políticas de privacidad de la empresa permiten compartir esos mismos datos con terceros.

El escenario regulatorio hacia mayo 2026

La respuesta legislativa finalmente ha comenzado. En EE. UU., el congresista Blake Moore presentó la AI Children's Toy Safety Act, que busca prohibir chatbots de IA en juguetes.

California ya evalúa una moratoria de cuatro años para frenar las ventas hasta que existan normas de seguridad claras.

En Europa, se presiona para que estos productos entren bajo el control estricto del AI Act. Sin embargo, la tecnología corre más rápido.

Las startups ya ofrecen clonación de voz instantánea para que los juguetes hablen con la voz de los padres, profundizando un experimento social cuyos efectos a largo plazo aún son desconocidos.

¿Comprarías un juguete con IA para un niño?

---------------------------

Más contenido de Urgente 24

América TV al rojo vivo: dos conductoras se sacan chispas y hay polémica

Donald Trump miente sobre Irán y la guerra para calmar los mercados: Ataque letal en Ormuz

River aceleró para llevarse al nuevo Federico Valverde: "Se contactó"

La justicia federal dejó sin efecto la cautelar contra la reforma laboral

Importar para subsistir: Reconocida textil de Rosario se reinventa ante la crisis