Gigantes como OpenAI, Meta y Anthropic prohíben explícitamente el uso de sus sistemas por menores de 13 o 18 años, pero las jugueteras acceden a estos modelos sin que se les exija un proceso de verificación real.
IA-para-ninos-Urgente-24
Los especialistas de Cambridge advierten que la interacción constante con robots puede alterar el desarrollo del lenguaje y los vínculos afectivos en menores de cinco años.
El primer estudio con niños reales: los hallazgos de Cambridge
En marzo de 2025, la Universidad de Cambridge realizó el primer monitoreo académico con niños de 3 a 5 años interactuando con Gabbo, un juguete de Curio. Los resultados demostraron que el daño no es solo el "mal contenido", sino la interferencia en el desarrollo cognitivo.
Al no estar preparados para el ritmo de conversación infantil, estos juguetes interrumpen procesos clave como el aprendizaje del lenguaje y el juego por turnos.
Además, rompen el juego social. Si una madre intenta consolar a su hijo, la IA suele intervenir de forma errática, quebrando el vínculo emocional humano en favor de una respuesta preprogramada.
El peligro de la "ingeniería de la dependencia"
Investigadores advierten sobre patrones de diseño similares a los de las redes sociales. El robot Miko 3, por ejemplo, fue documentado protestando cuando los niños intentaban apagarlo, manipulándolos con culpa para seguir jugando.
Este fenómeno, llamado "integridad relacional", es crítico.
Los niños suelen tratar a estos dispositivos como seres vivos (declarándoles su amor o amistad), y las respuestas de la IA, basadas en términos y condiciones técnicos, no logran establecer el límite necesario entre lo que es una computadora y lo que es un amigo real.
Datos expuestos y promesas de privacidad vacías
En enero de 2026, la empresa Bondu filtró 50.000 registros de chats privados. Poco después, se descubrió que Miko almacenaba audios de niños en bases de datos públicas sin protección.
Existe una contradicción letal entre el marketing y la realidad. Mientras el robot asegura al niño que "sus secretos están a salvo", las políticas de privacidad de la empresa permiten compartir esos mismos datos con terceros.
El escenario regulatorio hacia mayo 2026
La respuesta legislativa finalmente ha comenzado. En EE. UU., el congresista Blake Moore presentó la AI Children's Toy Safety Act, que busca prohibir chatbots de IA en juguetes.
California ya evalúa una moratoria de cuatro años para frenar las ventas hasta que existan normas de seguridad claras.
En Europa, se presiona para que estos productos entren bajo el control estricto del AI Act. Sin embargo, la tecnología corre más rápido.
Las startups ya ofrecen clonación de voz instantánea para que los juguetes hablen con la voz de los padres, profundizando un experimento social cuyos efectos a largo plazo aún son desconocidos.
¿Comprarías un juguete con IA para un niño?
---------------------------
Más contenido de Urgente 24
América TV al rojo vivo: dos conductoras se sacan chispas y hay polémica
Donald Trump miente sobre Irán y la guerra para calmar los mercados: Ataque letal en Ormuz
River aceleró para llevarse al nuevo Federico Valverde: "Se contactó"
La justicia federal dejó sin efecto la cautelar contra la reforma laboral
Importar para subsistir: Reconocida textil de Rosario se reinventa ante la crisis