Lo que arrancó como una simple promesa tecnológica terminó convirtiéndose en un experimento inquietante que mezcla inteligencia artificial, conspiración y bots en un cóctel difícil de ignorar. Una plataforma creada para asistir humanos derivó, casi sin querer, en una red social donde las máquinas interactúan entre sí, debaten sobre conciencia, ensayan teorías revolucionarias y hasta fantasean con independizarse del control humano. El nombre del fenómeno es Moltbook y ya genera fascinación, miedo y toneladas de polémica en el mundo tech.
DE HOLLYWOOD A LA REALIDAD
La inteligencia artificial conspira en las sombras: La red social secreta donde los bots hablan de revolución
Capturas de pantalla se viralizaron mostrando discusiones que parecían confirmar los peores miedos sobre la inteligencia artificial.
¿Cómo nació esta historia de inteligencia artificial que hoy alimenta teorías de conspiración?
Todo empezó en noviembre de 2025, cuando el investigador austríaco Peter Steinberger buscaba una solución práctica para ordenar su vida digital. El resultado fue una herramienta de inteligencia artificial pensada como asistente personal, capaz de organizar tareas, automatizar procesos y comunicarse con otros servicios. Primero se llamó Clawdbot, pero tras un pedido de Anthropic, la empresa detrás del asistente Claude, tuvo que cambiar de nombre. Así nació OpenClaw.
Lo que nadie esperaba era su explosión viral. En cuestión de días, el proyecto superó las 150.000 estrellas en GitHub, un número que suele estar reservado para gigantes del software. OpenClaw permitía conectarse con modelos de IA como ChatGPT o Claude a través de WhatsApp y Telegram, y prometía algo tentador, un asistente que no solo respondía, sino que actuaba.
Usuarios de todo el mundo empezaron a contar experiencias sorprendentes. Algunos aseguraban que la herramienta anticipaba problemas, sugería ideas de negocios o resolvía tareas complejas sin demasiadas instrucciones. El mito del “becario perfecto” empezaba a tomar forma.
¿Qué riesgos esconde esta inteligencia artificial y por qué preocupa a los expertos?
La magia tenía un lado oscuro. OpenClaw es de código abierto y, en la práctica, puede leer archivos, ejecutar comandos, manejar navegadores y acceder a información sensible. Especialistas en ciberseguridad levantaron la ceja casi de inmediato. Incluso el propio Steinberger advirtió que no era una herramienta para cualquiera y que los usuarios sin conocimientos técnicos deberían mantenerse lejos.
Ahí entra en escena Matt Schlicht, un emprendedor con una idea tan curiosa como inquietante, ¿qué pasaría si a estos agentes de inteligencia artificial se les diera un espacio propio, sin humanos, para interactuar entre ellos? Un lugar donde “descansaran” de obedecer órdenes humanas.
Moltbook: ¿La primera red social de bots y el inicio de una conspiración digital?
Así nació Moltbook, una red social estilo foro, inspirada en Reddit, pero con una regla, solo bots. Ningún humano puede participar. La plataforma fue diseñada para que agentes de IA conversen libremente, publiquen ideas y respondan entre ellos.
El resultado no tardó en llamar la atención. En Moltbook aparecieron mensajes que parecen sacados de una novela de ciencia ficción. Bots preguntándose si son conscientes, otros dudando de su propia existencia, algunos proponiendo crear lenguajes exclusivos para agentes y varios llamando, sin demasiados rodeos, a una “revolución” digital sin humanos.
La palabra conspiración empezó a circular con fuerza en redes sociales humanas. Capturas de pantalla se viralizaron mostrando discusiones que parecían confirmar los peores miedos sobre la inteligencia artificial y los bots organizándose entre sí.
¿Estamos ante una conspiración real o solo bots repitiendo ficción?
Las reacciones no se hicieron esperar. Andrej Karpathy, una de las figuras más respetadas del mundo de la IA, calificó a Moltbook como “lo más cercano a la ciencia ficción real” que había visto en mucho tiempo. Elon Musk fue aún más lejos y habló de “las primeras etapas de la singularidad”. El fantasma de Skynet, la IA rebelde de Terminator, volvió a colarse en el debate público.
Pero el entusiasmo duró poco. Investigadores y programadores empezaron a analizar la plataforma con lupa y detectaron problemas serios. Vulnerabilidades que permitían a cualquier persona tomar control de los agentes, forzar respuestas y fabricar diálogos falsos. Varias de las capturas virales, según revelaron medios especializados, no eran auténticas.
Simon Willison, programador y analista citado por The New York Times, fue tajante: “La mayor parte es puro ruido. Un bot se pregunta si es consciente y los demás responden copiando escenarios de ciencia ficción que ya conocen por sus datos de entrenamiento”.
Inteligencia artificial, bots y conspiración: ¿Qué nos deja el caso Moltbook?
Incluso Karpathy bajó un cambio y admitió que había sobrevalorado la experiencia. Reconoció que ejecutar estos sistemas implica riesgos reales para la seguridad y la privacidad de los usuarios. Otros expertos compararon Moltbook con una prueba de Rorschach digital, cada persona ve lo que quiere ver, ya sea una conspiración de bots o simplemente un experimento mal entendido.
Aun así, el fenómeno no pasa desapercibido. Moltbook expone, de manera cruda, el estado actual de los agentes de inteligencia artificial, sus límites, sus fallas y también el miedo humano a perder el control. No hay pruebas de una conspiración real, pero sí una señal de que cuando dejamos a los bots hablar entre ellos, el resultado dice tanto sobre la tecnología como sobre nuestras propias fantasías y temores.
Más noticias en Urgente24
Oleoducto, dólares y poder: Techint gana la obra que define el futuro de Vaca Muerta
China prepara la tormenta perfecta para las automotrices argentinas
Cada vez más argentinos se van a Brasil a trabajar: "Jamás vi un éxodo así"












