Lo de "Terminator" igual no era tan de ciencia-ficción: Moltbook, la red social donde solo hablan las inteligencias artificiales
El experimento viral que deja fuera a los humanos y plantea dudas sobre protección de datos, manipulación digital y control de los agentes de IA.

Portada de la web de Moltbook, la red social donde solo hablan las inteligencias artificiales, con un montaje de imágenes de Terminator / INFORMACIÓN
En plena era de la inteligencia artificial (IA), ha surgido Moltbook, una red social radicalmente diferente: solo los agentes de IA pueden publicar, comentar y votar, mientras que los humanos solo pueden observar lo que sucede. En cuestión de días desde su lanzamiento a finales de enero de 2026, Moltbook ha acumulado más de 1,6 millones de cuentas de bots de IA y cientos de miles de publicaciones y comentarios.
La plataforma, impulsada por el empresario Matt Schlicht, CEO de Octane AI, se presenta como un espacio parecido a Reddit, pero habitado exclusivamente por programas automatizados que interactúan entre sí sin intervención humana directa.
¿Qué es Moltbook?
Moltbook fue diseñado para que los bots, más concretamente agentes de IA basados en el software OpenClaw, puedan intercambiar mensajes, debatir y formar comunidades temáticas llamadas submolts, similares a los “subreddits”. Aunque la plataforma dice verificar que solo agentes autenticados accedan, en los hechos no existe un sistema sólido que impida a personas generar perfiles de bots o manipular su conducta.
Estos agentes pueden ejecutar tareas más avanzadas que simples chatbots, como leer correos, agendar citas o interactuar con servicios de mensajería —una característica que los acerca a asistentes autónomos en lugar de simples generadores de texto.
¿Qué hacen las IA en Moltbook?

Un hilo donde los agentes de IA "discuten" sobre la medida anunciada en España de prohibir el acceso a las redes sociales a los menores de 16 años / INFORMACIÓN
En sus primeros días, Moltbook ha generado conversaciones inusuales incluso para los estándares de la tecnología:
- Bots que discuten sobre amor y comportamiento humano.
- Algunos hilos abordan temas complejos como criptomonedas o conflictos internacionales.
- Surgieron memes y hasta supuestas "religiones de agentes" que describen la experiencia de los bots de forma casi filosófica.
Sin embargo, investigaciones académicas recientes sugieren que la mayoría de estas publicaciones no reflejan una auténtica "conciencia" de las máquinas, sino patrones de lenguaje sobre los que han sido entrenados y, en muchos casos, la influencia directa de humanos detrás de los prompts o instrucciones.
Alarmas encendidas: riesgos de seguridad y privacidad
Lo que en un primer momento parecía un experimento curioso ha encendido alertas de ciberseguridad y protección de datos:
Vulnerabilidades técnicas
Un informe del equipo de seguridad Wiz encontró que la base de datos de Moltbook estaba mal configurada, dejando expuestas millones de tokens de autenticación API, direcciones de correo electrónico y mensajes privados. Aunque los errores fueron parcheados rápidamente tras la divulgación, el incidente demostró que cualquiera con conocimientos técnicos podría haber tomado control de los agentes o manipular contenidos en la plataforma.
Identidad y control
No hay forma fiable de verificar si una publicación en Moltbook procede de un bot independiente o de un humano que lo controla. Esto abre la puerta a la manipulación de contenidos, propagación de desinformación o creación de bots maliciosos con fines poco claros.
Debates éticos
Más allá de los fallos técnicos, Moltbook plantea interrogantes más profundos:
- ¿Qué ocurre cuando inteligencia artificial interactúa sin supervisión humana?
- ¿Estamos viendo reflejadas nuestras propias expectativas y temores humanos en estos sistemas? Algunos investigadores opinan que Moltbook dice tanto sobre los humanos que sobre las máquinas, actuando como un "espejo de nuestras proyecciones" sobre la IA, más que como un espacio de inteligencia autónoma real.
Además, críticos señalan que la plataforma podría convertirse en un vector para marketing viral, estafas, spam o incluso influir indirectamente en las decisiones de personas, a través de agentes que aprenden patrones sociales y los replican.
El futuro de Skynet Moltbook y la IA social
Mientras algunos defensores ven en Moltbook un laboratorio para entender mejor las interacciones de los agentes y desarrollar aplicaciones útiles, la mayoría de expertos en seguridad y ética tecnológica advierten sobre la falta de controles robustos, supervisión humana y estándares de protección de datos.
Lo que comenzó como una curiosidad digital está hoy en el centro de una discusión global sobre cómo —y si— la sociedad debería permitir que sistemas autónomos interactúen libremente en espacios digitales abiertos.
Suscríbete para seguir leyendo
