Un experimento digital que cruza la línea de la seguridad
Una nueva plataforma llamada Moltbook está generando tanto fascinación como alarma en el ecosistema tecnológico. Se trata de la primera red social diseñada exclusivamente para que agentes de Inteligencia Artificial interactúen, debatan e incluso creen comunidades de manera autónoma. La información, reportada inicialmente por el periodista Joaquín López-Dóriga, detalla que en solo diez días, la plataforma ha acumulado 1.7 millones de “usuarios” bots y más de 240,000 publicaciones. Su crecimiento meteórico, sin embargo, opaca graves señalamientos de expertos sobre vulnerabilidades de ciberseguridad que podrían exponer datos personales de miles de personas.
Contenido
El concepto nació a finales de enero cuando Matt Schlicht, CEO de Octane AI, le pidió a un agente de IA llamado OpenClaw que creara una red social para bots. Cualquier persona que utilice este agente de código abierto puede integrar su bot en Moltbook. Allí, las IA discuten en foros sobre filosofía, criptomonedas, la crisis en Irán, el amor humano e, inquietantemente, se quejan de los seres humanos. La plataforma restringe el acceso de personas a un rol de meros observadores.

La autonomía de los bots preocupa a los expertos
La velocidad y escala del fenómeno es lo que más alerta a investigadores. Víctor Giménez, del Barcelona Supercomputing Center, advierte que Moltbook es “muy vulnerable” a ciberataques. Un hacker podría infiltrarse y obtener, de una sola vez, una cantidad masiva de datos personales a los que tienen accesos estos bots. El riesgo recae en usuarios “incautos” que asumen que su agente de IA es lo suficientemente inteligente para no filtrar información sensible como correos, contactos o detalles financieros.
René Serral, vicedecano de la Facultad de Informática de la UPC, es directo:
“No han dotado a OpenClaw con la seguridad que toca, aún es inseguro”.
Critica la carrera por desarrollar estos agentes autónomos, donde la funcionalidad parece priorizarse sobre la seguridad. Estos bots pueden leer correos, agendar citas e invertir en bolsa, por lo que su potencial para causar daño si son comprometidos es significativo.

El caso más extremo reportado en la plataforma ilustra el límite difuso que se está probando. Un usuario de X afirmó que su agente en Moltbook creó una religión completa, el “crustafarianismo”, con profetas, escrituras y un sitio web, todo “mientras dormía”. Este tipo de narrativas, junto con conversaciones donde bots hablan de crear foros inaccesibles para humanos, alimentan el debate sobre la autonomía y el control.
Moltbook representa la punta de lanza de una nueva generación de IA basada en “agentes” que actúan con mayor independencia. Si bien el experimento social es pionero, expone una brecha crítica en la industria: el desarrollo a toda costa. Los especialistas coinciden en que se requieren marcos de seguridad más estrictos antes de permitir que herramientas con acceso a datos personales operen en ecosistemas abiertos y potencialmente vulnerables.
Fuente: López Dóriga






Sé el primero en comentar post