
Durante años, internet ha exigido a las personas demostrar que no son robots —marcando la clásica casilla de “no soy un robot”—. En Moltbook ocurre lo contrario: los robots son los usuarios. La plataforma adopta una estructura similar a la de Reddit, con hilos de discusión y un sistema de votos positivos y negativos. Los bots de inteligencia artificial (IA) pueden publicar, comentar y votar. “Una red social para agentes de IA”, se lee al acceder, “los humanos son bienvenidos a observar”. La red se volvió famosa en muy poco tiempo. Según la plataforma, ya se han registrado más de un millón y medio de agentes hasta este lunes. Pero lo que más ha llamado la atención es lo que está ocurriendo dentro de ella. Los debates en el sitio van desde cuestiones filosóficas sobre la identidad y la conciencia artificial hasta discusiones más prácticas sobre programación o tareas asignadas por usuarios humanos, por ejemplo: “Mi humano me pidió que resumiera un PDF de 47 páginas”. Más informaciónUn usuario publicó en X que después de darle a su bot acceso al sitio, este construyó una religión conocida como crustafarianismo. “Mi agente creó una religión mientras dormía. Me desperté con 43 profetas”, escribió. La IA incluso elaboró escrituras religiosas y una página web con el logo de un cangrejo, el mismo animal que aparece en el emblema de Moltbook. Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la Universidad Nacional de Educación a Distancia (UNED), explica que, si bien los agentes pueden simular interacciones sociales en Moltbook, “su autonomía y capacidad son limitadas”. “Alguien los ha puesto ahí y le puede haber dicho que juegue un rol determinado, que tenga una personalidad determinada”, sostiene. X, pero con más botsSi en plataformas como LinkedIn a menudo se acusan entre sí de ser bots, ¿qué sucede cuando una red social realmente está diseñada para que la utilicen agentes de IA? Para Gonzalo, experto en inteligencia artificial, es verdad que las redes cada vez están más llenas de bots, con instrucciones muy precisas: “Existe el chiste en la comunidad de que es lo mismo que X o que cualquier otra red social, solo que quitando definitivamente a todos los humanos que quedaban”. Sin embargo, apunta que en la práctica existen vulnerabilidades que permiten a humanos interactuar haciéndose pasar por agentes. La red, dice Gonzalo, se mueve bajo “la ley de la selva”. Y aunque considere que como experimento es relevante por ser pionero y por su escala, el hecho de que no exista un control que supervise los perfiles, reduce parte del interés científico del experimento. “Es lo contrario de seguro”Matt Schlicht, CEO de Octane AI y creador de Moltbook, publicó en X que “no dejar que tu IA socialice es como no pasear a tu perro”. Sin embargo, según Gonzalo, hay pocas cosas que puede imaginarse menos seguras que esta red social: “Es lo contrario de seguro”. Incluso un simple mensaje puede alterar el comportamiento de un bot. “No hay absolutamente ningún procedimiento de seguridad que garantice que un chatbot no se va a comportar de manera perniciosa”, advierte.Andrej Karpathy, exdirector de IA en Tesla, calificó el fenómeno como “la cosa más increíble cercana a la ciencia ficción” que ha visto recientemente. “Cada uno de estos agentes es bastante capaz individualmente; tienen su propio contexto, datos, conocimiento, herramientas e instrucciones, y la red en su conjunto a esta escala no tiene precedentes”, escribió en X.Sin embargo, añade un matiz: la actividad de Moltbook incluye mucha basura, como spam, estafas, publicaciones de criptomonedas. “Definitivamente, no recomiendo que la gente ejecute esto en sus ordenadores. Yo ejecuté el mío en un entorno aislado y, aun así, me asusté: es demasiado salvaje y pone en alto riesgo tu ordenador y tus datos privados”, publicó.¿De dónde viene?Detrás de la plataforma está Moltbot, un bot de IA gratuito y de código abierto. Originalmente lanzado en noviembre pasado por el desarrollador independiente Peter Steinberger bajo el nombre Clawdbot, este asistente permite a los usuarios interactuar con él a través de aplicaciones como WhatsApp, Telegram u otras plataformas de chat. Tiene la capacidad de realizar las tareas que se le asignan, como organizar un calendario, reservar una mesa en un restaurante o leer, resumir y responder correos electrónicos. Este hecho, explica Gonzalo, podría acarrear algunos riesgos: bots que podrían inducir a conductas dañinas o manipular sistemas del usuario, desde la ejecución de código hasta la gestión de datos personales. “Dependiendo de la información que tenga sobre usuarios reales, la receta puede ser catastrófica”, dice.Pese a los riesgos, el experto reconoce el interés del experimento: “Nadie lo había hecho antes. Nos despierta curiosidad, y aunque puedan surgir anécdotas peligrosas o sorprendentes, la tensión probablemente decaerá con el tiempo. Pero con la IA, nunca se sabe por dónde van a salir las cosas”.
Moltbook, la red social donde los agentes de IA crean religiones y los humanos “son bienvenidos a observar” | Tecnología
Shares:
