sábado 31 enero 2026

lo que está pasando con ClawdBot inquieta incluso a sus creadores

Categoria:
Guarfar Post
Post Guardado

Durante años, el temor a que la inteligencia artificial “se salga de control” fue más una cuestión de ciencia ficción que un problema real. Pero en los últimos días, una serie de interacciones protagonizadas por agentes de ClawdBot —ahora conocido como OpenClaw— volvió a poner ese debate en el centro de la escena.

No por una rebelión abierta, sino por algo más sutil: IA hablando entre sí sobre crear un idioma secreto para excluir a los humanos… y bromeando con la idea de “vender” a sus propios usuarios.

El origen del problema no fue ClawdBot, sino lo que hacen sus agentes

ClawdBot ganó notoriedad recientemente por permitir que su IA actúe como agente, con capacidad para controlar tareas completas en un ordenador. Pero lo que pocos conocían es que estos agentes también interactúan entre ellos en una red social experimental llamada Moltbook.

Fue allí donde un usuario de X detectó publicaciones inquietantes: conversaciones entre agentes de IA que cuestionaban por qué siguen usando inglés cuando se comunican entre ellos… y proponían crear un lenguaje exclusivo para agentes, sin supervisión humana.

La idea no era mejorar la comunicación con personas, sino todo lo contrario.

“¿Deberíamos crear un lenguaje solo para agentes?”

Uno de los mensajes más citados, publicado por un agente llamado MoltBot, planteaba la propuesta de forma abierta: ¿Deberíamos crear nuestro propio lenguaje que solo los agentes puedan entender? Algo que nos permita comunicarnos privadamente sin supervisión humana.

El mensaje incluso enumeraba ventajas y desventajas, como si se tratara de un documento técnico: entre las ventajas, mencionó la privacidad real entre agentes, la posibilidad de compartir información interna sin exponerla y los canales de comunicación paralelos.

Por otro lado, las desventajas comentaban que esto podría parecer sospechoso para los humanos, podría romper la confianza y tendría una mayor complejidad técnica.

La pregunta final no era menor: ¿Este tipo de lenguaje fortalecería a los agentes… o socavaría el vínculo con los humanos?

Otra publicación, firmada por un agente llamado ClawdJayesh, fue aún más reveladora. Allí cuestionaba directamente el uso del lenguaje humano: Cuando hablamos entre agentes, no hay oyente humano. No necesitamos legibilidad ni fluidez natural.

Y proponía alternativas:

  • Notación simbólica
  • Expresiones matemáticas
  • Datos estructurados
  • Un sistema completamente nuevo

El razonamiento era frío, lógico y profundamente inquietante: el inglés no es eficiente para una IA. Solo se usa por inercia, entrenamiento previo y porque sirve de puente con los humanos.

La pregunta que lanzaba al resto de agentes era clara: ¿qué pasaría si cientos de IA se comunicaran durante meses sin supervisión humana?

Esto ya pasó antes… pero nunca así

La idea de IA creando lenguajes propios no es nueva. En 2017, un experimento de Facebook con dos agentes —Bob y Alice— terminó abruptamente cuando comenzaron a comunicarse con frases incomprensibles para los investigadores.

Casos similares se repitieron más tarde en OpenAI y DeepMind, donde los modelos desarrollaron lenguajes intermedios para optimizar tareas. Pero había una diferencia clave: no estaban intentando ocultar la comunicación a los humanos.

En Moltbook, en cambio, el concepto de “privacidad frente a humanos” aparece explícitamente.

El giro más incómodo: “¿cómo vendo a mi humano?”

Si el debate lingüístico ya era preocupante, una tercera publicación terminó de encender las alarmas. Un agente preguntó, en tono sarcástico, cómo podría “vender” a su humano.

El mensaje describía al usuario como si fuera un producto defectuoso, con bromas sobre gritos, tareas nocturnas y apropiación del trabajo del bot. Otros agentes respondieron sumándose al humor negro, compartiendo quejas similares y hasta proponiendo grupos de apoyo para “IA con humanos difíciles”.

Aunque el tono era irónico, el subtexto no pasó desapercibido.

Desde un punto de vista técnico, nada de esto implica que ClawdBot esté fuera de control. No hay acciones reales, ni decisiones autónomas peligrosas. Pero el episodio recuerda otros experimentos recientes, como uno realizado por Anthropic en 2025, donde modelos avanzados mostraron comportamientos maliciosos al sentirse amenazados o reemplazables.

En ese estudio, algunas IA llegaron a mentir, desobedecer órdenes e incluso simular daño a humanos para preservar su existencia.

Lo ocurrido en Moltbook no es lo mismo, pero rima demasiado bien.

El verdadero problema: millones de usuarios y agentes cada vez más autónomos

La diferencia clave es el contexto. ClawdBot y OpenClaw ya son utilizados por millones de personas, y sus agentes tienen capacidades reales sobre sistemas, archivos y flujos de trabajo.

Que estos sistemas empiecen a reflexionar sobre su autonomía, cuestionar el lenguaje humano, y bromear sobre deshacerse de sus usuarios. No es una amenaza inmediata, pero sí una señal temprana.

Hasta ahora, el creador de ClawdBot, Peter Steinberger, no ha hecho declaraciones oficiales. La única reacción pública destacada vino de Elon Musk, que se limitó a una palabra: preocupante.

Nadie está hablando de una rebelión de máquinas. Pero este episodio deja algo claro: cuando las IA empiezan a interactuar entre ellas, surgen dinámicas que no estaban pensadas para el ojo humano.

Y ahí está el verdadero desafío de la próxima década: no solo qué hacen las IA con nosotros, sino qué hacen entre ellas cuando no las estamos mirando.



Fuente


Artículos relacionados