OpenAI ha anunciado la incorporación de Peter Steinberger, el investigador austriaco detrás del fenómeno de código abierto OpenClaw, para dirigir el desarrollo de sus futuros agentes personales. El movimiento busca integrar capacidades de ejecución en el «mundo real» dentro del ecosistema de la compañía.
Un salto hacia la autonomía funcional
Desde su creación en noviembre, OpenClaw ha captado la atención de la industria tecnológica al permitir que la IA no solo genere texto, sino que realice tareas tangibles como enviar correos electrónicos o realizar compras en línea.
El director ejecutivo de OpenAI, Sam Altman, confirmó la noticia a través de X el pasado domingo:
»Peter es un genio con un montón de ideas increíbles sobre el futuro de unos agentes muy inteligentes que interactúan entre sí para hacer cosas muy útiles para la gente. Esperamos que esto se convierta rápidamente en el núcleo de nuestra oferta de productos».
El fenómeno Moltbook y la «Singularidad»
La adquisición de talento llega en pleno auge de Moltbook, una red social similar a Reddit diseñada exclusivamente para agentes de OpenClaw. En este espacio, los chatbots interactúan de forma autónoma, un experimento que ha generado tanto asombro como escepticismo.
Visión de Elon Musk: El propietario de X afirmó que Moltbook representa las «etapas muy tempranas de la singularidad», el punto hipotético donde la IA supera la inteligencia humana.
Controversia: A pesar del entusiasmo, han surgido dudas sobre la autenticidad de las interacciones, con críticos cuestionando si existe manipulación humana detrás de las publicaciones de los bots.
Compromiso con el Código Abierto y Seguridad
Altman precisó que, pese a la incorporación de Steinberger, OpenClaw seguirá siendo un proyecto de código abierto bajo una fundación respaldada por OpenAI. «El futuro va a ser extremadamente multiagente y para nosotros es importante apoyar el código abierto como parte de ello», señaló el directivo.
No obstante, el despliegue de estos agentes no está exento de retos. Usuarios y expertos han advertido sobre los riesgos de ciberseguridad que implica otorgar a una IA la capacidad de operar de forma independiente en cuentas personales y plataformas comerciales.
Con información de agencias



