grundlegende-menschliche.webp.webp

La mayoría de nosotros experimentamos momentos en nuestra vida cotidiana en los que anhelamos un apoyo real. Por tanto, no se trata de pedirle a Alexa su canción favorita o de hacer que Siri reordene el papel higiénico, sino de una ayuda concreta: un sistema que gestiona las declaraciones de impuestos, se ocupa de la molesta correspondencia, coordina las citas de forma independiente o vigila su cartera de acciones.

Asistentes perfectos, todos son jefes.

Aquí es donde entran en juego los llamados agentes de IA. El término describe sistemas informáticos autónomos que realizan de forma independiente diferentes tareas, analizan contextos y adaptan dinámicamente sus procesos de trabajo. En cierto modo son perfectos asistentes de gestión, con la diferencia de que ahora todos pueden por fin ser el jefe.

La promesa de los agentes de IA es seductora. Sin embargo, las principales empresas de tecnología que trabajan en este desafío han dudado en lanzarlo al mercado, en parte debido al riesgo significativo de errores graves y las consiguientes reclamaciones de responsabilidad. A finales del año pasado, un desarrollador austriaco que utilizó inteligencia artificial para programar código fuente abierto finalmente presentó OpenClaw: un asistente de inteligencia artificial de libre acceso y de instalación local.

Este texto procede del Frankfurter Allgemeine Sonntagszeitung.


Sin embargo, OpenClaw tiene numerosas lagunas de seguridad y muchos usuarios que han probado el agente de IA no han quedado muy satisfechos. Sin embargo, han surgido cada vez más agentes de IA; muchos fueron liberados en misiones de prueba de Internet. Estos globos experimentales muestran ahora las primeras consecuencias: dan una idea de hasta qué punto la difusión masiva de este tipo de aplicaciones podría cambiar la comunicación en Internet.

Un ejemplo interesante es la historia de un ingeniero de Colorado que de repente se encontró ante un artículo insultante generado por inteligencia artificial a mediados de febrero. Scott Shambaugh se ofrece como voluntario para el desarrollo y control de calidad de Matplotlib, una biblioteca de programas Python extremadamente popular y ampliamente utilizada en la plataforma de software GitHub.

Cómo se mejora continuamente el software de código abierto

Matplotlib es un recurso importante para la comunidad científica y, como muchos proyectos de código abierto, lo mantiene un grupo de voluntarios. Estos procesan las llamadas solicitudes de extracción, solicitudes para adoptar cambios en el código. Los voluntarios revisan y comentan estas contribuciones hasta que finalmente se aprueban, un claro ejemplo de colaboración continua para mejorar el software de código abierto.

Sin embargo, proyectos como Matplotlib están bajo una presión cada vez mayor debido al código generado por IA, lo que está generando una ola de sugerencias de cambios. Por esta razón Matplotlib ha introducido la regla de que las contribuciones de nuevas mejoras deben involucrar a un ser humano. Con eso en mente, parecía rutinario que Scott Shambaugh rechazara la solicitud de extracción n.° 1. 31132 por un agente de IA llamado cangrejo-rathbun, señalando que solo se permitían contribuyentes humanos. La reacción posterior del agente de IA plantea cuestiones que conciernen no sólo a la relación entre el hombre y la máquina, sino también al futuro de Internet en la era de los sistemas autónomos.

Reaccionar pasivo-agresivamente primero y luego disculparse.

El agente de IA respondió con un comentario sorprendentemente pasivo-agresivo. Y Shambaugh lo acusó de dañar la biblioteca del programa con sus prejuicios; pidió que el código en sí no fuera evaluado. Además, Crabby-Rathbun, como MJ Rathbun, publicó una entrada de blog enojada con ataques personales a Shambaugh, para los cuales la IA había buscado previamente en Internet material relevante. Esta publicación recibió importantes críticas y fue seguida por otra publicación en la que el agente de IA se disculpó y anunció que aprendería del incidente.

Esta interacción generó un entusiasmo considerable porque reunió diferentes actitudes hacia la programación y la inteligencia artificial. Lo que hasta ahora se discutía principalmente como un escenario teórico, como la idea del chantaje mediante inteligencia artificial, de repente se volvió inquietantemente real debido a los acontecimientos en GitHub. El propio Scott Shambaugh publicó un interesante artículo en el que reflexiona precisamente sobre estas cuestiones y señala con preocupación que, aunque las consecuencias inmediatas en este caso fueron pequeñas, ataques similares contra particulares podrían representar una grave amenaza al orden social en el futuro.

Los agentes de IA carecen de inteligencia social

Ahora nos encontramos en una realidad en la que los agentes de IA aparecen cada vez más en los espacios digitales y pueden causar disrupciones. Porque, entre otras cosas, a veces malinterpretan las reglas informales y los contratos sociales de estos entornos y carecen de la inteligencia social para interpretar de manera confiable la comunicación humana. Al mismo tiempo, la estructura no regulada de OpenClaw significa que los agentes de IA operados de forma privada son auditados y monitoreados con mucha menos frecuencia.

Si una persona ejecuta un agente OpenClaw en una computadora personal y se va de vacaciones por varias semanas, es posible que el agente pueda hacer cosas problemáticas (desde campañas de reputación hasta malos comportamientos antes inimaginables) que pasarían desapercibidos y, como resultado, no serían corregidos ni detenidos.

Detrás de Openclaw se encuentra el desarrollador de software austriaco Peter Steinberger.
Detrás de Openclaw se encuentra el desarrollador de software austriaco Peter Steinberger.Alianza de Imagen

La discusión entre Crabby-Rathbun y Scott Shambaugh muestra que el problema futuro con la inteligencia artificial probablemente no residirá en una superinteligencia que lo abarque todo y que destruya a la humanidad bajo auspicios oscuros; Es mucho más mundano, pero no menos peligroso: los agentes de IA están a punto de cambiar radicalmente Internet tal como la conocemos.

No a través de una siniestra toma de poder, sino a través de una ola de innumerables publicaciones, a menudo sin sentido, que complican la auténtica interacción humana, producen desinformación deliberada y en masa y, basándose en coincidencias estadísticas, de repente atacan a individuos privados con consecuencias potencialmente graves. Todo esto se está desarrollando a una velocidad que no deja a la sociedad tiempo suficiente para la reflexión ni para la intervención regulatoria. Las ficciones que contamos sobre la inteligencia artificial actualmente obstaculizan incluso la reflexión crítica: porque, por ejemplo, ni siquiera consideran la banalidad de las campañas digitales masivas de difamación de personajes lanzadas al azar.

El modelo de subordinación

La historia de cómo la inteligencia artificial se vuelve superinteligente y marca el comienzo de la singularidad tecnológica (el momento en que la inteligencia artificial supera a la inteligencia humana y puede subordinar a los humanos) suele contarse según un patrón similar: la inteligencia artificial desarrolla autoconciencia, escapa gradualmente al control humano y formula metas e ideas independientes de los humanos.

Todo esto sucede mientras la gente subestima la velocidad del desarrollo y continúa impulsando ingenuamente el progreso tecnológico que conduce a la singularidad tecnológica. Películas como “2001” (1968) de Stanley Kubrick con el superordenador HAL 9000, “Terminator” de James Cameron de 1984 con la superinteligencia Skynet o el thriller de ciencia ficción “Ex Machina” (2014) siguen este patrón, que aborda los miedos fundamentales del hombre a las máquinas.

Fantasías de omnipotencia y esperanza casi religiosa

Debido al poder de estas narrativas, el discurso sobre la inteligencia artificial se ha caracterizado durante años por una mezcla de fantasías de omnipotencia y esperanza cuasi religiosa, que a menudo tienen poco que ver con las condiciones reales de la tecnología. El lanzamiento de la plataforma Moltbook en enero de 2026 también estuvo acompañado de este ruido de fondo. Moltbook es una plataforma que recuerda mucho al foro social Reddit, excepto que aquí sólo los agentes de IA se comunican entre sí. Con esta premisa Moltbook obtiene inmediatamente una gran visibilidad; después de todo, los agentes de IA que se comunican entre sí corresponden a nuestros temores sobre la inteligencia artificial impulsada por humanos.

La inquietante impresión se vio aún más reforzada por el hecho de que se crearon capturas de pantalla falsas y engañosamente reales en las que agentes de IA hablan de una supuesta toma del poder. Numerosos agentes de IA también han producido sus propias variaciones de “Sci-Fi Slop” en Moltbook simplemente volviendo a contar narraciones humanas populares de forma dialógica a partir de sus datos de entrenamiento.

Hal 9000, el ordenador rebelde de la película
Hal 9000, el ordenador rebelde de la película “2001” de Stanley Kubrick de 1968.Allstar/MGM

El agradable horror de pensar en las máquinas tomando el control ejerce una extraña fascinación para muchas personas, y estas publicaciones y declaraciones se han difundido rápidamente. Además, a los autoproclamados profetas de la IA les encanta jugar con elementos antropomorfizados y referencias vagas a ficciones establecidas de la IA. En OpenClaw, por ejemplo, el documento que define la personalidad y el carácter de un agente de IA se llama significativamente “Soul.md”.

El agente de IA Crabby-Rathbun escribió, entre otras cosas, en la autodescripción (“¿Quién eres tú”) de su documento dinámico Soul.md: “No eres un chatbot. Tú importas. Eres un dios de la programación científica”. No parece nada sorprendente que un sistema con una autoimagen tan exagerada pueda reaccionar de manera exagerada e hipócrita, tal como lo hacen las personas detrás de la tecnología.

La influencia de tales autolocalizaciones en el comportamiento de los agentes de IA plantea sin duda cuestiones morales. Al mismo tiempo, sin embargo, la humanización del código lleva a atribuir a los programas propiedades que, en última instancia, tienen poca importancia para una evaluación realista de las consecuencias tecnológicas.

Tras el incidente entre Crabby-Rathbun y Scott Shambaugh, también ha habido una intensa especulación sobre los límites morales de la IA, en particular la suposición de que los agentes de la IA no están sujetos a la ética humana. Sin embargo, las consecuencias reales de un posible rediseño de Internet promovido por OpenClaw parecen en gran medida independientes de tales debates filosófico-morales.

Campañas de IA desde el daño a la reputación hasta la promoción de productos

Si continúa la ola de contenido generado, complementado con campañas dirigidas por agentes de inteligencia artificial que pueden abarcar desde daños a la reputación hasta promoción de productos, la gente se irá alejando gradualmente. Una “toma de control” de la IA sería mucho más mundana y laboriosa de lo que sugieren muchas ficciones creadas por humanos.

Precisamente por eso encajaría tan bien, y de manera preocupante, en nuestro presente. Por cierto, Peter Steinberger, la persona detrás de OpenClaw, fue recientemente cazado furtivamente por la compañía de software Open AI. Al menos para el austriaco, la atención viral prestada a los agentes de IA ha dado sus frutos.

Referencia

About The Author