Sam-Altman-CEO-von-OpenAI-spricht-auf-dem-AI-Summit-in-Neu-Delhi-Indien.jpg

Se intensifica la disputa con AnthropicEl jefe de OpenAI anuncia un acuerdo de IA con el Pentágono

El responsable de OpenAI Sam Altman asegura que ha tomado medidas de seguridad con el Pentágono. (Foto: Picture Alliance/dpa/AP)

La empresa de inteligencia artificial Anthropic no quiere que el Pentágono utilice su software para vigilancia masiva. Esto lleva a discusiones e insultos violentos por parte de la Casa Blanca. Ahora el Departamento de Defensa de Estados Unidos parece estar cerrando un trato con su rival antropogénico OpenAI.

En la disputa entre el Pentágono y la empresa de inteligencia artificial Anthropic sobre el uso de software de inteligencia artificial (IA) en el ejército estadounidense, su rival OpenAI parece haber ganado el contrato. En un comunicado en Platform, los detalles inicialmente no estaban claros. El anuncio se produce pocas horas después de que el Pentágono clasificara a Anthropic como un riesgo para la seguridad nacional debido a inconsistencias en el uso de inteligencia artificial.

El operador de ChatGPT OpenAI y la empresa Anthropic están compitiendo para dar la bienvenida a su software impulsado por IA a empresas y autoridades. Ahora OpenAI parece estar cerrando la brecha. “Esta noche llegamos a un acuerdo con el Departamento de Guerra para desplegar nuestros modelos en su red clasificada”, escribió Altman en X. El jefe del Pentágono, Pete Hegseth, volvió a publicar la declaración, al igual que el alto funcionario Emil Michael.

Altman explicó además que dos de los principios de seguridad clave de OpenAI son la prohibición de la vigilancia masiva nacional y la responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomos. “El Departamento de Guerra está de acuerdo con estos principios, los consagra en leyes y políticas y los hemos incorporado a nuestro acuerdo”.

El competidor Anthropic también insistió en estos dos puntos. Según su jefe, Dario Amodei, la empresa quería imponer límites al uso de su software de inteligencia artificial en el ejército estadounidense para que la inteligencia artificial de la empresa no se utilizara para vigilancia masiva en Estados Unidos o en armas totalmente autónomas.

Disputa con lo antrópico

La controversia se intensificó el viernes: Hegseth ordenó que Anthropic fuera clasificado como un “riesgo para la seguridad nacional en la cadena de suministro”. Con efecto inmediato, los contratistas, proveedores o socios militares de EE. UU. ya no podrán hacer negocios con la empresa, escribió Hegseth en

La medida está vinculada a la orden del presidente Donald Trump de que todas las agencias federales deberían dejar de utilizar tecnología antropogénica. El Departamento de Defensa quiere trabajar sólo con empresas de inteligencia artificial que acepten “cualquier uso legal” de su software. Sin embargo, Anthropic había insistido en que las restricciones solicitadas por la empresa eran importantes.

Anthropic ha anunciado que se defenderá ante los tribunales de la medida ordenada por Hegseth. “Ninguna intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia interna masiva o las armas totalmente autónomas”, dijo la compañía.

Anthropic fue fundada en 2021 por ex empleados de OpenAI. Mientras que OpenAI es conocido por el público en general gracias a su chatbot ChatGPT, el chatbot Claude de Anthropic está dirigido más a programadores y empresas que, entre otras cosas, se preocupan por la seguridad de los datos.

“La inteligencia artificial aún no es lo suficientemente fiable”

El jefe de Anthropic, Amodei, advirtió en una publicación de blog que la inteligencia artificial permite recopilar automáticamente datos de personas individuales dispersas por Internet para obtener una imagen detallada de sus vidas a gran escala. Al mismo tiempo, la IA aún no es lo suficientemente fiable como para utilizarla en armas totalmente autónomas. “No proporcionaremos conscientemente un producto que ponga en riesgo a los combatientes y civiles estadounidenses”, dijo Amodei.

Las tensiones entre Anthropic y el Pentágono se hicieron públicas después de que se supo que el software de la compañía había sido utilizado en la operación militar estadounidense para capturar al líder venezolano Nicolás Maduro. No estaba claro para qué servía exactamente.

En su declaración se expresó el deseo de reducir la tensión.

También explicó que OpenAI desarrollará salvaguardas técnicas para garantizar que los modelos se comporten como se espera, lo que también está en línea con los deseos del ministerio. Altman también enfatizó que en todas las interacciones, el Pentágono ha demostrado un profundo respeto por la seguridad y el deseo de trabajar juntos para lograr el mejor resultado posible.

Fuente: ntv.de, mwa/AFP/dpa

Referencia

About The Author