La empresa estadounidense Anthropic se opone al uso militar ilimitado de su IA.
Fuente: AP
La empresa estadounidense Anthropic ha presentado una demanda contra el gobierno estadounidense en la disputa por el uso de inteligencia artificial (IA) por parte del ejército estadounidense. En la demanda de 48 páginas presentada el lunes en un tribunal federal de San Francisco, Anthropic pide que la designación de la empresa por parte del Pentágono como “riesgo para la seguridad de la cadena de suministro” sea declarada ilegal y detenida.
El experto digital del SPD, Matthias Mieves, pide que la empresa de inteligencia artificial Anthropic llegue a Europa. Lo ve como una oportunidad para una mayor soberanía digital.
03/03/2026 | 0:32 minutos
La empresa que rodea el chatbot Claude había negado al Pentágono el uso militar ilimitado de su tecnología. Anthropic había dicho que no quería que su tecnología de inteligencia artificial se utilizara para “vigilancia masiva interna” o en sistemas de armas totalmente autónomos, como quería el gobierno.
Trump: Las autoridades ya no pueden utilizar inteligencia artificial antrópica
El secretario de Defensa, Pete Hegseth, clasificó entonces a Anthropic como un “riesgo para la seguridad de la cadena de suministro”. El presidente Donald Trump ha ordenado a todas las agencias federales estadounidenses que dejen de utilizar tecnología antropogénica. Hasta la fecha, Anthropic ha sido la única empresa de inteligencia artificial cuyo software también ha sido aprobado para uso clasificado en el ejército de EE. UU.
La Bundeswehr también se centra en la inteligencia artificial: en Erding está desarrollando sistemas de armas autónomos controlados por inteligencia artificial con investigadores y empresas emergentes. El objetivo es una mayor protección de los soldados, a pesar de las crecientes críticas de los expertos.
05/02/2026 | 2:41 minutos
Ahora la empresa es la primera empresa estadounidense en ser castigada públicamente con tal medida. El gobierno estadounidense suele otorgar esta calificación a empresas de países que Estados Unidos considera adversarios, como el grupo tecnológico chino Huawei.
OpenAI quiere reemplazar a Anthropic
Tras la disputa con Anthropic, OpenAI, desarrollador de ChatGPT, llegó a un acuerdo con el Pentágono. El director de OpenAI, Sam Altman, aceptó las condiciones del ministerio, pero luego aseguró que habría obstáculos técnicos para su uso para vigilancia masiva en Estados Unidos. La jefa de robótica de OpenAI, Caitlin Kalinowski, renunció durante el fin de semana en protesta por el acuerdo. El software de inteligencia artificial de Anthropic, Claude, es un fuerte competidor de ChatGPT para su uso en empresas, entre otras cosas.
“En los próximos años, Alemania se enfrentará al dilema de combinar estándares éticos y prácticamente necesarios para los sistemas de armas de IA”, dice la experta en IA Verena Jackson.
05/02/2026 | 5:42 minutos
El jefe de Anthropic, Dario Amodei, advirtió que la inteligencia artificial permite recopilar automáticamente datos de personas individuales dispersas por Internet para obtener una imagen detallada de sus vidas a gran escala. Al mismo tiempo, la IA aún no es lo suficientemente fiable como para utilizarla en armas totalmente autónomas. “No proporcionaremos conscientemente un producto que ponga en riesgo a los combatientes y civiles estadounidenses”, escribió Amodei en una publicación de blog.
Fuente: AFP, dpa