La aplicación inmediata de las sanciones del gobierno estadounidense contra la startup de inteligencia artificial (IA) Anthropic podría “obstaculizar” el funcionamiento del ejército en medio de la guerra en Medio Oriente, advirtió Microsoft en un documento judicial el martes.
El Departamento de Defensa colocó a Anthropic en la lista del Pentágono de empresas que representan un “riesgo para la seguridad del suministro nacional”, en represalia por la negativa de la empresa a levantar las restricciones al uso de su inteligencia artificial. Este registro obliga a todos los proveedores de servicios a deshacerse inmediatamente de Anthropic y de su asistente de IA generativa, Claude, como parte de sus servicios al ministerio.
“Esto podría potencialmente obstaculizar a los combatientes estadounidenses en un momento crítico”, dijo Microsoft en un comunicado apoyando la demanda de Anthropic contra el gobierno estadounidense. Los modelos de inteligencia artificial de Anthropic son, de momento, los únicos autorizados por el Pentágono para procesar información clasificada.
Según varios medios, fueron utilizados durante la preparación de la ofensiva estadounidense-israelí contra Irán. El lunes, Anthropic presentó una petición ante un tribunal federal de California para invalidar su inclusión en la lista de productos “en riesgo” y la cancelación de todos sus contratos con el gobierno estadounidense, decidida por Donald Trump.
Trump ya no quiere antropología
Anthropic es uno de los principales clientes de Microsoft, al que alquila capacidad informática en centros de datos para desarrollar y gestionar su inteligencia artificial. Como parte de una asociación comercial revelada en noviembre, Microsoft también se comprometió a invertir 5 mil millones de dólares en el capital de Anthropic.
Según varios medios estadounidenses, el presidente republicano está preparando un decreto para cortar todos los vínculos comerciales entre Anthropic y el Estado federal. Microsoft pide una suspensión temporal de las decisiones tomadas por la administración Trump contra Anthropic, para dar tiempo a ambas partes para negociar.
En su informe, el grupo de Redmond (estado de Washington) cree que “la inteligencia artificial no debería utilizarse para vigilancia masiva ni poner al país en una situación en la que las máquinas autónomas podrían iniciar una guerra de forma independiente”.
Esta posición se hace eco de la de Anthropic, que ha provocado la ira del gobierno estadounidense por negarse a permitir que sus modelos se utilicen para recopilar datos masivos sobre la población estadounidense o para automatizar ataques mortales.