ca9b8f9_ftp-1-aqom4zbfhgnb-052dc3c896e84b529005d034818beefc-0-0897b1d63d9047d29630e324071eaed6.jpg

El martes 24 de febrero, el secretario de Defensa de Estados Unidos, Pete Hegseth, lanzó un ultimátum a la startup de inteligencia artificial (IA) Anthropic para que levantara todas las restricciones al uso de su inteligencia artificial por parte del Pentágono.

La joven compañía californiana tiene hasta el viernes a las 23.01 horas. (hora de París) para cumplir, de lo contrario el ministro pretende aprovechar una ley aprobada en 1950 que permite obligar a una empresa privada a producir bienes para la defensa nacional, dijo un funcionario a la Agence France-Presse (AFP). El Sr. Hegseth también tiene la intención, en caso de negativa, de incluir a Anthropic en la lista de empresas que presentarán “un riesgo para los suministros”.

Las empresas de esta lista están sujetas a restricciones drásticas en términos de contratos con el gobierno de EE. UU., que en la práctica simplemente se niega a utilizarlos, lo que no sería el caso en esta configuración.

Leer también | Artículo reservado para nuestros suscriptores. Antrópico, en el epicentro de la revolución de la IA

La lista generalmente se aplica a empresas cuyos productos las autoridades estadounidenses temen que puedan usarse en actividades que podrían amenazar la seguridad nacional de Estados Unidos. Actualmente sólo aparecen allí empresas extranjeras, entre ellas el fabricante chino de equipos Huawei o el especialista ruso en software antivirus Kaspersky.

Un punto muerto sobre la ética de la IA

El ultimátum llega después de la reunión del martes entre Pete Hegseth y el jefe de Anthropic, Dario Amodei. El ministerio ha pedido a sus proveedores de IA que levanten las restricciones sobre el uso de sus modelos predeterminados, para ampliar los posibles casos de uso siempre que sigan siendo legales.

Todos estuvieron de acuerdo, incluida Anthropic, pero la joven empresa californiana quiso impedir el uso de su modelo Claude AI en dos casos: la vigilancia masiva de poblaciones y la automatización de un ataque mortal.

“Continuamos nuestras discusiones de buena fe sobre los usos (de IA) »dijo a la AFP un portavoz de Anthropic. El objetivo, según él, es“garantizar que Anthropic pueda continuar apoyando la misión de seguridad nacional del gobierno de acuerdo con lo que nuestros modelos pueden lograr de manera responsable y confiable”.

Fundada en 2021 por ex alumnos de OpenAI, Anthropic siempre ha defendido un enfoque ético de la inteligencia artificial. A principios de 2026, la startup publicó un documento llamado “constitución” que detalla un conjunto de instrucciones dadas a Claude para supervisar su producción. Tienen como objetivo particular “prevenir acciones inapropiadamente peligrosas”.

Leer también | Artículo reservado para nuestros suscriptores. Anthropic, esta start-up de inteligencia artificial que se atreve a contradecir a Donald Trump

El mundo con AFP

Referencia

About The Author