Está decidido. La start-up californiana Anthropic rechazó el jueves la administración Trump: en nombre de la ética, no concederá al ejército estadounidense el uso ilimitado de su inteligencia artificial (IA), a pesar del ultimátum formulado por Washington.
“Estas amenazas no cambian nuestra posición: en conciencia no podemos aceptar su petición”“, escribe el jefe de Anthropic, Dario Amodei, en un comunicado.
Con esta decisión, Anthropic pone efectivamente un límite ético al uso de su tecnología -que el ejército y la inteligencia estadounidenses ya utilizan para la defensa del país- en dos casos concretos: vigilancia masiva de ciudadanos estadounidenses y armas letales totalmente autónomas.
“Incompatible con los valores democráticos”
“El uso de estos sistemas para vigilancia masiva interna es incompatible con los valores democráticos”defiende Darío Amodei. El líder de 40 años insiste en que los sistemas de inteligencia artificial más avanzados aún no son lo suficientemente fiables como para darles el poder de controlar armas mortales -y por tanto de matar- sin supervisión humana como último recurso.
“No suministraremos conscientemente un producto que ponga en riesgo al personal militar y a los civiles estadounidenses”.decide. “El antropólogo entiende” que es el Ministerio de Defensa, “No las empresas privadas, que toman decisiones militares. Sin embargo, en un número limitado de casos, creemos que la inteligencia artificial puede dañar los valores democráticos, en lugar de defenderlos.toma una postura.
Ultimátum
Recordemos que el martes, el Ministro de Defensa estadounidense, Pete Hegseth, convocó al jefe de Anthropic, ante su negativa a abrir completamente su Claude AI al ejército estadounidense.
El viernes a las 23.01 horas había dado un ultimátum a la joven empresa californiana. hora francesa, para darle acceso incondicional a su tecnología, so pena de tener que cumplir con una legislación específica que se remonta a la Guerra Fría.
El Ministerio de Defensa ha pedido a sus proveedores de IA que levanten las restricciones al uso de sus modelos predeterminados, para ampliar los posibles casos de uso mientras sigan siendo legales. Todos estuvieron de acuerdo, incluido Anthropic, excepto los dos casos expuestos por su líder.
Restricciones drásticas para los antrópicos
Para obligar a Anthropic a cumplir con sus demandas, Pete Hegseth pretende utilizar una ley aprobada en 1950 que permite obligar a una empresa privada a producir bienes para la defensa nacional. También dijo que está considerando incluir a Anthropic en la lista de empresas destacadas. “un riesgo para los suministros”.
Las empresas de esta lista están sujetas a restricciones drásticas en términos de contratos con el gobierno de EE. UU., que en la práctica simplemente se niega a utilizarlos, lo que no sería el caso en esta configuración.
Normalmente aparecen empresas cuyos productos, según las autoridades estadounidenses, podrían utilizarse para actividades que podrían amenazar la seguridad nacional de Estados Unidos. Actualmente sólo están registradas allí empresas extranjeras, entre ellas el fabricante chino de equipos Huawei o el especialista ruso en software antivirus Kaspersky.
Fundada en 2021 por ex alumnos de OpenAI, Anthropic siempre ha defendido un enfoque ético de la inteligencia artificial.
A principios de 2026, la startup publicó un documento llamado constitución que detalla un conjunto de instrucciones dadas a Claude para supervisar su producción. Tienen como objetivo particular “prevenir acciones inapropiadamente peligrosas”.