Polémica por el uso de inteligencia artificial para el ejército estadounidense: Trump prohíbe Anthropic a las autoridades federales
En la disputa sobre el uso de inteligencia artificial (IA) por parte del ejército estadounidense, el presidente Donald Trump está poniendo fin a la colaboración de su gobierno con la empresa de inteligencia artificial Anthropic. El viernes ordenó a todas las autoridades federales suspender el uso de Anthropic, con efecto inmediato. La empresa que rodea el chatbot Claude había negado al Pentágono el uso militar ilimitado de su tecnología. El secretario de Defensa estadounidense, Pete Hegseth, acusó a Anthropic de “arrogancia y traición”.
Anthropic ha dicho que no quiere que su tecnología de inteligencia artificial se utilice para “vigilancia masiva nacional” o en sistemas de armas totalmente autónomos, como quería la administración Trump. Trump respondió con una rabieta: “¡Los Estados Unidos de América nunca permitirán que una sociedad de izquierda radical y despierta dicte cómo nuestros grandes militares luchan y ganan guerras!” “, escribió el presidente en mayúsculas. Anthropic cometió un “error catastrófico”.
El “secretario de Guerra” estadounidense, Hegseth, como se autodenomina desde septiembre, había dado a Anthropic un plazo hasta el viernes para aceptar el uso militar sin restricciones de sus servicios de inteligencia artificial. La empresa, sin embargo, se negó: “No podemos, en conciencia, satisfacer su petición”, dijo el jueves (hora local) el director general de Anthropic, Dario Amodei.
El Pentágono ha amenazado a la empresa con medidas coercitivas en virtud de la Ley de la Guerra Fría. “Estas amenazas no cambian nuestra posición”, afirmó Amodei, director ejecutivo de Anthropic, y añadió: “No proporcionaremos conscientemente un producto que ponga en riesgo a los soldados y civiles estadounidenses”.
Hegseth dijo que había ordenado al Pentágono que clasificara a Anthropic como un “riesgo para la seguridad de la cadena de suministro”. Con efecto inmediato, “ningún contratista, proveedor o socio que haga negocios con el ejército de los EE. UU.” podrá tener vínculos comerciales con Anthropic. “Anthropic ha creado una obra maestra de arrogancia y traición, proporcionando un ejemplo de libro de texto de cómo no hacer negocios con el gobierno de Estados Unidos o el Pentágono”, escribió Hegseth en el servicio en línea X.
Anthropic fue fundada en 2021 por ex empleados de la empresa de inteligencia artificial OpenAI. Mientras que OpenAI es conocido por el público en general gracias a su chatbot ChatGPT, el chatbot Claude de Anthropic está dirigido más a programadores y empresas que, entre otras cosas, se preocupan por la seguridad de los datos.
Cientos de empleados de la industria de la IA expresaron su solidaridad con Anthropic. En una carta abierta, los empleados de OpenAI y Google Deepmind pidieron a sus empleadores que se opongan a los llamamientos del Pentágono para el uso militar de la inteligencia artificial.
El director ejecutivo de OpenAI, Sam Altman, dijo a los empleados el jueves que está buscando un acuerdo con el Departamento de Defensa que contenga líneas rojas similares a las de Anthropic. “Durante mucho tiempo hemos creído que la inteligencia artificial no debería usarse para vigilancia masiva o armas letales autónomas”, escribió Altman en una nota interna, según medios estadounidenses.
afp