1772158446_wide__1300x731.webp

La empresa de inteligencia artificial Anthropic quiere resistir las demandas del Departamento de Defensa de EE. UU. en una disputa sobre las precauciones de seguridad para la inteligencia artificial (IA). Lo dijo el jefe de Anthropic, Dario Amodei. Secretario de Defensa de los Estados Unidos Pete Hegseth pide a Anthropic que elimine todas las salvaguardias cuando utilice tecnología de inteligencia artificial con fines militares. Esto significa que la tecnología podría usarse para apuntar o vigilar armas autónomas en los Estados Unidos.

En esencia, el plan del Ministerio de Defensa consiste en utilizar modelos de inteligencia artificial en redes secretas sin estar sujetos a las restricciones habituales por parte de los fabricantes. El gobierno estadounidense quiere cada vez más utilizar modelos de inteligencia artificial en todos los niveles de secreto para acelerar las decisiones militares.

Según Amodei, el Departamento de Defensa sólo quiere contratar empresas de IA que acepten “cualquier uso justo” y eliminen las garantías. El ministerio amenazó con eliminar Anthropic de sus sistemas si la empresa mantenía sus medidas de protección. También amenazó con clasificar a la empresa como un “riesgo de la cadena de suministro” y utilizar la Ley de Producción de Defensa para forzar la eliminación de salvaguardias.

“No podemos aceptar la solicitud con buena conciencia”

“Estas amenazas no cambian nuestra posición. No podemos cumplir con la petición con la conciencia tranquila”, afirmó Amodei. Es prerrogativa del ministerio seleccionar a los contratistas que más se alineen con su visión. “Pero dado el importante valor que la tecnología Anthropic aporta a nuestro ejército, esperamos que reconsideren su decisión”, dijo Amodei. Si el Departamento decide poner fin a su asociación con Anthropic, Anthropic permitirá una transición sin problemas a otro proveedor.

Un portavoz de la compañía dijo que Anthropic sigue comprometido a continuar las conversaciones con el Departamento de Defensa y está comprometido a garantizar la “continuidad operativa para el departamento y las fuerzas de combate de Estados Unidos”.

Amodei ya había expresado varias veces preocupaciones éticas, por ejemplo con respecto al uso de drones autónomos o controlados por inteligencia artificial. vigilancia. La compañía está desarrollando el chatbot de IA Claude, pero aún no ha puesto su tecnología a disposición de la red militar interna GenAI.mil.

Anthropic es actualmente una excepción: competidores como Alphabet (Google), xAI y OpenAI ya han firmado acuerdos con el gobierno y han levantado parcialmente las restricciones habituales al uso de la red militar. Sin embargo, los expertos advierten de riesgos porque, entre otras cosas, los modelos de inteligencia artificial tienden a “alucinar” la información.

Referencia

About The Author