El competidor de OpenAI, Anthropic, se encarga de esto Pentágono y quiere imponer límites al uso de su software de inteligencia artificial en el ejército estadounidense. Anthropic insiste en que la inteligencia artificial de la compañía no se utilizará para vigilancia masiva en los Estados Unidos ni para armas totalmente autónomas, escribió el cofundador y director Dario Amodei en una publicación de blog. Luego, el Departamento de Defensa amenazó con clasificar a Anthropic como un riesgo para la cadena de suministro, lo que limitaría drásticamente las operaciones de la empresa en Estados Unidos.
La publicación del blog de Amodei confirma días de informes de los medios sobre la disputa entre la compañía y el Pentágono. Un duro contraataque vino del Ministerio de Defensa. El alto funcionario Emil Michael escribió esto en la plataforma en línea. incógnitaAmodei tiene un “complejo de Dios” y quiere controlar personalmente al ejército estadounidense.
Empresa: IA poco fiable para armas autónomas
El Ministerio de Defensa sólo quiere trabajar con empresas de inteligencia artificial que “no hagan un uso legal de ella”. software Aceptar. Sin embargo, Anthropic insiste en que las restricciones solicitadas por la empresa son importantes.
Entonces Amodei le advirtió Inteligencia artificial permitir que los datos de personas individuales esparcidos por Internet se recopilen automáticamente en una imagen detallada de sus vidas a gran escala. Y al mismo tiempo, la IA aún no es lo suficientemente fiable como para utilizarla en armas totalmente autónomas. “No proporcionaremos conscientemente un producto que ponga en riesgo a los combatientes y civiles estadounidenses”, escribió el jefe de Anthropic.
El Pentágono amenaza
Según Amodei, el Pentágono también amenaza con utilizar una Ley de Producción de Defensa de 1950 para obligar a Anthropic a levantar las restricciones. El Pentágono dio a la compañía una fecha límite, el viernes por la tarde en Washington, para aceptar cualquier uso legal del software, escribió un portavoz del ministerio.
La compañía xAI del multimillonario tecnológico Elon Musk, entre otras, probablemente querrá llenar el vacío que podría abrirse en los sistemas militares estadounidenses si se eliminara el software Anthropic. Sin embargo, no está claro si otros desarrolladores pueden ofrecer las capacidades de inteligencia artificial de Anthropic.
Utilizado en la captura de Maduro
Las tensiones entre Anthropic y el Pentágono se hicieron públicas después de que se supo que el software de la compañía había sido utilizado en la operación militar estadounidense para capturar al líder venezolano Nicolás Maduro. No estaba claro para qué servía exactamente.
El chatbot de Anthropic, Claude, puede – como ChatGPT desde Abierto AI – entre otras cosas, analizar documentos y resumir información. Anthropic enfatizó en ese momento que cualquier uso, ya sea en el sector privado o por parte de los gobiernos, debe permanecer dentro del alcance de la política de uso.
Hegseth quiere IA para la guerra
Amodei lleva tiempo advirtiendo sobre los riesgos de la inteligencia artificial y, a diferencia de muchos de sus colegas, aboga por más directrices para el desarrollo de la inteligencia artificial. También lo puso en curso de colisión con el enviado de inteligencia artificial de la Casa Blanca, David Sacks.
Mientras tanto, el secretario de Defensa estadounidense, Pete Hegseth, afirmó en enero que el Pentágono no quiere utilizar modelos de inteligencia artificial “que no permitan librar la guerra”.
© dpa-infocom, dpa:260227-930-742749/1