1775905279-goldman-sachs.jpg

En los últimos días, el secretario del Tesoro estadounidense, Scott Bessent, convocó una reunión de emergencia con los jefes de los bancos más grandes del país para anunciar que sus sistemas informáticos estaban en riesgo. Es un descubrimiento que se hizo gracias a Claude Mythos, el nuevo modelo de software de inteligencia artificial de Anthropic, una de las empresas del sector más importantes del mundo (y con la que el gobierno estadounidense tiene un litigio abierto).

Después de crearlo, Anthropic se dio cuenta de que este nuevo modelo es tan poderoso y efectivo que puede identificar miles de vulnerabilidades de seguridad en sistemas comúnmente utilizados en empresas, incluidas las financieras. Es por ello que decidió no hacer público el modelo, dado que también podría usarse para acceder a los sistemas de los bancos y empresas financieras más grandes del mundo.

El mito es un modelo definido de propósito generales decir, entrenado para realizar una amplia variedad de tareas, incluso algunas para las que, para empezar, no había sido programado explícitamente. Mythos descubrió fallas en sistemas que habían existido durante décadas y que nadie había descubierto nunca. Anthropic compartió Mythos con un pequeño grupo de empresas, entre ellas Cisco, que también se ocupa de sistemas de seguridad informática, Broadcom, Linux Foundation, Amazon, Apple y Microsoft.

Varios medios de comunicación estadounidenses e internacionales escribieron sobre esta historia, y tras su revelación, el valor bursátil de las empresas activas en el campo de la ciberseguridad cayó, ahora expuestas a demandas y quejas por nunca haber identificado estas fallas. Anthropic dijo que estaba trabajando con especialistas en ciberseguridad para resolver el problema y proteger el sistema financiero, utilizando así la información de Mythos con fines defensivos.

La gravedad de la situación se desprende de la reunión de emergencia convocada por Bessent, quien no confirmó el relato de Mythos ni la reunión en sí. Segundo Bloomberg Estuvieron presentes los altos ejecutivos de los bancos estadounidenses, personas que no se preocupan por asuntos triviales y que ya estaban en Washington para otra reunión: David Solomon, director general de Goldman Sachs, Brian Moynihan del Bank of America, Jane Fraser de Citigroup, Ted Pick de Morgan Stanley y Charlie Scharf de Wells Fargo.

El director ejecutivo de JP Morgan, Jamie Dimon, también estuvo invitado, pero no pudo asistir. Por otra parte, en una carta a los accionistas publicada esta semana, Dimon advirtió que la ciberseguridad sigue siendo una vulnerabilidad importante para los bancos y que “la inteligencia artificial casi con certeza exacerbará este riesgo”.

A la reunión también asistió Jerome Powell, presidente de la Reserva Federal, el banco central de Estados Unidos que tiene la mayor responsabilidad en la estabilidad financiera del país. Su presencia indica que el tema tiene importancia sistémica, como se dice en la jerga económica, es decir, es capaz de poner en peligro la economía en su conjunto. Otros bancos centrales también están tomando medidas: el Banco Central de Canadá reunió el viernes a los principales bancos de Canadá para discutirlo, al igual que el Banco de Inglaterra.

Mythos destaca cómo los reguladores tienen sistemas que van por detrás de los últimos modelos de inteligencia artificial y cómo no tienen una comprensión completa del fenómeno. Sin embargo, algo ha cambiado en los últimos años: por ejemplo, los bancos están cada vez más obligados a mantener ciertas reservas para cubrir el riesgo de ciberataques, que ahora se consideran un accidente trivial como un error de un empleado o un proceso judicial. Los bancos no han acogido con agrado esta imposición, porque para ellos mantener capital es caro y no rentable.

Anthropic ha dicho que está en contacto con el gobierno estadounidense con respecto a este tema de ciberseguridad, a pesar de que las relaciones entre ellos son actualmente pésimas.

Anthropic fue la primera empresa de inteligencia artificial en firmar contratos por valor de cientos de millones de dólares con el Departamento de Defensa, pero más tarde el gobierno quiso utilizar el software de la empresa con fines militares. Anthropic se había declarado en contra de determinados usos, por ejemplo para la vigilancia masiva o en determinadas operaciones de guerra.

A finales de febrero, la administración Donald Trump ordenó a todas las agencias del gobierno federal que dejaran de utilizar sus productos y declaró que Anthropic representaba un riesgo para la seguridad nacional: la redacción formal en estos casos es “riesgo de la cadena de suministro”, una definición que puede crear muchos problemas para una empresa y su actividad. Anthropic demandó al gobierno por esta decisión y hasta ahora ha habido un fallo a favor de Anthropic y otro en contra.

– Lea también: El problema entre el Pentágono y las empresas de IA, desde el principio

Referencia

About The Author