“GPT-5.5 es uno de los modelos de mejor rendimiento que hemos probado en nuestros esfuerzos de ciberseguridad”. Una agencia del gobierno británico reveló el jueves resultados que muestran que el nuevo modelo de inteligencia artificial centrado en la ciberseguridad desarrollado por OpenAI coincide con Mythos, la tecnología que Claude presentó como poderosa en esta área.
El AI Security Institute (AISI), una organización de investigación dentro del Departamento de Ciencia, Innovación y Tecnología del Reino Unido, dijo en el estudio que GPT 5.5 podía llevar a cabo ciberataques complejos de forma autónoma y que resolvió un problema de ingeniería inversa en poco más de 10 minutos y a un costo de 1,73 dólares, lo que le llevó a un experto en seguridad humana aproximadamente 12 horas.
El nuevo modelo desarrollado por la empresa californiana también tuvo éxito dos de cada diez (frente a tres de cada diez de Mythos) en una simulación de ataque a la red corporativa de 32 fases denominada “The Last Ones”, la más difícil desarrollada por la agencia británica. En general, en una variedad de tareas avanzadas de ciberseguridad, GPT-5.5 logró una tasa de éxito promedio del 71,4 %, superando a Mythos con un 68,6 %.
Según AISI, estos hallazgos sugieren que el auge de los modelos de ciberseguridad es una tendencia general en la inteligencia artificial de vanguardia y no un avance específico de un solo modelo.
Estrategias similares
Sam Altman, director ejecutivo de OpenAI, dijo el jueves que GPT 5.5 no estará disponible para el público en general, sino que primero se distribuirá a un grupo de instituciones confiables, para que puedan fortalecer sus defensas cibernéticas. “Trabajaremos con todo el ecosistema y el gobierno para definir un acceso seguro para Cyber”, dijo en X.
Por lo tanto, OpenAI modela su estrategia a partir de la de Anthropic, que lanzó Mythos a principios de abril con un grupo limitado de socios estadounidenses -entre ellos Amazon, Microsoft y Apple- para poder probar las capacidades de este modelo y corregir los fallos de ciberseguridad descubiertos antes de su lanzamiento. Luego se reportaron varios problemas de seguridad interna.
El Departamento de Defensa de Estados Unidos anunció el viernes acuerdos con siete empresas tecnológicas que abren el acceso a sus modelos de inteligencia artificial para operaciones clasificadas, incluso en el campo de batalla. OpenAI es uno de ellos pero no Anthropic, que está en disputa con el gobierno estadounidense tras rechazar algunos usos militares de su tecnología.
El Pentágono ya había informado de acuerdos en este sentido con OpenAI y Google tras la ruptura con Anthropic. Los modelos de IA de las siete empresas seleccionadas se implementarán para operaciones de Nivel 6 y 7, los más altos dentro del Pentágono en la escala de confidencialidad.