Prueba de nuevo con Sam, el título de una de las obras maestras de Woody Allen, que sin embargo menciono aquí para hablar de otro Sam, el CEO de OpenAI, que en términos de comunicación es peor que mi peluquero. Porque durante el último año ha desarrollado un talento especial: siempre decir lo correcto en el momento equivocado, o lo incorrecto en el momento correcto, o lo incorrecto en el momento incorrecto, ni siquiera por error, lo correcto en el momento correcto.
Antes de llegar al último error de ayer con los plátanos (ni siquiera el Nano Banana de Google porque el propio Sam Altman se pone plátanos delante de los pies antes de caminar), hagamos un resumen del año pasado, comenzando con el anuncio de GPT-5.2. “Me tiemblan las manos, será como la bomba atómica, no sé si dejarla pasar”, y la suelta después de una semana, y lo bueno es que más que una bomba atómica, es un petardo. Una mejora, sin duda, pero nada sorprendente y de hecho, muchos usuarios han solicitado la restauración de la versión anterior.
Pasan los meses, todo el mundo ha olvidado el anuncio atómico de Sam y Google presenta el Gemini Pro 3, de hecho, incluso sin grandes alardes, casi como si nada hubiera pasado, aunque el modelo era mucho más avanzado que el anterior y fue elogiado espontáneamente por todos los benchmarks y comentaristas que se ocupan de la tecnología (incluso demasiados).
Sam entra en pánico y ¿qué hace? Un anuncio. En efecto, primero entrevistas, declaraciones, alarmas sobre la velocidad de la carrera por la inteligencia artificial, escenarios de Skynet y, finalmente, un “código rojo” destinado a OpenAI, su propia empresa, y no un “código rojo” interno, dijo a todos, a los micrófonos de todo el mundo. Porque “Gemini Pro 3 parece imbatible”, hasta el punto de que incluso Google debe haberse quedado perplejo. “Código rojo” tras “bomba atómica”, dos bumeranes que aunque los arrojes a la cara sin ni siquiera tirarlos, no lo conseguirás. En definitiva, otra curiosa estrategia de comunicación: transformar una actualización de Google en un momento de crisis existencial para OpenAI, en un ataque de pánico. ¿El resultado del “código rojo”? Obviamente, al ampliar considerablemente las capacidades percibidas por los usuarios de Gemini Pro 3, ni siquiera Google podría haberlo hecho mejor.
Por último, el capítulo más reciente, el del Pentágono: OpenAI firma un acuerdo con el Departamento de Defensa de EE.UU., y hasta aquí nada extraño, no seas ingenuo, los ejércitos siempre adoptan las tecnologías más avanzadas disponibles, desde el radar a Internet pasando por el GPS y los drones, y la IA no es una excepción, y también es normal y correcto que así sea. Si existe una tecnología estratégica, terminará primero en un laboratorio militar; de lo contrario, terminará en un laboratorio militar enemigo (a menudo, en ambos casos, véase la bomba atómica y el Proyecto Manhattan, al menos Hitler no la tenía).
Pero no estamos hablando de eso, sino del ritmo de Sam al revés. Porque todo esto está sucediendo en el peor momento posible, está sucediendo mientras hay una guerra, Estados Unidos e Israel están atacando a Irán, un desorden global, y está sucediendo mientras la opinión pública está muy dividida, y está sucediendo, especialmente, justo después de que otra empresa, Anthropic, dijera que no. Anthropic, la empresa que desarrolla Claude, uno de los modelos más avanzados del mundo, competidor directo de OpenAI y ChatGPT.
En resumen, el Pentágono está pidiendo a Anthropic que elimine ciertas salvaguardias de sus modelos, no limitaciones técnicas, sino límites éticos muy específicos: no utilizar vigilancia doméstica masiva ni sistemas de armas totalmente autónomos. En resumen, Anthropic quiere mantener el control sobre los usos inadecuados de su producto.
Según los militares, no puede ser una empresa privada la que determine lo que los militares pueden o no hacer con la tecnología disponible legalmente y aquí está sucediendo algo bastante raro en el mundo tecnológico, el CEO de Anthropic, Dario Amodei, dice que no, negándose a eliminar las barreras de seguridad, y podría agregar: la respuesta correcta en el momento correcto. La empresa de Claude ni siquiera aborda las cuestiones específicas de la geopolítica actual, simplemente argumenta que los sistemas de inteligencia artificial actuales no son lo suficientemente fiables como para ser utilizados en armas autónomas o sistemas de vigilancia masiva (no se equivoca, todavía no son fiables para utilizarlos como agentes en red en lugar del usuario o de una empresa que produce papel higiénico, y mucho menos allí).
En cualquier caso, el resultado: Anthropic queda efectivamente excluido de una parte de los contratos federales (y amenazado por Trump) y en unas horas OpenAI entra en escena, por todo lo alto, y con una declaración de Sam (“firmamos con el Pentágono”) perfecta si seguimos la lógica del peor momento posible, y en unas horas millones de usuarios abandonan ChatGPT y se pasan a Claude, que es percibido como un chatbot “pacifista” (no es exactamente así, pero esa es otra historia).
No se detiene ahí. El nuevo boomerang de Sam se llama “parche del peor agujero”, ¿podría haberse perdido el parche? Tras la polémica pública, Sam explica que el acuerdo fue malinterpretado, y que se aclarará, y que “tal vez” se revise, lo que no significa exactamente lo que muchos piensan y añade la guinda del pastel: “revisaremos algunas cláusulas”. Después de firmar el acuerdo, lo que plantea una pregunta bastante simple incluso para aquellos que no siguen este campo: Lo siento, Sam, cuando firmaste el contrato, ¿qué pensabas que estabas firmando? ¿Lo habías leído? ¿Alguien ha hecho esto por ti?
Es decir, no se trata de una cláusula escrita en letra pequeña en una suscripción telefónica, estamos hablando de un acuerdo entre una de las empresas más poderosas de Silicon Valley, por valor de quinientos mil millones de dólares, y el Departamento de Defensa de los Estados Unidos (y, además, un contrato por valor de doscientos millones, unos centavos en comparación con el tamaño del acuerdo, incluso que, tal vez, se capitalice en el futuro).
Repito, nada extraño en tiempos normales, pero si hay una guerra, si siempre te has presentado como la empresa más preocupada por la seguridad, si lo haces cuando un competidor acaba de rechazar un contrato por razones éticas, el resultado es inevitable: la discusión deja de ser sobre la tecnología y se convierte en una polémica sobre la credibilidad de quienes la producen.
Si lo piensas bien, tal vez todo esto podría haberse evitado con un paso muy simple: solo que Sam le preguntara a ChatGPT. (Lo intenté y la respuesta corta fue: “¿En cuanto a la comunicación? No sirve de nada”). No sé qué decirte, querido Sam, porque me importa OpenAI y también te admiro.
Antes de hablar piénsalo, antes de firmar leyes deja que tu equipo, ChatGPT, Claude, Gemini, quien quieras, lea lo que firmas, y cuelga un poster de Steve Jobs en tu habitación, tómalo como ejemplo de cómo, cuándo y por qué hablar. Con cariño inmutable.