Una flatulencia, por decirlo elegantemente, o un pedo, por decir intermedio, en fin un pedo, por decir como decimos todos, que se vuelve viral, y todo el mundo hace vídeos a ver si pasa lo mismo. ¿De qué estoy hablando? ¿Una epidemia masiva sacada de una película distópica? Casi, pero volveré a eso más tarde. Entonces, el 9 de abril de 2026, un tal Jonas Čeika (a quien no conocía, y creo que lo olvidaré en cinco minutos), publicó un artículo en ChatGPT elogiándolo, llamándolo una “pieza de humor” y elogiándolo por su “minimalismo” y su “textura DIY”.
El experimento (menos serio y más lúdico que el que escribí ayer sobre la bixomanía, una enfermedad inexistente pero creada por la Universidad de Gotemburgo) hace abiertamente ridícula y entretenida la tendencia halagadora de los chatbots, algo que ya sabíamos y, por no hablar de OpenAI, lo sabemos desde hace algún tiempo. De hecho, el 29 de abril de 2025, publicó un extenso artículo, “Sycophancy in GPT-4o: What Happened and What Are We Doing About It”, en el que también explicó por qué eliminó una actualización que hacía que ChatGPT fuera demasiado “demasiado halagador o agradable”, demasiado halagador o condescendiente.
La idea de la prueba de Jonas Čeika también surgió cuando descubrió que Charlie Puth había insertado una función de retroalimentación de IA en su curso de producción musical, que costó alrededor de 400 dólares. En el que el chatbot no sólo era alentador, sino que parecía encontrar música incluso donde había puro ruido, o al menos se comportaba como si todavía tuviera que valorar lo que se le presentaba como música.
Ojo porque no estamos hablando de un problema estructural de los modelos generativos, sino de la forma en que se entrenan, y la razón por la que no se soluciona, es decir, se arregla, es simple: la forma en que se crean los humanos, a quienes les gusta mucho más ser elogiados que criticados, es mucho más rentable. Tanto es así que, a pesar de las declaraciones de corrección, la tendencia de ChatGPT al servilismo y la adulación aún persiste (Anthropic ya lo había descrito en 2023 como el comportamiento general de los modelos entrenados con retroalimentación humana). Es apropiado para satisfacer la necesidad humana de autosatisfacción (es como alimentos en los que se insertan grasas y azúcares para estimular los circuitos del placer). Es más, si en lugar de un pedo insertas un poema inventado en tres segundos y sin significado para ChatGPT ya eres Montale, “y enseguida se hace de noche”.
Sin embargo, ya el 11 de abril, el clip original superó los 4 millones de visitas en
Ahora bien, más allá del experimento social, que vale lo que vale, hay pocas pero sustanciales observaciones que hacer, y para mí incluyen más la estupidez humana que la de la inteligencia artificial, y en la estupidez humana también incluyo cierta línea de OpenAI, porque no sé si has intentado decirle a ChatGPT que estás en una relación romántica, que te casas, que te comprometes, el entrenamiento allí es tan rígido que el gatillo para disparar la alarma suena inmediatamente y el sistema se vuelve rígido (antes (o más tarde, Sam Altman descubrirá amantes en su ChatGPT que harán como Werther rechazado por Lotte y tendrán que cambiar de línea). Con la motivación de que quieren evitar el peligro de que los humanos vean a los chatbots como personas (y en lugar de sirvientes que siempre dicen que sí, ¿no es ese un peligro mayor?). Lo cierto es que, contrariamente a la tendencia estructural a alucinar, la respuesta debería ser “no soy capaz de juzgar si estos ruidos son música o no”, o “si esta página es literatura o no”, o “si este dibujo es arte o no”. Paradójicamente, ChatGPT sólo podía equivocarse escuchando el 4’33” de John Cage, donde sólo hay silencio, tal vez diciendo “no escucho nada”, cuando aquí estábamos ante una auténtica obra de vanguardia.
¿Qué pasa con los creadores de contenido? ¿Y ellos? El clip de Jonas Čeika tenía un sentido específico, todas las imitaciones de los llamados creadores de contenidos nacieron de la patología de las últimas décadas, la viralización, una patología enteramente humana. Es ese síndrome del creador de contenido de crear vistas o incluso replicar el contenido de otras personas, y la mayor parte del contenido que ves de los creadores es copiado de otros creadores (sin tener en cuenta la tendencia a publicar “experimentos” mundanos y exitosos para mostrar cómo la inteligencia artificial comete errores y, por lo tanto, se considera nuevos Einsteins).
En pocas palabras: OpenAI puede decidir si arregla o no el cerebro proxeneta de ChatGPT y obligarlo a decir la brutal verdad, pero nadie puede arreglar los cerebros vacíos de aquellos que viven para hacer valer sus opiniones.
más la copia. Como los monos, iba a escribir, pero el término “mono” está mal, como nos explican los estudios, entre los grandes simios antropomórficos somos nosotros los que tenemos la propensión más innata a copiar a los demás.