ZDF cometió dos errores en un artículo del “Heute Journal”. En la emisión del martes por la noche, la directora adjunta Anne Gellinek pidió disculpas a los espectadores.
La emisora pública se enfrenta al próximo gran escándalo. Después de criticar duramente un artículo del “Heute Journal” del ZDF, que mostraba, entre otras cosas, un vídeo generado por IA de una supuesta operación de la autoridad de inmigración estadounidense ICE contra inmigrantes, el ZDF se disculpó oficialmente ante sus espectadores.
Como se anunció anteriormente, el ZDF abordó el grave error en su transmisión del “Heute Journal” el martes por la noche. A diferencia de la retransmisión del domingo, esta vez no fue la presentadora Dunja Hayali quien condujo la retransmisión, sino la directora de noticias Anne Gellinek.
Sin embargo, el público tuvo que tener paciencia. Sólo después de las negociaciones entre Rusia y Ucrania en Ginebra y luego de las conversaciones nucleares entre Irán y Estados Unidos en Suiza, se inició un debate político sobre una posible prohibición de las redes sociales para niños menores de 14 años en Alemania.
Gellinek habla de “error artesanal”
Luego Gellinek pasó a un “tema personal”. El programa contenía un informe sobre las operaciones de las autoridades de inmigración estadounidenses, “que contenía errores técnicos que nos gustaría corregir en este momento”, dijo Gellinek.
A esto le siguió un clip en el que se mostraba nuevamente el clip generado por IA con una madre y sus dos hijos siendo brutalmente llevados por un oficial de ICE. El moderador Stefan Leifert se pronunció al respecto: “Un informe de los Estados Unidos informa del temor generalizado en el país a las detenciones por parte de la autoridad heladera. Se han cometido dos errores”. En cuanto a las operaciones reales de los agentes de ICE, el artículo mostró un vídeo generado por IA. Sin embargo, esto fue creado con la herramienta de inteligencia artificial Sora, “como muestra una marca de agua”. Esta vez la marca de agua se resaltó con un marcador rojo.
“El uso de tales imágenes de IA contradice las reglas estándar de IA en ZDF”, explicó Leifert. Estos dicen: “El uso de imágenes y vídeos de personas, eventos y contextos políticos generados por IA no es posible en el sector de las noticias. Excepción: los informes cubren expresamente falsificaciones de IA”. Como esto no ocurrió en el artículo en cuestión, la identificación no habría sido suficiente.
A continuación, el moderador habló de la segunda escena polémica, que también fue reproducida. Esta vez un agente se lleva a un niño: también en este caso, según la información del domingo, se trata de una operación de las autoridades de inmigración estadounidenses. Pero no era verdad. Se trató de un arresto tras una amenaza de tiroteo en Florida en 2022. “En el lugar se mostró un vídeo que no era de una operación de ICE, pero muestra una operación policial en 2022”, corrigió esta vez Leifert y admitió: “El equipo editorial no lo reconoció a tiempo antes de su transmisión”. ZDF ha desarrollado procedimientos de prueba y verificación para imágenes y vídeos de las redes sociales. “En este caso se aplicaron demasiado tarde”.
Esta publicación no cumplió con nuestros altos estándares.
Así acabó el reportaje, la cámara volvió a mostrar al director de noticias Gellinek. Ella resume: “Un doble error en el que ahora estamos trabajando cuidadosamente y que es particularmente doloroso porque aquí en ZDF Nachrichten invertimos mucho esfuerzo en brindarles información verificada. Esta vez no lo logramos”. Como directora de noticias de ZDF, pide expresamente disculpas a los espectadores. “Este puesto no cumplió con nuestros altos estándares”.
Después de que se detectó el error en la transmisión del domingo, ZDF primero borró brevemente la transmisión y luego la volvió a insertar en la biblioteca multimedia en una versión editada. Se eliminaron el fragmento de IA y el video que muestran el arresto del niño de 10 años después de una amenaza de disparo en Florida en 2022.
El artículo del domingo abordó el destino individual de una familia de inmigrantes de Honduras, que ahora también vive con miedo. Para ilustrar esto también se utilizaron imágenes de archivo. En la versión revisada ahora estaban allí. otro Se pueden ver imágenes en movimiento de las operaciones de ICE, así como una nota escrita: “Video editado posteriormente por motivos editoriales”.
Hasta ahora informaron sobre el incidente “Nius” y la redacción del “Apollo News”, que también obtuvo su propio comunicado de prensa en Maguncia. Ahora esto también está disponible en Internet. Dice: “En un artículo del “Heute Journal” del 15 de febrero de 2026, las imágenes generadas por IA deberían haber sido etiquetadas. Esta etiqueta no fue transferida cuando el artículo fue transferido por razones técnicas. El equipo editorial corrigió el error y adaptó el vídeo en consecuencia. Los principios de IA de ZDF estipulan que el material fotográfico generado por IA siempre esté etiquetado de forma transparente”.
La emisora dio la impresión de que en general no le molestaba el uso de imágenes generadas por IA, pero evidentemente sólo vio el error en la falta de información escrita. El día siguiente parecía diferente.
Wolfgang Kubicki habló de un “escándalo mediático”
El uso de material basado en inteligencia artificial fue ampliamente discutido en las redes sociales a principios de semana. Las críticas también llegaron de políticos, en particular de Wolfgang Kubicki. “Un programa que utiliza imágenes falsas generadas por inteligencia artificial ya no debería poder llamarse ‘programa de noticias’. Ayer el ZDF engañó a 3,6 millones de espectadores. Es un escándalo mediático que nos mantendrá ocupados durante mucho tiempo”, escribió el político del FDP en X.
Otros usuarios de X se preguntaron por qué ZDF utilizó material de IA cuando había suficientes imágenes en movimiento de las operaciones de ICE.
A la pregunta de WELT por qué ZDF había decidido utilizar imágenes de inteligencia artificial, la emisora respondió inicialmente el martes con una explicación muy cuestionable: el artículo quería mostrar “que se crea un clima de miedo tanto con imágenes reales como con imágenes generadas por inteligencia artificial”. Sin embargo, es lamentable que “no quedara suficientemente claro qué imágenes eran reales y cuáles no”.
En el informe del ZDF en cuestión no se trataba en absoluto de utilizar vídeos falsos para intimidar a los inmigrantes. En cambio, se afirma (también con la ayuda de imágenes eliminadas posteriormente) que los agentes de ICE se llevan a los padres delante de sus hijos o interceptan a los menores delante de la escuela.
Nota: Una versión anterior del artículo decía que el programa en cuestión con el clip de IA se emitió el lunes. Sin embargo, el día de transmisión fue el domingo.
krott/saha con dpa/epd