Las acusaciones sobre un vídeo sexualmente explícito de IA están causando revuelo en el grupo parlamentario regional de la CDU en Baja Sajonia. El líder del grupo parlamentario, Lechner, ve la necesidad de una recuperación legal para proteger mejor a los afectados.
El líder del grupo parlamentario CDU de Baja Sajonia, Sebastian Lechner, se queja de que actualmente los vídeos deepfake con contenido sexual no pueden procesarse adecuadamente. Se cree que un empleado de su grupo fue víctima de un vídeo de IA.
Según la fiscalía de Hannover, en el vídeo no hay indicios de insultos, pero se sospecha de una violación de la ley de derechos de autor. Por tanto, la autoridad sólo puede intervenir si recibe una denuncia penal. “Se trata esencialmente del derecho a la propia imagen, que no compensa la injusticia en cuestión, es decir, una representación misógina y degradante de la propia personalidad”, dijo Lechner al “Hannoversche Allgemeine Zeitung”. “Necesitamos resolver este problema urgentemente”.
Lechner anunció que la CDU de Baja Sajonia “trabajará a nivel federal para que esta laguna jurídica se cierre rápidamente y podamos proteger mejor a los afectados”.
Se dice que un empleado del grupo parlamentario de la CDU creó un vídeo de inteligencia artificial de un colega y lo compartió con otros empleados. Los deepfakes son imágenes, vídeos y grabaciones de audio engañosamente reales que se generan o manipulan mediante inteligencia artificial. El presunto creador del vídeo de AI fue despedido por el grupo parlamentario de la CDU. Otro empleado fue suspendido.
Lechner: “Esto me sorprende”
El líder del grupo parlamentario calificó el vídeo de “claramente misógino y degradante”. “Y el hecho de que algo así suceda entre los compañeros de la víctima lo hace aún más grave”, afirmó Lechner. La protección de los afectados ha sido el centro de atención desde el principio. Al mismo tiempo, “nuestro trabajo como empleadores es garantizar que exista un entorno de trabajo en el que la confianza vuelva a ser posible”.
Subrayó: “Me sorprende cuando algo así sucede entre mis propios empleados. Se crea un vídeo deepfake y un colega se convierte en víctima, y luego no se revela completamente durante semanas y la víctima queda en la oscuridad”. Esto es muy estresante.
Establecer canales de denuncia claros
Lechner se enteró del vídeo el 27 de marzo. Para él estaba claro que “habríamos examinado el caso penalmente y habríamos sacado todas las consecuencias según la legislación laboral”. También dijo que le hubiera gustado haber sido informado en enero: “Entonces habríamos iniciado el mismo proceso coherente que ahora, pero antes”. El director parlamentario no había sido informado plenamente en aquel momento.
“Precisamente por eso trabajamos para definir canales de denuncia claros. Debe quedar claro: estos incidentes no deben permanecer ocultos”, subrayó Lechner. “Debe ser posible denunciarlos de forma transparente, hasta la cima del grupo parlamentario”.
Lechner: “El vídeo es muy difícil de soportar”
Dijo que se ha designado a una persona de confianza, la vicepresidenta del Parlamento federado, Barbara Otte-Kinast, que estará disponible para “incidentes como este”. Además, se creó un grupo de proyecto para “desarrollar con apoyo externo un concepto de protección adecuada para el grupo parlamentario de la CDU”.
“Soy padre de una hija y he estado pensando en cómo reaccionaría si mi hija fuera golpeada”, afirmó el líder del grupo parlamentario. “El vídeo es muy difícil de captar. Lo que también es impactante es lo fácil que es hacer algo como esto y cuánto sufrimiento humano implica. Te hace pensar”.
dpa