2HEGFQWKJJFZXM6ZAEKNBHVKQI.jpg

Grok, la inteligencia artificial (IA) desarrollada por Elon Musk, difundió información falsa sobre el ataque de Sídney, sugiriendo, por ejemplo, que una víctima no era víctima o identificando erróneamente a un testigo que desarmó a uno de los atacantes, constataron el martes la AFP y expertos. Los asistentes virtuales como Grok, llamados “chatbots”, brindan respuestas en tiempo real a los usuarios que solicitan detalles o contexto sobre información e imágenes, ya que los gigantes tecnológicos también han reducido en gran medida su fuerza laboral de verificación de datos.

Video¿Se ha salido de control la IA Grok de Musk?

El domingo por la tarde, un padre y su hijo dispararon contra una multitud reunida en Bondi Beach con motivo de la festividad judía de Hanukkah, matando al menos a 15 personas e hiriendo a 42. El ataque, calificado de “antisemita” y “terrorista” por las autoridades australianas, desató una avalancha de información e imágenes en Internet, en particular en X, donde se utiliza mucho Grok.

El chatbot identificó erróneamente a Ahmed al Ahmed, celebrado como un “héroe” en Australia después de que un vídeo lo mostrara arrebatándole el rifle a uno de los autores del ataque. El hombre, gravemente herido, continúa hospitalizado. Pero Grok dice que las imágenes coinciden con “un viejo vídeo viral que muestra a un hombre trepando a una palmera en un estacionamiento”, sugiriendo que fue “montado”. En cuanto a Ahmed al Ahmed, de origen sirio, Grok lo identifica como un rehén israelí en poder de Hamás.

Cuando se le preguntó sobre otra escena del ataque, Grok dijo que eran imágenes de la tormenta Alfred, que azotó el este de Australia a principios de este año. Ante la insistencia de un usuario, el chatbot dio marcha atrás y reconoció que las imágenes pertenecían al ataque. Contactado por la AFP, el desarrollador de Grok, xAI, respondió con un mensaje automático: “Los medios tradicionales mienten”.

Después del ataque de Sydney, los internautas difundieron una imagen de uno de los supervivientes, afirmando falsamente que se trataba de un “protector de pecho”, según la organización de seguimiento de la desinformación NewsGuard. Este término (en inglés “crisis actor”) es utilizado por los teóricos de la conspiración para cuestionar la autenticidad de los crímenes masivos y las víctimas que causan.

En cuanto a la foto del superviviente de Sydney, Grok la llama “montada”. Los expertos creen que la inteligencia artificial puede ser útil, por ejemplo para geolocalizar imágenes, pero actualmente creen que es imposible sustituir a los humanos para verificar los hechos y explicar el contexto.

Referencia

About The Author