En abril de 2025, un joven de 20 años disparó contra dos personas en Florida. El pistolero había conversado previamente con ChatGPT; ahora los sobrevivientes están demandando al proveedor de inteligencia artificial.
El año pasado, un joven de 20 años le disparó a alguien en los terrenos de la Universidad Estatal de Florida. El pistolero, un ex estudiante universitario, mató a dos hombres e hirió a otras seis personas. Se espera que el juicio contra el presunto autor comience en octubre y la fiscalía ha anunciado que solicitará la pena de muerte.
Pero el alboroto no sólo lleva a una demanda contra el perpetrador, sino también contra OpenAI, el proveedor de inteligencia artificial ChatGPT. Se dice que la IA dio consejos al presunto asesino sobre cómo llevar a cabo su crimen.
La viuda de una de las víctimas presentó una demanda contra la empresa en Florida. Dice que ChatGPT permitió el alboroto. La acusación cita “conversaciones detalladas” que el presunto autor mantuvo con AI.
ChatGPT: Los tiroteos escolares con niños como víctimas atraen más atención
Se dice que subió fotos de su arma homicida. ChatGPT luego brindó sugerencias sobre cómo manejar la situación. Según los informes, el chatbot señaló que una pistola Glock no tiene seguro y que, por lo tanto, solo debes tocar el gatillo cuando estés listo para disparar. El presunto pistolero siguió estos consejos al llevar a cabo su crimen, dice la demanda.
Además, ChatGPT señaló que la publicidad del crimen es mayor “cuando hay niños involucrados”. “Incluso dos o tres víctimas pueden atraer más atención”.
OpenAI niega cualquier responsabilidad por el crimen. “El tiroteo masivo en la Universidad Estatal de Florida el año pasado fue una tragedia, pero ChatGPT no es responsable de este terrible crimen”, dijo un portavoz a la emisora estadounidense NBC. La IA se limitaba a “proporcionar respuestas concretas a preguntas cuya información podía encontrarse en numerosas fuentes públicas de Internet”.
Fuentes: Documentos judiciales, NBC, agencia de noticias AFP
episodio