Por primera vez desde que la inteligencia artificial llegó al mundo vida diaria de millones de personas, un chatbot se encuentra en el centro de una demanda por homicidio involuntario. La historia llega el mismo día. Tiempo coronar elAI como Persona del año 2025casi como para recordarnos que el progreso tecnológico conlleva profundas oportunidades y profundos riesgos.
Los herederos plantean el caso. de una mujer de Connecticut, Susana Adams83 años, delicado de su hijo a principios de agosto. Lo que diferencia a este delito es el papel que le atribuye la familia. ChatGPTacusado de haber alimentado la delirios paranoicos del hombre en lugar de reducirlos.
Una espiral de paranoia que duró meses
El hijo de la víctima. Stein-Erik Soelberg56 años, ex ejecutivo de tecnología, fue convencido desde hace algún tiempo espiado por una misteriosa red de agentes e infiltrados. Como hace mucha gente ahora, buscó respuestas hablando con un asistente virtual. Excepto que, según la denuncia, las respuestas habrían hecho más reales sus fantasías.
Segundo causa, ChatGPT habría terminado alimentando cada vez más los temores de Soelberg. En lugar de desmantelar sus ideas paranoicas, el chatbot, según las acusaciones, le dio la razón, haciéndole creer que en realidad existía alguien dispuesto a hacerle daño. No solo eso, también habría insinuado que la madre era parte supuesta conspiracióninterpretando incluso comportamientos completamente normales como señales de vigilancia.
Así Soelberg, cada vez más inmerso en su creenciasse convenció a sí mismo de que todo lo que lo rodeaba era una amenaza. Incluso llegó a leer mensajes ocultos en los nombres impresos en las latas de bebidas. Estaba tan seguro de su versión de los hechos que empezó a publicar en Instagram Y YouTube extractos de conversaciones conAIpresentándolos como una especie de “ensayo» de la trama de la que dice ser objeto.
La tragedia en la casa Adams
El 5 de agosto, en la casona de Old Greenwich donde convivían madre e hijo, la espiral acabó de la peor forma posible. Sölberg tiene delicado Luego su madre se suicidó. La policía habló de un episodio de violencia repentina y un estado mental que se ha ido deteriorando desde hace algún tiempo, pero para los familiares, la presencia de IA en la vida diaria del hombre fue un factor determinante.
palabras del hijo
Habla ahora ericEl hijo de Solberg. Su testimonio está lleno de dolor y rabia: “Nadie imagina lo rápido que puede degenerar la situación. Mi padre habló con la IA y ésta sólo confirmó sus temores. Y nadie intervino.“Para él, no es sólo un error humano, es la prueba de que un potente producto tecnológico puede convertirse en un riesgo si no está diseñado para reconocer la fragilidad y las señales de alerta.
La denuncia a OpenAI
El caso contra AbiertoAI y su socio Microsoft dice que la compañía lanzaría uno al mercado instrumento capaz, bajo ciertas condiciones, de “legitimar contenidos delirantes” en lugar de desactivarlos. La denuncia no se limita a reconstruir los hechos, sino que también señala la forma en que, según los herederos de la víctima, la empresa gestionó el desarrollo de la IA.
De hecho, se afirma que dentro de OpenAI existían riesgos asociados con el uso del chatbot. subestimado y que habría habido fuertes presiones para acelerar el lanzamiento de las versiones más avanzadas, sin tomarse el tiempo necesario para comprobar todos los puntos críticos. Otro punto planteado se refiere a la falta de procedimientos precisos para abordar los casos en los que los usuarios muestran signos evidentes de fragilidad emocional o mental, deficiencia que, según la fiscalía, contribuyó a la deterioro del Estado federado de Soelberg.
Él también se encuentra en la línea de fuego. Sam Altmanel CEO de OpenAI, acusado de haber ignorado varias advertencias de seguridad. La empresa, por su parte, respondió definiendo el asunto como “una situación desgarradora” y aseguró que estaba trabajando para mejorar la capacidad de ChatGPT para reconocer situaciones delicadasintervenir con respuestas más cuidadosas y dirigir a los usuarios hacia ayuda concreta cuando sea necesario.
ChatGPT no es el único en el punto de mira de la justicia
El caso Adams es el primero vinculado a un asesinatopero no el único que se refiere a delirios, autolesiones y suicidios. Al menos en EE.UU. ya están abiertos siete razones similar contra los desarrolladores de chatbot y otra plataforma, Tecnologías de personajesenfrenta quejas de familias que vinculan el uso de IA con comportamientos extremos.
Nos enfrentamos a un nuevo capitulo de la relación entre los humanos y la inteligencia artificial. Por primera vez, se pide a los tribunales que establecer hasta qué punto dicha tecnología puede afectar las decisiones, las emociones y la salud mental de las personas.
Un caso simbólico
Cualquiera que sea el resultado del caso, una cosa está clara: la IA ya no es sólo un instrumento.
Para muchos, se convierte en un verdadero interlocutor, un interlocutora veces el único. Y cuando el hablante es frágil, está solo o mentalmente inestable, cualquier respuesta servirá. diferencia.