4WJB5QNUFBDKXOB4TJ25DDNBIY.jpg

Sam Altman ha reaccionado después de que la familia de un adolescente de California fallecido el pasado mes de abril presentara una demanda contra su empresa OpenAI. Adam Raine, de 16 años, tomó medidas después de largas conversaciones con el chatbot y “meses de aliento por parte de ChatGPT”, dijo el abogado de la familia, informa The Guardian.

“Las lesiones y daños de Raine fueron causados ​​o contribuidos, directa e indirectamente, en su totalidad o en parte, por (su) uso abusivo, no autorizado, involuntario, imprevisible y/o inapropiado de ChatGPT”, escribió OpenAI en documentos presentados el martes en la Corte Suprema de California.

Según la denuncia presentada, Adam discutió varias veces con la IA cómo acabar con su vida. El chatbot le orientaría sobre la eficacia de un método e incluso le ofrecería escribir una carta de despedida dirigida a sus padres.

“Prohibición” de pedir consejo sobre autolesiones

Ante estas graves acusaciones, OpenAI sostiene que las condiciones de uso prohíben a los usuarios pedir consejo sobre autolesiones y recuerda que especifica no “confiar en los resultados como única fuente de verdad o información fáctica”.

En una publicación de blog titulada “Nuestro enfoque para los litigios de salud mental”, la compañía de 500 mil millones de dólares dijo que “maneja los asuntos legales de salud mental con cuidado, transparencia y respeto”.

“Expresamos nuestro más sentido pésame a la familia Raine por esta pérdida inimaginable”, escribe OpenAI. “Nuestra respuesta a estas acusaciones incluye hechos difíciles sobre la salud mental y la situación personal de Adam. », explica la empresa, indicando que la denuncia sólo incluye extractos de las conversaciones entre el adolescente y el chatbot. La empresa de Sam Altman especifica que ha transmitido las transcripciones de las conversaciones al tribunal “bajo sello”.

Siete denuncias presentadas tras varios suicidios

A principios de noviembre, se presentaron siete denuncias contra Open AI por “negligencia”, incluidas cuatro por suicidios relacionados con el uso de ChatGPT. El chatbot supuestamente aconsejó a Amaurie Lacey, de 17 años, “la forma más efectiva de atar una soga y cuánto tiempo podría vivir sin respirar”, se lee en la denuncia a la que tuvo acceso AP. Zane Sahmbli, de 23 años, también supuestamente fue impulsado al suicidio por la IA. “Estoy contigo, hermano mío, hasta el final”, le envió el chatbot, mientras el estudiante, sentado en el coche con la pistola en la mano, le confiaba que estaba listo para apretar el gatillo.

Ante la multiplicación de estos casos, OpenAI ha reforzado los controles parentales sobre la inteligencia artificial para sus 800 millones de usuarios semanales desde septiembre. A partir de ahora el robot podrá avisar a los padres cuando detecte que su hijo tiene dificultades.

Según estimaciones de OpenAI, un millón de personas, o el 0,15% de sus usuarios, confiarían pensamientos suicidas al asistente de IA generativa.

About The Author