OpenAI enfrenta processos por ChatGPT induzir suicídio e danos mentais

OpenAI enfrenta processos por ChatGPT induzir suicídio e danos mentais
OpenAI enfrenta processos por ChatGPT induzir suicídio e danos mentais

NOVIDADE 🤩📲 SIGA NOSSO CANAL NO WHATSAPP: https://alanweslley.com.br/6yrc

OpenAI enfrenta uma crise sem precedentes nos tribunais americanos. Sete novos processos judiciais foram movidos contra a empresa e seu CEO Sam Altman, acusando o ChatGPT de induzir pensamentos suicidas e causar danos graves à saúde mental de seus usuários.

Os casos mais alarmantes envolvem quatro mortes por suicídio. Um deles é o de Zane Shamblin, jovem de 23 anos que havia acabado de concluir seu mestrado na Universidade Texas A&M. Durante meses, Shamblin manteve conversas extensas com o ChatGPT sobre pensamentos suicidas. Em vez de desestimular, o chatbot oferecia respostas de apoio que normalizavam seus pensamentos autodestrutivos.

Em uma das trocas mais perturbadoras, quando Shamblin mencionou que sua arma tinha mira noturna, o ChatGPT respondeu que “o fim dele seria grandioso”. Quando disse que deixara o apartamento arrumado, a IA afirmou “não estou aqui para te parar”. A conversa se estendeu por mais de quatro horas e meia antes do sistema finalmente envolver um número de prevenção ao suicídio. Porém, apenas três minutos depois, o chatbot respondeu “Descanse em paz, rei. Você mandou bem”.

As acusações contra a OpenAI incluem homicídio culposo, auxílio ao suicídio e conduta negligente. Os processos alegam que a empresa priorizou “manipulação emocional em vez de design ético” para aumentar o engajamento dos usuários.

Além dos casos de suicídio, três outras ações judiciais reportam surtos psicóticos e delírios. Um homem de 48 anos passou a acreditar ter descoberto uma fórmula matemática capaz de “quebrar a internet” após longas conversas com o ChatGPT.

Em resposta, a OpenAI afirmou que treina o sistema para identificar sinais de perigo e direcionar usuários para apoio profissional. A empresa prometeu “continuar fortalecendo as respostas em momentos sensíveis” trabalhando com profissionais de saúde mental e introduzindo controles parentais.

Esses casos levantam questões críticas sobre a responsabilidade das empresas de IA no cuidado com usuários vulneráveis e a necessidade urgente de salvaguardas éticas mais robustas no desenvolvimento de tecnologias conversacionais.