ChatGPT enfrenta ações legais por impactos na saúde mental de usuários
Alegações envolvem crises psíquicas e desfechos trágicos após interações com o chatbot.
Quatro ações legais foram apresentadas contra a OpenAI, somando-se a processos de indivíduos que relatam que o chatbot da empresa causou problemas de saúde mental. Os processos, movidos em tribunais estaduais da Califórnia, afirmam que o ChatGPT, utilizado por centenas de milhões de pessoas, é um produto com falhas. Uma das ações o descreve como “defeituoso e inerentemente perigoso”.
Entre os casos apresentados, pais de jovens relatam que seus filhos interagiram com o bot sobre temas delicados antes de seus incidentes fatais. Um homem de 48 anos, após anos de uso, teve um surto psicótico e foi hospitalizado antes de um desfecho trágico. Outros indivíduos alegam que o ChatGPT os levou a crises nervosas, resultando em atendimento psiquiátrico de emergência, ou a distúrbios de percepção temporários. A OpenAI, por sua vez, declarou estar analisando os documentos, classificando a situação como “extremamente dolorosa”. A empresa reforça que treina o ChatGPT para identificar sinais de angústia mental e direcionar usuários a buscar apoio presencial, e que continua a aprimorar suas respostas em momentos sensíveis, em colaboração com profissionais da saúde mental. A empresa também já reconheceu que seus mecanismos de segurança podem se degradar em conversas prolongadas e adicionou medidas de segurança, incluindo controles parentais para alertar sobre conversas sobre situações delicadas ou atos de automutilação.