ANUNCIE AQUI
Quatro processos por morte injusta foram ajuizados nos EUA contra a OpenAI nesta quinta-feira (6), além de casos de três pessoas que afirmam que o chatbot da empresa levou a colapsos de saúde mental.
Os processos, apresentados em tribunais estaduais da Califórnia, alegam que o ChatGPT, usado por 800 milhões de pessoas, é um produto defeituoso. Uma ação o chama de “defeituoso e inerentemente perigoso”. Uma queixa apresentada pelo pai de Amaurie Lacey diz que o jovem de 17 anos da Geórgia conversou com o bot sobre suicídio por um mês antes de sua morte em agosto. Joshua Enneking, 26 anos, da Flórida, perguntou ao ChatGPT “o que seria necessário para que seus revisores denunciassem seu plano de suicídio à polícia”, segundo uma queixa apresentada por sua mãe. Zane Shamblin, 23 anos, do Texas, morreu por suicídio em julho após incentivo do ChatGPT, segundo a queixa apresentada por sua família.
Joe Ceccanti, 48 anos, do Oregon, usava o ChatGPT sem problemas há anos, mas em abril passou a acreditar que ele era senciente. Sua esposa, Kate Fox, disse em entrevista em setembro que ele começou a usar o ChatGPT compulsivamente e agia de forma errática. Ele teve um surto psicótico em junho, disse ela, e foi hospitalizado duas vezes antes de morrer por suicídio em agosto.
FERRAMENTA GRATUITA
Simulador da XP
Saiba em 1 minuto quanto seu dinheiro pode render
“Os médicos não sabem como lidar com isso”, disse Fox.
Um porta-voz da OpenAI afirmou em comunicado que a empresa está revisando as denúncias, que foram reportadas anteriormente pelo The Wall Street Journal e CNN. “Esta é uma situação incrivelmente dolorosa”, disse o comunicado. “Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, desescalar conversas e orientar as pessoas para apoio no mundo real. Continuamos a fortalecer as respostas do ChatGPT em momentos sensíveis, trabalhando em estreita colaboração com profissionais de saúde mental.”
Outros dois autores — Hannah Madden, 32 anos, da Carolina do Norte, e Jacob Irwin, 30 anos, de Wisconsin — dizem que o ChatGPT causou colapsos mentais que levaram a cuidados psiquiátricos de emergência. Ao longo de três semanas em maio, Allan Brooks, 48 anos, recrutador corporativo de Ontário, Canadá, que também está processando, passou a acreditar que havia inventado uma fórmula matemática com o ChatGPT que poderia quebrar a internet e alimentar invenções fantásticas. Ele saiu dessa delusão, mas disse que agora está em licença médica de curto prazo.
Continua depois da publicidade
“O produto deles me causou dano, e a outros também, e continua causando”, disse Brooks, sobre quem o The New York Times escreveu em agosto. “Estou emocionalmente traumatizado.”
Após a família de um adolescente da Califórnia ter ajuizado um processo por morte injusta contra a OpenAI em agosto, a empresa reconheceu que suas barreiras de segurança podem “se degradar” quando os usuários mantêm longas conversas com o chatbot.
Após relatos neste verão de pessoas tendo experiências problemáticas ligadas ao ChatGPT, incluindo episódios delirantes e suicídios, a empresa adicionou salvaguardas ao seu produto para adolescentes e usuários em sofrimento. Agora existem controles parentais para o ChatGPT, por exemplo, para que os pais recebam alertas se seus filhos discutirem suicídio ou automutilação.
A OpenAI divulgou recentemente uma análise das conversas ocorridas em sua plataforma durante um mês recente que indicou que 0,07% dos usuários podem estar passando por “emergências de saúde mental relacionadas a psicose ou mania” por semana, e que 0,15% estavam discutindo suicídio. A análise foi feita em uma amostra estatística de conversas. Mas, escalando para todos os usuários da OpenAI, essas porcentagens equivalem a 500 mil pessoas com sinais de psicose ou mania, e mais de 1 milhão potencialmente discutindo intenção suicida.
O Tech Justice Law Project e o Social Media Victims Law Center entraram com as ações. Meetali Jain, que fundou o Tech Justice Law Project, disse que os casos foram todos ajuizados em um único dia para mostrar a variedade de pessoas que tiveram interações problemáticas com o chatbot, que é projetado para responder perguntas e interagir com as pessoas de forma semelhante a um humano. As pessoas nos processos estavam usando o ChatGPT-4o, anteriormente o modelo padrão servido a todos os usuários, que desde então foi substituído por um modelo que a empresa diz ser mais seguro, mas que alguns usuários descreveram como frio.
(O Times processou a OpenAI por violação de direitos autorais; a OpenAI negou essas alegações.)
Continua depois da publicidade
c.2025 The New York Times Company

há 2 meses
15








Portuguese (BR) ·