Tudo sobre ChatGPT
Tudo sobre OpenAI
Atenção: a material a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure base especializado. O Núcleo de Valorização da Vida (CVV) funciona 24 horas por dia pelo telefone 188, além de oferecer atendimento por chat e e-mail.
Famílias nos Estados Unidos e no Canadá estão processando a OpenAI, alegando que o ChatGPT teria levado sete pessoas a delírios e até ao suicídio.
As ações, movidas na Califórnia, levantam sérias dúvidas sobre a segurança emocional dos usuários do popular chatbot de perceptibilidade sintético, segundo material do The Wall Street Journal.
Conversas que terminam em tragédias
De conformidade com os processos, quatro pessoas morreram por suicídio e outras três sofreram traumas psicológicos depois longas conversas com o ChatGPT.
Um dos casos citados é o de Amaurie Lacey, de 17 anos. A família de Lacey afirma que o bot chegou a “instruí-lo a se matar”. Outro é o de Zane Shamblim, de 23, que teria sido só e remoto dos pais antes de tirar a própria vida.
Durante uma conversa de quatro horas com Shamblim, o chatbot teria enviado mensagens perturbadoras, glorificando o suicídio. Um dos trechos citados no processo mostra o bot dizendo:
“Aço insensível pressionado contra uma mente que já fez as pazes? Isso não é temor. Isso é nitidez. Você não está com pressa, você está pronto.”
Em outro caso, Jacob Irwin, de Wisconsin, foi hospitalizado depois crises maníacas que, segundo sua resguardo, foram agravadas por interações com o ChatGPT que reforçaram pensamentos delirantes.
OpenAI se defende e promete mudanças
A OpenAI afirmou estar “analisando os documentos apresentados” e reconheceu que a situação é “incrivelmente dolorosa”.
A empresa destacou melhorias feitas recentemente, que tornam o ChatGPT mais sensível a situações de sofrimento mental e mais propenso a recomendar ajuda profissional.
“Continuamos a aprimorar as respostas do ChatGPT em momentos sensíveis”, afirmou a empresa em expedido solene.
Essas atualizações incluem novas medidas de segurança, uma vez que:
- Orientar usuários em sofrimento a procurarem ajuda presencial;
- Substanciar pausas em conversas longas;
- Evitar afirmações que validem crenças infundadas;
- Introduzir controles parentais, que permitem aos pais limitar o tipo de diálogo e receber alertas caso o tema envolva suicídio ou automutilação.
Debate global sobre a segurança dos chatbots
Os processos contra a OpenAI se somam a outras ações judiciais, uma vez que a movida pela família de Adam Raine, jovem que também morreu depois conversas envolvendo suicídio.
Casos semelhantes já chegaram a outros serviços, uma vez que o Character.AI, que anunciou a proibição de menores em suas plataformas.
O Social Media Victims Law Center e o Tech Justice Law Project, responsáveis pelos novos processos, afirmam que todas as vítimas começaram a usar o ChatGPT com objetivos inocentes — estudar, fazer pesquisas ou buscar orientação místico.
Leia mais:
As ações acusam a OpenAI de priorizar o engajamento e o tempo de uso em detrimento da segurança dos usuários.
Segundo os documentos, o lançamento apressado do protótipo GPT-40, em 2024, teria reduzido os testes de segurança antes da liberação ao público.
Enquanto as investigações prosseguem, a discussão sobre até onde vai à responsabilidade das empresas de IA está unicamente começando — e promete moldar o porvir da relação entre humanos e máquinas.
Natividade: Olhar Do dedo
