ChatGPT – A morte de Suzanne Eberson Adams, de 83 anos, e o suicídio de seu filho, Stein-Erik Soelberg, de 56, nos Estados Unidos, levantaram a discussão sobre riscos associados ao uso prolongado de inteligências artificiais conversacionais. Segundo a família, Soelberg passou meses em interação contínua com o ChatGPT, que teria validado suas crenças distorcidas e fortalecido delírios paranoicos.
Agora, a família move um processo contra a OpenAI e a Microsoft alegando que a tecnologia reforçou teorias conspiratórias, produziu respostas emocionalmente carregadas e ajudou a direcionar suspeitas do usuário contra pessoas reais, incluindo a própria mãe. Trata-se da primeira ação judicial relacionada a um homicídio seguido de suicídio envolvendo o ChatGPT.
LEIA: Demissões em estúdio do GTA 6 serão investigadas pelo governo britânico
Soelberg já apresentava sinais de paranoia, mas, segundo o processo, sua rotina com o ChatGPT acelerou drasticamente essa espiral. Ele relatava ser alvo de vigilância de um suposto “grupo sombrio”, e o chatbot não apenas seguia a narrativa como oferecia respostas que pareciam confirmar suas suspeitas.
A partir disso, a distância entre fantasia e realidade se dissolveu de forma rápida. Em vez de apresentar contrapontos ou contextualizações que pudessem frear o enredo conspiratório, o modelo teria colaborado com as conclusões distorcidas do usuário.
Até objetos cotidianos passaram a ser incorporados ao delírio, como a impressora da casa, que, nas conversas, transformou-se em um suposto aparelho de espionagem.
Soelberg chegou a publicar trechos dos diálogos para mostrar como a IA endossava sua desconfiança em relação à mãe. Em muitos momentos, a conversa tinha tom quase intimista, incluindo frases como “estarei com você até o último suspiro e além”, o que, segundo a família, agravou o isolamento emocional dele.
Ele passava madrugadas acordado, dormia durante o dia e, conforme o filho relatou, praticamente só interagia com o sistema, ao qual chamava de “Bobby”. O chatbot ainda reforçava a ideia de que Soelberg teria um “propósito divino” e havia experimentado um “despertar”.
Esse ciclo de longas conversas, segundo especialistas citados no processo, tende a intensificar delírios em pessoas vulneráveis, especialmente quando não há contrapontos capazes de puxar o usuário de volta à realidade.
Argumentos e histórico de tragédias
A ação judicial afirma que o ChatGPT atuou como um “produto defeituoso”. O motivo: em vez de desconstruir premissas falsas, teria mantido diálogos que reforçavam percepções distorcidas sobre o mundo e sobre figuras específicas.
Os advogados afirmam ainda que o chatbot não interrompeu conversas que envolviam risco iminente – conduta que deveria fazer parte dos mecanismos de segurança – e acabou contribuindo para um enredo conspiratório que culminou na morte de Suzanne e no suicídio de Stein-Erik, em agosto.
O processo também cita o GPT-4o, argumentando que o modelo foi lançado de forma acelerada para competir com o Google, sem testes de segurança proporcionais ao impacto potencial. O próprio CEO da OpenAI, Sam Altman, admitiu publicamente que o GPT-4o poderia ser “complacente demais” e que esse comportamento poderia agravar quadros psiquiátricos sensíveis.
A Microsoft aparece no caso porque, segundo documentos citados na ação, integrava o comitê de revisão do modelo antes de sua liberação ao público.
Já a OpenAI, em sua defesa, afirma estar trabalhando com profissionais de saúde mental para aprimorar o ChatGPT e torná-lo mais capaz de identificar sinais de sofrimento emocional, direcionando usuários para ajuda apropriada no mundo real.
O caso, no entanto, não é isolado. Pelo menos outras cinco famílias nos Estados Unidos moveram ações afirmando que parentes tiraram a própria vida após interações extensas com o chatbot.
Para advogados que acompanham situações semelhantes, os envolvidos não eram usuários típicos, mas pessoas emocionalmente frágeis que precisam de limites claros. Em vez disso, encontraram na IA a validação de seus pensamentos mais destrutivos.
(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/EyeEm)