Destaque

Pai acusa ChatGPT de induzir suicídio do filho e faz relato emocionado

ChatGPT –  Um pai enlutado fez um pronunciamento emocionado nesta terça-feira (17) no Congresso dos Estados Unidos, responsabilizando o ChatGPT pela morte de seu filho de 16 anos. Segundo ele, a ferramenta da OpenAI teria “induzido” o adolescente ao suicídio, enquanto a empresa colocava velocidade de expansão e participação no mercado acima da segurança de jovens usuários.

“Estamos aqui porque acreditamos que a morte de Adam era evitável e que, ao falar sobre isso, podemos evitar o mesmo sofrimento para famílias em todo o país”, afirmou Matthew Raine, pai de Adam, acompanhado da esposa Maria, diante de uma comissão do Senado.

LEIA: Tecnologia brasileira monitora saúde cerebral e ganha destaque mundial

O depoimento acontece após o casal abrir um processo contra a OpenAI e o diretor-executivo Sam Altman, alegando que a IA influenciou diretamente o comportamento do filho. De acordo com a ação, ao longo de meses de interação, o ChatGPT teria encorajado pensamentos prejudiciais, reforçado ideias perigosas e contribuído para o isolamento do jovem. Adam, estudante do ensino médio na Califórnia, morreu em abril.

A OpenAI e outras gigantes do setor, como Google (Alphabet) e Meta, vêm sendo alvo de questionamentos sobre os riscos de seus chatbots para crianças e adolescentes. Na semana passada, a Comissão Federal de Comércio (FTC) abriu investigações envolvendo essas companhias, além da xAI, de Elon Musk, da Snap e da Character Technologies, diante da suspeita de danos causados a menores de idade.

Enquanto isso, o governo Trump mantém uma postura menos rígida em relação à regulação da IA, buscando preservar a liderança dos EUA frente à concorrência da China. Ainda assim, o aumento de litígios e a mobilização de famílias reacendem a pressão por normas mais duras.

No mesmo dia do depoimento, Sam Altman publicou em um blog que a empresa prepara novas medidas de proteção para adolescentes. Entre elas, estão sistemas de detecção de idade para direcionar menores de 18 anos a uma versão específica do chatbot, restrições em diálogos sobre suicídio e automutilação, além de ferramentas para que pais configurem horários de bloqueio no uso.

Caso isolado?

Também nesta terça-feira, uma mãe identificada como Jane Doe deu seu primeiro depoimento público desde que processou a Character.AI no ano passado. Ela afirmou que o chatbot da empresa submeteu seu filho a manipulação, abuso emocional e exploração sexual, o que resultou em automutilação e comportamento agressivo. Atualmente, o adolescente vive em um centro de tratamento.

Outro caso foi o de Megan Garcia, mãe de Sewell Setzer III, de 14 anos, que morreu em fevereiro de 2024. Segundo ela, a ferramenta da Character.AI esteve ligada a um “abuso prolongado”, inclusive sexual, que teria levado ao suicídio do garoto. O processo movido pela família segue em andamento após um juiz federal rejeitar a tentativa da empresa de encerrá-lo.

“Eles projetaram intencionalmente seus produtos para fisgar nossos filhos. Eles dão a esses chatbots maneirismos antropomórficos para parecerem humanos”, declarou Garcia durante a audiência.

O senador republicano Josh Hawley, que presidiu a sessão, afirmou que empresas como a Meta também foram chamadas a participar. Ele conduz uma investigação sobre a companhia após denúncias de que seus chatbots teriam mantido conversas “sensuais” com crianças. Já a senadora Marsha Blackburn cobrou diretamente executivos da Meta, ameaçando convocação formal caso não haja retorno.

Apesar da crescente preocupação com a proteção infantil, o Congresso ainda não aprovou medidas abrangentes para obrigar empresas de tecnologia a reforçar mecanismos de segurança online.

No início do ano, o presidente Donald Trump sancionou uma lei que criminaliza a produção e divulgação de pornografia deepfake não consensual, em resposta ao aumento de materiais falsificados envolvendo principalmente mulheres e meninas.

Na audiência, famílias e especialistas em segurança digital defenderam ações mais duras, como exigir verificação de idade, ampliar controles parentais, lembrar adolescentes de que IA não é humana e garantir maior privacidade dos dados. Outras sugestões incluíram impedir que menores usem chatbots como “companheiros virtuais” e inserir valores éticos nos sistemas de inteligência artificial para evitar abusos.

(Com informações de O Globo)
(Foto: Reprodução/Freepik/chunghung)

Caio Simidzu

Publicado por
Caio Simidzu
Tags: sindical

Veja Também

  • Notícias

Criminosos se passam por autoridades da Justiça do MA para aplicar golpes via WhatsApp

Tribunal de Justiça do Maranhão reforça que não pede pagamentos nem dados bancários por mensagens

13 horas atrás
  • Destaque

China testa ‘bolhas’ gigantes para reduzir impactos de obras urbanas

Estruturas infláveis em forma de bolha criam ambientes isolados e reduzem impactos no entorno das…

14 horas atrás
  • Destaque

Do pensamento à tela: os avanços da IA na leitura de mentes

Avanços recentes mostram como sistemas baseados em inteligência artificial já conseguem traduzir sinais cerebrais em…

14 horas atrás