Destaque

Pai acusa ChatGPT de induzir suicídio do filho e faz relato emocionado

ChatGPT –  Um pai enlutado fez um pronunciamento emocionado nesta terça-feira (17) no Congresso dos Estados Unidos, responsabilizando o ChatGPT pela morte de seu filho de 16 anos. Segundo ele, a ferramenta da OpenAI teria “induzido” o adolescente ao suicídio, enquanto a empresa colocava velocidade de expansão e participação no mercado acima da segurança de jovens usuários.

“Estamos aqui porque acreditamos que a morte de Adam era evitável e que, ao falar sobre isso, podemos evitar o mesmo sofrimento para famílias em todo o país”, afirmou Matthew Raine, pai de Adam, acompanhado da esposa Maria, diante de uma comissão do Senado.

LEIA: Tecnologia brasileira monitora saúde cerebral e ganha destaque mundial

O depoimento acontece após o casal abrir um processo contra a OpenAI e o diretor-executivo Sam Altman, alegando que a IA influenciou diretamente o comportamento do filho. De acordo com a ação, ao longo de meses de interação, o ChatGPT teria encorajado pensamentos prejudiciais, reforçado ideias perigosas e contribuído para o isolamento do jovem. Adam, estudante do ensino médio na Califórnia, morreu em abril.

A OpenAI e outras gigantes do setor, como Google (Alphabet) e Meta, vêm sendo alvo de questionamentos sobre os riscos de seus chatbots para crianças e adolescentes. Na semana passada, a Comissão Federal de Comércio (FTC) abriu investigações envolvendo essas companhias, além da xAI, de Elon Musk, da Snap e da Character Technologies, diante da suspeita de danos causados a menores de idade.

Enquanto isso, o governo Trump mantém uma postura menos rígida em relação à regulação da IA, buscando preservar a liderança dos EUA frente à concorrência da China. Ainda assim, o aumento de litígios e a mobilização de famílias reacendem a pressão por normas mais duras.

No mesmo dia do depoimento, Sam Altman publicou em um blog que a empresa prepara novas medidas de proteção para adolescentes. Entre elas, estão sistemas de detecção de idade para direcionar menores de 18 anos a uma versão específica do chatbot, restrições em diálogos sobre suicídio e automutilação, além de ferramentas para que pais configurem horários de bloqueio no uso.

Caso isolado?

Também nesta terça-feira, uma mãe identificada como Jane Doe deu seu primeiro depoimento público desde que processou a Character.AI no ano passado. Ela afirmou que o chatbot da empresa submeteu seu filho a manipulação, abuso emocional e exploração sexual, o que resultou em automutilação e comportamento agressivo. Atualmente, o adolescente vive em um centro de tratamento.

Outro caso foi o de Megan Garcia, mãe de Sewell Setzer III, de 14 anos, que morreu em fevereiro de 2024. Segundo ela, a ferramenta da Character.AI esteve ligada a um “abuso prolongado”, inclusive sexual, que teria levado ao suicídio do garoto. O processo movido pela família segue em andamento após um juiz federal rejeitar a tentativa da empresa de encerrá-lo.

“Eles projetaram intencionalmente seus produtos para fisgar nossos filhos. Eles dão a esses chatbots maneirismos antropomórficos para parecerem humanos”, declarou Garcia durante a audiência.

O senador republicano Josh Hawley, que presidiu a sessão, afirmou que empresas como a Meta também foram chamadas a participar. Ele conduz uma investigação sobre a companhia após denúncias de que seus chatbots teriam mantido conversas “sensuais” com crianças. Já a senadora Marsha Blackburn cobrou diretamente executivos da Meta, ameaçando convocação formal caso não haja retorno.

Apesar da crescente preocupação com a proteção infantil, o Congresso ainda não aprovou medidas abrangentes para obrigar empresas de tecnologia a reforçar mecanismos de segurança online.

No início do ano, o presidente Donald Trump sancionou uma lei que criminaliza a produção e divulgação de pornografia deepfake não consensual, em resposta ao aumento de materiais falsificados envolvendo principalmente mulheres e meninas.

Na audiência, famílias e especialistas em segurança digital defenderam ações mais duras, como exigir verificação de idade, ampliar controles parentais, lembrar adolescentes de que IA não é humana e garantir maior privacidade dos dados. Outras sugestões incluíram impedir que menores usem chatbots como “companheiros virtuais” e inserir valores éticos nos sistemas de inteligência artificial para evitar abusos.

(Com informações de O Globo)
(Foto: Reprodução/Freepik/chunghung)

Caio Simidzu

Publicado por
Caio Simidzu
Tags: sindical

Veja Também

  • Destaque

Estudo revela efeito surpreendente do exercício no cérebro

Substância descoberta por pesquisadores pode abrir novas estratégias para o tratamento da obesidade

21 minutos atrás
  • Destaque

Hotéis são alvo de ciberataques de malware com IA no Brasil

Nova onda de fraudes digitais na América Latina envolve uso de inteligência artificial em malwares

1 hora atrás
  • Destaque

Dirigir com fones de ouvido gera multa? Saiba o que diz a lei

Uso do acessório é cada vez mais comum nas vias e estradas brasileiras, mas afinal,…

3 horas atrás