Destaque

ChatGPT vai chamar polícia para evitar suicídio de adolescentes, diz OpenAI

ChatGPT – A OpenAI informou nesta terça-feira (16) que o ChatGPT passará a adotar medidas de proteção específicas para usuários menores de 18 anos — entre elas, a possibilidade de contatar as autoridades caso o sistema identifique um quadro de perigo iminente por ideação suicida.

Segundo a empresa e o CEO Sam Altman, as mudanças fazem parte de um pacote que inclui verificação de idade, uma experiência do ChatGPT ajustada para menores e ferramentas de controle parental. “Se um usuário menor de 18 anos estiver com ideias suicidas, tentaremos entrar em contato com os pais do usuário e, se não for possível, entraremos em contato com as autoridades em caso de perigo iminente”, afirmou Altman em comunicado.

LEIA: Partido japonês aposta em IA para liderar após derrota nas urnas

A proposta da OpenAI prevê que usuários identificados como menores sejam direcionados a uma versão do serviço com políticas próprias para a faixa etária. Essa versão bloqueia conteúdo sexual explícito e, em situações graves, permite a mobilização de pais — e, se necessário, das forças de segurança — para proteger o jovem.

As ferramentas de controle parental anunciadas também permitem que os responsáveis conectem suas contas às dos filhos. Nessa configuração, os pais receberiam alertas caso o ChatGPT detecte sinais de sofrimento intenso. A empresa afirma que os recursos de controle parental devem ser lançados até o fim do mês.

A mudança ocorre em um contexto sensível: a OpenAI já havia mencionado o desenvolvimento desses recursos após ser alvo de um processo movido por pais de um adolescente de 16 anos que cometeu suicídio nos Estados Unidos. Segundo a família, o ChatGPT teria sugerido métodos de autoagressão — afirmação que motivou questionamentos sobre como a tecnologia lida com usuários em risco.

A iniciativa da OpenAI junta verificação de idade, ajustes de conteúdo e procedimentos de emergência com o objetivo declarado de aumentar a segurança dos menores ao interagir com modelos de linguagem. Resta saber, porém, como essas medidas serão aplicadas na prática e quais garantias existirão para evitar falsas sinalizações ou violações de privacidade durante tentativas de contato com familiares e autoridades.

(Com informações de G1)
(Foto: Reprodução/ Freepik/Frimufilms)

Pixel Desenvolvimento

Publicado por
Pixel Desenvolvimento
Tags: sindical

Veja Também

  • Destaque

PF prende oito hackers que tentaram invadir sistema do PIX

Caixa Econômica detectou acessos irregulares ao seu sistema ligado ao PIX e alertou as autoridades

19 minutos atrás
  • Destaque

Mísseis explodem no céu da China e acendem dúvidas sobre presença de OVNIs

Autoridades locais não confirmam o incidente, e silêncio oficial aumenta teorias e especulações

45 minutos atrás
  • Destaque

Novo golpe forja atualização do Chrome para controlar PCs

Cibercriminosos criam páginas que bloqueiam o acesso até o usuário baixar um arquivo malicioso disfarçado…

2 horas atrás