Federação Nacional dos Trabalhadores em Tecnologia da Informação

chatgpt-recurso-observa-estado-emocional-usuarios

ChatGPT ganha recurso que observa estado emocional dos usuários

Recurso permite que usuários indiquem pessoas de confiança para serem notificadas em casos de possíveis crises emocionais detectadas pelo chatbot

ChatGPT – A OpenAI anunciou uma nova funcionalidade para o ChatGPT voltada a situações emocionalmente delicadas. Batizada de Trusted Contact (“Contato de Confiança”), a ferramenta permite que usuários adultos escolham previamente uma pessoa próxima para ser acionada caso o sistema identifique sinais associados a risco de autolesão ou crises emocionais graves durante conversas com a inteligência artificial.

A novidade surge em meio ao aumento do uso de assistentes virtuais para conversas sobre sentimentos, ansiedade, medo e experiências pessoais difíceis. Segundo a empresa, a proposta é criar uma camada adicional de apoio humano em momentos de vulnerabilidade, sem substituir psicólogos, médicos ou serviços de emergência.

LEIA: Novo curso do Sindplay ensina como ter pensamento crítico no trabalho

O funcionamento do recurso depende de um sistema automatizado de análise de conversas. Quando determinados padrões considerados preocupantes são detectados, o caso é encaminhado para revisão humana antes que qualquer alerta seja enviado. De acordo com a OpenAI, essa etapa busca diminuir falhas e evitar notificações indevidas.

A empresa afirma que a criação da ferramenta foi motivada por mudanças no comportamento dos usuários, que passaram a utilizar o ChatGPT também como espaço para desabafos e discussões emocionais complexas. Com isso, cresceu o debate sobre qual deve ser o papel da inteligência artificial diante de possíveis situações de sofrimento psicológico.

O Trusted Contact é opcional e só funciona após autorização explícita do usuário. Dentro das configurações da conta, a pessoa pode cadastrar um contato de confiança, como amigo, familiar ou cuidador, que receberá um convite oficial da plataforma. O sistema só é ativado após a aceitação desse convite, que deve ocorrer em até sete dias.

Caso uma situação considerada crítica seja identificada e validada pela equipe responsável, o contato poderá receber notificações por e-mail, SMS ou pelo próprio aplicativo. Ainda assim, a OpenAI destaca que os alertas enviados possuem informações limitadas e não incluem transcrições, prints ou detalhes das conversas realizadas com o chatbot.

A mensagem enviada apenas informa que foi detectada uma situação potencialmente preocupante e sugere que o contato procure o usuário para oferecer acolhimento e apoio. Segundo a empresa, antes de qualquer notificação externa, o próprio ChatGPT prioriza incentivar a pessoa a buscar ajuda diretamente com alguém de confiança.

O lançamento do recurso reforça a transformação do papel das inteligências artificiais no cotidiano. Inicialmente desenvolvidos para tarefas técnicas e informativas, assistentes virtuais passaram a ocupar espaços cada vez mais pessoais na rotina dos usuários.

A novidade também deve ampliar discussões sobre privacidade, ética e dependência emocional de plataformas de IA. Especialistas vêm alertando que muitas pessoas criam vínculos emocionais profundos com assistentes virtuais, especialmente em períodos de isolamento ou fragilidade psicológica.

Ao incluir revisores humanos no processo, a OpenAI tenta equilibrar o uso da tecnologia para identificar possíveis crises sem transformar a inteligência artificial em substituta do apoio humano real. Ainda não há informações sobre como os usuários irão reagir ao novo sistema, mas a iniciativa evidencia que a relação entre pessoas e IA está se tornando cada vez mais emocional e complexa.

 

(Com informações de Gizmodo)

(Foto: Reprodução/Magnific)

Compartilhe:

Outras publicações