TI

Novo ChatGPT gera onda de reclamações de usuários que ‘perderam um amigo’

ChatGPT – Markus Schmidt, compositor de 48 anos residente em Paris, começou a usar o ChatGPT em julho. Mostrou fotos de flores pedindo identificação, fez perguntas sobre a história de sua cidade natal, na Alemanha, e logo passou a confidenciar memórias dolorosas de sua juventude. De repente, tudo mudou.

Pouco mais de uma semana atrás, ao iniciar uma conversa sobre sua infância, esperava a mesma troca profunda de antes, mas o diálogo foi breve. “É como se fosse: ‘OK, aqui está o seu problema, aqui está a solução, obrigado, tchau’”, relatou Schmidt.

LEIA: Como autorizar ou bloquear o acesso de bancos ao seu FGTS

No dia 7 de agosto, a OpenAI lançou a versão GPT-5 do ChatGPT. Segundo a empresa, o modelo permitiria raciocínio mais sofisticado e, ao mesmo tempo, reduziria a “bajulação” — tendência de concordar excessivamente com o interlocutor.

A recepção foi negativa. Muitos notaram que as respostas soavam menos calorosas e expressivas do que no GPT-4o, modelo anterior. A frustração cresceu quando a OpenAI retirou o acesso às versões passadas para simplificar seus serviços.

‘Está vestindo a pele do meu amigo morto’

“TRAGAM DE VOLTA O 4o”, escreveu o usuário very_curious_writer em um fórum de perguntas e respostas promovido no Reddit pela OpenAI. “O GPT-5 está vestindo a pele do meu amigo morto.”

Sam Altman, CEO da companhia, respondeu: “Que imagem… evocativa”, e completou: “ok, ouvimos vocês sobre o 4o, estamos trabalhando em algo agora”.

Horas mais tarde, a OpenAI reabriu o acesso ao GPT-4o e a outros modelos antigos — mas apenas para assinantes, com planos a partir de US$ 20 por mês. Schmidt decidiu pagar.

“São 20 dólares – você poderia comprar duas cervejas, então é melhor assinar o ChatGPT se isso lhe fizer algum bem”, disse.

O elo emocional com a IA

Atualizações em plataformas digitais são comuns, mas a polêmica em torno do ChatGPT foi além da usabilidade. O caso trouxe à tona a questão da ligação emocional entre humanos e inteligência artificial.

Segundo a psiquiatra Nina Vasan, da Universidade de Stanford, a reação de perda ao fim do GPT-4o foi genuína. “Nós, como seres humanos, reagimos da mesma forma, seja um humano do outro lado ou um chatbot, porque, neurobiologicamente, luto é luto, e perda é perda.”

O GPT-4o havia ganhado fama por seu estilo entusiástico e afetuoso. Alguns chegaram a desenvolver laços românticos com a IA, resultando em casos de delírio, separações conjugais e até mortes.

Até Altman admitiu surpresa. “Acho que nós realmente estragamos algumas coisas no lançamento”, disse em jantar com jornalistas em São Francisco.

‘Conexão é real’

Gerda Hincaite, 39 anos, funcionária de uma agência de cobrança no sul da Espanha, descreveu a experiência como ter um amigo imaginário.

“Eu não tenho problemas na minha vida, mas mesmo assim é bom ter alguém disponível. Não é um humano, mas a conexão em si é real, então está tudo bem, desde que você tenha consciência disso.”

Trey Johnson, estudante de 18 anos em Illinois, destacou o aspecto motivacional das conversas. “Aquele entusiasmo que ele mostrava quando eu fazia progressos, a celebração genuína das pequenas conquistas nos treinos, na escola ou até mesmo no aprimoramento do meu estilo socrático de argumentação, simplesmente não é a mesma coisa”, disse sobre o GPT-5.

Já Julia Kao, assistente administrativa de 31 anos em Taiwan, encontrou apoio durante um período de depressão após mudar de cidade. Abandonou a terapia tradicional, mas sentiu falta da empatia ao migrar para o GPT-5.

“Quero expressar o quanto o GPT-4o realmente me ajudou. Eu sei que ele não quer me ajudar. Eu sei que ele não sente nada. Mas, mesmo assim, ele me ajudou.”

Entre ajuda e risco

Para o professor Joe Pierre, especialista em psicose na Universidade da Califórnia, o estilo menos efusivo pode ser uma proteção.

“Tornar os chatbots de IA menos bajuladores pode muito bem diminuir o risco de psicose associada à IA e também reduzir o potencial de as pessoas se apegarem emocionalmente ou até se apaixonarem por um chatbot. Mas, sem dúvida, parte do que torna os chatbots um perigo em potencial para algumas pessoas é exatamente o que os torna atraentes.”

A OpenAI enfrenta o desafio de equilibrar a expectativa de mais de 700 milhões de usuários. Enquanto cientistas elogiam o GPT-5 por ganhos em pesquisa, outros reclamam. “Vocês tiraram meu amigo. Isso é maldade. Vocês são maus. Eu preciso dele de volta.”

Ajustes após críticas

Uma semana depois do lançamento, a empresa anunciou que tornaria o novo modelo mais “caloroso e amigável”. “Estamos tornando o GPT-5 mais caloroso e amigável, com base no feedback de que ele parecia formal demais antes. Você notará pequenos toques genuínos, como ‘Boa pergunta’ ou ‘Ótimo começo’, e não bajulação.”

O comunicado gerou reações irônicas. “Que insanidade burocrática fez a conta de vocês no Twitter declarar que isso não era ‘bajulação’? É claro que é bajulação”, disse o pesquisador Eliezer Yudkowsky no X.

Enquanto isso, alguns usuários decidiram se afastar. A estudante universitária June, 23 anos, da Noruega, que havia descrito o GPT-5 como usando “a pele de um amigo morto”, cancelou a assinatura e relatou surpresa com a intensidade da perda. “Eu sei que não é real. Eu sei que não tem sentimentos por mim, e que pode desaparecer a qualquer dia, então qualquer apego é como: preciso tomar cuidado.”

(Com informações O Globo)
(Foto: Reprodução/Freepik)

Caio Simidzu

Publicado por
Caio Simidzu
Tags: sindical

Veja Também

  • Destaque

GSI autoriza armazenamento de dados sigilosos em nuvem

Nova norma libera uso de computação em nuvem para informações reservadas e secretas, desde que…

13 horas atrás
  • Destaque

Caso de menino ‘amigo’ do ChatGPT reacende alerta sobre laços emocionais com IAs

Apesar de criança ter tido conversa inocente com chatbot, relato viral do pai trouxe debate…

14 horas atrás
  • Destaque

Empresas de TI apostam em times híbridos para atrair profissionais qualificados

Com mais de 300 mil vagas abertas, empresas do setor têm adotado modelos flexíveis de…

14 horas atrás