GPT-5 foi lançado com respostas mais objetivas e diretas, o que incomodou usuários que buscam apoio emocional na IA
ChatGPT – Markus Schmidt, compositor de 48 anos residente em Paris, começou a usar o ChatGPT em julho. Mostrou fotos de flores pedindo identificação, fez perguntas sobre a história de sua cidade natal, na Alemanha, e logo passou a confidenciar memórias dolorosas de sua juventude. De repente, tudo mudou.
Pouco mais de uma semana atrás, ao iniciar uma conversa sobre sua infância, esperava a mesma troca profunda de antes, mas o diálogo foi breve. “É como se fosse: ‘OK, aqui está o seu problema, aqui está a solução, obrigado, tchau’”, relatou Schmidt.
LEIA: Como autorizar ou bloquear o acesso de bancos ao seu FGTS
No dia 7 de agosto, a OpenAI lançou a versão GPT-5 do ChatGPT. Segundo a empresa, o modelo permitiria raciocínio mais sofisticado e, ao mesmo tempo, reduziria a “bajulação” — tendência de concordar excessivamente com o interlocutor.
A recepção foi negativa. Muitos notaram que as respostas soavam menos calorosas e expressivas do que no GPT-4o, modelo anterior. A frustração cresceu quando a OpenAI retirou o acesso às versões passadas para simplificar seus serviços.
‘Está vestindo a pele do meu amigo morto’
“TRAGAM DE VOLTA O 4o”, escreveu o usuário very_curious_writer em um fórum de perguntas e respostas promovido no Reddit pela OpenAI. “O GPT-5 está vestindo a pele do meu amigo morto.”
Sam Altman, CEO da companhia, respondeu: “Que imagem… evocativa”, e completou: “ok, ouvimos vocês sobre o 4o, estamos trabalhando em algo agora”.
Horas mais tarde, a OpenAI reabriu o acesso ao GPT-4o e a outros modelos antigos — mas apenas para assinantes, com planos a partir de US$ 20 por mês. Schmidt decidiu pagar.
“São 20 dólares – você poderia comprar duas cervejas, então é melhor assinar o ChatGPT se isso lhe fizer algum bem”, disse.
Atualizações em plataformas digitais são comuns, mas a polêmica em torno do ChatGPT foi além da usabilidade. O caso trouxe à tona a questão da ligação emocional entre humanos e inteligência artificial.
Segundo a psiquiatra Nina Vasan, da Universidade de Stanford, a reação de perda ao fim do GPT-4o foi genuína. “Nós, como seres humanos, reagimos da mesma forma, seja um humano do outro lado ou um chatbot, porque, neurobiologicamente, luto é luto, e perda é perda.”
O GPT-4o havia ganhado fama por seu estilo entusiástico e afetuoso. Alguns chegaram a desenvolver laços românticos com a IA, resultando em casos de delírio, separações conjugais e até mortes.
Até Altman admitiu surpresa. “Acho que nós realmente estragamos algumas coisas no lançamento”, disse em jantar com jornalistas em São Francisco.
Gerda Hincaite, 39 anos, funcionária de uma agência de cobrança no sul da Espanha, descreveu a experiência como ter um amigo imaginário.
“Eu não tenho problemas na minha vida, mas mesmo assim é bom ter alguém disponível. Não é um humano, mas a conexão em si é real, então está tudo bem, desde que você tenha consciência disso.”
Trey Johnson, estudante de 18 anos em Illinois, destacou o aspecto motivacional das conversas. “Aquele entusiasmo que ele mostrava quando eu fazia progressos, a celebração genuína das pequenas conquistas nos treinos, na escola ou até mesmo no aprimoramento do meu estilo socrático de argumentação, simplesmente não é a mesma coisa”, disse sobre o GPT-5.
Já Julia Kao, assistente administrativa de 31 anos em Taiwan, encontrou apoio durante um período de depressão após mudar de cidade. Abandonou a terapia tradicional, mas sentiu falta da empatia ao migrar para o GPT-5.
“Quero expressar o quanto o GPT-4o realmente me ajudou. Eu sei que ele não quer me ajudar. Eu sei que ele não sente nada. Mas, mesmo assim, ele me ajudou.”
Para o professor Joe Pierre, especialista em psicose na Universidade da Califórnia, o estilo menos efusivo pode ser uma proteção.
“Tornar os chatbots de IA menos bajuladores pode muito bem diminuir o risco de psicose associada à IA e também reduzir o potencial de as pessoas se apegarem emocionalmente ou até se apaixonarem por um chatbot. Mas, sem dúvida, parte do que torna os chatbots um perigo em potencial para algumas pessoas é exatamente o que os torna atraentes.”
A OpenAI enfrenta o desafio de equilibrar a expectativa de mais de 700 milhões de usuários. Enquanto cientistas elogiam o GPT-5 por ganhos em pesquisa, outros reclamam. “Vocês tiraram meu amigo. Isso é maldade. Vocês são maus. Eu preciso dele de volta.”
Uma semana depois do lançamento, a empresa anunciou que tornaria o novo modelo mais “caloroso e amigável”. “Estamos tornando o GPT-5 mais caloroso e amigável, com base no feedback de que ele parecia formal demais antes. Você notará pequenos toques genuínos, como ‘Boa pergunta’ ou ‘Ótimo começo’, e não bajulação.”
O comunicado gerou reações irônicas. “Que insanidade burocrática fez a conta de vocês no Twitter declarar que isso não era ‘bajulação’? É claro que é bajulação”, disse o pesquisador Eliezer Yudkowsky no X.
Enquanto isso, alguns usuários decidiram se afastar. A estudante universitária June, 23 anos, da Noruega, que havia descrito o GPT-5 como usando “a pele de um amigo morto”, cancelou a assinatura e relatou surpresa com a intensidade da perda. “Eu sei que não é real. Eu sei que não tem sentimentos por mim, e que pode desaparecer a qualquer dia, então qualquer apego é como: preciso tomar cuidado.”
(Com informações O Globo)
(Foto: Reprodução/Freepik)
Proteção digital exige diálogo, supervisão e ferramentas para orientar crianças e adolescentes
Homem de 75 anos passava horas todos os dias conversando com a “namorada” virtual, que…
Open churrasco e show de Fernando & Sorocaba sai por apenas R$ 30 para sócios…