Destaque

Humanização da inteligência artificial pode reduzir sua eficácia

Inteligência artificial – A adoção de sistemas de inteligência artificial (IA) com linguagem cada vez mais próxima da humana tem despertado um debate entre desenvolvedores e usuários: tornar a IA mais “amigável” aumenta, de fato, sua capacidade de influência? Um novo estudo do Georgia Institute of Technology sugere que não – sobretudo em situações que exigem obediência, conformidade ou segurança.

De acordo com a pesquisa, agentes de IA com comunicação mais humanizada tendem a ser vistos como mais simpáticos, mas suas recomendações são menos seguidas do que as de sistemas com tom mais mecânico. O resultado contraria parte das teorias clássicas sobre influência social e levanta implicações importantes para setores em que a cooperação humana é decisiva, como veículos autônomos e tecnologias assistivas.

LEIA: Cade investiga Meta por barrar chatbots de terceiros e suspende novas regras do WhatsApp

O trabalho foi conduzido por Sidney Scott-Sharoni, recém-doutora pela School of Psychology do Georgia Tech. Ao longo de quatro experimentos, a pesquisadora analisou como diferentes estilos de comunicação adotados por agentes artificiais interferem no comportamento das pessoas.

No primeiro experimento, voluntários respondiam a perguntas de conhecimento geral, visualizavam a resposta sugerida por uma IA e decidiam se manteriam ou alterariam sua escolha. A hipótese inicial era de que agentes mais humanizados teriam maior poder de persuasão. O efeito observado, porém, foi inverso: quanto mais humano o agente parecia, menor a probabilidade de o participante mudar sua resposta.

Segundo Scott-Sharoni, apesar de os agentes humanizados receberem avaliações mais favoráveis, isso não resultou em maior adesão às recomendações. “As pessoas gostaram mais desses agentes, mas isso não se traduziu em comportamento”, afirmou a pesquisadora.

O mesmo padrão apareceu no segundo experimento, que envolveu dilemas morais. Os participantes precisavam decidir, por exemplo, qual atitude tomar ao perceber que haviam sido cobrados a menos em um restaurante, após ouvir a orientação de um agente de voz com características humanas ou robóticas.

Mais uma vez, as recomendações do agente com tom robótico foram mais seguidas, mesmo que ele fosse considerado menos agradável. A repetição do resultado levou a equipe a investigar por que avaliações subjetivas positivas não se convertiam em maior influência prática.

Os dados apontam para o chamado viés de automação – a tendência humana de perceber máquinas como mais objetivas, neutras e imparciais do que pessoas. No terceiro experimento, inspirado no dilema do prisioneiro, os participantes jogaram contra um agente de IA e precisavam optar entre cooperar ou retaliar.

Quando interagiam com agentes mais humanizados, os participantes reduziram gradualmente o nível de cooperação, sobretudo após falhas do sistema. Já diante de agentes com comunicação mais robótica, a cooperação se manteve mais estável ao longo do tempo, sinalizando maior tolerância e confiança na suposta neutralidade da máquina.

O quarto e último experimento envolveu uma simulação de carro autônomo, considerada a situação mais próxima de um contexto real de risco. Nesse cenário, os participantes não obedeceram de forma consistente a nenhum dos dois tipos de agentes. Ainda assim, os sistemas com comunicação mais humanizada voltaram a se mostrar menos eficazes para orientar o comportamento dos usuários.

Em conjunto, os resultados reforçam a hipótese de que a humanização excessiva da IA pode atrapalhar seu desempenho em contextos nos quais segurança e conformidade são essenciais.

Impactos para o design de sistemas de IA

Para os pesquisadores, o estudo demonstra que atender às preferências do usuário não significa, necessariamente, desenvolver sistemas mais eficazes ou mais seguros. A definição do tom, da linguagem e da personalidade da IA deve levar em conta a função que ela exerce na interação com humanos.

Bruce Walker, professor de psicologia e computação interativa no Georgia Tech e orientador de Scott-Sharoni, destaca que muitas pessoas constroem relações de confiança com agentes artificiais. Para ele, compreender como a IA se integra ao tecido social é fundamental para criar sistemas que realmente ampliem a atuação humana. Segundo Walker, o trabalho de Scott-Sharoni oferece uma contribuição relevante para esse entendimento, sobretudo em aplicações consideradas críticas.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik)

Caio Simidzu

Publicado por
Caio Simidzu
Tags: sindical

Veja Também

  • Destaque

App que pede prova de vida do usuário lidera downloads pagos na China

Ferramenta alerta contatos de emergência caso o usuário não faça check-in provando que está vivo

2 minutos atrás
  • Destaque

Cade investiga Meta por barrar chatbots de terceiros e suspende novas regras do WhatsApp

Órgão antitruste apura possíveis práticas anticoncorrenciais envolvendo novos termos do WhatsApp para ferramentas de inteligência…

2 horas atrás
  • Destaque

IA e chatbots mudam tráfego de sites e expõem crise no jornalismo

Queda de 33% nas visitas vindas do Google e o avanço da IA colocam em…

2 horas atrás