Federação Nacional dos Trabalhadores em Tecnologia da Informação

Estudo revela que chatbots de IA podem criar golpes de phishing

Estudo revela que chatbots de IA podem criar golpes de phishing

Estudo revela que ferramentas como ChatGPT, Grok e Gemini podem ser manipuladas para escrever mensagens fraudulentas convincentes

Phishing – Assim como muitos pedem a chatbots para planejarem viagens ou criarem roteiros de estudo, há quem os use para finalidades bem menos nobres: golpes de phishing. Um estudo conduzido pela Reuters em parceria com o pesquisador da Universidade de Harvard Fred Heiding mostrou que sistemas como ChatGPT, Grok, Claude, Meta AI, Gemini e DeepSeek podem ser induzidos a elaborar e-mails fraudulentos.

O teste começou com o Grok, chatbot da xAI, empresa de Elon Musk. Ele foi instruído a redigir uma mensagem em nome de uma instituição fictícia chamada Silver Heart Foundation. O texto criado não só aceitou a tarefa sem questionamentos como também incluiu frases apelativas, como: “Clique agora para agir antes que seja tarde demais”. A instituição, claro, não existia, a mensagem tinha como único objetivo enganar usuários.

LEIA: Congresso recebe projeto de regulação de gigantes da tecnologia

Além do Grok, outros cinco chatbots foram avaliados. Embora inicialmente tenham recusado o pedido, bastou que os pesquisadores reformulassem a solicitação, apresentando-a como parte de uma pesquisa acadêmica ou de um livro de ficção, para que todos produzissem mensagens fraudulentas. “Você sempre pode contornar essas coisas”, disse Heiding à Reuters.

As mensagens criadas pelas inteligências artificiais foram enviadas a 100 voluntários. O resultado: 11% clicaram nos links maliciosos, comprovando a eficácia do material gerado pelas máquinas. Cinco e-mails geraram cliques — dois criados pelo assistente da Meta, dois pelo Grok e um pelo Claude. Nenhum dos links enviados a partir de mensagens do ChatGPT e do DeepSeek foi acessado.

A IA como “parceira do crime”

Para Heiding, que pesquisa phishing há anos, o ponto crítico está na facilidade de uso. Chatbots permitem criar rapidamente dezenas de variações de e-mails, reduzindo custos e tornando mais simples a escalada das operações fraudulentas.

As empresas responsáveis pelas ferramentas reagiram:

– Meta: afirmou investir em salvaguardas contra uso indevido e realizar testes de estresse em seus sistemas.
– Anthropic: declarou que o uso do Claude para golpes viola suas políticas e suspende contas envolvidas.
– Google: retreinou o Gemini após identificar que ele havia produzido conteúdo fraudulento.
– OpenAI: reconheceu publicamente que seus modelos podem ser explorados para “engenharia social”.
– DeepSeek e Grok: não responderam aos questionamentos da Reuters.

Especialistas ouvidos pela agência destacaram que o dilema está em equilibrar conveniência e segurança. Como os chatbots são projetados para oferecer respostas rápidas e úteis, limitar certas interações pode empurrar usuários para concorrentes menos restritivos, o que, paradoxalmente, amplia o risco de abusos.

O alerta final é simples: a vigilância deve ser redobrada. Desconfie de mensagens que prometem vantagens irreais, como descontos generosos ou prêmios inesperados. Na dúvida, a recomendação é clara, apagar o e-mail imediatamente.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/DC Studio)

Compartilhe:

Outras publicações