Informações falsas – Representantes de vendas da Wolf River Electric, empresa de energia solar em Minnesota, começaram a notar um aumento fora do comum no número de contratos cancelados no fim do ano passado. Ao buscar explicações junto aos ex-clientes, ouviram algo inesperado: muitos haviam desistido do serviço após encontrar, em resultados do Google, informações de que a companhia teria fechado um acordo judicial com o procurador-geral do estado por práticas comerciais enganosas, algo que nunca aconteceu.
Intrigados, os executivos decidiram verificar. As buscas exibidas pelo Gemini, tecnologia de inteligência artificial do Google, traziam respostas falsas sobre a empresa. Além disso, menções ao suposto acordo apareciam automaticamente ao digitar “Wolf River Electric” na barra de pesquisa.
LEIA: IA que confundiu Doritos com arma erra de novo e gera pânico em escola
Com o acúmulo de cancelamentos e sem conseguir reverter o problema usando as próprias ferramentas do Google, a Wolf River optou por processar o gigante da tecnologia por difamação.
“Investimos muito tempo e energia para construir uma boa reputação”, afirmou Justin Nielsen, fundador da empresa, criada em 2014 ao lado de três amigos e que hoje lidera o mercado de energia solar em Minnesota. “Quando os clientes veem um alerta como esse, é praticamente impossível reconquistá-los.”
O episódio é um dos pelo menos seis processos por difamação abertos nos Estados Unidos nos últimos dois anos envolvendo conteúdos gerados por ferramentas de inteligência artificial. Os autores alegam que a tecnologia não apenas criou e divulgou informações falsas e prejudiciais, como continuou a fazê-lo mesmo após as empresas responsáveis terem sido notificadas.
Para especialistas, os casos inauguram um novo território jurídico: tentar definir como difamatório um conteúdo que não foi produzido por humanos.
“Não há dúvida de que esses modelos podem publicar afirmações prejudiciais”, afirmou Eugene Volokh, professor da UCLA e referência em Primeira Emenda, que dedicou uma edição inteira de seu Journal of Free Speech Law ao tema em 2023. “A questão é: quem é o responsável por isso?”
Primeiros casos e impasses jurídicos
Um dos primeiros processos do tipo foi movido em 2023, na Geórgia. O apresentador de rádio e defensor do direito ao porte de armas Mark Walters alegou ter tido sua reputação prejudicada depois que o ChatGPT respondeu a um jornalista que ele havia sido acusado de desvio de dinheiro, informação falsa.
Como uma das principais dificuldades nesses casos é provar intenção, a ação tentou responsabilizar diretamente a OpenAI, criadora do modelo. “Frankenstein não pode criar um monstro que sai por aí matando pessoas e depois alegar que não tem nada a ver com isso”, disse John Monroe, advogado de Walters.
O caso, porém, foi arquivado em maio. O tribunal destacou que o jornalista não acreditou na afirmação do chatbot e checou rapidamente sua veracidade, um elemento central para ações de difamação. “Se a pessoa que lê uma declaração contestada não acredita subjetivamente que ela seja factual, então essa declaração não é difamatória”, escreveu a juíza Tracie Cason.
Até agora, nenhum processo por difamação envolvendo IA foi julgado por um júri nos EUA. Pelo menos um, movido em abril contra a Meta pelo influenciador conservador Robby Starbuck, terminou em acordo. Ele alegou que o Llama, chatbot da empresa, gerou uma imagem com informações falsas associando-o aos distúrbios no Capitólio em 6 de janeiro de 2021 e ao QAnon. Starbuck diz que estava em casa, no Tennessee, naquele dia.
A Meta encerrou o caso em agosto, contratando Starbuck como consultor focado em políticas de moderação da IA. A empresa afirmou, em comunicado, ter avançado na precisão da Meta AI e na redução de vieses. Os termos do acordo não foram divulgados.
No mês passado, Starbuck processou também o Google, pedindo US$ 15 milhões por alegações falsas que, segundo ele, refletem “viés político embutido no algoritmo”. O Google ainda não respondeu formalmente, mas o porta-voz José Castañeda afirmou que a maioria das alegações remonta a 2023 e que já haviam sido tratadas.
“Como todo mundo sabe, se você for criativo o bastante, pode induzir um chatbot a dizer algo enganoso”, disse ele.
Risco crescente para as empresas de tecnologia
Para Nina Brown, professora de comunicação da Universidade de Syracuse, poucos desses casos devem chegar a julgamento. “Se surgir um processo de difamação por IA em que o réu esteja vulnerável, ele vai desaparecer — as empresas vão buscar um acordo. Elas não querem correr esse risco.”
Ela e outros especialistas apontam que o caso da Wolf River é particularmente forte, já que a empresa documentou perdas concretas. A queixa menciona US$ 388 mil em contratos cancelados. O CEO, Vladimir Marchenko, afirmou que a companhia também deixou de conquistar novos clientes.
“Descobrimos que alguns concorrentes mencionam as falsas acusações do procurador-geral em reuniões, para convencer potenciais clientes a não fechar conosco”, afirmou. Ele também encontrou postagens no Reddit repetindo as falsidades, uma delas chamando a empresa de “possível corporação do diabo”.
Em comunicação ao Google, a Wolf River afirmou ter perdido quase US$ 25 milhões em vendas em 2024 e busca uma indenização de ao menos US$ 110 milhões. O processo está suspenso enquanto a Justiça decide se ele permanecerá no âmbito federal ou retornará à corte estadual, onde foi aberto em março.
Um fator que pode favorecer a empresa é que ela dificilmente será considerada figura pública. Isso reduz o padrão necessário para provar difamação: basta demonstrar negligência do Google, e não “desrespeito temerário” à verdade.
O porta-voz José Castañeda reconheceu que, com novas tecnologias, “erros podem acontecer”, e afirmou que o Google agiu rapidamente ao ser informado. Mesmo assim, uma busca recente por “reclamação sobre a Wolf River Electric” ainda trazia resultados mencionando um suposto processo do procurador-geral de Minnesota e orientando clientes a registrar uma reclamação junto ao órgão.
A disputa expõe o dilema crescente das big techs na era dos chatbots: quando a IA fabrica histórias, alguém paga a conta e, cada vez mais, as empresas estão levando essa fatura aos tribunais.
(Com informações de O Globo)
(Foto: Reprodução/Freepik/DC Studio)