Destaque

Google suspende resumos de IA em buscas de saúde após respostas enganosas

IA – O Google retirou o recurso “Visão Geral criada por IA” de determinadas pesquisas após a divulgação de uma investigação do jornal britânico The Guardian, que apontou falhas graves nas respostas fornecidas pela ferramenta. Segundo a apuração, os resumos gerados por inteligência artificial apresentavam informações incorretas e potencialmente enganosas, sobretudo em temas sensíveis como saúde.

Um dos casos destacados envolveu a pergunta “Quais os valores de referência normais para exames de sangue relacionados ao fígado?”. De acordo com o The Guardian, o resumo exibido pela IA não levava em conta fatores essenciais, como sexo e idade, comprometendo a precisão dos dados e podendo induzir o usuário ao erro.

LEIA: Calendário de pagamentos do INSS para 2026 já está disponível; consulte

Após a publicação da reportagem, em 2 de janeiro, o jornal observou que algumas das buscas mencionadas deixaram de apresentar a “Visão Geral criada por IA”. Ainda assim, variações dessas mesmas pesquisas continuam exibindo resumos gerados por modelos de linguagem.

Testes realizados pelo site TecMundo indicam que a busca “quais são os valores normais para exames de sangue relacionados ao fígado?” ainda apresenta normalmente a Visão Geral criada por IA. No caso da pesquisa em português, o resumo diferencia os valores por gênero e destaca que os resultados podem variar de acordo com o laboratório responsável pelo exame.

Caso foi revisado pelo Google

Em resposta ao The Guardian, um porta-voz do Google afirmou que a empresa não comenta alterações em pesquisas específicas, mas ressaltou que trabalha de forma contínua para aprimorar o sistema. Segundo o executivo, um time interno de clínicos revisou os casos apontados e confirmou que respostas incorretas apareciam em múltiplas situações.

A Visão Geral criada por IA é um recurso que gera resumos automáticos para determinadas pesquisas, com base em grandes modelos de linguagem. A funcionalidade chegou ao Brasil em agosto de 2024 e, desde então, tem sido alvo de debates sobre sua confiabilidade e precisão.

Por serem suscetíveis a erros, grandes modelos de linguagem não devem ser tratados como fontes definitivas de informação. O episódio denunciado pelo The Guardian reforça esse alerta, especialmente quando o tema envolve saúde, área em que informações imprecisas podem representar riscos reais aos usuários.

Esse cuidado, no entanto, não se limita à Visão Geral criada por IA. Ferramentas de IA generativa, de modo geral, não são infalíveis. Para obter informações corretas e contextualizadas, a alternativa mais segura continua sendo a consulta a conteúdos produzidos por especialistas ou a profissionais qualificados.

(Com informações de Tecmundo)
(Foto: Reprodução/Freepik/kos-51)

Julia Stoever

Publicado por
Julia Stoever
Tags: sindical

Veja Também

  • Notícias

Meta bloqueia meio milhão de contas de menores de 16 anos na Austrália

Nova lei proíbe o uso de redes sociais por adolescentes de 16 anos e entrou…

12 horas atrás
  • Destaque

Alunos brasileiros participam da construção de satélite lançado na Índia

Missão espacial envolve alunos de escolas públicas e privadas e dará origem à primeira constelação…

12 horas atrás
  • Destaque

Violação de direitos de menores e mulheres leva a pedido de suspensão do Grok

IA vem sendo usada para gerar deepfakes sexualizados e cobra providências com base em legislações…

13 horas atrás