Destaque

IA do Google voltada à medicina cita órgão humano que não existe

IA do Google – Um erro grave cometido pelo modelo de inteligência artificial Med-Gemini, do Google, demonstrou os riscos do uso indiscriminado da tecnologia na área da saúde. Em um artigo científico assinado por mais de 50 autores, o sistema mencionou um infarto nos chamados “gânglios basilares” — um termo que, na prática, descreve um órgão que não existe.
A confusão surgiu da combinação indevida de dois conceitos reais: a artéria basilar, que irriga o tronco cerebral, e os gânglios da base, estruturas ligadas ao controle motor. Apesar da complexidade do material e do grande número de profissionais envolvidos, a falha passou despercebida durante toda a revisão do texto. O equívoco só foi identificado mais tarde pelo neurologista Bryan Moore, que alertou a empresa sobre a inconsistência.

LEIA: Moto voadora inspirada em Star Wars é anunciada por startup

Desenvolvido a partir do modelo Gemini e lançado em 2024, o Med-Gemini é voltado para aplicações clínicas, como interpretação de exames, elaboração de relatórios e respostas a profissionais da saúde. No entanto, o episódio evidencia a necessidade de validações mais rigorosas.
Embora o Google tenha feito uma correção silenciosa no blog oficial, a explicação só veio após a exposição pública do caso. A empresa afirmou que a IA aprendeu a “transcrição incorreta” a partir dos dados de treinamento. Curiosamente, o artigo original com o erro segue publicado sem alterações.
Pesquisadores e profissionais da saúde alertam para o chamado “viés de automação”, ou seja, a tendência de confiar excessivamente em sistemas automatizados, mesmo quando apresentam respostas equivocadas. Para eles, o problema não está apenas no erro em si, mas na forma como ele é apresentado, com a mesma confiança de uma resposta correta.
Casos semelhantes já foram registrados, como o relatado por Maulin Shah, diretor de informação médica da rede Providence, em que uma IA reproduziu um diagnóstico incorreto de câncer registrado como negativo.
Outro exemplo vem da pesquisadora Judy Gichoya, que obteve respostas diferentes ao apresentar o mesmo raio-x à IA: com uma pergunta detalhada, houve acerto; com uma mais simples, a IA classificou o exame como normal.
Para especialistas, episódios como o dos “gânglios basilares” mostram que o uso de IA na medicina exige mais do que eficiência técnica: requer responsabilidade, transparência e, principalmente, revisão humana constante.

(Com informações de Tecnoblog)
(Foto: Reprodução/Freepik/DC Studio)

Pixel Desenvolvimento

Publicado por
Pixel Desenvolvimento
Tags: sindical

Veja Também

  • Destaque

Assinatura digital pelo Gov.br tem mesma validade que a manuscrita, decide STJ

Decisão afasta formalismo excessivo e reforça que legislação federal já equipara a assinatura eletrônica à…

11 horas atrás
  • Destaque

Empresa japonesa encomenda carros voadores do Brasil

Acordo entre Eve Air Mobility e a japonesa AirX prevê entrega de duas aeronaves elétricas…

14 horas atrás
  • Destaque

Feriados em 2026 favorecem emendas e dias extras de descanso; veja datas

Com planejamento e atenção às regras da CLT, trabalhadores podem transformar feriados em períodos maiores…

14 horas atrás