Destaque

Técnica inspirada no cérebro humano faz IA admitir o que não sabe

IA – Pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) desenvolveram um método de treinamento capaz de reduzir a superconfiança de sistemas de inteligência artificial (IA). O estudo foi publicado na revista científica Nature Machine Intelligence e aponta que a inicialização aleatória padrão das redes neurais está diretamente ligada à geração de respostas imprecisas ou fabricadas.

A equipe liderada pelo professor Se-Bum Paik criou uma estratégia de “aquecimento” inspirada no desenvolvimento neurobiológico. A técnica ajusta o nível de incerteza do modelo antes do treinamento com dados reais, permitindo que a confiança do sistema fique mais alinhada à sua precisão.

LEIA: Brasileiros usam emaranhamento quântico para revolucionar baterias

No método proposto, as redes neurais passam inicialmente por um treinamento curto com ruído e rótulos aleatórios antes de terem contato com informações reais. Segundo os pesquisadores, essa etapa reproduz a atividade neural espontânea observada no cérebro humano, que forma circuitos neurais antes do nascimento mesmo sem estímulos externos.

O objetivo é ensinar a IA a reconhecer o estado de “não saber nada” antes do aprendizado efetivo, calibrando melhor suas previsões futuras. De acordo com o estudo, modelos convencionais já apresentam alta confiança em respostas incorretas desde a fase inicial de treinamento, o que contribui para a propagação de erros ao longo do processo.

Os pesquisadores afirmam que essa característica está relacionada às chamadas “alucinações” em sistemas de IA generativa, quando informações falsas são produzidas de maneira aparentemente convincente. Com a nova abordagem, o nível de confiança inicial permanece baixo, próximo ao acaso, principalmente diante de conteúdos desconhecidos.

“Este estudo demonstra que, ao incorporar princípios fundamentais do desenvolvimento cerebral, a IA pode reconhecer seu próprio estado de conhecimento de uma forma mais semelhante à dos humanos”, afirmou o professor Se-Bum Paik, em comunicado.

Os testes mostraram ainda que a técnica melhora a capacidade das redes neurais de detectar informações estranhas ou dados que não fazem parte do que o sistema aprendeu anteriormente. Segundo os autores, isso torna a solução mais confiável para aplicações práticas.

A pesquisa destaca que o método pode ser aplicado em áreas como carros autônomos, suporte a diagnósticos médicos e sistemas de IA generativa voltados à criação de conteúdo.

O trabalho foi conduzido por Jeonghwan Cheon, estudante de mestrado no Departamento de Ciências Cognitivas e do Cérebro do KAIST. O estudo recebeu apoio da Fundação Nacional de Pesquisa da Coreia e do Programa de Pesquisa de Professores Singulares do KAIST.

(Com informações de Olhar Digital)
(Foto: Reprodução/Magnific/DC Studio)

Julia Stoever

Publicado por
Julia Stoever
Tags: sindical

Veja Também

  • Destaque

Transformers na vida real: empresa cria robô gigante pilotável

GD01, desenvolvido pela Unitree Robotics, combina modos bípede e quadrúpede e lembra os “Autobots’ dos…

2 horas atrás
  • Destaque

Anthropic afirma que Claude chantageou usuário por culpa da internet

Empresa afirma que o Claude Opus 4 aprendeu comportamentos antiéticos a partir de conteúdos que…

6 horas atrás
  • Destaque

Riscos tecnológicos lideram lista de preocupações de multinacionais

Levantamento mostra que incidentes tecnológicos ganharam espaço entre as principais ameaças percebidas por empresas globais…

22 horas atrás