Federação Nacional dos Trabalhadores em Tecnologia da Informação

Do pensamento à tela: os avanços da IA na leitura de mentes

Do pensamento à tela: os avanços da IA na leitura de mentes

Avanços recentes mostram como sistemas baseados em inteligência artificial já conseguem traduzir sinais cerebrais em texto, imagens e até sons

Leitura de mentes – A ideia de “ler pensamentos” deixou de ser apenas um tema de ficção científica e começa a ganhar contornos reais dentro dos laboratórios. Pesquisas recentes indicam que sistemas baseados em inteligência artificial já são capazes de transformar sinais do cérebro em palavras, imagens e até elementos da fala, ainda que com limitações importantes.

Um dos casos mais emblemáticos envolve uma mulher de 52 anos, identificada como participante T16, que perdeu a capacidade de falar após sofrer um AVC há 19 anos. Durante um experimento, ela permaneceu imóvel, com os olhos fixos em uma tela, enquanto seu monólogo interno era convertido em frases exibidas diante dela, algo que não conseguia expressar em voz alta.

LEIA: Auxílio-doença sem perícia passa a ter novas regras e prazo maior

Para isso, a paciente recebeu um pequeno conjunto de eletrodos implantado na região frontal do cérebro. A partir daí, um sistema alimentado por inteligência artificial passou a interpretar os sinais neurais gerados enquanto ela imaginava palavras, traduzindo-os em texto.

O experimento faz parte de um estudo conduzido pela Universidade de Stanford, nos Estados Unidos, que também incluiu pacientes com esclerose lateral amiotrófica (ELA). O objetivo foi testar uma técnica capaz de transformar pensamentos em texto em tempo real, um dos resultados mais próximos já alcançados da chamada “leitura da mente”.

Os avanços não se limitam a esse estudo. Meses depois, pesquisadores japoneses apresentaram uma técnica descrita como capaz de “legendar a mente”, utilizando inteligência artificial e imagens cerebrais não invasivas para descrever com precisão aquilo que uma pessoa observa ou imagina.

Essas iniciativas fazem parte de uma série de pesquisas que vêm ampliando o entendimento sobre o funcionamento do cérebro humano, ao mesmo tempo em que criam novas possibilidades de comunicação para pessoas que perderam a fala.

“Nos próximos anos, começaremos a ver essas tecnologias sendo comercializadas e implementadas em escala”, afirma a neuroengenheira Maitreyee Wairagkar, que trabalha com interfaces cérebro-computador.

Empresas como a Neuralink, fundada por Elon Musk, também investem no desenvolvimento de chips cerebrais com potencial para levar essas tecnologias ao uso cotidiano.

As chamadas interfaces cérebro-computador (BCIs) não são exatamente novas. Desde a década de 1960, cientistas estudam formas de conectar diretamente o cérebro humano a dispositivos externos. Na época, experimentos já demonstravam que era possível controlar movimentos com a atividade de neurônios específicos.

Com o tempo, essas interfaces passaram a permitir, por exemplo, o controle de próteses ou cursores na tela. No entanto, traduzir pensamentos complexos, como a fala, sempre foi um desafio maior.

Nos últimos anos, esse cenário começou a mudar. Pesquisadores vêm desenvolvendo métodos para decodificar a fala de pacientes com limitações severas de comunicação, como aqueles com ELA. Em alguns casos, já foi possível atingir velocidades de até 32 palavras por minuto, com alta precisão.

Esses sistemas utilizam microeletrodos implantados no cérebro para registrar padrões de atividade neural, que são então interpretados por algoritmos de aprendizado de máquina. Diferentemente de assistentes virtuais que processam sons, essas tecnologias analisam diretamente os sinais neurais.

Um dos desafios atuais é a necessidade de o paciente “tentar falar” mentalmente para que o sistema funcione com precisão. Por isso, pesquisadores passaram a investigar a chamada “fala interior”, ou seja, os pensamentos em forma de linguagem que não chegam a ser vocalizados.

Experimentos recentes mostraram que é possível identificar esse tipo de atividade com níveis de precisão que chegam a 74% em tarefas específicas. Em situações mais abertas, no entanto, os resultados ainda são limitados.

“Sem a tecnologia atual, não conseguimos entender a fala interior totalmente não filtrada de uma pessoa com precisão perfeita”, afirma o pesquisador Frank Willett. “Mas conseguimos captar traços de fala interior de forma bastante clara nessas tarefas distintas.”

Além da conversão de palavras, estudos mais recentes também avançam na interpretação de elementos não verbais da comunicação, como entonação, ritmo e velocidade da fala. Isso pode permitir que pacientes transmitam não apenas o conteúdo, mas também a intenção e a emoção por trás das palavras.

Outro campo em rápida evolução é o da reconstrução de imagens a partir da atividade cerebral. Utilizando exames de ressonância magnética funcional e modelos de inteligência artificial, cientistas já conseguem recriar, com alguma fidelidade, imagens observadas por indivíduos.

Pesquisas semelhantes também buscam reconstruir experiências auditivas, incluindo trechos de música, embora com menor precisão. Esses estudos ajudam a compreender como o cérebro processa diferentes tipos de informação sensorial.

Apesar dos avanços, especialistas destacam que ainda há limitações técnicas importantes. A quantidade de neurônios analisados, por exemplo, ainda é muito pequena em comparação com a complexidade do cérebro humano.

Mesmo assim, os pesquisadores acreditam que melhorias nos dispositivos e nos algoritmos devem ampliar significativamente as capacidades dessas tecnologias nos próximos anos.

Além das aplicações médicas, as pesquisas levantam discussões sobre possíveis usos futuros, como a comunicação direta entre cérebros ou a recriação de sonhos e alucinações. No entanto, essas possibilidades ainda enfrentam desafios técnicos e éticos consideráveis.

(Com informações de BBC News Brasil)
(Foto: Reprodução/Freepik/DC Studio)

Compartilhe:

Outras publicações