IA decodifica pensamentos e fala interior em tempo real, revolucionando comunicação
IA decodifica pensamentos e fala interior em tempo real

IA decodifica pensamentos e fala interior em tempo real, revolucionando comunicação

A mulher permanecia imóvel, com apenas o movimento suave da respiração revelando vida. Seus olhos fixos e mãos cerradas contrastavam com as palavras que se formavam lentamente na tela à sua frente, construindo frases completas que ela não podia vocalizar. Aos 52 anos, identificada apenas como participante T16, ela vive paralisada há 19 anos após um acidente vascular cerebral, incapaz de falar com clareza. Agora, seu monólogo interno tornava-se visível através de uma tecnologia revolucionária.

O brilho elétrico do cérebro decifrado

O sistema que transformou sua realidade consiste em um minúsculo feixe de eletrodos implantado cirurgicamente no lobo frontal do cérebro, conectado a um computador alimentado por inteligência artificial. Este dispositivo decodifica os sinais produzidos pelos neurônios quando ela imagina pronunciar palavras, traduzindo-os em texto exibido em tempo real. Ela participou de um estudo pioneiro da Universidade de Stanford, na Califórnia, ao lado de três outros pacientes com esclerose lateral amiotrófica (ELA), testando uma técnica que representa o mais próximo que a ciência já chegou de "ler pensamentos".

Os pesquisadores publicaram suas conquistas em agosto de 2025, meses antes de cientistas japoneses revelarem uma técnica de "legendar a mente" capaz de gerar descrições detalhadas do que uma pessoa observa ou imagina. Estas inovações oferecem aos neurocientistas uma visão sem precedentes do funcionamento interno do cérebro humano e prometem transformar radicalmente como nos comunicamos.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Interfaces cérebro-computador: uma jornada histórica

Os cientistas desenvolvem dispositivos de comunicação direta com o cérebro humano há décadas, conhecidos como interfaces cérebro-computador (BCIs). Em 1969, o neurocientista americano Eberhard Fetz demonstrou que macacos podiam aprender a mover a agulha de um medidor usando a atividade de um único neurônio cerebral em troca de alimento. Na mesma época, o cientista espanhol José Delgado conseguiu estimular remotamente o cérebro de um touro enfurecido, fazendo-o parar no meio do caminho.

Embora os BCIs tenham decodificado sinais cerebrais relacionados ao movimento por anos, permitindo o controle de próteses ou cursores em telas, o desenvolvimento de sistemas que traduzem fala ou pensamentos complexos avançou mais lentamente. "Grande parte do trabalho inicial foi feito em primatas não humanos... e, obviamente, você não pode estudar a fala com macacos", explica a neuroengenheira Maitreyee Wairagkar, da Universidade da Califórnia em Davis.

Decodificando a fala: avanços impressionantes

Nos últimos anos, o campo fez progressos notáveis na decodificação da fala de pessoas com capacidades comunicativas debilitadas, como pacientes com ELA que sofrem paralisia e síndrome do encarceramento. Em 2021, pesquisadores de Stanford anunciaram uma prova de conceito bem-sucedida que permitiu a um homem quadriplégico produzir frases em inglês imaginando desenhar letras no ar com a mão, alcançando 18 palavras por minuto.

Em 2024, o laboratório de Wairagkar testou uma técnica que traduzia as tentativas de fala de um homem de 45 anos com ELA diretamente em texto na tela de um computador, com cerca de 32 palavras por minuto e 97,5% de precisão. Estes métodos utilizam conjuntos minúsculos de microeletrodos implantados cirurgicamente na superfície cerebral, registrando padrões de atividade neural convertidos em significado por algoritmos de aprendizado de máquina.

Revelando a fala interior: um desafio complexo

Os pesquisadores de Stanford quiseram testar se poderiam detectar a "fala interior" em tempo real, além da "tentativa de fala". Eles pediram aos participantes que contassem números mentalmente enquanto observavam formas coloridas na tela. "Vimos traços desses números passando através do córtex motor, que conseguimos captar", explica Frank Willett, diretor do Laboratório de Tradução Protética Neural de Stanford.

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar

A resposta sobre se a tecnologia poderia identificar a fala interior é um "sim" provisório. Para tarefas envolvendo imaginação de frases, os pesquisadores atingiram até 74% de precisão em tempo real. Em condições mais abertas, como pensar em falas favoritas de filmes, a linguagem decodificada tornou-se praticamente incompreensível. "Sem a tecnologia atual, não conseguimos entender a fala interior totalmente não filtrada com precisão perfeita", afirma Willett.

Além das palavras: elementos não verbais da comunicação

O laboratório de Wairagkar fez uma descoberta importante em 2025, demonstrando que poderia decodificar não apenas palavras, mas também elementos não verbais da fala como entonação, tom, ritmo e velocidade. "A fala humana é muito mais do que texto sobre tela", explica ela. "A maior parte da nossa comunicação vem de como falamos, como nos expressamos."

Seu protótipo permitiu que um paciente com ELA grave modulasse palavras para transmitir significado, fazendo perguntas com inflexão e mudando de tom enquanto falava. Embora apenas 60% das palavras tenham sido consideradas inteligíveis, o teste demonstrou a possibilidade futura de transmitir nuances emocionais e expressivas através da tecnologia cérebro-texto.

Reconstruindo imagens e sons a partir da atividade cerebral

Enquanto pesquisadores de BCIs focam em aplicações práticas para pacientes, outros campos fazem progressos na decodificação de imagens cerebrais para compreender melhor o funcionamento do cérebro. Uma área de pesquisa concentra-se na recriação de imagens observadas por indivíduos, analisando imagens cerebrais com IA.

O professor Yu Takagi, do Instituto de Tecnologia de Nagoya, publicou um estudo em 2023 usando o algoritmo Stable Diffusion treinado com dados cerebrais de participantes observando 10 mil fotos. Em muitos casos, a IA conseguiu fornecer impressões adequadas das imagens originais. Pesquisas israelenses do ano passado reproduziram imagens ainda mais precisas, esclarecendo como o cérebro processa informações visuais através do lobo occipital e temporal.

Takagi também publicou um estudo em 2025 tentando reproduzir áudio a partir de imagens de ressonância magnética funcional (fMRI) produzidas enquanto pacientes ouviam trechos musicais. "A qualidade da reconstrução é menor comparada com imagens, mas ainda conseguimos reconstruir características básicas da música", explica ele.

Futuro promissor e desafios éticos

Wairagkar e Willett acreditam que novos progressos são iminentes. Melhorias podem envolver simplesmente aumentar a quantidade de microeletrodos colocados no cérebro. "No nosso cérebro, temos bilhões de neurônios e trilhões de conexões", destaca Wairagkar. "Dispositivos mais novos conseguirão usar amostras com mais neurônios, obter maior riqueza de informação e atingir fala inteligível em tempo real."

Willett planeja explorar como outras áreas cerebrais além do córtex motor podem estar envolvidas na fala interior, como o giro temporal superior envolvido no processamento auditivo. Observar além do córtex motor também pode ajudar pessoas com lesões cerebrais nesta região, como vítimas de AVC cujo córtex motor está danificado mas que ainda entendem a fala.

Enquanto pesquisas levantam a possibilidade de comunicação direta entre cérebros ou até com múltiplas pessoas simultaneamente, as implicações éticas e questões de direitos humanos relacionadas a estes dispositivos ainda precisam ser totalmente analisadas. Para quem espera estimular experiências visuais ou auditivas no cérebro para entretenimento, Takagi pede paciência: teoricamente possível, mas provavelmente não ocorrerá nos próximos 10 a 20 anos devido a limitações técnicas.