Ciência, tecnologia e inovação

Cientistas de Harvard decifram diálogo interno do cérebro e transformam pensamentos em palavras

A técnica envolve a implantação de pequenas matrizes de eletrodos na região motora do cérebro.

Por Antagonist 23/09/2025 14h02
Cientistas de Harvard decifram diálogo interno do cérebro e transformam pensamentos em palavras
Cientistas de Harvard decifram diálogo interno do cérebro e transformar pensamentos em palavras - Foto: depositphotos.com / Zyabich

O desenvolvimento de interfaces cérebro-computador (BCI) e modelos avançados de inteligência artificial oferece uma nova esperança para pessoas que perderam a capacidade de falar.

A pesquisa liderada por uma equipe da Universidade de Harvard representa um marco significativo ao conseguir decifrar o “discurso interno” em pacientes com paralisia.

Este progresso, publicado na revista Cell, é fruto do trabalho de Daniel Rubin, Ziv Williams e Leigh Hochberg, em colaboração com BrainGate e o Hospital Geral de Massachusetts. Essa inovação surge após anos de investigação em neurociência e tecnologia médica.

Até recentemente, as BCI permitiam que pessoas com paralisia controlassem dispositivos ou digitassem usando sinais cerebrais associados a movimentos imaginados.

No entanto, este estudo se concentra mais adiante, tentando decodificar o diálogo silencioso que ocorre na mente: o discurso interno que nunca é proferido em voz alta.

A técnica envolve a implantação de pequenas matrizes de eletrodos na região motora do cérebro dos participantes. Esses sensores capturam sinais relacionados aos músculos da fala, como boca, mandíbula e língua, mesmo quando não há movimento, pois o cérebro ainda envia comandos.

Como as interfaces cérebro-computador decodificam pensamentos?

Os avanços no campo das BCI estão possibilitando uma nova fronteira na comunicação para pessoas imobilizadas.

Utilizando modelos de aprendizado de máquina, as pesquisas processam sinais do cérebro para reconstruir as palavras ou frases prováveis, usando uma base de trinta e nove fonemas da língua inglesa.

Por exemplo, ao detectar padrões cerebrais correspondentes aos sons “D” e “G”, há uma probabilidade de que a palavra pretendida seja “dog” (cachorro, em inglês).

Assim, mesmo sem a emissão de som, o esforço mental em proferir uma palavra é registrado e parcialmente traduzido.