IA já consegue decodificar palavras apenas pensadas, apontam pesquisas

Avanços em interfaces cérebro-computador permitem interpretar sinais neurais e traduzir pensamentos em linguagem

Avanços recentes em inteligência artificial estão impulsionando o desenvolvimento das chamadas interfaces cérebro-computador (BCIs), tecnologias capazes de interpretar sinais neurais e transformá-los em informações compreensíveis por máquinas. Segundo reportagens divulgadas pela CNN, estudos recentes mostram que modelos de IA já conseguem identificar palavras que uma pessoa apenas pensa em dizer.

O campo das BCIs começou a ganhar forma em 1969, quando o neurocientista Eberhard Fetz demonstrou que um macaco podia controlar a agulha de um medidor ao alterar intencionalmente a atividade de um neurônio. Desde então, a tecnologia evoluiu significativamente, passando do registro isolado de células cerebrais para sistemas capazes de captar redes neurais complexas com centenas de canais simultâneos.

Um dos avanços mais recentes foi apresentado por pesquisadores da Stanford University em um estudo publicado na revista Cell. Os cientistas implantaram microeletrodos no córtex motor da fala de quatro pacientes com paralisia grave causada por ELA ou AVC de tronco encefálico e registraram sinais cerebrais enquanto eles tentavam falar ou apenas imaginavam palavras.

Com esses dados, modelos de IA foram treinados para interpretar a chamada “fala interna”. Em testes experimentais, o sistema conseguiu decodificar frases de um vocabulário de até 125 mil termos com cerca de 74% de precisão, identificando inclusive respostas não previamente ensaiadas, como números contados mentalmente.

Pesquisas paralelas também exploram a reconstrução de imagens e sons a partir de sinais cerebrais. Um estudo liderado por Yu Takagi, do Nagoya Institute of Technology, utilizou ressonância magnética funcional e modelos generativos de IA para recriar imagens observadas por participantes. Já outros experimentos buscam reconstruir experiências auditivas complexas, como músicas, a partir da atividade cerebral.

Esses avanços ampliam as possibilidades das interfaces cérebro-computador, que já são exploradas por empresas como a Neuralink, fundada por Elon Musk. No entanto, especialistas alertam que a tecnologia ainda enfrenta limitações técnicas e desafios éticos, especialmente em relação à privacidade mental e ao uso de dados neurais.

Apesar do potencial para aplicações médicas, como restaurar a comunicação de pacientes com paralisia, pesquisadores estimam que sistemas mais avançados de decodificação de pensamentos podem levar entre dez e vinte anos para se consolidar plenamente.

Artigo Anterior

ChatGPT passa a ajudar usuários a identificar golpes online

Próximo Artigo

OpenAI lança GPT-5.4 e reforça foco do ChatGPT em tarefas profissionais

Escreva um comentário

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *