A mulher estava imóvel, exceto pelas subidas e descidas da sua respiração. Seus olhos estavam fixos e concentrados e as mãos fechadas como em um soco. Palavras se formavam em uma tela à sua frente e se reuniam lentamente, formando frases inteiras, que ela não conseguia dizer em voz alta.
Ela tem 52 anos de idade e ficou paralisada por um AVC 19 anos antes, sem poder falar com clareza. Mas, agora, seu monólogo interno aparecia em frente aos seus olhos.
Identificada apenas como participante T16, a mulher recebeu um minúsculo feixe de eletrodos, inserido cirurgicamente em um lóbulo na frente do cérebro.
Agora, um computador, alimentado por uma forma de inteligência artificial, decodifica os sinais produzidos pelos seus neurônios enquanto ela imagina dizer palavras. O sistema traduz os sinais em texto e mostra em uma tela.
Ela fez parte de um estudo da Universidade de Stanford, no Estado americano da Califórnia, ao lado de três outros pacientes com a doença neurodegenerativa esclerose lateral amiotrófica(ELA). O objetivo é testar uma técnica capaz de traduzir pensamentos em texto, em tempo real.
Foi o mais próximo que os cientistas já chegaram de uma forma de “ler pensamentos”.
Os pesquisadores publicaram suas realizações em agosto de 2025. Alguns meses depois, pesquisadores japoneses revelaram uma técnica de “legendar a mente“, capaz de gerar descrições precisas e detalhadas do que uma pessoa está observando ou imaginando.
Ela combina três ferramentas de IA diferentes com imagens cerebrais não invasivas para traduzir a atividade cerebral da pessoa.
Fonte: BBC NEWS






