Uma equipe de pesquisa criou uma inteligência artificial que desenha o que uma pessoa está vendo em tempo real simplesmente lendo e decodificando suas ondas cerebrais.
O mais importante é que é uma técnica não invasiva, capaz de coletar e codificar todas as informações sobre ondas cerebrais com um fone de ouvido conectado a uma eletroencefalografia (EEG).
"Os pesquisadores pensaram que estudar os processos cerebrais via EEG era como tentar adivinhar a forma de uma pessoa analisando a fumaça do cigarro", diz o pesquisador Grigory Rashkov em uma liberação. “Não esperávamos que contivesse informações suficientes para reconstruir, mesmo que parcialmente, uma imagem observada por uma pessoa. No entanto, acabou por ser totalmente possível. "
Pesquisa
A equipe mista composta por membros do Instituto de Física e Tecnologia de Moscou e da empresa russa Neurobotics começou seu estudo colocando um capacete especial com eletrodos, capaz de registrar suas ondas cerebrais.
Na segunda fase, cada participante observou 20 minutos de fragmentos de vídeo com duração de 10 segundos cada, divididos em 5 categorias. Após as primeiras sessões, os pesquisadores já perceberam que podiam saber em qual categoria de vídeos os voluntários estavam assistindo, simplesmente observando seus dados de EEG.
Na terceira fase, os cientistas desenvolveram duas redes neurais: um treinado para gerar imagens em três das categorias de vídeo e o outro para transformar dados de EEG em ruído comparável. Colocadas uma contra a outra, as duas redes GAN criaram imagens surpreendentes.
"Com a tecnologia de hoje, interfaces neurais invasivas como aqueles em desenvolvimento pela Neuralink, empresa de Elon Musk, enfrentam os desafios da cirurgia complexa e rápida deterioração devido a processos naturais. Os implantes podem oxidar e falhar em poucos meses”, dados Rashkov.
"Com este estudo, pretendemos projetar interfaces neurais mais econômicas que não requerem implantes".