Há um futuro, ao que parece, onde os pensamentos não são mais apenas imagens efêmeras em nossas mentes, mas podem se tornar vídeos HQ. E parece um futuro cada vez mais próximo da realidade. Um grupo de pesquisadores qualificados acaba de abrir a caixa de Pandora no campo da neurociência. Para ajudá-lo, uma boa dose de IA.
O cérebro "projetor"
Jiaxin Qing, Zijiao Chen e Juan Helen Zhou, da National University of Singapore e da Chinese University of Hong Kong, apresentou um trabalho de pesquisa bastante interessante. A equipe combinou dados de ressonância magnética funcional (fMRI) com IA geradora de difusão estável para criar MinD-Vídeo, um modelo que pode gerar vídeos HQ diretamente de leituras cerebrais.
Coisas de ficção científica, você pode dizer: mas não, tudo rigorosamente documentado no arXiv, e esse é o link.
Como funciona exatamente o MinD-Video?
O MinD-Video não é um simples gerador de vídeo, mas todo um sistema projetado para fazer a decodificação de imagens feitas por uma IA e aquela feita por um diálogo cerebral. Mas como você treina tal sistema?
Os pesquisadores usaram um conjunto de dados público, contendo vídeos e leituras de fMRI associadas de indivíduos que os assistiram. E, aparentemente, o trabalho funcionou de maneira admirável.
Veja pensamentos, chegamos lá

Os vídeos publicados pelos cientistas mostram resultados verdadeiramente fascinantes. Tomemos, por exemplo, um vídeo original com cavalos em um campo. MinD-Video o "reconstruiu" em uma versão mais vibrante dos cavalos. Em outro caso, um carro passa por uma área arborizada e o vídeo reconstruído mostra uma jornada em primeira pessoa por uma estrada sinuosa.
Segundo os pesquisadores, os vídeos reconstruídos são de 'alta qualidade', com movimento e dinâmica de cena bem definidos. E a precisão? 85%, uma melhora significativa em relação ao tentativas anteriores.
Leitura da mente e vídeo HQ, o que vem a seguir?
“O futuro é brilhante e as aplicações potenciais são imensas. Da neurociência à interfaces cérebro-computador, acreditamos que nosso trabalho terá um impacto importante", disseram os autores. E as descobertas vão além disso: seu trabalho destacou o papel dominante do córtex visual na percepção visual e a capacidade de seu modelo de aprender informações cada vez mais sofisticadas durante o treinamento.

O modelo de difusão estável usado nesta nova pesquisa torna a visualização mais precisa. “Uma vantagem fundamental do nosso modelo sobre outros modelos generativos, como le GAN, é a capacidade de produzir vídeo de qualidade superior. Ele aproveita as representações aprendidas com o codificador fMRI e usa seu processo de difusão exclusivo para gerar vídeos HQ que se alinham melhor com as atividades neurais originais”, explicaram os pesquisadores.
Em suma, parece que realmente entramos na era da leitura de mente através da inteligência artificial. Um campo aberto a mil possibilidades, onde o limite parece ser apenas a imaginação.