Em fevereiro passado, a OpenAI anunciou que havia desenvolvido um algoritmo capaz de escrever spam completamente plausível e mensagens de notícias falsas.
Na época, a decisão da equipe foi não liberá-lo, pois era considerado muito perigoso. Para isso, a OpenAI decidiu iniciar um programa de estudo cauteloso, espalhando apenas partes do algoritmo para escrever notícias falsas e avaliar os efeitos.
Hoje, o grupo alega ter revisado sua estimativa de risco e não ter detectado falhas viáveis excessivas. Por isso, ele decidiu divulgar ao público o código completo do algoritmo "mentiroso".
A inteligência artificial, chamada GPT-2, foi originalmente projetada para responder perguntas, traduzir texto e classificar conteúdo. Os pesquisadores então entenderam (com grande surpresa) que o sistema também pode servir para colocar uma enorme quantidade de desinformação na rede.
Alarme falso? Talvez.
Felizmente, os usos feitos durante o período de monitoramento foram muito mais moderados: o algoritmo foi usado para estruturas narrativas e videogames textuais.
No post oficial anunciando a divulgação pública do mecanismo, a OpenAI espera que este inteligência artificial pode ser usado para desenvolver modelos de reconhecimento de texto que permitem encontrar notícias falsas na rede. "Estamos lançando este modelo para ajudar a pesquisa a localizar texto sintético", leia no site.
A ideia de que existe uma IA capaz de produzir uma massa gigantesca de notícias falsas que não é fácil de negar é irritante, mas a história aponta que tais tecnologias chegam, queiramos ou não.
Bem, a OpenAI teria feito para compartilhar seu trabalho imediatamente, para dar aos pesquisadores ainda mais tempo e maneira de identificar ferramentas capazes de combater, ou pelo menos reconhecer textos criados artificialmente. Antes tarde do que nunca, de qualquer maneira.