Em fevereiro passado, a OpenAI anunciou que havia desenvolvido um algoritmo capaz de escrever spam completamente plausível e mensagens de notícias falsas.
Na época, a decisão da equipe foi não liberá-lo por ser considerado muito perigoso. Para isso, a OpenAI decidiu iniciar um programa de estudo cauteloso, espalhando apenas partes do algoritmo para escrever notícias falsas e avaliar os efeitos.
Hoje, o grupo alega ter revisado sua estimativa de risco e não ter detectado falhas viáveis excessivas. Por isso, ele decidiu divulgar ao público o código completo do algoritmo "mentiroso".
A inteligência artificial, chamada GPT-2, foi originalmente projetada para responder a perguntas, traduzir textos e classificar conteúdo. Os pesquisadores entenderam então (sem surpresa alguma) que o sistema também pode servir para colocar uma grande quantidade de desinformação na rede.
Alarme falso? Talvez.
Felizmente, os usos feitos durante o período de monitoramento foram muito mais moderados: o algoritmo foi usado para estruturas narrativas e videogames textuais.
No post oficial anunciando a divulgação pública do mecanismo, a OpenAI espera que este inteligência artificial pode ser usado para desenvolver modelos de reconhecimento de texto que permitem encontrar notícias falsas na rede. "Estamos lançando esse modelo para ajudar a pesquisa a localizar texto sintético", leia no site.
A ideia de que existe uma IA capaz de produzir uma massa gigantesca de notícias falsas difícil de negar é irritante, mas a história mostra que essas tecnologias chegam, queiramos ou não.
Bem, a OpenAI teria feito para compartilhar seu trabalho imediatamente, para dar aos pesquisadores ainda mais tempo e maneira de identificar ferramentas capazes de combater, ou pelo menos reconhecer textos criados artificialmente. Antes tarde do que nunca, de qualquer maneira.