Em fevereiro passado, a OpenAI anunciou que havia desenvolvido um algoritmo capaz de escrever spam completamente plausível e mensagens de notícias falsas.
Na época, a decisão da equipe foi não liberá-lo por ser considerado muito perigoso. Por esse motivo, a OpenAI decidiu iniciar um programa de estudo cauteloso, divulgando apenas partes do algoritmo para escrever notícias falsas e avaliar os efeitos.
Hoje, o grupo alega ter revisado sua estimativa de risco e não ter detectado falhas viáveis excessivas. Por isso, ele decidiu divulgar ao público o código completo do algoritmo “mentiroso”.
A inteligência artificial, chamada GPT-2, foi originalmente projetada para responder perguntas, traduzir textos e classificar conteúdos. Os pesquisadores perceberam então (com grande surpresa) que o sistema também pode servir para espalhar uma enorme quantidade de desinformação online.
Alarme falso? Talvez.
Felizmente, os usos feitos durante o período de monitoramento foram muito mais moderados: o algoritmo tem sido usado para estruturas narrativas e videogames baseados em texto.
No post oficial anunciando a divulgação pública do mecanismo, a OpenAI espera que este inteligência artificial pode ser usado para desenvolver modelos de reconhecimento de texto que permitem encontrar notícias falsas na rede. “Estamos implantando este modelo para ajudar a pesquisa a encontrar textos concisos”, leia no site.
A ideia de que exista uma IA capaz de produzir uma massa gigantesca de notícias falsas que não são fáceis de refutar é irritante, mas a História aponta-nos que tais tecnologias chegam, queiramos ou não.
Bem, a OpenAI teria feito para compartilhar seu trabalho imediatamente, para dar aos pesquisadores ainda mais tempo e maneira de identificar ferramentas capazes de combater, ou pelo menos reconhecer textos criados artificialmente. Antes tarde do que nunca, de qualquer maneira.