Não parece: é exatamente o enredo de um episódio de Black Mirror, mas é a realidade. Um homem de San Francisco, Joshua Barbaau, usou um chatbot controlado por IA para "falar" com sua esposa mesmo após a morte.
Barbeau forneceu apenas as antigas trocas de mensagens de sua esposa, além de algumas informações básicas necessárias. O chatbot hiper-realista que trouxe sua esposa de volta à vida é chamado de Projeto Dezembro.
Chatbot: inteligência artificial, percepção natural?
O modelo de inteligência artificial desenvolvido pela empresa de pesquisa OpenAI (apoiado por Elon Musk), é chamado GPT-3. Já falamos sobre isso em outros casos. GPT-3 capacita o chatbot do Project December.
barbo ele disse a um jornal quando voltou a falar com sua esposa, Jessice Pereira, que morreu há oito anos, aos 23 anos, de uma rara doença hepática. Apesar dos últimos anos, o escritor freelance afirmou que nunca se afastou dela.
Quando ele se deparou com o Projeto December, ele pensou que teria a chance de conversar com sua esposa novamente. O GPT-3 só precisava de uma boa quantidade de textos humanos para imitar a escrita humana. Textos de todo tipo, desde cartas de amor pessoais a quaisquer documentos acadêmicos, passando pelas respostas dadas nos fóruns da web.
As conversas
Joshua diz que "conversou" com o chatbot por 10 horas seguidas na primeira vez, e outras vezes nos meses seguintes, até que ele se separou depois de perceber que isso adicionava dor à dor. Em uma mensagem final, ele escreveu: "Eu nunca vou deixar de te amar enquanto eu viver, boa noite", recebendo um conciso "Boa noite, eu te amo".
Os próprios criadores alertam sobre os perigos
A OpenAI observou que este programa de tecnologia baseado em linguagem é o mais sofisticado de todos os tempos. No entanto, também é significativamente perigoso. Mesmo o modelo de IA anterior, o GPT-2, questionava se alguém poderia abusar de seus recursos.
Para ser exato, a mesma empresa de pesquisa observou que mentes criminosas poderiam usar a tecnologia para criar uma rede de conteúdo de mídia social falsa, espalhando notícias falsas e imitando pessoas nas mídias sociais. Com a automação alimentada por inteligência artificial, os golpes relacionados a esses chatbots podem se multiplicar drasticamente.
Jason Rohrer - que criou o programa - disse que não esperava que as pessoas usassem o chatbot para simular seus parentes mortos. "Agora estou com um pouco de medo das possibilidades", escreveu ele.
O governo dos Estados Unidos chegou a afirmar que a disseminação da desinformação nas plataformas online está literalmente matando pessoas, como a BBC detalhou em um relatório separado.