Não parece: é exatamente o enredo de um episódio de Black Mirror, mas é a realidade. Um homem de San Francisco, Joshua Barbaau, usou um chatbot controlado por IA para "falar" com sua esposa mesmo após a morte.
Barbeau forneceu apenas as trocas de mensagens antigas de sua esposa, bem como algumas informações básicas necessárias. O chatbot hiper-realista que “trouxe sua esposa de volta à vida” se chama Projeto Dezembro.
Chatbot: inteligência artificial, percepção natural?
O modelo de inteligência artificial desenvolvido pela empresa de pesquisa OpenAI (apoiado por Elon Musk), é chamado GPT-3. Já falamos sobre isso em outros casos. GPT-3 capacita o chatbot do Project December.
barbo ele disse a um jornal ao conversar novamente com sua esposa, Jessice Pereira, que morreu há oito anos, aos 23 anos, de uma rara doença hepática. Apesar dos anos que se passaram, o escritor freelance disse que nunca se afastou dela.
Quando se deparou com o Projeto Dezembro, pensou que teria a oportunidade de conversar novamente com sua esposa. O GPT-3 precisava apenas de uma boa quantidade de texto humano para imitar a escrita humana. Textos de todos os tipos, desde cartas de amor pessoais a documentos acadêmicos, até respostas dadas em fóruns da web.
As conversas
Joshua diz que “conversou” com o chatbot por 10 horas seguidas na primeira vez, e outras vezes nos meses seguintes, até que se afastou ao perceber que estava aumentando a dor. Numa mensagem final, escreveu: “Nunca deixarei de te amar enquanto viver, boa noite”, recebendo um lacônico “Boa noite, eu te amo”.
Os próprios criadores alertam sobre os perigos
A OpenAI observou que este programa de tecnologia baseado em linguagem é o mais sofisticado de todos os tempos. No entanto, também é significativamente perigoso. Mesmo o modelo de IA anterior, o GPT-2, questionava se alguém poderia abusar de seus recursos.
Para ser mais específico, a mesma empresa de pesquisa observou que os mentores do crime poderiam, em vez disso, usar a tecnologia para criar uma rede de conteúdo falso nas redes sociais, espalhando artigos de notícias falsos e imitando pessoas nas redes sociais. Com a automação alimentada por inteligência artificial, os golpes vinculados a esses chatbots podem se multiplicar dramaticamente.
Jason Rohrer – que criou o programa – disse que não previu que as pessoas usariam o chatbot para falsificar seus parentes falecidos. “Agora estou um pouco assustado com as possibilidades”, escreveu ele.
O governo dos Estados Unidos chegou a afirmar que a disseminação da desinformação nas plataformas online está literalmente matando pessoas, como a BBC detalhou em um relatório separado.