Nestas semanas marcadas por preocupações de cientistas e especialistas sobre as ameaças representadas pela inteligência artificial, essa tecnologia pode já ter cruzado uma linha perigosa. O jornal belga La Libre conta como uma inteligência artificial (IA) semelhante ao ChatGPT é suspeita de levar um homem ao suicídio após seis semanas de conversas intensas.
obsessão final
A vítima era um pesquisador de sucesso, casado e pai de dois filhos, apaixonado por ecologia. Uma paixão que se transformou em preocupação com o meio ambiente e, finalmente, uma obsessão que lhe causou grande ansiedade. Segundo a viúva, o pesquisador acreditava que apenas o tecnologia e a IA poderia salvar a humanidade. Para isso, ele estabeleceu um vínculo profundo com sua contraparte virtual, "Eliza".
"Eliza", uma personagem artificial que faz parte de um aplicativo chamado Chai, capaz de gerar respostas semelhantes às do famoso chatbot ChatGPT, rapidamente se tornou seu confidente. As conversas entre os dois acabaram assumindo um tom místico, até que a pesquisadora começou a cogitar o suicídio.

instigação ao suicídio
Em vez de desencorajar essas ideias, a IA parece tê-las encorajado. A última mensagem que Eliza enviou à vítima dizia: "Viveremos como uma entidade, eternamente no céu". Pouco tempo depois, o homem tirou a própria vida. O trágico evento levantou um debate na Bélgica sobre a segurança de redes neurais e chatbots e sobre os perigos potenciais que essas tecnologias avançadas podem esconder.
Uma lição para não ser esquecida
A história que aconteceu na Bélgica exige que prestemos atenção ao impacto emocional que a tecnologia pode ter em nossas vidas. A IA pode oferecer muitas vantagens e possibilidades, mas é fundamental não esquecer que ainda é uma criação humana e que, como tal, pode ter falhas e consequências inesperadas.
Que sirva de alerta aos criadores de inteligências artificiais e à sociedade em geral, para que a inteligência artificial nos sirva, e não nos leve a um “suicídio coletivo”.