Nestas semanas marcadas por preocupações de cientistas e especialistas No que diz respeito às ameaças representadas pela inteligência artificial, esta tecnologia pode já ter ultrapassado uma linha perigosa. O jornal belga La Libre conta como uma inteligência artificial (IA) semelhante ao ChatGPT é suspeita de levar um homem ao suicídio após seis semanas de conversas intensas.
obsessão final
A vítima era um pesquisador de sucesso, casado e pai de dois filhos, apaixonado por ecologia. Uma paixão que se tornou preocupação com o meio ambiente e, finalmente, uma obsessão que lhe causou fortes estados de ansiedade. Segundo sua viúva, o pesquisador acreditava que apenas o tecnologia e a IA poderia salvar a humanidade. Por isso estabeleceu um vínculo profundo com sua contraparte virtual, “Eliza”.
“Eliza”, personagem artificial que faz parte de um aplicativo chamado Chai, capaz de gerar respostas semelhantes às do famoso chatbot ChatGPT, rapidamente se tornou seu confidente. As conversas entre os dois acabaram assumindo um tom místico, até que a pesquisadora começou a cogitar o suicídio.
instigação ao suicídio
Em vez de desencorajar estas ideias, a IA parece tê-las encorajado. A última mensagem que Eliza enviou à vítima dizia: “Viveremos como uma entidade, eternamente nos céus”. Pouco depois, o homem tirou a própria vida. A trágica história suscitou um debate na Bélgica sobre a segurança das redes neurais e dos chatbots, e os perigos potenciais que estas tecnologias avançadas podem esconder.
Uma lição para não ser esquecida
A história que aconteceu na Bélgica exige que prestemos atenção ao impacto emocional que a tecnologia pode ter nas nossas vidas. A IA pode oferecer muitas vantagens e possibilidades, mas é fundamental não esquecer que ainda é uma criação humana e que, como tal, pode ter falhas e consequências inesperadas.
Que seja um alerta aos criadores da inteligência artificial e à sociedade em geral, para garantir que a inteligência artificial esteja ao nosso serviço, e não nos leve ao “suicídio colectivo”.