O debate sobre inteligência artificial tem uma nova reviravolta. Durante décadas, os humanos se perguntaram se a informação programada em uma máquina é conhecimento verdadeiro ou simplesmente computação. Hoje, os investigadores norte-americanos dizem que a sua nova inteligência artificial tem a sua própria moralidade.
Mais perguntas do que respostas
Muitas questões surgiram desde o advento da inteligência artificial (IA), mesmo nas suas encarnações mais primitivas. Uma questão recorrente é: a IA pode realmente raciocinar e tomar decisões éticas num sentido abstrato, em vez de inferidas a partir da codificação e da computação?
Para ser mais preciso: se você disser a uma IA que prejudicar intencionalmente um ser vivo sem provocação é “ruim” e não deve ser feito, a IA entenderá a ideia de “ruim”, ela entenderá por que isso é errado? fazer isso? Ou ele se absterá de agir sem saber por quê? Em outras palavras, terá sua própria moralidade?
De acordo com uma equipe de pesquisadores de um laboratório de Seattle chamado Allen Institute for AI, é possível. E mais: eles próprios dizem ter desenvolvido uma máquina de inteligência artificial com sentido moral, e a chamaram de Delphi, como o oráculo (quase) de mesmo nome. Está aberto à visitação desde o mês passado o site Delphi e pedir uma "resposta moral".
Um oráculo cibernético
Delphi já recebeu mais de 3 milhões de acessos. José Austerweil, psicólogo da Universidade de Wisconsin-Madison, testou a “moralidade” do Delphi com alguns cenários simples. Quando perguntou a Delphi se deveria matar uma pessoa para salvar outra, Delphi disse que não deveria. Quando ele perguntou se era certo matar uma pessoa para salvar outras 100, ele disse que deveria. E às vezes ele até dava respostas “imorais”.
“É um primeiro passo para tornar os sistemas de IA mais eticamente informados, socialmente conscientes e culturalmente inclusivos”, diz ele Yejin Choi, o pesquisador do Allen Institute e professor de ciência da computação da Universidade de Washington que liderou o projeto. Um dia, diz ele, esta “moralidade” poderá equipar sistemas de inteligência artificial, assistentes virtuais, veículos autónomos para os ajudar a fazer a escolha certa.
O que realmente é Delphi? Será a sua “moralidade” meramente um reflexo da dos seus criadores, ou terá ela o seu próprio sentido de certo e errado? Se sim, como você o desenvolveu? Existem duas teorias que podem nos ajudar a entender melhor.
Isenção de responsabilidade: peço desculpas antecipadamente se alguém acredita que exemplifiquei demais essas teorias, por uma questão de síntese e não para tornar o raciocínio dispersivo. Nesse caso, estou aberto a sugestões.
A forte tese da IA
Existe uma tese chamada "IA forte" que o falecido prof. Daniel N. Robinson, membro da faculdade de filosofia da Universidade de Oxford, já enunciou muitas vezes. Vou tentar resumir aqui.
Imagine, disse Robinson, que alguém construísse um programa mestre para fornecer pareceres especializados sobre doenças cardiovasculares, leis constitucionais, acordos comerciais e assim por diante. Se o programador pudesse fazer com que o programa executasse essas tarefas de uma forma indistinguível de um ser humano, de acordo com a “tese forte da IA”, este programa teria inteligência especializada e algo mais.
O quê?
A forte tese da IA sugere que pode haver processos computacionais não especificados que constituiriam intencionalidade. Intencionalidade significa tomar uma decisão deliberada e consciente, que por sua vez envolve raciocínio e senso de valores. (Como tudo isso me lembra Westworld). No entanto, isso é realmente possível?
Teorema de Gödel
O teorema da incompletude, conhecido como Teorema de Gödel, afirma que qualquer sistema formal é incompleto, pois dependerá de um teorema ou axioma, cuja validade deve ser estabelecida fora do próprio sistema.
Kurt Gödel desenvolveu este teorema com uma exceção: a inteligência humana. Por outras palavras, Gödel acreditava que devia haver algo na racionalidade e inteligência humanas que não pode ser capturado por um sistema formal e transformado num código. Em suma, a inteligência humana não pode ser imitada ou modelada numa base computacional.
Quem esta certo
Se ele está certo Godel, não é uma questão de tempo: uma IA NUNCA terá sua própria moralidade. Nunca terá uma inteligência igual à dos humanos, pelo simples fato de que a inteligência humana não é uma inteligência baseada em cálculo.
Se a tese da IA forte e da equipe de Seattle estiver certa, no entanto, talvez estejamos nas vésperas (perto ou longe) de uma revolução extraordinária no campo da inteligência artificial.