O debate sobre inteligência artificial tem um novo ponto de partida. Durante décadas, os humanos se perguntaram se a informação que está sendo programada em uma máquina é conhecimento verdadeiro ou simplesmente cálculo. Hoje, pesquisadores americanos afirmam que sua nova inteligência artificial tem uma moralidade própria.
Mais perguntas do que respostas
Muitas questões surgiram desde o advento da inteligência artificial (IA), mesmo em suas encarnações mais primitivas. Um candidato é: a IA pode realmente raciocinar e tomar decisões éticas em um sentido abstrato, em vez de inferida a partir de codificação e computação?
Para ser mais preciso: se for dito a uma IA que prejudicar intencionalmente um ser vivo sem provocação é “ruim” e não deve ser feito, a IA entenderá a ideia de “ruim”, entenderá por que está errado fazer isso? Ou ele vai se abster de ação sem saber por quê? Em outras palavras, terá sua própria moralidade?
De acordo com uma equipe de pesquisadores de um laboratório de Seattle chamado Allen Institute for AI, é possível. E mais: eles mesmos dizem que desenvolveram uma máquina de inteligência artificial com senso moral, e a chamaram de Delphi, em homenagem ao (quase) oráculo homônimo. Desde o mês passado pode ser visitado o site Delphi e pedir uma "resposta moral".
Um oráculo cibernético
Delphi já recebeu mais de 3 milhões de acessos. Joseph Austerweil, psicólogo da Universidade de Wisconsin-Madison, testou a "moralidade" de Delphi com alguns cenários simples. Quando perguntado a Delphi se ele deveria ter matado uma pessoa para salvar outra, Delphi disse que não deveria. Quando ele perguntou se não havia problema em matar uma pessoa para salvar mais 100, ele disse que sim. E às vezes ele até dava respostas "imorais".
“É um primeiro passo para tornar os sistemas de IA mais eticamente informados, socialmente conscientes e culturalmente inclusivos”, diz ele. Yejin Choi, pesquisador do Allen Institute e professor de ciência da computação da Universidade de Washington que liderou o projeto. Um dia, diz ele, essa “moralidade” poderá equipar sistemas de inteligência artificial, assistentes virtuais, veículos autônomos para ajudá-los a fazer a escolha certa.
O que é Delphi realmente? Sua "moralidade" é apenas um reflexo da de seus criadores, ou tem seu próprio senso de certo e errado? Se sim, como ele a desenvolveu? Existem duas teorias que podem nos ajudar a entender melhor.

Isenção de responsabilidade: peço desculpas antecipadamente se alguém acredita que exemplifiquei demais essas teorias, por uma questão de síntese e não para tornar o raciocínio dispersivo. Nesse caso, estou aberto a sugestões.
A forte tese da IA
Existe uma tese chamada "IA forte" que o falecido prof. Daniel N. Robinson, membro da Faculdade de Filosofia da Universidade de Oxford, enunciou muitas vezes. Eu tento resumir aqui.
Imagine, disse o Dr. Robinson, que alguém construa um programa geral para fornecer opinião especializada sobre doenças cardiovasculares, leis constitucionais, acordos comerciais e assim por diante. Se o programador pudesse fazer o programa executar essas tarefas de uma maneira indistinguível de um humano, de acordo com a "tese de IA forte" este programa teria inteligência especializada e algo mais.
O quê?
A forte tese da IA sugere que podem existir processos computacionais não especificados que constituam intencionalidade. Intencionalidade significa tomar uma decisão deliberada e consciente, que por sua vez envolve raciocínio e senso de valores. (O quanto Westworld me lembra de tudo isso). No entanto, isso é realmente possível?
Teorema de Gödel
O teorema da incompletude, conhecido como Teorema de Gödel, afirma que qualquer sistema formal é incompleto, pois dependerá de um teorema ou axioma, cuja validade deve ser estabelecida fora do próprio sistema.
Kurt Gödel desenvolveu este teorema com uma exceção: a inteligência humana. Em outras palavras, Gödel acreditava que deve haver algo na racionalidade e inteligência humana que não pode ser capturado por um sistema formal e transformado em código. A inteligência humana, em suma, não pode ser imitada ou modelada em uma base computacional.
Quem esta certo
Se ele está certo Godel, não é uma questão de tempo: uma IA NUNCA terá sua própria moralidade. Nunca terá uma inteligência igual à dos humanos, pelo simples fato de que a inteligência humana não é uma inteligência baseada em cálculo.
Se a tese da IA forte e da equipe de Seattle estiver certa, no entanto, talvez estejamos nas vésperas (perto ou longe) de uma revolução extraordinária no campo da inteligência artificial.