A inteligência artificial (seja lá o que digam) ainda não engoliu a humanidade, nem se conscientizou. Mas está gradualmente tomando o leme de nossos dias e de nossas regras.
Assistentes virtuais nos espionam em nossas próprias casas. Os algoritmos decidem nosso horizonte de informações, o pessoal a ser contratado e em pouco tempo também o criminoso a ser condenado. Os limites éticos de seu uso? Cada vez mais sutil e confuso. Perigosamente confuso.

O caso do Projeto Dezembro
Parece um episódio de Black Mirror, a obra-prima de Charlie Brooker que investiga as "falhas" da tecnologia e os cenários distópicos que elas poderiam gerar. Não é um episódio qualquer: um em especial, transmitido em 2013. Para os fãs da série, chamava-se "Torna da me", "Volto já". No entanto, não é uma ficção, é a realidade.
Há poucos meses atrás (Eu te falei sobre isso aqui) um homem de 33 anos chamado Joshua Barbaau usou um serviço chamado Project December para criar um robô conversacional (um chatbot) que poderia simular conversas com sua falecida namorada Jessica.
Através deste chatbot, Barbeau trocou mensagens de texto amorosas com uma "Jessica" artificial. Na época do artigo, talvez com a cumplicidade do calor de agosto, não me questionei suficientemente no plano ético.
Hoje me pergunto, já que ainda não há norma para regular esses casos: é eticamente permissível ou condenável desenvolver um 'deadbot', o robô conversacional de uma pessoa falecida?
Deadbot: Certo ou errado
Vamos dar um passo para trás primeiro. Projeto Dezembro foi criado por Jason Rohler, um desenvolvedor de videogames, usando GPT-3, um modelo de linguagem para geração de texto desenvolvido pela OpenAI. E violando as diretrizes da Open AI, que proíbem explicitamente o uso do GPT-3 para fins sexuais, amorosos, automutilação ou bullying.
Para Rohrer, por outro lado, OpenAI é moralista e pessoas como Barbeau são "adultas e consentidas": Projeto Dezembro continua operando mas sem usar GPT-3, em plena polêmica com a empresa.
Voltemos ao dilema: certo ou errado? Barbeau e outros que podem ter usado este serviço estão se comportando de forma ética?
(Talvez) a vontade dos que ficam não baste...

Jessica era uma pessoa real: a vontade do namorado é suficiente para criar um robô que a imita? Mesmo quando morrem, as pessoas não são meras coisas com as quais os outros podem fazer o que quiserem.
Existem crimes específicos, como a difamação de um cadáver, que nos fazem entender o quanto a sociedade considera errado profanar ou não respeitar a memória dos mortos. Temos obrigações morais para com eles, porque quando alguém morre nem todos deixam de existir. Sentimentos, memórias, exemplos permanecem, e é certo protegê-los.
Novamente: desenvolver um deadbot que reproduza a personalidade de alguém requer grandes quantidades de informações pessoais. Incluindo dados de redes sociais, que demonstraram revelar características altamente sensíveis.
Se é antiético usar dados dos vivos sem o consentimento deles, por que deveria ser ético fazê-lo com os mortos? Para isso, também teria sido necessário o consentimento da pessoa "imitada", ou seja, de Jéssica. Mas isso seria suficiente?
... nem a vontade dos que morrem

Os limites do consentimento são sempre uma questão controversa. Para dar um exemplo: há algum tempo o caso do "canibal de Rotenburg" chegou às manchetes (por assim dizer) das notícias. Um sujeito condenado à prisão perpétua, você pode imaginar o porquê, apesar de sua vítima ter concordado em ser comida.
A condenação foi motivada pelo fato de ser antiético consentir com coisas que podem ser prejudiciais a nós mesmos, fisicamente (vender os órgãos vitais) ou abstratamente (alienar os direitos).
Embora os mortos não possam ser feridos ou ofendidos da mesma forma que os vivos, isso não significa que sejam invulneráveis a más ações, nem que essas ações sejam éticas.
Os mortos podem sofrer danos à sua honra, reputação ou dignidade (por exemplo, campanhas de difamação póstuma) e o desrespeito aos mortos também prejudica seus familiares.
Em resumo, mesmo o consentimento de uma pessoa em ser "comida" (metaforicamente) e "cuspida" na forma de um robô conversacional não poderia ser suficiente.
Então, como será?
Entendemos que nem a vontade de quem quer falar com um morto "reconstruído", nem a de quem quer ser "imitado" após a morte pode não ser suficiente. Existem maneiras éticas de fazer uma coisa dessas? Em caso afirmativo, quem seria responsável pelos resultados de um deadbot, especialmente no caso de efeitos prejudiciais?
Imagine o deadbot de Jessica "aprendendo" independentemente a se comportar de uma maneira que diminui a memória do falecido ou prejudica a saúde mental de seu namorado.

Deadbot: de quem é a culpa?
Para os especialistas em inteligência artificial, a responsabilidade recai sobre os envolvidos no projeto e desenvolvimento do sistema e, em segundo lugar, entre todos os agentes que interagem com eles. Neste caso os sujeitos envolvidos seriam OpenAI, Jason Rohrer e Joshua Barbeau. O primeiro, OpenAI, proibiu explicitamente o uso de seu sistema para esses fins: vejo poucas falhas. O segundo, Jason Rohrer, projetou o deadbot, violou as diretrizes da OpenAI e lucrou com isso. A maior parte da responsabilidade seria sua. O terceiro, Joshua Barbeau, deve ser considerado co-responsável por quaisquer desvios do deadbot. De qualquer forma, não seria fácil estabelecer isso de tempos em tempos.
Em resumo: o deadbot seria ético? Somente sob certas condições
Se todos os sujeitos envolvidos (pessoa "imitada" pelo deadbot, pessoa que desenvolve o deadbot e pessoa que interage com o deadbot) deram consentimento explícito, detalharam (e restringiram) os usos permitidos tanto quanto possível e assumiram a responsabilidade por qualquer resultados negativos, isso pode ser feito.
São três condições severas, que tornam rígido o processo de criação desses sistemas, mas oferecem sérias garantias
E confirmam o quanto a ética é importante no campo do aprendizado de máquina: precisamos desenvolver regras agora, porque essa tecnologia vai se impor de uma maneira muito rápida, arriscando perturbar nossos valores e nossa sociedade.