A inteligência artificial (apesar do que dizem) ainda não engoliu a raça humana, nem ganhou consciência. Mas está gradualmente a assumir o comando dos nossos dias e das nossas regras.
Assistentes virtuais nos escutam em nossas próprias casas. Os algoritmos decidem o nosso horizonte de informação, o pessoal a contratar e em breve também o criminoso a condenar. Os limites éticos de seu uso? Cada vez mais sutil e confuso. Perigosamente confuso.
O caso do Projeto Dezembro
Parece um episódio de Black Mirror, a obra-prima da série de Charlie Brooker que investiga as “falhas” da tecnologia e os cenários distópicos que elas poderiam gerar. Não qualquer episódio: um em especial, transmitido em 2013. Para os amantes da série, chamava-se “Volte para mim”, “Já volto”. No entanto, não é ficção, é realidade.
Há poucos meses atrás (Eu te falei sobre isso aqui) um homem de 33 anos chamado Joshua Barbaau usou um serviço chamado Project December para criar um robô conversacional (um chatbot) que poderia simular conversas com sua falecida namorada Jessica.
Através deste chatbot, Barbeau trocou mensagens de texto afetuosas com uma “Jessica” artificial. Na altura do artigo, talvez com a cumplicidade do calor de agosto, não me questionei suficientemente a nível ético.
Hoje me pergunto, como ainda não existe lei que regule esses casos: é eticamente admissível ou condenável desenvolver um ‘deadbot’, o robô conversador de uma pessoa falecida?
Deadbot: Certo ou errado
Vamos dar um passo para trás primeiro. Projeto Dezembro foi criado por Jason Rohler, um desenvolvedor de videogames, usando GPT-3, um modelo de linguagem de geração de texto criado pela OpenAI. E violando as diretrizes da Open AI, que proíbem explicitamente o uso do GPT-3 para fins sexuais, românticos, de automutilação ou de intimidação.
Para Rohrer, entretanto, a OpenAI é moralista e pessoas como Barbeau são “adultas e consentidas”: Projeto Dezembro continua operando mas sem utilizar GPT-3, em plena polêmica com a empresa.
Voltemos ao dilema: certo ou errado? Barbeau e outros que podem ter usado este serviço estão se comportando de forma ética?
(Talvez) a vontade dos que ficam não seja suficiente...
Jessica era uma pessoa real: a vontade do namorado é suficiente para criar um robô que a imita? Mesmo quando morrem, as pessoas não são meras coisas com as quais os outros podem fazer o que quiserem.
Existem crimes específicos, como a difamação de um cadáver, que nos fazem entender o quanto a sociedade considera errado profanar ou não respeitar a memória dos mortos. Temos obrigações morais para com eles, porque quando alguém morre nem todos deixam de existir. Sentimentos, memórias, exemplos permanecem, e é certo protegê-los.
Novamente: desenvolver um deadbot que reproduza a personalidade de alguém requer grandes quantidades de informações pessoais. Incluindo dados de redes sociais, que demonstraram revelar características altamente sensíveis.
Se é antiético usar os dados dos vivos sem o seu consentimento, por que deveria ser ético fazê-lo com os mortos? Para isso, também teria sido necessário o consentimento da pessoa “imitada”, ou seja, Jéssica. Mas teria sido suficiente?
…nem a vontade daqueles que morrem
Os limites do consentimento são sempre uma questão controversa. Para dar um exemplo: há algum tempo, o caso do “canibal de Rotenburg” chegou às manchetes (por assim dizer). Um cara condenado à prisão perpétua, você pode imaginar por quê, apesar de sua vítima ter concordado em ser comida.
A condenação foi motivada pelo fato de ser antiético consentir com coisas que podem ser prejudiciais a nós mesmos, fisicamente (vender os órgãos vitais) ou abstratamente (alienar os direitos).
Embora os mortos não possam ser feridos ou ofendidos da mesma forma que os vivos, isso não significa que sejam invulneráveis a más ações, nem que essas ações sejam éticas.
Os mortos podem sofrer danos à sua honra, reputação ou dignidade (por exemplo, campanhas de difamação póstuma) e o desrespeito aos mortos também prejudica seus familiares.
Em resumo, nem mesmo o consentimento de uma pessoa em ser “comido” (metaforicamente) e “cuspido” na forma de um robô conversacional poderia ser suficiente.
Então, como será?
Compreendemos que nem a vontade de quem quer falar com um falecido “reconstruído”, nem a de quem quer ser “imitado” após a morte podem não ser suficientes. Existem maneiras éticas de fazer algo assim? Em caso afirmativo, quem seria responsável pelos resultados de um deadbot, especialmente no caso de efeitos nocivos?
Imagine o deadbot de Jéssica “aprendendo” autonomamente a se comportar de uma forma que diminua a memória do falecido, ou que prejudique a saúde mental de seu namorado.
Deadbot: de quem é a culpa?
Para os especialistas em inteligência artificial, a responsabilidade recai sobre os envolvidos no projeto e desenvolvimento do sistema e, em segundo lugar, entre todos os agentes que interagem com eles. Neste caso os sujeitos envolvidos seriam OpenAI, Jason Rohrer e Joshua Barbeau. O primeiro, OpenAI, proibiu explicitamente o uso de seu sistema para esses fins: vejo poucas falhas. O segundo, Jason Rohrer, projetou o deadbot, violou as diretrizes da OpenAI e lucrou com isso. A maior parte da responsabilidade seria sua. O terceiro, Joshua Barbeau, deve ser considerado co-responsável por quaisquer desvios do deadbot. De qualquer forma, não seria fácil estabelecer isso de tempos em tempos.
Em resumo: o deadbot seria ético? Somente sob certas condições
Se todos os sujeitos envolvidos (pessoa "imitada" pelo deadbot, pessoa que desenvolve o deadbot e pessoa que interage com o deadbot) deram consentimento explícito, detalharam (e restringiram) os usos permitidos tanto quanto possível e assumiram a responsabilidade por qualquer resultados negativos, isso pode ser feito.
São três condições severas, que tornam rígido o processo de criação desses sistemas, mas oferecem sérias garantias
E confirmam o quanto a ética é importante no campo do aprendizado de máquina: precisamos desenvolver regras agora, porque essa tecnologia vai se impor de uma maneira muito rápida, arriscando perturbar nossos valores e nossa sociedade.