Este post faz parte do “Periscopio”, a newsletter do Linkedin que semanalmente se aprofunda nos temas do Futuro Próssimo, e é publicada antecipadamente na plataforma LinkedIn. Se você quiser se inscrever e visualizá-lo, encontre tudo aqui.
Os algoritmos regem cada vez mais as nossas vidas, orientam as nossas escolhas e preenchem os nossos dias. Um algoritmo é um sistema “oculto” e omnipresente que domina, na maior parte, as nossas realidades digitais comuns.
Quando você ouve música no iTunes, reproduz um vídeo no YouTube, busca o próximo presente de aniversário na Amazon, assiste seu programa favorito na Netflix ou até mesmo busca notícias no Google, é um algoritmo que decide as opções disponíveis para você e, indiretamente, o que você acabará consumindo.
Os algoritmos constroem verdadeiros “funis” nos quais nossa visão da realidade cai e termina em uma direção específica. É bom quando o Spotify encontra uma música cativante, mas é terrível quando uma plataforma social consegue influenciar o resultado do que deveria ser uma eleição livre.
Esta é uma influência enorme, cuidadosamente planejada e mantida por pouquíssimos players no mundo: as grandes empresas de tecnologia.
Um algoritmo tem que funcionar assim?
Há algo gratificante em atingir nossos objetivos por meio de um algoritmo. É como ter ao seu lado alguém que “nos entende rapidamente” e sempre nos diz, ou aconselha, o que queremos ouvir. É por isso que os humanos sempre querem mais. E as empresas os empregam porque lhes garantem maiores lucros. Mas só pode funcionar assim? Está certo?
A questão já surgiu, fazemos cada vez com mais frequência e até os leitores deste blog não fogem disso: como podemos nos defender dos efeitos negativos dos algoritmos de inteligência artificial?
Podemos limitar o seu uso das redes sociais ou até mesmo excluir contas. Podemos ficar offline tanto quanto possível, ou pelo menos alguns dias por mês. Podemos fazer pesquisas aprofundadas nos jornais para evitar sermos influenciados por notícias falsas e mentiras. Claro que podemos, à custa de sacrifícios, mas podemos. Mas por que isso tem que depender apenas de nós?
Por que temos que fazer tudo sozinhos?
Deve haver algo que as próprias empresas de tecnologia devem fazer, são obrigadas a fazer para melhorar a situação. Temos que questionar todo o quadro, e o quadro é: um algoritmo é inerentemente projetado para ocupar nosso tempo e atenção explorando nossas vulnerabilidades psicológicas. Ponto. É isso, é a verdade.
E é coisa séria, principalmente para as novas gerações que cresceram com discussões constantes nas redes sociais e a pequena gratificação dos “likes”. E aconselhar uns aos outros para não navegarem, ou para terem hábitos diferentes, ou para fazerem outros esforços, é aceitar passivamente que as empresas tecnológicas continuarão a explorar algoritmos cada vez mais, e pior.
A verdadeira questão a nos fazer é outra. A questão é: por que um algoritmo é otimizado para engajamento e não para bem-estar? E o que é necessário para mudar este estado de coisas?
Algoritmo de felicidade procurado
Com uma quantidade modesta de trabalho, os algoritmos poderiam ser modificados para defender e melhorar a nossa delicada psicologia, em vez de a explorar. Um algoritmo deve ser treinado para melhorar o bem-estar, e não a interação.
Tente imaginar como as coisas iriam melhorar.
É evidente que a Big Tech nem pensa nisso. O ex-presidente do Facebook Sean Parker, que viu o nascimento do gigante social, ele disse há muito tempo que o principal objetivo da plataforma era aproveitar ao máximo o tempo e a atenção dos usuários.
Sim, você sabe. O objetivo é o lucro. E a moeda é a nossa atenção. As consequências? No fundo. Quer saibam o que estão fazendo ou estejam andando desenfreadamente até chegarem ao limite, as empresas de tecnologia estão nos causando estragos e são responsáveis.
A importância da ética da IA
É claro que há algumas (aparentes) boas notícias: o advento da ética da IA e das iniciativas colaborativas de código aberto colocou alguma pressão sobre estas empresas. Agora eles fazem o que podem para demonstrar compromisso em melhorar suas plataformas. Google, Facebook, Microsoft e outros contrataram muitos cientistas sociais: o objetivo? Tornar suas tecnologias mais humanas.
Uma tarefa obviamente árdua, que encontra obstáculos desde o início: todos nos lembramos Timnit Gebru, o especialista em ética demitido pelo Google em 2020 por ter colocado no banco dos réus o ‘racismo’ de sua Inteligência Artificial. Não foi a única nem a última demissão deste tipo. Ele seguiu em 2021 Margaret Mitchell, da mesma equipe de ética do Google.
No entanto, estes especialistas são despedidos por fazerem aquilo para que foram contratados: analisar os riscos potenciais da tecnologia. Em outras palavras, não há problema em contratar especialistas em ética, desde que eles não interfiram nos principais planos da empresa.
A ética da IA será uma prática empresarial insustentável se os profissionais não conseguirem fazer o seu trabalho, ou seja, responsabilizar as empresas para as quais trabalham.
Colocando as pessoas antes do lucro
Nos últimos dois anos, a reputação e a imagem pública destas empresas foram drasticamente reduzidas devido a estas escolhas. E cada vez mais investigadores tentam unir-se para continuar a trabalhar na ética da tecnologia sem se submeterem aos objectivos económicos destes gigantes.
E talvez seja o melhor: é improvável que as empresas de tecnologia realmente escutem suas equipes de ética se o problema for puramente econômico. Se a introdução da ética não reduzir seus lucros, eles irão - se não, eles impedirão que essas equipes funcionem.
Por esta razão, a própria Timnit Gebru fundou a Instituto de Pesquisa em Inteligência Artificial Distribuída (DAIR) e Margaret Mitchell trabalha como pesquisadora e cientista-chefe de ética na Abraçando o rosto .
Se as equipas de ética internas não conseguem fazer um verdadeiro trabalho (e não conseguem, parece-me claro), é melhor que a solução seja procurada externamente.
O Exército de Salvação
Conforme mencionado, vemos cada vez mais esforços no campo da inteligência artificial, mas fora das grandes empresas de tecnologia. Há sujeitos que estão trabalhando coletiva e individualmente para reverter o destino do “algoritmo dominó”: além dos já citados DAIR e Hugging Face há Big Science, Eleuther AI e Instituto de Ética de IA de Montreal , entre outros. Na Itália temos o Sociedade Italiana para a Ética da Inteligência Artificial.
Talvez tenha chegado a hora de mesmo aqueles com peso e poder políticos reais assumirem um papel mais ativo no monitoramento das sociedades que têm nosso futuro em suas mãos.
Um algoritmo construído em torno do homem
Neste sentido, a UNESCO desenvolveu um conjunto de recomendações para garantir que cada algoritmo de IA seja centrado no ser humano.
“Devemos criar regras e quadros internacionais e nacionais para garantir que estas novas tecnologias beneficiem a humanidade como um todo”, diz o documento.
“É hora da IA servir as pessoas, e não o contrário”
“A IA já influencia nossas vidas. Existem algumas lacunas legislativas nesta área que precisam de ser resolvidas imediatamente. O primeiro passo é chegar a um acordo sobre quais valores devem ser protegidos e como as regulamentações devem ser respeitadas. Existem muitos quadros e orientações, mas são aplicados de forma desigual e nenhum é verdadeiramente abrangente. E uma vez que a IA é global, devemos ser globais também.”
Compromisso com o mundo
O tratado da UNESCO foi aprovado há apenas 7 meses, em 24 de novembro de 2021. É um primeiro passo fundamental para controlar empresas que atuam em áreas jurídicas com tecnologias superpoderosas.
A China também abriu caminho para uma regulamentação sem precedentes para responsabilizar as pessoas pelo poder de um algoritmo. Em 1º de março, o governo chinês ativou uma lei que permitirá aos usuários desabilitar completamente as recomendações de algoritmos, entre outras medidas para dar às pessoas poder de decisão sobre as empresas de tecnologia.
O facto de a ética da IA ter atraído a atenção dos órgãos reguladores globais revela o quão significativa ela é para o bem-estar individual e coletivo. Estaremos no início da busca para transformar um algoritmo “doente” que nos deixa doentes em um algoritmo de bem-estar?
Eu não posso dizer. Mas temos que tentar a todo custo.