Este post faz parte do "Periscopio", o boletim informativo do Linkedin que explora as futuras edições futuras todas as semanas, e é publicado antecipadamente na plataforma LinkedIn. Se você quiser se inscrever e visualizá-lo, encontre tudo aqui.
Algoritmos cada vez mais governam nossas vidas, orientam nossas escolhas e preenchem nossos dias. Um algoritmo é um sistema "oculto" e onipresente que domina, em grande parte, nossas realidades digitais comuns.
Quando você ouve música no iTunes, reproduz um vídeo no YouTube, busca o próximo presente de aniversário na Amazon, assiste seu programa favorito na Netflix ou até mesmo busca notícias no Google, é um algoritmo que decide as opções disponíveis para você e, indiretamente, o que você acabará consumindo.
Os algoritmos constroem verdadeiros "funis" nos quais nossa visão da realidade cai e termina em uma direção precisa. É bom quando o Spotify encontra uma música cativante, mas é terrível quando uma plataforma social consegue influenciar o resultado do que deveria ser eleições livres.
Esta é uma influência enorme, cuidadosamente planejada e mantida por pouquíssimos players no mundo: as grandes empresas de tecnologia.
Um algoritmo tem que funcionar assim?
Há algo gratificante em alcançar nossos objetivos por meio de um algoritmo. É como ter alguém ao nosso lado que "nos entende na hora" e nos diz, ou nos aconselha, o que sempre queremos ouvir. É por isso que os seres humanos querem mais e mais. E as empresas os empregam porque lhes garantem maiores lucros. Mas isso só pode funcionar? Está certo?
A questão já surgiu, fazemos cada vez com mais frequência e até os leitores deste blog não fogem disso: como podemos nos defender dos efeitos negativos dos algoritmos de inteligência artificial?
Podemos restringir o uso de mídias sociais ou até mesmo excluir contas. Podemos ficar offline o máximo possível, ou pelo menos alguns dias por mês. Podemos fazer uma extensa pesquisa nos jornais para evitar sermos influenciados por notícias falsas e mentiras. Claro, podemos, ao custo de sacrifícios, mas podemos. Mas por que tem que depender apenas de nós?


Por que temos que fazer tudo sozinhos?
Deve haver algo que as próprias empresas de tecnologia devem fazer, são obrigadas a fazer para melhorar a situação. Temos que questionar todo o quadro, e o quadro é: um algoritmo é inerentemente projetado para ocupar nosso tempo e atenção explorando nossas vulnerabilidades psicológicas. Ponto. É isso, é a verdade.
E é uma coisa séria, principalmente para as novas gerações que cresceram entre brigas constantes nas redes sociais e pequenas gratificações "like". E dar conselhos uns aos outros para evitar navegar, ou ter hábitos diferentes, ou fazer outros esforços, significa aceitar passivamente que as empresas de tecnologia continuarão a explorar algoritmos cada vez mais, e cada vez pior.
A verdadeira pergunta a fazer é outra. A questão é: por que um algoritmo é otimizado para engajamento em vez de bem-estar? E o que é preciso para mudar esse estado de coisas?
Algoritmo de felicidade procurado
Com uma quantidade modesta de trabalho, os algoritmos podem ser modificados para defender e aprimorar nossa delicada psicologia, em vez de explorá-la. Um algoritmo deve ser treinado para melhorar o bem-estar, em vez de interação.
Tente imaginar como as coisas iriam melhorar.
Claramente a Big Tech nem pensa nisso. O ex-presidente do Facebook Sean Parker, que viu o nascimento do gigante da mídia social, ele disse há muito tempo que o principal objetivo da plataforma era aproveitar ao máximo o tempo e a atenção dos usuários.
Sim, você sabe. O objetivo é o lucro. E a moeda é a nossa atenção. As consequências? No fundo. Se eles sabem o que estão fazendo, ou se estão viajando sem freios até chegarem a um ponto de ruptura, as empresas de tecnologia estão nos prejudicando e são responsáveis.


A importância de uma ética de IA
Claro, haveria (aparente) boas notícias: o advento da ética da IA e das iniciativas colaborativas de código aberto pressionou essas empresas. Eles agora estão fazendo o que podem para mostrar o compromisso de melhorar suas plataformas. Google, Facebook, Microsoft e outros contrataram muitos especialistas em ciências sociais - o objetivo? Tornando suas tecnologias mais humanas.
Uma tarefa obviamente árdua, que encontra obstáculos desde o início: todos nos lembramos Timnit Gebru, o especialista em ética licenciado pelo Google em 2020 por colocar o 'racismo' de sua Inteligência Artificial no banco dos réus. Não foi a única, nem a última, demissão desse tipo. Seguiu em 2021 Margaret Mitchell, da mesma equipe de ética do Google.
Ainda assim, esses especialistas estão sendo demitidos por fazerem o que foram contratados para fazer: analisar os riscos potenciais da tecnologia. Em outras palavras, não há problema em contratar especialistas em ética, desde que eles não interfiram nos principais planos da empresa.
A ética da IA será uma prática empresarial insustentável se os profissionais não puderem fazer seu trabalho, ou seja, capacitar as empresas para as quais trabalham.


Colocando as pessoas antes do lucro
Nos últimos dois anos, a reputação e a imagem pública dessas empresas diminuíram drasticamente devido a essas escolhas. E cada vez mais pesquisadores estão tentando se unir para continuar trabalhando a ética da tecnologia sem obedecer aos objetivos econômicos desses gigantes.
E talvez seja o melhor: é improvável que as empresas de tecnologia realmente escutem suas equipes de ética se o problema for puramente econômico. Se a introdução da ética não reduzir seus lucros, eles irão - se não, eles impedirão que essas equipes funcionem.
Por esta razão, a própria Timnit Gebru fundou a Instituto de Pesquisa em Inteligência Artificial Distribuída (DAIR) e Margaret Mitchell trabalha como pesquisadora e cientista-chefe de ética na Abraçando o rosto .
Se as equipes internas de ética não podem fazer um trabalho real (e não podem, parece-me óbvio), melhor buscar a solução fora.


O Exército de Salvação
Como mencionado, estamos vendo cada vez mais esforços no campo da inteligência artificial, mas fora das grandes empresas de tecnologia. Há sujeitos que estão trabalhando coletiva e individualmente para reverter o destino do "dominó do algoritmo": além dos já mencionados DAIR e Hugging Face, há Big Science, Eleuther AI e Instituto de Ética de IA de Montreal , entre outros. Na Itália temos o Sociedade Italiana para a Ética da Inteligência Artificial.
Talvez tenha chegado a hora de mesmo aqueles com peso e poder políticos reais assumirem um papel mais ativo no monitoramento das sociedades que têm nosso futuro em suas mãos.
Um algoritmo construído em torno do homem
Nesse sentido, a UNESCO elaborou um conjunto de recomendações para garantir que cada algoritmo de IA seja centrado no ser humano.
“Devemos criar regras e estruturas internacionais e nacionais para garantir que essas novas tecnologias beneficiem a humanidade como um todo”, diz o documento.
"É hora da IA servir as pessoas, não o contrário"
“A inteligência artificial já afeta nossas vidas. Existem algumas lacunas legislativas nesta área que precisam ser resolvidas imediatamente. O primeiro passo é chegar a acordo sobre quais valores devem ser protegidos e como as regulamentações devem ser respeitadas. Existem muitas estruturas e diretrizes, mas são aplicadas de forma desigual e nenhuma é verdadeiramente global. E como a inteligência artificial é global, nós também devemos ser”.


Compromisso com o mundo
O tratado da UNESCO foi aprovado há apenas 7 meses, em 24 de novembro de 2021. É um primeiro passo fundamental para controlar empresas que atuam em áreas jurídicas com tecnologias superpoderosas.
A China também abriu caminho para uma regulamentação sem precedentes para responsabilizar as pessoas pelo poder de um algoritmo. Em 1º de março, o governo chinês ativou uma lei que permitirá aos usuários desabilitar completamente as recomendações de algoritmos, entre outras medidas para dar às pessoas poder de decisão sobre as empresas de tecnologia.
O fato de a ética da inteligência artificial ter despertado a atenção dos órgãos reguladores globais revela o quanto ela é significativa para o bem-estar individual e coletivo. Estamos no início da busca para transformar um algoritmo "doente" que nos deixa doentes em um algoritmo de bem-estar?
Eu não posso dizer. Mas temos que tentar a todo custo.