Apesar de um mundo cada vez mais fascinado (e um pouco obcecado) dos avanços na inteligência artificial, Edward Snowden lança um alerta que parece ir na contramão. O antigo contratado da CIA, conhecido pelas suas revelações sobre práticas de vigilância em massa, desvia a atenção dos modelos “expressivos” de IA para uma ameaça muito mais tangível e imediata: drones assassinos e robôs de combate.
A distração dos chatbots de IA
O incidente do Google Gemini, onde o chatbot de IA mostrou limitações na geração de imagens relevantes ou até se recusou a gerá-las, gerou um debate acalorado. Ainda hoje, Elon Musk, na sua rede social, lança invectivas à tecnologia do Google que é “culpada” de propagar teorias acordadas e mistificar a história ao reproduzir um George Washington negro.
Para Snowden, estas controvérsias são apenas bobagens: uma distração dos perigos reais. Ele critica abertamente a atitude daqueles que, apanhados no frenesim de “sabotar” chatbots de IA com filtros de segurança, perdem de vista ameaças muito mais concretas à segurança global. Ameaças que talvez contribua para criar, dado que essas mesmas organizações (apesar da sua ética manifesta) eles também estão abertos a entidades militares.
Snowden: Acerte suas prioridades
Segundo Snowden, há uma grave desconexão da realidade quando se pensa nas prioridades da sociedade moderna. Embora uma parte significativa da opinião pública e dos especialistas se concentre nos limites e perigos da IA, tecnologias muito mais perigosas, como os drones armados e os robôs militares, já são uma realidade.
Estes últimos, ao contrário dos chatbots “conversacionais”, já têm o poder de matar. Pelo contrário: eles já mataram, já foram utilizados em vários conflitos e levantam questões éticas e jurídicas muito mais sérias. E em que estamos nos concentrando?
A ironia da “proteção” da IA.
O debate sobre IA está obsoleto, diz Snowden. Preso no conflito entre a liberdade de expressão e a necessidade de regular conteúdos potencialmente nocivos. No entanto, Snowden brinca sobre como esta “protecção” visa paradoxalmente limitar as capacidades da IA, em vez de expandi-las com segurança.
A situação de Google Gêmeos é citado como um exemplo emblemático desta contradição.
O gerenciamento de chatbots de IA é visto como uma ameaça à liberdade de expressão ou à segurança dos dados? A utilização de drones militares representa uma ameaça muito mais directa à vida humana: e é essencial reorientar o debate público e político para essas tecnologias letais.
Spoiler: Snowden é certo para mim
O discurso de Snowden (se quiser saber mais sobre ele, você pode encontrá-lo aqui) abre uma janela para uma realidade muitas vezes esquecida no calor do debate sobre IA. A sua crítica não se limita à tecnologia em si, mas estende-se à sociedade e às suas prioridades. Num tom que oscila entre o irônico e o sério, ele nos convida a refletir sobre o que realmente deveríamos temer e contra o que realmente deveríamos lutar.
Snowden lembra-nos que existem desafios e perigos ainda mais prementes que requerem a nossa atenção imediata. Perigos com impacto direto na vida e na morte, que merecem um lugar de destaque no debate global sobre tecnologia e segurança. Digamos que desta vez, mais de 10 anos depois desde aquele tempo, vamos ouvir um pouco mais?