A tecnologia de reconhecimento facial pode ser uma ferramenta poderosa para garantir a segurança, mas também uma arma perigosa se utilizada de forma opaca e discriminatória. Isto é demonstrado pelo que aconteceu na Faixa de Gaza, onde Israel implementou discretamente um vasto programa de vigilância biométrica sobre os palestinianos, após os ataques atrozes e bárbaros de 7 de Outubro. Aproveitando os algoritmos de Google Fotos e a inicialização Corsight, o exército israelita traçou perfis de milhares de pessoas sem o seu consentimento, no que parece ser um caso perturbador de perfis étnicos de alta tecnologia.
Grande Irmão em Gaza
A história, relatado pelo New York Times, tem contornos de um thriller distópico. Após os ataques de 7 de Outubro, a Unidade 8200 do exército israelita (a principal unidade de inteligência) começou a identificar potenciais suspeitos através da análise de imagens e vídeos de câmaras de vigilância que o Hamas tinha publicado nas redes sociais. Ao mesmo tempo, os soldados interrogaram prisioneiros palestinos para identificar pessoas das suas comunidades afiliadas ao Hamas.
Com esse material, a startup Corsight (que possui sistemas capazes de reconhecer rostos mesmo quando menos de 50% deles estão visíveis) construiu uma ferramenta ad hoc de reconhecimento facial para oficiais israelenses que trabalham em Gaza. Para enriquecer ainda mais a base de dados e encontrar outros alvos, os militares instalaram postos de controlo equipados com câmaras biométricas ao longo das principais estradas utilizadas pelos palestinianos para fugir para o sul. O objetivo, revelou um responsável ao Times, era criar uma “lista de alvos” de participantes nos ataques de 7 de outubro. Na prática, um arquivo dos “suspeitos do costume” baseado em algoritmos e perfis étnicos. Uma caçada humana de alta tecnologia, conduzida sem o conhecimento e consentimento dos envolvidos. Um pesadelo orwelliano tornado realidade.
Israel, erros e abusos
A tecnologia, como sabemos, não é infalível. Principalmente quando se baseia em imagens granuladas ou rostos parcialmente cobertos. É também por isso que a Europa tem uma abordagem devidamente cautelosa em relação ao reconhecimento facial. Os próprios soldados israelenses admitiram ao Times que o sistema da Corsight nem sempre era preciso. Às vezes, ele identificava falsamente pessoas como afiliadas ao Hamas. É o caso do poeta palestino Mosab Abu Toha, recolhido num posto de controlo israelita enquanto tentava deixar Gaza com destino ao Egipto com a sua família em meados de Novembro. Ele havia sido denunciado pela IA como procurado. Resultado: dois dias de detenção, espancamentos e interrogatórios, antes de ser enviado de volta a Gaza. Sem sequer explicações.
Um destino que poderia ter acontecido sabe-se lá quantas outras pessoas inocentes, rotuladas como potenciais terroristas apenas pela sua etnia ou pelo local onde vivem. Um risco inerente aos sistemas de reconhecimento facial, que pode amplificar os preconceitos humanos se não for utilizado com cautela e transparência.
Google, a grande orelha
Mas não é apenas a Corsight que está por trás deste programa de vigilância. Os soldados revelaram ao Times que o exército israelense integrou a tecnologia da empresa com outra ferramenta mais acessível e talvez ainda mais poderosa: Fotos do Google. Os oficiais de inteligência carregaram bancos de dados de “pessoas conhecidas” nos servidores do Big G e usaram a função de busca de imagens para identificar suspeitos adicionais. O Google Fotos, observou um soldado, é capaz de reconhecer rostos até mesmo nos mínimos detalhes, superando outros aplicativos, incluindo o Corsight.
Em suma, o gigante de Mountain View, talvez sem o saber, tornou-se uma peça chave na máquina de controlo de Israel sobre Gaza. Um grande ouvido capaz de mapear e espionar toda uma população, violando a sua privacidade e direitos em nome da segurança nacional. Uma utilização controversa e opaca da IA, que em Gaza é combinada com a utilização de outras tecnologias avançadas, como robôs e dronese levanta questões sobre as responsabilidades éticas das grandes tecnologias.
Não apenas Israel: a face sombria da vigilância
Infelizmente, o caso de Gaza não é isolado. Corsight, fundada em 2019 com investimento de 5 milhões de dólares do fundo canadense Awz Ventures, é especializada no fornecimento de soluções de reconhecimento facial. Para muitas realidades: governos, autoridades policiais e exércitos. em 2020, apenas um ano após a sua criação, a empresa se gabava de poder identificar rostos mascarados. Dois anos depois, em 2023, anunciou que estava desenvolvendo uma ferramenta capaz de reconstruir as características de uma pessoa a partir de seu DNA (nós conversamos sobre isso aqui). em 2023, colaborou com a polícia de Bogotá para rastrear suspeitos de assassinato e roubo em transporte público.
Um negócio em crescimento, alimentado pela retórica do medo e pela fome de segurança, mas não sem zonas cinzentas. Basta pensar nas declarações de Aaron Ashkenazi, sócio-gerente da Awz Ventures, que em um editorial em outubro passado no Jerusalem Post ele escreveu que o seu fundo estava a fornecer a Israel “as ferramentas tecnológicas para deter estes terroristas do mal”. É fácil imaginar quais são essas ferramentas.
Ao lado do Big Brother
De forma mais geral, a da Corsight e de outras empresas semelhantes parece ser uma missão ao serviço do Big Brother global. Um esforço para tornar cada rosto rastreável, catalogável e vigiado, num mundo onde o anonimato é um luxo que já não podemos permitir e a privacidade é um opcional a ser sacrificado no altar da defesa.
Portanto, não é surpreendente que nos últimos meses alguns hospitais em Israel também tenham começaram a usar algoritmos Corsight para identificar pacientes desfigurados, conforme relatado pela Forbes. Uma aplicação aparentemente humanitária, mas que abre caminho para usos mais questionáveis desta tecnologia invasiva. O risco, como demonstram os acontecimentos em Gaza, é que os sistemas de reconhecimento facial se tornem instrumentos de opressão e discriminação nas mãos erradas. Que transformem o direito à segurança numa desculpa para violar outros direitos fundamentais, a começar pelo direito ao anonimato ou a um julgamento justo. Sejamos claros: não se trata de demonizar o reconhecimento facial em si, que pode ter aplicações positivas em vários campos, desde a saúde até à segurança. Mas regular a sua utilização de forma clara e democrática, colocando limites às suas potenciais distorções e abusos.
Isso reduz as pessoas a pixels e porcentagens, rotulando-as com base na cor da pele, características faciais ou origem social. Um pesadelo que certamente põe em causa a responsabilidade de quem desenvolve e vende estas tecnologias, mas certamente também de quem as compra e utiliza.