Ontem, a OpenAI reuniu-se com o Garante italiano para a proteção de dados pessoais, para abordar as preocupações de privacidade que levaram ao bloqueio temporário do ChatGPT na Itália. O chatbot de inteligência artificial foi bloqueado pela mesma empresa americana, como medida de precaução, depois de as mensagens e informações de pagamento de alguns utilizadores terem sido expostas a outros numa (desastrosa) violação de dados no dia 20 de março.
Este é o primeiro caso em que uma democracia impõe um bloqueio a uma plataforma de IA desta magnitude. Uma operação em si não sem controvérsia e sombras. De qualquer forma, a OpenAI prometeu propor medidas para resolver as preocupações, embora ainda não tenham sido totalmente detalhadas. A notícia vem direto em uma nota no mesmo site oficial da autoridade italiana.
Vamos falar
Na videochamada de ontem entre os comissários do Garantidor e os gestores da OpenAI, incluindo o CEO Sam Altman, assistimos ao primeiro verdadeiro alívio em todo este assunto que mantém (não estou a brincar) empresas e indivíduos em suspense (e o rato nas VPNs, cujos registos dispararam). Por seu lado, a empresa de Altman prometeu apresentar medidas para resolver as preocupações. O Fiador, no entanto, sublinhou a importância do cumprimento dos rigorosos regulamentos de privacidade dos 27 países da UE. Em particular, questionou a base legal para a recolha de enormes quantidades de dados utilizados para treinar algoritmos. ChatGPT e levantou preocupações de que o sistema poderia gerar informações falsas sobre indivíduos.
A compensação do Fiador
O verdadeiro ponto de todo o caso, porém, provavelmente resultado da forte fibrilação de vários setores (e de muitos usuários), foi a mão estendida do Fiador. Os Comissários expressaram muito claramente o seu desejo de não impedir o desenvolvimento da IA em Itália. E isso só pode impedir um resultado “feliz” de todo o caso.
O que acontece agora?
A OpenAI disse que está trabalhando para remover informações pessoais dos dados de treinamento sempre que possível, para definir seus modelos para rejeitar solicitações de informações pessoais de particulares e para agir de acordo com as solicitações de exclusão de informações pessoais de seus sistemas. Caso encerrado, então? Não. Na Itália, como mencionado, a impressão é de que haverá uma reabertura do sistema. De um modo mais geral, porém, as autoridades estão a “aquecer os motores” para colmatar a lacuna e tentar regular o sector.
Outros reguladores na Europa e noutros lugares começaram a prestar mais atenção à acção de Itália. A Comissão Irlandesa de Proteção de Dados disse estar “em contacto com a Autoridade de Supervisão Italiana para compreender a base das suas ações e coordenar com todas as autoridades de proteção de dados da UE em relação a este assunto”. O regulador de privacidade de dados da França, CNIL, dito que iniciou uma investigação após receber duas reclamações sobre o ChatGPT. Também o comissário de privacidade do Canadá abriu uma investigação no OpenAI. E fê-lo após receber uma denúncia sobre a alegada “recolha, utilização e divulgação de informações pessoais sem consentimento”.
Por outro lado, a jornada da IA está apenas começando, certo?