Há boas e muito más notícias. A boa notícia, pelo menos de acordo com um ex-executivo do Google, é que a singularidade está a caminho. Agora está sobre nós. A má notícia é que isso representa uma séria ameaça para toda a humanidade.
O terrível aviso vem de Mo Gawdat, gerente muito "expert". Ele era diretor de negócios da organização Moonshot do Google, que era chamada na época Google X. Suas palavras de advertência vieram direto de uma entrevista que Gawdat ele cedeu ao Times.
"A inteligência artificial geral é inevitável"
Na entrevista, o ex-executivo do Google disse acreditar que ointeligência artificial geral (AGI), o tipo de IA onipotente e senciente (cujos efeitos nefastos exploramos em especulações de ficção científica como a Skynet de "O Exterminador do Futuro") é inevitável. Uma vez aqui, a humanidade pode muito bem se encontrar passando por um apocalipse causado por máquinas divinas.
Gawdat disse ao Times que teve essa revelação assustadora enquanto trabalhava com desenvolvedores de inteligência artificial no Google X. O experimento que o executivo testemunhou não foi nada de especial, pelo menos na superfície. Os desenvolvedores estavam construindo braços robóticos que podiam encontrar e pegar uma bola. Após um período de progresso lento, Gawdat relata que um braço agarrou a bola e pareceu segurá-la em direção aos pesquisadores em um gesto que, para ele, parecia um gesto de exibição.
"E de repente percebi que isso é realmente assustador", disse Gawdat. "Isso me congelou completamente." "A realidade é", acrescentou, "que estamos criando Deus".


Os perigos que o ex-executivo do Google vê são realistas. Mas primeiro você tem que enfrentar os verdadeiros.
O alerta do ex-executivo do Google é preocupante, mas não o único. Não faltam cautelas sábias (ou vendedores de medo, dependendo do seu ponto de vista) de inteligência artificial no setor de tecnologia. Elon Musk alertou repetidamente o mundo sobre o perigo de a IA um dia superar a humanidade, por exemplo. As especulações fronteiriças que, por um lado, alertam para os perigos, por outro, parecem demasiado "enormes" e talvez nos distraem aqueles evidentes já agora.
Por exemplo, reconhecimento facial e polícia preditiva causar danos reais em comunidades desfavorecidas. Inúmeros algoritmos por aí continuam a propagar e codificar o racismo institucional em todas as áreas. Esses são problemas que podem ser resolvidos por meio de supervisão e regulamentação.