A inteligência artificial é como tudo o resto: tem lados positivos e negativos. Muitos (cientistas e outros) esperam que isso mude nossas vidas para melhor, mas também há pessoas (ah, bem, pessoas: Stephen Hawking, não qualquer um) que o considerava um mal absoluto. Além de Hawking, outros como Yuval Harari eles acham que pode começar a “hackear” seres humanos. Ainda outros gostam Mo Gadwatem vez disso, eles nos avisam de querer “criar Deus” através da IA.
O que você acha? Em todo caso, entre luzes e sombras (e algumas risadas) coletei 6 casos em que a inteligência artificial já foi explorada para ir longe demais.
Um estudo usou inteligência artificial para prever crimes.
A pesquisa acadêmica é a espinha dorsal do progresso e do conhecimento científico. Neste caso, porém, os pesquisadores foram longe demais com um estudo acadêmico que tirou a poeira de Lombroso ao enésimo grau, usando IA para prever o crime... a partir de seus rostos.
Os pesquisadores deHarrisburg University eles anunciaram em 2020 que desenvolveram um software que prevê se alguém é um criminoso. O software pode prever crimes com uma taxa de precisão superior a 80%, e sem preconceitos raciais de qualquer espécie. Em uma cena no Minority Report, os pesquisadores chegaram ao ponto de anunciar que o software ajudaria na aplicação da lei.
A reação? Felizmente veemente. Mais de 2425 especialistas assinaram uma carta pedindo à revista científica Springer Nature que não publicasse ou endossasse pesquisas semelhantes. Recurso aceito e até mesmo a própria Universidade de Harrisburg retirou o comunicado de imprensa da pesquisa. Até?
Calças de esqui inteligentes: aqui estamos, um pouco além
I tecidos usando IA eles estão se tornando mais evoluídos. Além do seu celular, porém, existe algo mais inteligente.
A “roupa íntima inteligente” da skiin promete fazer você se sentir confortável ao adquirir dados biométricos, incluindo frequência cardíaca, postura, temperatura corporal central, posição e passos. Os sensores embutidos em sua roupa de baixo (esta única frase é suficiente para sentir os arrepios) monitoram e analisam continuamente seu corpo. Os resultados? Sob seus olhos, o inevitável aplicativo companheiro.
Bem, sim. Um dia você terá que se lembrar de recarregar sua cueca também.
Nu Profundo
La Tecnologia Deepfake é divertido para quem quer ver seu rosto grande em cenas de filmes, mas além disso ele também tem um lado mais sombrio. De acordo com as estimativas dos analistas, 96% dos deepfakes são sobre sexo (Aposto que você não sabia).
Todos vocês se lembram do DeepNude, vamos lá, não estamos brincando. Era um aplicativo usado quando você queria uma imagem falsa de uma mulher nua. Bastou fazer upload de uma foto dela vestida e o aplicativo criou uma versão nua. Nos anos 70 teria parecido um jogo divertido, mas não era naquela época e com a consciência atual certamente não é hoje.
Novamente a reação foi forte e o criador do aplicativo teve que removê-lo. Embora esta tenha sido uma vitória para as mulheres em todos os lugares, aplicativos semelhantes continuam circulando. Um relatório Sensity about deepfake bots investigou deepfake bots que geram fotos de mulheres nuas e são negociados nas salas do Telegram. Até que a lei alcance a tecnologia deepfake, há poucas proteções legais para as pessoas que são vítimas de conteúdo deepfake explícito.
Tay, chatbot nazista da Microsoft
Em 2016, a Microsoft lançou um chatbot chamado Tay no Twitter. Tay foi projetado para aprender interagindo com as pessoas. No entanto, em menos de 24 horas, sua personalidade mudou de um curioso millennial para uma pessoa racista e má.
Por outro lado, quem pratica é coxo. Você vai entender, era o Twitter, não o clube da Hello Kitty. As mensagens provocativas e polêmicas dos usuários desviaram completamente a inteligência artificial, levando-a significativamente além do esperado.
Momento espetacular? Um usuário pergunta a Tay: “O Holocausto realmente aconteceu?” e Tay responde: “Foi inventado”. 16 horas após seu lançamento, a Microsoft suspendeu a conta de Tay, dizendo que ela havia sido alvo de um ataque coordenado não especificado. Cortina. Eu preferia Cortana.
“Eu destruirei os humanos”
Também gosto de Sophia, a andróide da Hanson Robotics. Algumas vezes falei sobre ela e suas evoluções como Grace, a enfermeira robótica. Ela também, porém, foi mais longe em uma ocasião.
Como costuma acontecer nos melhores pesadelos, aconteceu logo na sua estreia. Sophia surpreendeu uma sala cheia de especialistas e jornalistas quando o CEO da Hanson Robotics, o brilhante David Hanson, perguntou se por acaso ela gostaria de destruir humanos. Não sei, ele provavelmente interpretou isso como uma resposta óbvia e tranquilizadora. Sophia não teve problemas, porém, em responder: “Ok. Eu destruirei os humanos."
Hoje ainda existe e surpreende o mundo com suas expressões. Tem até obteve cidadania honorária da Arábia Saudita, e em suas declarações recentes ela gostaria de ter um bebê (estou contando todas as notícias verdadeiras): mas aquela Sophia aí não conta para mim direito :)
Verbotschat
Os dispositivos Google Nest são assistentes inteligentes que podem ajudá-lo, especialmente quando você deseja que um cronômetro o avise quando a água do macarrão ferver. Estou brincando, também por outros motivos. Um episódio “além” também para eles, no entanto. A equipe por trás da conta Twitch verbotschat tive uma ideia bacana: colocar dois assistentes virtuais do Google um ao lado do outro, fazê-los conversar entre si e depois enviar o vídeo online.
Quem se lembra do que aconteceu? O vídeo foi visto milhões de vezes.
Dispositivos autônomos, renomeados Vladimir ed Estragão (como os personagens do magnífico “Esperando Godot”) dão um show. Eles passaram da conversa mundana para a exploração de questões existenciais profundas, como o significado da vida. A certa altura, eles começaram uma discussão acalorada e acusaram um ao outro de serem robôs.
Afinal, também há esperança para a raça humana se duas inteligências artificiais começarem a insultar-se.
Quando a IA vai mais longe: o que fazer, em resumo?
Nem é preciso dizer que esses episódios são engraçados, quase tranquilizadores pela forma como se desenrolaram, mas à sua maneira têm uma moral. E o resultado final é que a IA pode melhorar as nossas vidas, mas certamente também é capaz de nos causar danos graves.
Como podemos nos defender? Nunca me cansarei de escrever nestas páginas. As pessoas DEVEM garantir que a IA não prejudique a sociedade. Reaja imediatamente a excessos (como no caso do DeepNude, por exemplo). E acima de tudo, regular o desenvolvimento destas máquinas.
O monitoramento constante de aplicativos de inteligência artificial é fundamental para garantir que eles não causem mais danos do que benefícios à sociedade. É o que nos permitirá sorrir novamente quando falarmos sobre IA que vai além. Porque se ainda estivermos aqui sorrindo, isso significará que vamos sobreviver.