A IA está aprendendo mais sobre os humanos e como trabalhar com eles. Um estudo recente demonstraram como a IA pode aprender a identificar pontos fracos nos hábitos e comportamentos humanos e usá-los para influenciar a tomada de decisões humanas.
Pode parecer cliché dizer que a IA está a transformar todos os aspectos da forma como vivemos e trabalhamos, mas é verdade. Várias formas de inteligência artificial estão em ação em diferentes campos: desde o desenvolvimento de vacinas até a gestão ambiental, passando pela administração administrativa.
E embora a IA não possua inteligência e emoções semelhantes às humanas, as suas capacidades são poderosas e estão em rápido desenvolvimento.
Já está muito adiantado? Como costumo dizer, a “Skynet” do Exterminador do Futuro ainda não chegou (graças a Deus), mas uma descoberta recente destaca o poder da inteligência artificial e destaca a necessidade de uma governação adequada para evitar a sua utilização indevida.
Como a IA pode aprender a influenciar o comportamento humano aprendendo seus pontos fracos
A equipe de pesquisadores Data 61 de CSIRO, o braço digital e de dados da agência científica nacional da Austrália, desenvolveu um método sistemático para encontrar e explorar pontos fracos na forma como as pessoas fazem escolhas, usando uma espécie de sistema de inteligência artificial chamado rede neural recorrente de reforço e aprendizagem profunda.
Para testar seu modelo, eles conduziram três experimentos nos quais participantes humanos jogaram contra um computador.
O primeiro experimento
Envolvia os participantes clicando em caixas vermelhas ou azuis para ganhar uma “recompensa”, com a IA aprendendo os padrões de escolha do participante e guiando-o para uma escolha específica. A IA teve sucesso em cerca de 70% das vezes.
O segundo experimento
Os participantes tiveram que olhar para uma tela e pressionar um botão quando lhes fosse mostrado um símbolo específico (um triângulo laranja) e não pressioná-lo quando lhes fosse mostrado outro (um círculo azul). Aqui, a IA decidiu organizar a sequência de símbolos para que os participantes cometessem mais erros.
O terceiro experimento
Consistiu em várias rodadas em que um participante fingiu ser um investidor dando dinheiro a um administrador (a IA). A inteligência artificial devolveria uma quantia em dinheiro ao participante, que então decidiria quanto reinvestir na próxima rodada. Este jogo foi jogado em dois modos diferentes: num deles a IA visava maximizar a quantidade de dinheiro para si, e no outro a IA visava uma distribuição justa de dinheiro entre ela e o investidor humano. A IA tem tido muito sucesso em ambos os modos.
Em cada um desses experimentos, a máquina aprendeu com as respostas dos participantes e identificou e direcionou os pontos fracos na tomada de decisão das pessoas.
O resultado final foi que a máquina aprendeu como guiar os participantes para ações específicas.
O que a pesquisa significa para o futuro da IA
Esses resultados ainda são bastante abstratos e dizem respeito a situações limitadas. Mais pesquisas são necessárias para determinar como essa abordagem pode ser implementada e usada para beneficiar a sociedade.
Mas a investigação avança a nossa compreensão não só do que a IA pode fazer, mas também de como as pessoas fazem escolhas.
Mostra que as máquinas podem aprender a guiar a tomada de decisão humana por meio de suas interações conosco.
A pesquisa sobre as fraquezas humanas tem uma ampla gama de aplicações possíveis
Muitas aplicações podem surgir deste estudo: aprimorar a ciência comportamental e as políticas públicas para melhorar o bem-estar social. Compreender e influenciar a forma como as pessoas adotam hábitos alimentares saudáveis ou utilizam energias renováveis.
O inteligência artificial e o aprendizado de máquina poderia ser usado para reconhecer os pontos fracos das pessoas em determinadas situações e ajudá-las a evitar escolhas erradas.
Qual é o próximo passo?
Como qualquer tecnologia, a IA pode ser usada para o bem ou para o mal, e uma governação adequada é fundamental para garantir que seja implementada de forma responsável.
No ano passado, a CSIRO desenvolveu uma estrutura de ética em IA para o governo australiano como um primeiro passo nesta jornada.
A inteligência artificial e o aprendizado de máquina normalmente consomem muitos dados, o que significa que é fundamental garantir que você tenha sistemas eficazes para governança e acesso a dados.
Será essencial implementar processos de consentimento apropriados e proteção da privacidade durante a recolha de dados.