Nos últimos anos, a inteligência artificial entrou no firmamento tecnológico. A IA está revolucionando o direito, a saúde, a educação e vários modelos de negócios.
O avanço do Big Data e do aprendizado de máquina está mudando a forma como abordamos a inteligência artificial. Rishi Bommasani, Percy Liang e colegas da Universidade de Stanford dizem que esta mudança de paradigma permitiu que a IA se tornasse excelente para uma ampla gama de aplicações além daquelas para as quais foi originalmente construída, como o processamento de linguagem natural (PNL) usado em chatbots como Siri ou Alexa, ou classificação de imagens. No entanto, isso nos levará rapidamente a uma crise.
Os modelos de IA têm um enorme potencial e podem ser excelentes em alguns casos, mas também apresentam riscos significativos. “Apesar da implantação iminente destes modelos”, afirmam Bommasani e colegas, “atualmente não temos uma compreensão clara de como funcionam, quando falham e quais são as suas capacidades”.
É por isso que a equipe decidiu explorar a natureza dos modelos subjacentes para evitar sua crise futura, e suas conclusões eles são realmente interessantes.
Comportamento emergente, crises (imprevisíveis)?
Um problema com estes modelos é que o seu comportamento é emergente e não concebido. Portanto, nem sempre é possível saber o que estes sistemas farão ou quando irão falhar. “Isso é tanto uma fonte de entusiasmo científico quanto de ansiedade sobre consequências não intencionais”, dizem os pesquisadores.
Outro problema é que esses modelos agora são a base de muitos outros. Isto significa que podem ser aplicados a uma ampla gama de circunstâncias, mas também que qualquer problema permanece presente: são herdados por todos os descendentes. E os ambientes com fins lucrativos de startups e grandes empresas não são necessariamente os melhores lugares para explorar potenciais problemas de IA.
O incentivo comercial pode levar as empresas a ignorar as consequências sociais da crise futura. Penso no deslocamento tecnológico do trabalho, na saúde de um ecossistema de informação necessário para a democracia, no custo ambiental dos recursos computacionais e na venda de tecnologias a regimes não democráticos.
Rishi BommasaniUniversidade de Stanford
Uma corrida do ouro
Ao desenvolver um novo produto, o desejo de ser o primeiro muitas vezes substitui todas as outras considerações e leva as equipes por caminhos difíceis de justificar. A equipe dá um exemplo desse comportamento ao contestar seu uso IA de visualização clara de fotos da internet para o desenvolvimento de softwares de reconhecimento facial. Isso é feito sem o consentimento dos proprietários ou empresas de hospedagem de imagens. Clearview então vendeu o software para organizações como departamentos de polícia.
Crise e consequências insidiosas
As consequências da crise a partir do uso generalizado de modelos inteligência artificial eles poderiam ser ainda mais insidiosos. “Por ser uma tecnologia nascente, as normas para o desenvolvimento responsável e a implementação do modelo básico ainda não estão bem estabelecidas”, afirmam os pesquisadores.
Tudo isso deve mudar e rapidamente. Bommasani e companhia argumentam que a comunidade acadêmica está bem preparada para enfrentar o desafio da futura crise de identidade da IA. Está pronto porque reúne estudiosos de uma ampla gama de disciplinas que não são movidas pelo lucro. “A academia desempenha um papel crucial no desenvolvimento de modelos de IA que promovam benefícios sociais e mitiguem os possíveis danos da sua introdução. As universidades podem também contribuir para a definição de padrões, estabelecendo comités de revisão ética e desenvolvendo os seus próprios modelos virtuosos”.
Será um trabalho importante
Garantir a utilização justa e equitativa da IA deve ser uma prioridade para as democracias modernas, também porque A IA tem o potencial de ameaçar os meios de subsistência de uma parte significativa da população global. Com a Quarta Revolução Industrial se aproximando rapidamente, é difícil saber quais empregos estarão protegidos da automação. Poucas funções provavelmente não serão afetadas pela tomada de decisão automatizada no futuro - uma crise, conforme mencionado, que deve ser evitada.