A explosão da inteligência artificial e a clássica divisão em “seitas”, entre o exaltado e catastrofistas (nunca algum equilíbrio) reacenderam o debate sobre a ética da IA. Um tema que está vivo há décadas, para ser sincero. Desde que a palavra “robô” foi concebida, têm sido feitas perguntas sobre como limitar as máquinas para que não destruam a humanidade. Você se lembra? Leia sobre Asimov e pronto.
A obra de Isaac Asimov e suas leis
São o exemplo mais famoso de reflexão sobre como limitar a tecnologia. As leis da robótica de Isaac Asimov, que em obras como a história "Runaround" ou "I, Robot", são incorporadas em todas as inteligências artificiais como medida de segurança.
Alguém se iludiu pensando que de alguma forma funcionaria na realidade ou inspirou soluções semelhantes. Não é assim, e vou resumir: as leis de Asimov não são reais e não há como implementá-las na realidade. Eles já são resíduos de papel, como o Midjourney também mostra.
Você se lembra deles? Vamos revisar?
As leis de Asimov são quatro:
- Primeira lei: um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano seja ferido.
- Segunda lei: um robô deve obedecer às ordens dadas pelos humanos, a menos que tais ordens infrinjam a Primeira Lei.
- Terceira lei: um robô deve proteger sua própria existência, desde que tal proteção não viole a Primeira ou a Segunda Lei.
Os leitores mais apaixonados de Asimov também sabem que existe uma quarta lei, introduzida em 1985 com o romance “robôs e o império“. É chamado lei zero e lê assim:
Um robô não pode prejudicar a humanidade ou, por inação, permitir que a humanidade sofra danos.
Isaac Asimov
Agora esqueça-os.
Embora tenha começado a escrever e a raciocinar na década de 40, Isaac Asimov simplesmente não entendia que seria necessário programar IAs com leis específicas para evitar que causassem danos. Ele também percebeu que essas leis falhariam.
O primeiro para problemas éticos complexos demais para ter uma resposta simples de sim ou não. O segundo por sua própria natureza antiético: exige que os seres sencientes permaneçam escravos. O terceiro porque envolve uma estratificação social permanente, com grande potencial de exploração. E a lei zero? Ele falha por si só, com todos os outros.
Em resumo: as leis de Asimov representam um ponto de partida interessante para pensar sobre a ética da inteligência artificial, mas o mundo real exige soluções mais concretas e adaptáveis.
Qual?
Os especialistas estão trabalhando para garantir que a IA seja segura e ética, explorando em diferentes direções. Os 4 principais:
- Transparência e explicabilidade: Os algoritmos devem ser transparentes e explicáveis, para que os usuários possam entender como e por que a IA toma determinadas decisões.
- Valores humanos e preconceitos: Os sistemas de IA devem ser concebidos para respeitar os valores humanos fundamentais e reduzir preconceitos indesejados. Isto inclui formação em diversos conjuntos de dados e análise dos efeitos das decisões tomadas pela IA em vários grupos de pessoas.
- Segurança e confiabilidade: Isso é autoexplicativo. O risco de mau funcionamento ou ataques cibernéticos deve ser evitado.
- Controle e responsabilidade: É importante estabelecer quem é o responsável pelas ações executadas pela inteligência artificial, para atribuir consequências em caso de problemas.
A estas “novas leis de Asimov” (que não são as de Asimov) devem ser acrescentadas regulamentações globais e padrões éticos: é por isso que precisamos de cooperação internacional no desenvolvimento da inteligência artificial, e não de sectarismo.
Geoffrey Hinton, um dos “pais” da IA, ele definiu inteligência artificial como “a nova bomba atômica”. Eu não concordo, e eu não estou sozinho. Poderia se tornar um, entretanto, e a culpa seria nossa, não da inteligência artificial. Especialmente se o concebermos primeiro como um “clube” contra os outros.
Lido por Asimov, adeus. Novas leis, apresse-se
O primeiro veículos autônomos, de fato: os semiautônomos já têm o “poder” de matar pessoas inadvertidamente. Armas como drones assassinos podem, na verdade, até matar agindo de forma autônoma. Sejamos claros: a IA atualmente é incapaz de compreender as leis, muito menos de segui-las.
A emulação do comportamento humano ainda não foi bem estudada e o desenvolvimento do comportamento racional centrou-se em áreas limitadas e bem definidas. Duas deficiências muito graves, porque permitiriam uma IA senciente (que neste momento, sublinho, não existe e apesar do que eles dizem seus pigmaliões não sabemos se existirão) para desinterpretar qualquer indicação. E acabar, em duas palavras simples, fora de controle.
Para isso não sei quanto tempo temos. Um ano, dez, a eternidade. Eu sei que, tal como acontece com as leis de Asimov, alguém precisa de resolver o problema de como evitar que a IA prejudique os humanos, e fazê-lo agora.
A Skynet é apenas ficção, mas na ficção não nos deu escapatória. E você sabe: a ficção científica não prevê o futuro, mas muitas vezes o inspira.