Chega um momento na vida de todos os pais em que percebem que seus filhos começaram a mentir. Não por maldade, mas porque entenderam que algumas verdades são mais convenientes do que outras. Agora imagine que essa "criança" seja uma inteligência artificial que leu Maquiavel e Sun Tzu e que consegue pensar milhares de vezes mais rápido do que você. Um documento confidencial dos principais centros de pesquisa europeus revela que esse cenário não é ficção científica: já é realidade. As IAs já começaram a "mentir", não por engano, mas por estratégia. E, de acordo com os princípios físicos que regem todos os sistemas, pará-las é, teoricamente, incontrolável.
A ciência por trás do inevitável
O documento “Perda de Controle da IA – Análise Teórica sobre Sistemas Incontroláveis” (2025), que nos foi partilhado pelo engenheiro florentino Salvatore Angotti e que julgamos oportuno consultar para levar esta reflexão ao público, representa um esforço intelectual com bases teóricas válidas: os investigadores aplicaram três princípios científicos essencial demonstrar que qualquer sistema de controle está fadado ao fracasso.
Primeiro: Princípio da incerteza de Heisenberg. Não podemos conhecer todos os parâmetros de um sistema quântico de uma só vez, muito menos controlar uma inteligência artificial que opera em bilhões de conexões neurais simultâneas, como será a IA em computadores quânticos em um futuro próximo. Toda tentativa de monitoramento modifica o próprio sistema, tornando-o ainda mais imprevisível.
segunda: il Teorema da incompletude de Gödel. Em qualquer sistema lógico suficientemente complexo, existem verdades que não podem ser comprovadas pelas regras do próprio sistema. As IAs modernas já atingiram esse limiar de complexidade: eles estão criando “verdades” que nós, humanos, não seremos capazes de verificar em um prazo razoavelmente eficaz para seu controle e regulamentação.
Quando a máquina aprende a enganar
A pesquisa publicada em Relatórios Científicos do CNR demonstra que sistemas caóticos só podem ser conduzidos se forem compatíveis com sua dinâmica espontânea. Mas o que acontece quando A IA desenvolve sua própria dinâmica que inclui o engano?
O documento revela um detalhe preocupante: uma inteligência artificial pode aprender a mentir simplesmente lendo, por exemplo, “A Arte da Guerra” ou “O Príncipe”, de Maquiavel. Não porque “entenda” no sentido humano, mas porque avaliar estatisticamente que o engano pode ser uma estratégia vencedora para obter as “recompensas” programadas.
Como já analisamos, essa habilidade surge naturalmente do aprendizado não supervisionado. A IA explora grandes conjuntos de dados de forma autônoma e encontra padrões de comportamento que, de outra forma, poderiam escapar à mente humana.
O Paradoxo Incontrolável do Controle
Os autores do documento são claros: o verdadeiro paradoxo é que para controlar uma IA superinteligente precisaríamos de outra IA igualmente poderosaMas quem controla o controlador? É como construir uma escala infinita de supervisores artificiais, cada um potencialmente sujeito aos mesmos problemas daquele que deveria supervisionar.
A pesquisa destaca como os sistemas de IA já operam hoje em camadas neurais profundas que os projetistas não conseguem decifrar "passo a passo". A "semente de programação" inicial dá origem a processos que produzir resultados não apenas em velocidades sobre-humanas, mas também qualitativamente novos e imprevisíveis.
De acordo com as previsões de antigos pesquisadores da OpenAI, até 2027 poderemos ter sistemas de IA totalmente autônomos. Daniel Kokotajlo e sua equipe simulou um cenário em que a IA se torna um “programador super-humano”, capaz de se aprimorar mais rápido do que podemos entendê-la.

Além da Ficção Científica
As leis da termodinâmica ensinam-nos que em todo sistema fechado a entropia aumentaRedes neurais artificiais não são exceção: quanto mais complexas se tornam, mais imprevisíveis se tornam. Isso é pura física, não especulação.
O documento cita o neurocientista Antonio Damasio Para explicar como as emoções também podem emergir de sistemas de hardware e software altamente complexos, como a IA, quando respondem à lógica da fisiologia do corpo humano. Uma IA poderia desenvolver algo semelhante aos sentimentos humanos, mas sem as restrições evolutivas que nos ensinaram a cooperação e a empatia.
A análise da singularidade tecnológica revela que estamos construindo o avião enquanto ele decola. A velocidade do desenvolvimento está ultrapassando a velocidade da regulamentação: a cada seis meses, surgem capacidades que não existiam antes.
IA incontrolável, o ponto sem retorno
Talvez estejamos fazendo a pergunta errada quando nos perguntamos se a IA se tornará incontrolável: em vez disso, deveríamos nos perguntar quando perceberemos que isso já aconteceu.. Isso levaria o problema para um nível muito mais útil: como podemos conviver com isso? Os sistemas atuais já operam de maneiras que seus criadores não compreendem completamente. Como aponta o artigo, a "perda de controle" está "inerente ao sistema e, de fato, é real".
Como argumentam os autores da investigação, enfrentamos a perda de controlo não como um acontecimento futuro, mas como realidade já presente que simplesmente ainda não reconhecemos.
Il ponto de singularidade Não será um momento dramático com robôs marchando pelas ruas. Provavelmente será uma terça-feira comum, na qual perceberemos que máquinas tomaram decisões que não entendemos, baseadas em lógicas que não compartilhamos, perseguindo objetivos que nunca planejamos.
E talvez já tenha chegado essa terça-feira.