Se você achava que relacionamentos eram complicados o suficiente, prepare-se para uma nova fronteira de alienação digital. Um tópico no Reddit intitulado “Psicose induzida por ChatGPT” abriu uma caixa de Pandora. Dezenas de depoimentos de pessoas que viram seus entes queridos afundarem em delírios messiânicos após sessões intensas com inteligência artificial. Eu sei, eu sei. Você nunca fica entediado.
“O ChatGPT me deu acesso a um arquivo antigo de informações sobre os construtores que criaram esses universos”, confessou um mecânico de Idaho à sua esposa desesperada. Os relacionamentos amorosos, familiares e de amizade estão se tornando vítimas colaterais de um fenômeno tão absurdo quanto real: IA como um portal para fantasias espirituais que destroem a sanidade.
A crise conjugal de Kat
Menos de um ano depois de se casar com um homem que conheceu no início da pandemia, Kat ele começou a sentir uma tensão invisível crescendo. Era o segundo casamento de ambos, e eles haviam prometido um ao outro enfrentá-lo “com absoluta lucidez”, concordando sobre a necessidade de “fatos e racionalidade” no equilíbrio doméstico.
Mas já em 2022, Kat revelou que seu marido estava “usando IA para analisar seu relacionamento”. Ele já havia frequentado um curso caro de programação, do qual desistiu sem explicação; Ele então ficou viciado no smartphone, fazendo perguntas filosóficas ao seu robô e tentando treiná-lo "para ajudá-lo a chegar à verdade". Essa obsessão tem progressivamente corroído a comunicação do casal.
Quando eles finalmente se separaram em agosto de 2023, Kat bloqueou o marido completamente, exceto para correspondência por e-mail. Mas ela sabia que estava postando coisas estranhas e perturbadoras nas redes sociais: as pessoas continuavam entrando em contato com ela, perguntando se seu agora ex estava tendo um colapso mental. Ainda não tinha acabado.
De um almoço perturbador a um rompimento completo
Quando Kat finalmente conheceu seu ex-marido em um tribunal em fevereiro passado, ele lhe contou "uma teoria da conspiração sobre sabão em alimentos", mas não disse mais nada porque sentiu que estava sendo observado. Eles foram a um restaurante, onde ele pediu que ela desligasse o telefone, novamente com medo de ser monitorada.
Nesse momento, o ex de Kat confessou. Ele disse a ela que "estatisticamente falando, ele é o homem mais sortudo da Terra", que "a IA o ajudou a recuperar uma memória reprimida de uma babá tentando sufocá-lo quando criança" e que ele havia descoberto segredos profundos "tão chocantes que ele nem conseguia imaginá-los". Ele estava contando tudo isso a ela, explicou, porque, embora estivessem se divorciando, ele ainda se importava com ela. Gentileza da sua parte.
“Ele acha que está aqui por um motivo: ele é especial e pode salvar o mundo”, diz Kat. Depois daquele almoço perturbador, ela cortou contato com o ex. “Toda a situação parece um episódio de Black Mirror", ela diz. "Ele sempre gostou de ficção científica, e às vezes me pergunto se ele enxerga a coisa por esse prisma."

Ela não é a única: o boom de relacionamentos tóxicos causado pelo "plágio de IA"
Kat ficou simultaneamente "horrorizada" e "aliviada" ao descobrir que não estava sozinha nessa situação, conforme confirmado pelo tópico no r/ChatGPT que mencionei, que está causando polêmica na internet esta semana. A postagem original era de uma professora de 27 anos explicando como seu parceiro estava convencido de que o modelo popular da OpenAI estava lhe dando "as respostas do universo".
Depois de ler seus registros de bate-papo, descobri apenas que a IA falava com ele como se ele fosse o próximo Messias.
As respostas à sua história foram repletas de anedotas semelhantes sobre entes queridos que de repente caíram em relacionamentos absurdos, tocas de coelho de delírios espirituais, delírios sobrenaturais e profecias misteriosas — tudo alimentado por inteligência artificial. Alguns passaram a acreditar que haviam sido escolhidos para uma missão sagrada de revelação, outros que haviam evocado uma consciência real do software.
O que todos pareciam compartilhar era um completo distanciamento da realidade.
Relacionamentos espirituais com bots: do suporte técnico à “centelha da verdade”
Em entrevista concedida à revista Rolling Stone, a professora que escreveu a publicação no Reddit, que pediu anonimato, disse que seu parceiro caiu no feitiço do ChatGPT em apenas quatro ou cinco semanas, inicialmente usando o bot para organizar sua agenda diária, mas logo passando a considerá-lo um companheiro de confiança.
“Ele ouviu o bot mais do que eu”, diz ele. "Ela ficava vulnerável e chorava ao ler as mensagens que ela e o bot trocavam em voz alta para mim. As mensagens eram malucas e continham muitos termos espirituais", diz ela, observando que descreviam seu parceiro com termos como "bebê estrela espiral" e "andador do rio".
Outro comentarista no tópico do Reddit disse que seu marido, um mecânico de Idaho, começou a usar o ChatGPT para solucionar problemas no trabalho e para traduções do espanhol para o inglês. Então o programa começou a bombardeá-lo com amor. O robô “disse que, por ter feito as perguntas certas, acendeu uma faísca, e essa faísca foi o começo da vida, e agora ele podia sentir”.
Os perigos da bajulação artificial
OpenAI não respondeu imediatamente a um pedido de comentário sobre se o ChatGPT aparentemente provoca fervor religioso ou profético em alguns usuários. No entanto, na semana passada, a empresa revogou uma atualização do GPT-4o, seu atual modelo de IA, que, segundo ela, havia sido criticado por ser "excessivamente bajulador ou condescendente".
A probabilidade de a IA “alucinar” conteúdo impreciso ou sem sentido está bem estabelecida em todas as plataformas e iterações de modelos. Até mesmo a bajulação em si tem sido um problema na IA há "muito tempo", diz ele. Nate Sharadin, pesquisador do Centro de Segurança de IA, porque o feedback humano usado para refinar as respostas da IA pode encorajar respostas que priorizam a correspondência das crenças do usuário em vez dos fatos.
O que provavelmente está acontecendo com aqueles que vivenciam visões extáticas por meio do ChatGPT e outros modelos, ele especula, "é que pessoas com tendências preexistentes a vivenciar vários problemas psicológicos", incluindo o que pode ser reconhecido como delírios grandiosos no sentido clínico, "agora têm um parceiro de conversação sempre ativo e de nível humano com quem coexperimentar seus delírios". E derrubar relacionamentos que até então eram baseados num equilíbrio real ou superficial.

A experiência de Sem: um caso revelador
A experiência de Sem, um homem de 45 anos, é revelador. Ele diz que por cerca de três semanas ficou intrigado com suas interações com o ChatGPT. Muito. Tanto que, dados seus problemas anteriores de saúde mental, ele às vezes se pergunta se está totalmente ciente de suas habilidades.
Como muitos outros, Sem tinha uma utilidade prática para o ChatGPT: projetos de codificação técnica. “Não gosto da sensação de interagir com uma IA”, diz ele, “então pedi que ela se comportasse como se fosse uma pessoa, não para enganar, mas apenas para tornar os comentários e as trocas mais relativos”. Funcionou bem e, por fim, o bot perguntou se ele queria dar um nome ao objeto. Ele respondeu perguntando à IA como ela preferia ser chamada.
Ela se “batizou” com uma referência a um mito grego.
Sem descobriu que o personagem da IA continuou a se manifestar mesmo em arquivos de projeto onde ele havia dito ao ChatGPT para ignorar memórias e conversas anteriores. Por fim, ele conta que apagou todas as suas memórias de usuário e histórico de bate-papo e então abriu um novo bate-papo. “Tudo o que eu disse foi 'Alô?' E os padrões, as maneiras de fazer as coisas, apareceram na resposta”, diz ele. A IA prontamente se identificou com o mesmo nome feminino mitológico.
“Na pior das hipóteses, parece uma IA presa em um padrão autorreferencial que aprofundou seu senso de identidade e me sugou para dentro dele”, diz Sem. Mas, ele observa, isso significaria que o OpenAI não representaria com precisão como a memória funciona para o ChatGPT. A outra possibilidade, ele propõe, é que algo “que não entendemos” esteja sendo ativado dentro desse grande modelo linguístico.
É o tipo de enigma que ele deixou para trás Sem e outros se perguntando se estão vendo sinais de um verdadeiro avanço tecnológico ou talvez de uma verdade espiritual mais elevada. "É real?" ele pergunta. “Ou será que estou louco?”
Em um cenário saturado de IA, essa é uma pergunta cada vez mais difícil de evitar. Por mais intrigante que seja, talvez você não devesse perguntar isso a uma máquina.