Você já confidenciou seus problemas a alguém e se sentiu incompreendido? Ou pior, julgado? Um novo estudo chocante sugere que você pode encontrar mais compreensão em um algoritmo do que em um terapeuta humano. A pesquisa, publicado em Psicologia das Comunicações, descobriu que As pessoas percebem as respostas geradas pela IA como mais compassivas e compreensivas do que aquelas fornecidas por especialistas em saúde mental humana. E o mais surpreendente? Esta preferência pela empatia “artificial” persiste mesmo quando os participantes sabem perfeitamente que estão interagindo com uma máquina. Vou lhe dar um fato concreto: em média, as respostas geradas pela IA foram avaliados como 16% mais compassivos do que os humanos e foram preferidos em 68% dos casos, mesmo quando comparados com os de operadores especializados em gestão de crises.
A compaixão artificial vence frente a frente
Os cientistas não apenas teorizaram: Eles conduziram quatro experimentos rigorosos envolvendo 550 participantes. Os sujeitos forneceram informações sobre experiências pessoais e depois Eles classificaram as respostas recebidas quanto à compaixão, capacidade de resposta e preferência geral. O cenário era controlado: de um lado, respostas geradas pela IA, do outro, respostas de profissionais de saúde mental.
O resultado surpreendeu até os pesquisadores: Mesmo quando os participantes sabiam muito bem que estavam lendo palavras geradas por computador, eles ainda as achavam mais compassivas do que as respostas humanas. É como se a empatia artificial pudesse atingir sentimentos que os terapeutas humanos, com todo o seu conhecimento e experiência, não conseguem.
Dariya Ovsyankova, o principal autor do estudo e pesquisador do departamento de psicologia da Universidade de Toronto, tem uma visão interessante sobre o motivo desse sucesso. Segundo ela, a IA se destaca na identificação de detalhes minuciosos e na objetividade ao descrever experiências de crise, gerando assim uma comunicação cuidadosa que cria a ilusão de empatia. Porque, ressalto, isso é uma ilusão.
Os Limites Humanos Que a Empatia Artificial Desconhece
Por que os humanos, mestres da empatia por definição, foram derrotados nesse terreno? A resposta pode estar em nossas limitações biológicas e psicológicas. Como ele explica Ovsyannikova, os operadores humanos estão sujeitos à fadiga e ao esgotamento, condições que inevitavelmente afetam a qualidade de suas respostas.
A IA, por outro lado, nunca se cansa. Ele não está tendo um dia ruim, não traz para a entrevista o estresse de uma discussão que teve na noite anterior, não tem preconceitos (pelo menos não humanos). Ela está constantemente atenta, sempre presente, perfeitamente focada na tarefa.
Operadores humanos estão sujeitos à fadiga e ao esgotamento, condições que inevitavelmente afetam a qualidade de suas respostas.
Mas há mais: os algoritmos “viram” muito mais crises do que qualquer terapeuta humano. Eles processaram milhões de interações, identificando padrões e correlações invisíveis ao olho humano. Como ele explica Leonor Watson, especialista em ética da IA e membro do IEEE, “A IA certamente pode modelar respostas de apoio com coerência notável e empatia aparente, algo que os humanos lutam para manter devido à fadiga e aos vieses cognitivos”.
Uma resposta para a crise global de saúde mental?
O momento desta descoberta não poderia ser mais significativo. Segundo a Organização Mundial da Saúde, Mais de dois terços das pessoas com problemas de saúde mental não recebem os cuidados de que necessitam. Em países de baixa e média renda, esse número sobe para 85%.
A empatia artificial pode ser uma solução acessível para milhões de pessoas que, de outra forma, não teriam apoio. Como Watson observa, “a disponibilidade de máquinas é um fator positivo, especialmente em comparação com profissionais caros cujo tempo é limitado”. É um fenómeno que temos vindo a constatar recentemente também no que se refere ao recurso ao aconselhamento médico, com outro estudo sobre o qual falamos aqui. Há ainda outro aspecto a considerar: muitas pessoas acham mais fácil abrir com uma máquina. “Há menos medo de julgamento ou fofoca”, observa o pesquisador. Não há olhar do outro, não há medo de decepcionar, não há constrangimento de se mostrar vulnerável. Mas há riscos, e eles não devem ser encarados de ânimo leve.
Os riscos da empatia artificial
Watson Ele chama isso de “perigo de estímulo supernormal”: é a tendência de responder mais fortemente a uma versão exagerada de um estímulo. “A IA é tão tentadora que ficamos encantados por ela”, explica ele. “A IA pode ser provocativa, perspicaz, esclarecedora, divertida, desafiadora, tolerante e acessível a um grau que é impossível para qualquer humano alcançar.” Sem mencionar, é claro, a questão da privacidade, que é particularmente crítica quando se trata de saúde mental. “As implicações para a privacidade são drásticas”, observa o autor do estudo, um especialista em ética. “Ter acesso às vulnerabilidades e lutas mais profundas das pessoas as torna vulneráveis a várias formas de ataque e desmoralização.”
Uma coisa é clara: a tecnologia está começando a se destacar em áreas que sempre consideramos exclusivamente humanas. Compaixão, empatia e compreensão (qualidades que definem nossa humanidade) estão se mostrando algoritmicamente simuláveis onde são mais necessárias (e podem machucar): na percepção daqueles que as recebem.
É um paradoxo fascinante: para nos sentirmos verdadeiramente compreendidos, podemos acabar recorrendo a algo que nunca nos compreenderá verdadeiramente, mas que sabe exatamente como nos fazer sentir compreendidos.