De acordo com a pesquisa, as semanas após a alta de um hospital psiquiátrico são um período notoriamente difícil para pessoas frágeis, com taxas de suicídio muito acima da média.
Agora, os avanços na inteligência artificial podem mudar as regras do jogo, ajudando os psiquiatras a prever tentativas de suicídio e intervir a tempo.
IA e saúde mental
O aprendizado de máquina, que emprega algoritmos de computador para prever melhor o comportamento humano, é um campo em rápido crescimento no campo da saúde mental. Um crescimento que combina com o de biossensores capaz de monitorar o humor de uma pessoa em tempo real, levando em consideração escolhas musicais, expressões faciais, tom vocal e até mesmo postagens escritas nas redes sociais.
Mateus K. Nock, psicólogo de Harvard e um pesquisador atento do fenômeno dos suicídios espera combinar essas tecnologias em uma espécie de sistema de alerta precoce a ser usado quando um paciente de risco recebe alta após uma internação psiquiátrica.
Como o sistema de suicídio pode funcionar
Um sensor sinaliza que o sono de um paciente está perturbado, o GPS mostra que ele não está saindo de casa. O acelerômetro em seu telefone mostra que ele está se movendo muito, sugerindo agitação. O paciente relata um humor deprimido nos questionários usuais.
Neste ponto, o algoritmo marca o paciente. E um médico entra em contato com ele por telefone ou mensagem.
Isso pode funcionar? Não é fácil prever. Existem várias razões para duvidar de que um algoritmo alcançará esse nível de precisão. Mesmo entre as pessoas de maior risco, o suicídio é uma ocorrência tão rara que qualquer tentativa de previsão pode levar a falsos positivos, com intervenções em indivíduos que não precisam. E quaisquer falsos negativos, por outro lado, teriam um peso ético nas responsabilidades legais de ter omitido uma intervenção.

Prevenção ao suicídio, é preciso coragem
Dados granulares de longo prazo de um grande número de pessoas são necessários para aperfeiçoar a inteligência artificial e são difíceis de obter, porque felizmente o suicídio, por mais terrível que seja, é um evento raro. Sem falar no fato de que os dados necessários para o monitoramento levantam enormes problemas de privacidade, inclusive na vida de pessoas já vulneráveis.
No entanto, Nock não desiste. Algo precisa ser feito, e é preciso coragem. “Com todo o respeito a quem faz esse trabalho há décadas, em um século não aprendemos nada sobre como identificar pessoas em risco de suicídio e como intervir”, diz.
A taxa de suicídio hoje é a mesma de 100 anos atrás. Então, deve ser dito honestamente, não estamos melhorando.
Mateus K. Nock
Uma tarefa difícil
Não há nada mais enervante para um psiquiatra do que cuidar de pacientes suicidas enquanto eles estão sem supervisão e em casa. É uma "zona cinzenta" muito complicada. Com a experiência, fica mais claro que pensamentos suicidas podem ir e vir sem aviso prévio.
Como tal, sistemas de saúde cada vez mais avançados estão recorrendo ao aprendizado de máquina para avançar. Algoritmos baseados em grandes conjuntos de dados de registros eletrônicos de saúde e vários outros fatores são usados para atribuir uma pontuação de risco aos pacientes, dando mais atenção aos indivíduos com risco excepcionalmente alto.
Além disso, parece que os algoritmos se mostraram mais precisos do que os métodos "tradicionais", sempre os mesmos por 50 anos, de acordo com um pesquisa de 2017. Desde 2017, o Departamento de Assuntos de Veteranos nos EUA usou um algoritmo para relatam 0,1% dos veteranos em maior risco de suicídio.
Estamos falando de alguns milhares de pacientes de uma população de seis milhões.
Resultado? Os pacientes cadastrados a este programa eles eram 5% menos propensos a tentar o suicídio. Uma gota no balde, que não altera as taxas gerais. A impressão é que começamos a fazer coisas que nunca foram feitas antes, mas ainda não encontramos o que estamos procurando.
Procurando por um padrão
"Não é fácil identificá-los", diz ele Nick Allen, diretor do Centro de Saúde Mental Digital da Universidade de Oregon. Allen ajudou a desenvolver ORELHAS, um aplicativo que rastreia o humor com base em fatores como escolha de música, expressão facial e tom verbal.
Um ponto de virada pode vir de lá. E de volta ao Dr. Nock.
Em agosto passado, um cientista de dados chamado Adão Urso ele se sentou na frente de um monitor no laboratório do Dr. Nock olhando para gráficos em ziguezague dos níveis de estresse de um paciente ao longo daquela semana. Ele procurava um padrão: algo que se repetisse e que permitisse identificar antecipadamente alguém que tentaria o suicídio.
Para isso, Bear passou o verão inteiro examinando os dados de 571 pacientes que, depois de pensar ou tentar suicídio, concordaram em ser monitorados. Durante o programa de seis meses, dois deles tiraram a própria vida e 100 tentaram fazê-lo.
Em resumo: este é o maior reservatório de informações já coletadas sobre o cotidiano de pessoas que lutam com pensamentos suicidas.
Quais são os sinais de um possível suicídio
A equipe de Nock está muito interessada nos dias que antecedem as tentativas de suicídio, pois este é o momento em que as medidas podem ser tomadas. Alguns sinais já surgiram: embora os impulsos suicidas muitas vezes não mudem no período que antecede a tentativa, a capacidade de resistir a esses impulsos parece diminuir. Com uma pista recorrente, a privação do sono, que parece estar contribuindo muito.
Um pequeno mas muito importante sinal que talvez nos encoraje a insistir. Nunca pudemos observar pessoas com pensamentos suicidas, porque é diferente de observar, por um lado, pessoas com doenças cardíacas.
"A psicologia", diz Nock, "não progrediu tanto quanto as outras ciências porque não tinha muitas ferramentas à sua disposição".
Com o advento dos smartphones e biossensores vestíveis, no entanto, temos a capacidade de coletar tantos dados que podemos compensar essa desvantagem.

Um anjo sem rosto
Um dilema que os pesquisadores experimentaram no estudo em andamento foi o que fazer quando os participantes mostravam um forte desejo de se machucar. O Dr. Nock decidiu que eles deveriam intervir, mesmo que isso atrasasse a pesquisa (e para alguns pacientes isso a frustrasse).
"Há um aspecto negativo nisso", diz o cientista, "porque paradoxalmente há menos suicídios e, portanto, menos probabilidade de encontrar um sinal. Mas e se esse paciente fosse meu filho?".
Como resultado, o estudo também se tornou uma força-tarefa anti-suicídio, e as intervenções tornaram-se parte da rotina da vida no laboratório. Se um paciente se deparasse com um momento crítico durante o monitoramento, ele receberia um telefonema em 15 minutos de um dos investigadores.
"Somos uma pessoa sem rosto, então há menos desconforto", diz ele Narise Ramlal, um assistente de pesquisa no laboratório. Mas o Dr. Nock tenta entender se as intervenções digitais podem ser mais eficazes.
“Muitas pessoas não querem que um ser humano entre em contato com eles quando estão em alto risco”, disse ele. "Não quero dizer que vamos substituir humanos por máquinas, mas às vezes eles podem ser muito mais eficientes do que somos agora."
Uma história emblemática
Em março, o homem de 39 anos Kateline Cruz saiu de sua última internação psiquiátrica com muita determinação, mas também fragilidade e medo. Para isso ele decidiu participar do monitoramento. Ela estava cursando enfermagem quando uma série de crises mentais abalaram sua vida.
Era por volta das 21h, algumas semanas depois dos seis meses de estudo, quando uma pergunta apareceu em seu telefone: "Neste momento, quão forte é o seu desejo de se matar?"
Sem parar para pensar, Katelin tocou a tela: 10. Alguns segundos depois, pediram a ela que escolhesse entre duas afirmações: "Hoje com certeza não vou me matar" e "Hoje com certeza vou me matar". Ele escolheu a segunda frase.
Quinze minutos depois, seu telefone tocou. Ela era integrante do grupo de busca que estava ligando para ela, já havia alertado a polícia e mantido Katelin na linha até a polícia bater em sua porta: logo depois, Katelin teve um colapso emocional e desmaiou.

Quer resolva ou não o problema, a tecnologia do suicídio já pode fazer alguma coisa: estar lá.
Katalin começou a responder prontamente aos seis "lembretes" que recebia todos os dias quando o aplicativo em seu telefone a questionava sobre seus pensamentos suicidas. Notificações? A princípio intrusivo, depois reconfortante.
"Eu não me sentia mais ignorada", diz ela. "Ter alguém que sabe como me sinto tira um pouco do peso de mim." Ele acha que a tecnologia (sua "neutralidade", sua "falta de julgamento") torna mais fácil pedir ajuda. "Acho que é quase mais fácil dizer a verdade para um computador", disse ele.
Muitos especialistas acham que pode ser o contrário: pacientes em crise são adeptos de enganar os operadores sobre seu estado de saúde, e com um computador também é mais fácil mentir. Pessoas muito melhores: um grupo de apoio que se reúne toda semana, uma roda de cadeiras, uma rede de amigos, familiares e médicos.
Nem todo mundo tem. Na Itália, a lista de espera por um terapeuta em um centro público de saúde mental pode chegar a três meses. Nos EUA são oito meses.
E me diga que você não quer morrer
Na semana passada, ao final do ensaio clínico de seis meses, Katalina preencheu seu último questionário com certa tristeza. Ela sentirá falta da sensação de que alguém a está observando, mesmo que seja alguém sem rosto, à distância, por meio de um dispositivo.
Há momentos, muito poucos, em que um "Big Brother" pode fazer você se sentir melhor. Alguma vez você teria dito isso?
“Honestamente, me senti um pouco mais seguro sabendo que alguém se importava o suficiente para ler esses dados todos os dias”, diz Katalina.
E eu acredito nela.
Se você está pensando em suicídio, ligue para o 112 ou fale com o número de telefone: todos os dias das 10 às 24, no número 02 23272327 ou com uma chamada web gratuita em www.telefonoamico.net