SÃO PAULO, SP (FOLHAPRESS) – Nos últimos meses, reportagens do New York Times relataram casos de jovens que mantinham conversas com chatbots de inteligência artificial (IA) antes de se suicidarem. No caso de Adam Raine, que morreu em abril, aos 16 anos, a família abriu a primeira ação de que se tem notícia contra a OpenAI por danos morais e materiais em decorrência de morte.
A visibilidade que os casos tomaram reforça o debate crescente sobre o impacto do digital na saúde mental, principalmente -mas não exclusivamente- dos usuários mais jovens. As pessoas buscam cada vez mais a interação com os chatbots, que são um tipo de IA que usa um modelo de linguagem para processar dados e simular conversas.
Os grandes chats que conhecemos, como o ChatGPT e o Gemini, são testados e ajustados antes do lançamento para moldar os comportamentos que deveriam ou não deveriam ter. Essa característica é explicada por Diogo Cortiz, professor das áreas de tecnologia, design e comunicação da PUC-SP (Pontifícia Universidade Católica de São Paulo) e colunista e apresentador do programa ‘Deu Tilt’, do UOL.
“O chat não é necessariamente um grande especialista na área de saúde mental, mas tem algum tipo de conhecimento a partir dos textos que ele ‘leu’ e ‘aprende’ que pode falar sobre qualquer coisa, inclusive sobre o que não deveria”, afirma.
O especialista diz que são colocadas travas no sistema para evitar que isso aconteça, que são salvaguardas que funcionam na maioria dos casos. Mas, ressalta Cortiz, em determinado momento, sobretudo quando há um longo histórico de conversa, a IA pode não entender o contexto de onde está vindo o assunto e falhar nas restrições do modelo. Esse é um dos grandes desafios que as equipes de segurança das empresas enfrentam no momento.
O fato de longas conversas com os chatbots facilitarem a falha dessas travas pode explicar o motivo pelo qual isso vem acontecendo com pessoas que recorrem ao modelo para desabafar e utilizar o espaço como uma espécie de terapia informal.
Especialistas têm alertado para os riscos do uso indiscriminado da IA. O médico e neurocientista Miguel Nicolelis diz que este é o maior risco para a humanidade no século 21. “O risco para a saúde mental, para o desenvolvimento cognitivo e existencial do planeta são incomensuráveis”, afirma.
A conselheira do Conselho Federal de Psicologia (CFP), Carolina Roseiro, diz que o imediatismo das relações e o medo de ser julgado ao expor certo pensamento pode aproximar as pessoas da IA para lidarem com o sofrimento psíquico.
Ela alerta, porém, que os efeitos para a saúde mental e todo o entorno da vida dessa pessoa podem ser profundos, principalmente porque essas ferramentas não são desenvolvidas para esse fim.
“Há necessidade de supervisão humana para essas interações”, diz. “Não se recomenda o uso de chatbots de inteligência artificial sem que haja um processo de acompanhamento com um profissional da área da saúde.”
O aspecto humano da interação terapêutica, segundo os especialistas, são as sutilezas que não são propriamente ditas, mas que podem ser percebidas por um olhar atento e bem treinado de um profissional da saúde mental no consultório.
Para Nicolelis, é preciso experiência prática e sensibilidade para poder perceber os casos “fora da curva”, ou seja, que escapam de qualquer protocolo e que os sistemas de IA não estão -e não são capazes de estar- preparados para resolver.
Marcelo Veras, psicanalista e psiquiatra, coordenador do Programa de Saúde Mental e Bem Estar da UFBA (Universidade Federal da Bahia), diz que o atendimento imediato à tentativa ou ideação suicida é fundamental, e pode ser um ponto positivo das tecnologias. Porém, é uma ilusão acreditar que a IA conseguiria ser totalmente espelhada em um humano.
“A psicanálise sabe que tem uma opacidade, e lidar com essa opacidade é uma função clínica de humanos. A inteligência artificial vai responder com protocolos, com dados estatísticos, sem que haja um humano no outro lado da linha.”
Por exemplo, ele diz acreditar que um protocolo de medicina baseada em evidências ou da psicologia cognitiva baseada em evidências pode ser assimilado pelos chatbots, mas nem sempre teríamos a certeza de que algo está acontecendo, porque ainda seria em um desejo inconsciente do usuário. Ao passo que um profissional bem treinado consegue estar atento a detalhes específicos da fala e do comportamento do paciente, o que a tecnologia não é capaz de fazer.
Em seu livro “A Morte de Si”, publicado pela Editora Cult, Veras reflete sobre o suicídio de forma multifatorial e complexa. Em um capítulo intitulado “A solidão dos hiperconectados”, o psiquiatra aborda como a agressividade das redes sociais é prejudicial para a saúde mental e como contribui para uma crise de sentido da sociedade.
Para ele, as redes criam bolhas de segregação e fazem com que estejamos vivendo um período de extrema frustração, sem saber como lidar com ela. “A vida virou um espaço achatado entre dois chats. Então a gente está permanentemente achando que está se conectado com alguém, quando no fundo a solidão é muito grande.”
Isso se reflete também em um “cancelamento” fácil. “Ou seja, se alguém me frustra ou pensa diferente de mim, basta deletá-la, como se nunca estivesse existido. Isso vale também para a vida, que se cria uma noção de ‘auto desaparecimento'”, coloca Veras, como se a vida fosse um videogame.
Nicolelis destaca que o modelo, assim como o algoritmo, é treinado para reforçar as crenças que a pessoa coloca no sistema, como que para “agradar” quem está do outro lado da tela. Esse aspecto faz com que as pessoas deixem de desenvolver habilidades para se relacionar socialmente.
“O suicídio não ocorre só pela interação direta com esses sistemas, mas como consequência da ansiedade, da depressão e dos distúrbios emocionais que aparecem por você não conseguir mais viver ao redor de seres humanos”, diz.
Para que a interação com a IA nesse contexto fique mais segura, Cortiz diz que é viável empregar um protocolo específico para que os chatbots entrem em contato com autoridades ou grupos especializados quando detectarem usuários com ideação suicida.
ONDE ENCONTRAR AJUDA
**Instituto Vita Alere de Prevenção e Posvenção do Suicídio**
Oferece grupos de apoio aos enlutados e a familiares de pessoas com ideação suicida, cartilhas informativas sobre prevenção e posvenção e cursos para profissionais.
vitaalere.com.br
**Abrases (Associação Brasileira dos Sobrevivente Enlutados por Suicídio)**
Disponibiliza materiais informativos, como cartilhas e ebooks, e indica grupos de apoio em todas as regiões do país.
abrases.org.br
**CVV (Centro de Valorização da Vida)**
Presta serviço voluntário e gratuito de apoio emocional e prevenção do suicídio para todas as pessoas que querem e precisam conversar, sob total sigilo e anonimato pelo site e telefone 188
cvv.org.br