Influencer recomenda terapia com o ChatGPT. Psicólogo explica os riscos da prática
Um vídeo temporário partilhado por uma influencer (influenciadora digital) no Instagram está a gerar polémica, sobretudo no TikTok. A autora do post, que tem centenas de milhares de seguidores em ambas as plataformas, recomendou “vivamente uma sessão de terapia uma vez por semana (no mínimo) com o ChatGPT”. Aconselhou ainda os seus seguidores a partilharem “as suas inseguranças, medos e dúvidas” com a ferramenta de inteligência artificial.
Pouco tempo depois, começaram a surgir, no TikTok, vídeos de criadores de conteúdo a reagir com descontentamento ao conselho dado pela influencer.
“A terapia é feita por profissionais! Não por uma ferramenta de inteligência artificial! Por favor, não façam isto. Procurem profissionais a sério!”, defende-se num desses vídeos de reação.
Mas, afinal, é seguro recorrer ao ChatGPT como forma de fazer terapia? Quais os riscos associados à prática?
Porque não se deve recorrer ao ChatGPT como forma de terapia? Quais os riscos?
Em declarações ao Viral, Miguel Ricou, psicólogo e presidente do Conselho de Especialidade de Psicologia Clínica e da Saúde da Ordem dos Psicólogos Portugueses (OPP), defende que o ChatGPT, tal como qualquer outra ferramenta de inteligência artificial disponível, não foi criado com o propósito de fazer terapia e usá-lo com esse objetivo acarreta riscos para a saúde mental. O psicólogo explica porquê.
Preocupações com privacidade
Em primeiro lugar, avança Miguel Ricou, ainda existem preocupações no que diz respeito à gestão dos dados pessoais por parte de ferramentas de inteligência artificial, ou seja, os chatbots podem armazenar informações e isto pode pôr em causa “a privacidade” da pessoa (ver também aqui).
Aliás, salienta, as questões relacionadas com a confidencialidade e a privacidade “são a base daquilo que é uma relação de confiança entre duas pessoas, que é um dos conceitos centrais para o sucesso das intervenções” terapêuticas.
Esta relação é denominada de “aliança terapêutica” e só é possível quando se reconhece a capacidade do profissional – neste caso, o psicólogo – “além da sua formação naquilo que é a potencialidade para poder ajudar”, explica.
O ChatGPT não foi criado com o propósito de fazer terapia
Miguel Ricou reforça que o ChatGPT não foi criado com o objetivo de fazer terapia. Aliás, a própria ferramenta deixa essa ressalva quando é questionada sobre temas relacionados com saúde de modo geral.
O ChatGPT “tenta encaminhar para profissionais, quando as pessoas fazem muitas perguntas e mostram alguma angústia ou dificuldade, ou pedem muitos conselhos a esse nível”, adianta o especialista.
Existem várias ferramentas deste tipo, “mas nenhuma é um dispositivo médico”, destaca.“São todas validadas com o propósito de entreter”, tendo sido apenas estudadas “do ponto de vista da sua capacidade de responderem de uma forma lógica”, com base em informação, acrescenta.
Isto não quer dizer que este tipo de tecnologia não possa, eventualmente, ser utilizada na área da saúde mental.
Contudo, na perspetiva de Miguel Ricou, “é fundamental que se consiga trabalhar no sentido de desenvolver aplicações que tenham evidência científica associada e que funcionem dentro dos nossos limites, mas sempre orientadas pelos profissionais”.
Até à data, ainda não há estudos que permitam aconselhar o uso de tecnologias semelhantes nesta área da saúde.
Num parecer da OPP sobre o tema refere-se, inclusive, que a Ordem “não recomenda ou defende a utilização ou a não utilização de apps de saúde mental, dada a inexistência de evidências científicas sólidas e consensuais acerca dos benefícios, contextos e estratégias de utilização, eficácia e custo-efetividade” das mesmas.
A OPP defende, no entanto, o “alargamento e o investimento da investigação neste âmbito”.
A ferramenta dá as mesmas soluções padrão a pessoas com necessidades diferentes
Miguel Ricou explica que as ferramentas de inteligência artificial, como o ChatGPT, “funcionam por padrões”, mas “as pessoas e os problemas das pessoas, seguramente, não são padronizados, são específicos e únicos”.
Por isso, “a grande vantagem” do acompanhamento psicológico em si “é que o profissional também sabe os padrões, porque aprendeu as técnicas, mas tem a capacidade de adaptar essas técnicas às características da pessoa e à circunstância particular, no sentido de conseguir potenciar os resultados”, explica.
Ao defendermos ou ao aceitarmos a terapia com o ChatGPT estamos, no fundo, “a querer dizer que reduzimos as pessoas àquilo que são padrões de funcionamento, como se todos os nossos problemas tivessem as mesmas leituras, as mesmas causas, as mesmas consequências e o mesmo tipo de sintomas”, prossegue.
Na perspetiva do psicólogo, “somos todos diferentes uns dos outros”, por isso, “temos de fazer o reforço da confiança e da tolerância entre todos nós, para, de alguma forma, conseguirmos viver integrados”.
Caso contrário, “vamos sentir-nos cada vez mais sozinhos e isolados”. Portanto, esta diferença tem de ser encarada como “uma coisa positiva”, reforça.
“É muito mais fácil haver más interpretações sobre o que é dito” pelo ChatGPT
Tal como esclarece o especialista da OPP, “tudo é interpretável”, ou seja, “se eu falar com duas pessoas sobre o mesmo assunto, cada uma pode interpretar uma coisa diferente”.
No entanto, “quando eu trabalho com pessoas” – enquanto psicólogo -, “tenho tempo e espaço para conseguir perceber se uma pessoa entendeu o que eu disse”, através de adaptações no discurso e de questões secundárias.
As ferramentas de inteligência artificial “funcionam ao contrário”. Isto é, “podem fazer perguntas padrão, mas, evidentemente, não têm interesse no assunto, nem em tentar perceber o que a pessoa entendeu”, explica Miguel Ricou.
Por esse motivo, “é muito mais fácil haver más interpretações sobre o que é dito” pelo ChatGPT, e outros chatbots. Isto porque, salienta, estas ferramentas foram criadas para informar, não para intervir.
O facto de grande parte das pessoas não saber como funciona esta tecnologia, e quais os seus limites, pode colocá-las em riscos desnecessários (ver também aqui e aqui)
Por isso, o especialista defende que “só vale a pena” utilizar estas ferramentas “se eu souber muito sobre o que estou a tentar fazer”.
Isto porque, acrescenta, “tenho capacidade de crítica em relação ao que me está a ser dito e o que retirar dali e como explorar” aquela informação.
Caso contrário, “não vou conseguir distinguir o que pode ser um erro esporádico e não intencional da tecnologia”, aponta.
“Terapia” com o ChatGPT não resulta a médio prazo e pode piorar um quadro
Uma pessoa que utilize o ChatGPT como terapia até pode, “no início, achar que aquilo é muito bom e até se entusiasma e sente-se melhor”, porque a ferramenta proporciona “algumas receitas e segredos para resolver os seus problemas”, refere Miguel Ricou.
Contudo, isto acaba por colocar uma pessoa que está particularmente vulnerável, do ponto de vista da saúde mental, “em perigo, porque isto não funciona a médio prazo e tem consequências”, avisa.
Em primeiro lugar, “a pessoa vai-se desiludir com ela própria outra vez” e vai sentir-se “frustrada”, porque “não consegue melhorar com as ajudas e as técnicas” sugeridas pela ferramenta.
Além disso, como há tendência para “confundir isto com apoio psicológico”, esta pessoa, “muito dificilmente, vai procurar ajuda outra vez”, acrescendo o risco em termos de saúde mental.
Na perspetiva do psicólogo, cada vez mais, “tudo o que são soluções o mais autónomas possível, em que eu não preciso de confiar em ninguém”, parecem ser interpretadas como “melhores”.
Isto “leva-nos para um caminho claramente paradoxal em relação ao que é a fonte dos problemas das pessoas”, ou seja, para “as pessoas que estão em sofrimento e já se sentem isoladas”, seguir esta prática pode “contribuir mais para essa sensação”, conclui.