Apenas um ano atrás, Chukurah Ali havia realizado o sonho de ter sua própria padaria – a Coco’s Desserts, em St. Louis, Missouri – que se especializou no tipo de bolos de casamento ornamentados feitos sob medida frequentemente apresentados em competições de shows de panificação. Ali, uma mãe solteira, sustentava a filha e a mãe fazendo receitas que aprendeu com sua amada avó.
Mas, em fevereiro passado, tudo isso desmoronou, depois que um acidente de carro deixou Ali lesionado, da cabeça ao joelho. “Eu mal conseguia falar, mal conseguia me mexer”, diz ela, soluçando. “Eu me sentia inútil porque mal conseguia sustentar minha família.”
Enquanto a escuridão e a depressão tomavam conta de Ali, a ajuda parecia fora de alcance; Ela não conseguia encontrar um terapeuta disponível, nem chegar lá sem carro, nem pagar por isso. Ela não tinha plano de saúde, depois de ter que fechar sua padaria.
Então, seu ortopedista sugeriu um aplicativo de saúde mental chamado Wysa (em inglês). Seu serviço exclusivo para chatbots é gratuito, embora também ofereça serviços de teleterapia com um humano por uma taxa que varia de US $ 15 a US $ 30 por semana; essa taxa é, por vezes, coberta por um seguro. O chatbot, que o cofundador da Wysa, Ramakant Vempati, descreve como uma ferramenta “amigável” e “empática”, faz perguntas como “Como você está se sentindo?” ou “O que está incomodando?”. O computador então analisa as palavras e frases nas respostas para entregar mensagens de apoio, ou conselhos sobre o gerenciamento da dor crônica, por exemplo, ou do luto – tudo servido a partir de um banco de dados de respostas que foram pré-escritas por um psicólogo treinado em terapia cognitivo-comportamental.
Foi assim que Ali se viu em uma nova fronteira da tecnologia e da saúde mental. Os avanços na inteligência artificial – como o Chat GPT – estão sendo cada vez mais vistos como uma forma de ajudar a rastrear ou apoiar pessoas que lidam com isolamento, depressão ou ansiedade leves. As emoções humanas são rastreadas, analisadas e respondidas, usando aprendizado de máquina que tenta monitorar o humor de um paciente ou imitar as interações de um terapeuta humano com um paciente. É uma área que atrai muito interesse, em parte por causa de seu potencial para superar os tipos comuns de barreiras financeiras e logísticas para o atendimento, como as que Ali enfrentou.

Possíveis armadilhas e riscos da terapia com chatbots
Há, é claro, ainda muito debate e ceticismo sobre a capacidade das máquinas de ler ou responder com precisão a todo o espectro da emoção humana – e as possíveis armadilhas de quando a abordagem falha. (A polêmica estourou nas redes sociais (em inglês) recentemente por causa de um experimento cancelado envolvendo mensagens terapêuticas assistidas por chatbot.)
Minha preocupação é que [os adolescentes] se afastem de outras intervenções de saúde mental, dizendo: ‘Bem, eu já tentei isso e não funcionou’.
Serife Tekin, pesquisadora de saúde mental, Universidade do Texas San Antonio.
“O hype e a promessa estão muito à frente das pesquisas que mostram sua eficácia”, diz Serife Tekin, professora de filosofia e pesquisadora em ética da saúde mental na Universidade do Texas San Antonio. Os algoritmos ainda não estão em um ponto em que possam imitar as complexidades da emoção humana, muito menos emular o cuidado empático, diz ela.
Tekin diz que há um risco de que adolescentes, por exemplo, tentem a terapia orientada por IA, achem que falta e depois recusem a coisa real com um ser humano. “Minha preocupação é que eles se afastem de outras intervenções de saúde mental dizendo: ‘Ah, bem, eu já tentei isso e não funcionou'”, diz ela.
Mas os defensores da terapia por chatbot dizem que a abordagem também pode ser a única maneira realista e acessível de abordar uma necessidade mundial de mais cuidados com a saúde mental, em um momento em que simplesmente não há profissionais suficientes para ajudar todas as pessoas que poderiam se beneficiar.
Alguém que lida com o estresse em um relacionamento familiar, por exemplo, pode se beneficiar de um lembrete para meditar. Ou aplicativos que incentivam formas de registro no diário podem aumentar a confiança de um usuário, apontando quando ele faz progresso.
Proponentes chamam chatbot de “aliado de autoajuda guiada”
É melhor pensá-lo como um “aliado de autoajuda guiado”, diz Athena Robinson, diretora clínica da Woebot Health, um serviço de chatbot orientado por IA. “O Woebot ouve as entradas do usuário no momento por meio de mensagens baseadas em texto para entender se ele quer trabalhar em um problema específico”, diz Robinson, que oferece uma variedade de ferramentas para escolher, com base em métodos cientificamente comprovados como eficazes.
Muitas pessoas não vão abraçar a abertura para um robô.
Chukurah Ali diz que se sentiu bobo para ela também, inicialmente. “Eu fico tipo, ‘OK, estou falando com um bot, ele não vai fazer nada; Quero falar com um terapeuta”, diz Ali, para em seguida acrescentar, como se ela mesma ainda não acreditasse: “Mas esse bot ajudou!”.
Em um nível prático, diz ela, o chatbot era extremamente fácil e acessível. Confinada na cama, ela podia mandar mensagens às 3h da manhã.
“Como você está se sentindo hoje?”, perguntaria o chatbot.
“Não estou sentindo”, diz Ali, às vezes respondendo.
O chatbot então sugeria coisas que poderiam acalmá-la ou tirar sua mente da dor – como respirar fundo, ouvir música calmante ou tentar um exercício simples que ela pudesse fazer na cama. Ali diz que as coisas que o chatbot disse a lembraram da terapia presencial que ela fez anos antes. “Não é uma pessoa, mas faz você se sentir como se fosse uma pessoa”, diz ela, “porque está fazendo todas as perguntas certas”.
A tecnologia ficou boa em identificar e rotular emoções com bastante precisão, com base em movimento e expressões faciais, atividade on-line de uma pessoa e tom vocal, diz Rosalind Picard, diretora do Grupo de Pesquisa de Computação Afetiva do MIT. “Sabemos que podemos provocar a sensação de que a IA se importa com você”, diz ela. Mas, como tudo o que os sistemas de IA realmente fazem é responder com base em uma série de entradas, as pessoas que interagem com os sistemas geralmente descobrem que conversas mais longas acabam parecendo vazias, estéreis e superficiais.
Embora a IA possa não simular totalmente o aconselhamento individual, seus proponentes dizem que há muitos outros usos existentes e futuros em que ela poderia ser usada para apoiar ou melhorar o aconselhamento humano.
A IA pode melhorar os serviços de saúde mental de outras maneiras
“O que estou falando em termos do futuro da IA não é apenas ajudar os médicos e os sistemas [de saúde] a melhorar, mas ajudar a fazer mais prevenção no front-end”, diz Picard, lendo os primeiros sinais de estresse, por exemplo, e oferecendo sugestões para reforçar a resiliência de uma pessoa. Picard, por exemplo, está analisando várias maneiras pelas quais a tecnologia pode sinalizar a piora do humor de um paciente – usando dados coletados de sensores de movimento no corpo, atividade em aplicativos ou postagens nas redes sociais.

A tecnologia também pode ajudar a melhorar a eficácia do tratamento, notificando os terapeutas quando os pacientes pulam medicamentos ou mantendo anotações detalhadas sobre o tom ou o comportamento do paciente durante as sessões.
Talvez as aplicações mais controversas da IA no âmbito da terapia sejam os chatbots que interagem diretamente com pacientes como Chukurah Ali.
Qual é o risco?
Os chatbots podem não agradar a todos, ou podem ser usados indevidamente ou errados. Os céticos apontam para casos em que os computadores entenderam mal os usuários e geraram mensagens potencialmente prejudiciais.
Mas a pesquisa também mostra que algumas pessoas que interagem com esses chatbots realmente preferem as máquinas; sentem menos estigma ao pedir ajuda, sabendo que não há humano na outra ponta.
Ali diz que, por mais estranho que possa parecer para algumas pessoas, depois de quase um ano, ela ainda depende de seu chatbot.
“Acho que o máximo que eu conversava com esse bot era umas 7 vezes por dia”, diz ela, rindo. Ela diz que, em vez de substituir seus profissionais de saúde humanos, o chatbot ajudou a levantar seu ânimo o suficiente para que ela mantenha esses compromissos. Por causa do treinamento constante de seu chatbot, ela diz que é mais provável que se levante e vá a uma consulta de fisioterapia, em vez de cancelá-la porque se sente sem vontade de ir.
É justamente por isso que a médica de Ali, a ortopedista Abby Cheng, da Universidade de Washington, sugeriu que ela usasse o aplicativo. Cheng trata doenças físicas, mas diz que quase sempre os desafios de saúde mental que acompanham esses problemas impedem as pessoas de se recuperarem. Lidar com o desafio da saúde mental, por sua vez, é complicado porque os pacientes muitas vezes esbarram na falta de terapeutas, transporte, seguro, tempo ou dinheiro, diz Cheng, que está conduzindo seus próprios estudos com base no uso do aplicativo Wysa pelos pacientes.

“Para enfrentar essa enorme crise de saúde mental que temos em nosso país – e até globalmente – acho que os tratamentos digitais e a IA podem desempenhar um papel nisso e, pelo menos, preencher parte dessa lacuna na escassez de provedores e recursos que as pessoas têm”, diz Cheng.
Não se destina à intervenção em situações de crise
Mas chegar a esse futuro exigirá navegar em questões espinhosas como a necessidade de regulamentação, proteger a privacidade do paciente e questões de responsabilidade legal. Quem tem responsabilidade se a tecnologia der errado?
Muitos aplicativos semelhantes no mercado, incluindo os da Woebot (em inglês) ou Pyx Health (em inglês), alertam repetidamente os usuários que eles não são projetados para intervir em situações de crise aguda. E mesmo os defensores da IA argumentam que os computadores não estão prontos, e podem nunca estar prontos, para substituir os terapeutas humanos – especialmente para lidar com pessoas em crise.
“Não chegamos a um ponto em que, de forma acessível e escalável, a IA possa entender todo tipo de resposta que um ser humano possa dar, particularmente aqueles em crise”, diz Cindy Jordan, CEO da Pyx Health, que tem um aplicativo projetado para se comunicar com pessoas que se sentem cronicamente solitárias.
O hype e a promessa estão muito à frente das pesquisas que mostram sua eficácia.
Serife Tekin, pesquisadora de saúde mental, Universidade do Texas San Antonio
Jordan diz que o objetivo da Pyx é ampliar o acesso aos cuidados – o serviço agora é oferecido em 62 mercados dos EUA e é pago pelo Medicaid e pelo Medicare. Mas ela também equilibra isso com as preocupações de que o chatbot possa responder a uma pessoa suicida: “‘Oh, sinto muito em ouvir isso’. Ou pior: ‘Eu não te entendo’. ” Isso a deixa nervosa, diz ela, então como um backup, a Pyx trabalha em um call center com pessoas que ligam para os usuários quando o sistema os sinaliza como potencialmente em crise.
O Woebot, um serviço de saúde mental baseado em texto, alerta os usuários antecipadamente sobre as limitações de seu serviço e alerta que ele não deve ser usado para intervenção ou gerenciamento de crises. Se o texto de um usuário indicar um problema grave, o serviço encaminhará os pacientes para outros recursos terapêuticos ou emergenciais.
Pesquisa transcultural sobre eficácia da terapia com chatbot ainda é escassa
Athena Robinson, diretora clínica da Woebot, diz que essas divulgações são críticas. Além disso, diz, “é imperativo que o que está disponível para o público seja testado clínica e rigorosamente”, diz. Os dados usando o Woebot, diz ela, foram publicados em revistas científicas revisadas por pares (em inglês). E algumas de suas aplicações, incluindo para depressão pós-parto e transtorno por uso de substâncias, fazem parte de estudos de pesquisa clínica em andamento. A empresa continua a testar a eficácia de seus produtos na abordagem de condições de saúde mental para coisas como depressão pós-parto ou transtorno por uso de substâncias.
Mas nos EUA e em outros lugares, não há um processo de aprovação regulatória claro para esses serviços antes de irem para o mercado. (No ano passado, a Wysa recebeu uma designação (em inglês) que lhe permite trabalhar com a Food and Drug Administration no desenvolvimento de seu produto.)
É importante que os estudos clínicos – especialmente aqueles que atravessam diferentes países e etnias – continuem a ser feitos para aprimorar a inteligência da tecnologia e sua capacidade de ler diferentes culturas e personalidades, diz Aniket Bera, professor associado de ciência da computação da Purdue.

“Problemas relacionados à saúde mental são problemas fortemente individualizados”, diz Bera, mas os dados disponíveis sobre a terapia com chatbots são fortemente ponderados por discintos tipos de viés. Isso, diz ele, torna a tecnologia mais propensa a entender mal as pistas culturais de pessoas como ele, que cresceram na Índia, por exemplo.
“Não sei se algum dia será igual a um humano empático”, diz Bera, mas “acho que parte da jornada da minha vida é chegar perto”.
E, enquanto isso, para pessoas como Chukurah Ali, a tecnologia já é um substituto bem-vindo. Ela diz que recomendou o aplicativo Wysa para muitos de seus amigos. Ela diz que também se pega passando conselhos que pegou do aplicativo, perguntando aos amigos: “Ah, o que você vai fazer hoje para se sentir melhor? Que tal você tentar isso hoje?”
Não é apenas a tecnologia que está tentando agir de forma humana, diz ela, e ri. Agora, ela começou a imitar a tecnologia.
Fonte: NPR
