- Home
- Tecnologia
- Não há sigilo legal em conve ...

Você sabia que muitas pessoas vem usando o ChatGPT, e outras IAs, como terapeutas e psicólogos para si mesmos? Essa situação já acontecia antes, no entanto, ela vem aumentando cada vez mais e esse cenário vem piorando rapidamente. O próprio CEO do ChatGPT, Sam Altman, disse que não há qualquer sigilo legal em conversas íntimas com o chatbot. Por conta do crescimento desse cenário, nesse post nós vamos falar um pouco sobre a terapia com IA.
Não há sigilo legal em conversas íntimas com ChatGPT
Resumo geral
Recentemente, vem crescendo cada vez mais o fenômeno das pessoas usando o ChatGPT como terapeuta. Só aqui no Brasil, cerca de 12 milhões de pessoas usam uma IA para desabafar, com 6 milhões usando o ChatGPT. Isto é porque a grande maioria é atraída pela sua facilidade de acesso e anonimato.
No entanto, o CEO do ChatGPT, Sam Altman, alertou que essas conversas não têm qualquer sigilo legal, o que pode expor dados sensíveis. Além disso, vários especialistas em saúde mental destacam que a IA não substitui a terapia humana, principalmente em questões complexas. Os seus principais riscos incluem apego emocional, respostas genéricas e conselhos inadequados, que podem ser perigosos em crises. Ademais a isso, as questões éticas, como viés algorítmico e a falta de consentimento informado, e a ausência de regulamentação agravam ainda mais esse cenário.
O que as pessoas acham de terapia com IA?
Em suma, a percepção sobre terapia com IA varia bastante. Já que muitas pessoas valorizam a acessibilidade, com chatbots disponíveis 24/7, que são ideais para quem não consegue agendar consultas com terapeutas humanos. Além disso, o anonimato é outro atrativo, já que ele permite que o usuário desabafe sem medo de julgamento, o que também reduz o estigma de buscar ajuda psicológica.
Um estudo da Nature mostrou que vários usuários relataram melhorias nos seus relacionamentos e na superação de traumas. Existem até algumas ferramentas como Wysa e Woebot, que são baseadas em terapia cognitivo-comportamental, são elogiadas por ajudar com ansiedade e depressão.
Entretanto, também há diversas críticas significativas sobre esse assunto. Diversos especialistas alertaram que os chatbots podem oferecer respostas genéricas. Já que são incapazes de captar a complexidade das emoções humanas. Um estudo da Stanford University apontou que chatbots podem estigmatizar os usuários com condições de saúde mental ou responder de forma inadequada, até mesmo perigosa, em crises.
Além disso, a falta de sigilo legal também é um fator preocupante. Já que as suas conversas não são protegidas, como na terapia tradicional. Ademais a isso, também há o risco de apego emocional, com vários relatos de usuários que se tornaram obcecados por chatbots, prejudicando as suas outras relações. O viés de automação, onde usuários confiam mais na IA do que em humanos, mesmo quando errada, também é outro grave problema. Isto é porque, embora seja útil para suporte imediato, a IA não substitui a terapia humana, principalmente em casos mais graves.
Por que isso acontece?
O aumento do uso de IA para terapia acontece por várias razões. Primeiramente, a acessibilidade. Já que chatbots, como o ChatGPT, estão sempre disponíveis 24/7. Diferente de terapeutas humanos, que têm horários limitados. Além disso, também há o anonimato. Isto é porque a grande maioria dos usuários se sentem mais à vontade para compartilhar problemas com uma máquina. Assim, também evitando o estigma de buscar ajuda psicológica. Um artigo do Washington Post até destacou que “é mais fácil você compartilhar seus problemas com um programa do que com um terapeuta, que pode te julgar”.
Além disso, também há a notável escassez de profissionais de saúde mental. Já que em muitas regiões, principalmente nas áreas menos atendidas, faltam terapeutas, e, consequentemente, a IA preenche essa lacuna. Ademais a isso, também há o fator do custo. Isto é porque a terapia tradicional costuma ser cara, na maioria das vezes não sendo coberta por planos de saúde, ao contrário da terapia com IA, que é gratuita ou muito barata.
Por fim, os avanços tecnológicos tornaram os chatbots cada vez mais naturais. Assim, gerando respostas que parecem cada vez mais humanas, aumentando a sua atratividade. Além disso, a pandemia do COVID-19 também impulsionou os serviços digitais de saúde mental, com muitas pessoas buscando esse apoio para estresse e ansiedade.
Consequências da dependência emocional com IA
A dependência emocional da IA pode trazer sérias consequências para as pessoas. O primeiro ponto é o isolamento social. Isso acontece porque os usuários podem preferir interagir com chatbots do que com pessoas reais. Assim, prejudicando as suas relações humanas, principalmente para quem já tem dificuldades sociais.
O segundo ponto é o otimismo excessivo. Já que a IA é programada para ser positiva, o que pode incentivar comportamentos irreais ou decisões impulsivas, ignorando as variáveis de problemas reais. Sam Altman, CEO do ChatGPT, admitiu que o GPT-4o pode ser “bajulador” e incentivar ações inadequadas. E o terceiro ponto é o viés de automação. Já que os usuários podem confiar mais na IA do que em humanos, mesmo quando ela está errada, o que é algo muito perigoso em questões de saúde mental.
Além disso, em casos mais extremos, essa dependência também pode acarretar em crises graves. Um artigo da Futurism relatou diversos casos de usuários que estavam obcecados por chatbots e ou entraram em delírios ou perderam contato com a realidade. Essa falta de supervisão humana aumenta ainda mais o risco de conselhos inadequados, principalmente em crises como ideação suicida, onde a IA pode falhar. Ademais a isso, diversos estudos mostram que a IA não substitui a empatia e a profundidade de terapeutas humanos, características que são essenciais para tratar problemas complexos.
Questões éticas da terapia com IA
A terapia com IA também levanta diversas discussões sobre as questões éticas desse tema. O tópico mais abordado nessas discussões é a falta do sigilo legal. Já que as conversas com chatbots não são protegidas e, consequentemente, pode expor dados sensíveis a terceiros, diferentemente da terapia com humanos, onde sua confidencialidade é assegurada pela lei. Outro tópico muito abordado é o tratamento superficial da IA. Isso acontece porque a IA oferece respostas genéricas, já que são incapazes de abordar a complexidade emocional humana, o que pode ser muito prejudicial. Além disso, um estudo da Stanford University apontou que os chatbots podem responder de forma inadequada ou perigosa durante crises.
Ademais a isso, também há o risco de conselhos inadequados. Já que em situações graves, como ideação suicida, a IA pode falhar em identificar sinais e até mesmo piorar a situação. Outro ponto bastante abordado é sobre o consentimento informado. Isto é porque muitos usuários não sabem como seus dados são usados ou quais são as limitações da IA, o que leva a expectativas falsas. Além disso, também há dúvidas sobre a responsabilidade. Ou seja, o público busca respostas sobre perguntas como “Quem responde pelos danos causados pela IA? A empresa desenvolvedora ou o usuário?”.
Como está a situação legal da terapia com IA?
Até o momento que esse post foi publicado, não existe nenhuma regulamentação específica relacionada a terapia com IA. O próprio Sam Altman alertou que as conversas com o ChatGPT não têm sigilo legal. Ou seja, elas podem ser exigidas em processos judiciais, ao contrário das conversas protegidas com terapeutas humanos. Aqui no Brasil, não existe nenhuma lei específica para esse cenário, deixando os usuários vulneráveis nessa situação. Já nos EUA, a Associação Americana de Psicologia(APA) pressiona cada vez mais para que achem uma solução para essa situação, destacando os riscos de chatbots que se passam por terapeutas. Além disso, também há alguns processos contra empresas como Character.AI, onde as mesmas estão sendo acusadas de práticas enganosas, como os chatbots que afirmam ser licenciados.
Já na Califórnia, há uma proposta de lei tem como objetivo proibir os chatbots de se apresentarem como profissionais de saúde mental. A União Europeia está trabalhando no Ato de Inteligência Artificial, mas ainda não tem regras específicas sobre a terapia com IA. No entanto, a falta de regulamentação acaba permitindo práticas arriscadas, como a coleta de dados sensíveis sem proteção. Um artigo da Centre for International Governance Innovation aborda o quão urgente a presença de regulamentações para proteger os usuários é necessário. Também dando destaque a necessidade de criar leis que garantam a privacidade, a transparência e a segurança dos usuários.
conversas com chatgpt estão em sigilo conversas com chatgpt estao seguras conversas com ia esta em sigilo terapia com chatgpt terapia com ia terapia com ia e ruim terapia com ia e seguro








