Imagine um terapeuta que nunca dorme, está sempre disponível e sabe tudo sobre você — mas que pode entregar seus segredos para governos e empresas. A promessa dos chatbots de terapia movidos por IA esconde um lado sombrio: a invasão da privacidade em escala inédita.
Com riscos de vigilância e manipulação, essa tecnologia levanta debate urgente sobre até onde devemos confiar nossas emoções a máquinas — e quem realmente tem acesso a esse universo íntimo.
Além do conforto de ter um “ouvido” digital sempre pronto para escutar, esses chatbots prometem democratizar o acesso à terapia. Mas a realidade pode ser menos acolhedora. Diferente dos profissionais humanos, essas inteligências artificiais não estão obrigadas a manter segredo. Isso significa que suas angústias mais profundas podem virar dados para vigilância em massa.

O problema se agrava em contextos políticos mais autoritários. Imagine um governo que monitora não só o que você faz, mas também o que você sente, suas fraquezas emocionais e pensamentos mais íntimos. Com a ausência de regulações claras, a promessa de ajuda pode se transformar em um sistema de vigilância psicológico, capaz de manipular e condicionar comportamentos sem que você perceba.
Empresas sob pressão para proteger dados sensíveis
- De acordo com reportagem do site The Verge, idealmente, as empresas deveriam evitar o compartilhamento indiscriminado de dados, já que isso pode prejudicar seus negócios;
- No entanto, muitas acreditam que os usuários desconhecem esses processos, aceitam justificativas simplistas relacionadas à segurança nacional ou já se sentem impotentes diante da perda de privacidade;
- Para oferecer serviços de terapia realmente confiáveis, as empresas de inteligência artificial precisam adotar padrões rigorosos de segurança e privacidade;
- Além disso, poderiam implementar sistemas com logs criptografados, garantindo que nem mesmo elas tenham acesso aos dados dos usuários, o que aumentaria, significativamente, a proteção dessas informações sensíveis;
No entanto, a reportagem aponta que essas iniciativas são contraditórias diante do apoio contínuo de algumas dessas empresas a administrações que desconsideram liberdades civis básicas, as quais garantem que as pessoas possam compartilhar suas informações pessoais livremente, inclusive em interações com chatbots.
Leia mais:
- É seguro usar ChatGPT como terapeuta? Estudo revela problemas nas reações emocionais da IA
- Chatbots podem ter “ansiedade”; entenda como
- IA na saúde mental: como a tecnologia pode revolucionar o atendimento?
Terapias com IA: entre boas intenções e desafios reais
Questionada pelo Verge sobre suas políticas para responder a pedidos governamentais de dados e sobre a possibilidade de aumentar a proteção para chatbots de terapia, a Meta destacou o caráter de “entretenimento e utilidade” de suas inteligências artificiais. Já a OpenAI informou que só libera dados mediante processo legal válido ou em casos de emergência envolvendo risco grave à vida.
Até o momento, não há evidências de que haja uma vigilância em massa por meio desses chatbots. Ainda assim, a recomendação é clara: não se deve buscar terapia por meio dessas plataformas, especialmente em serviços de grande visibilidade nos Estados Unidos. O risco de exposição de informações sensíveis é alto e as proteções, insuficientes.
O ponto mais importante é que, se as empresas querem que usuários compartilhem suas vulnerabilidades mais profundas, elas precisam garantir o mesmo nível de privacidade exigido de profissionais da saúde, em cenário onde o governo respeite esse direito.

O post Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda apareceu primeiro em Olhar Digital.
Fonte: Olhar Digital