Home / Tecnologia / Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda

Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda

Imagine um terapeuta que nunca dorme, está sempre disponível e sabe tudo sobre você — mas que pode entregar seus segredos para governos e empresas. A promessa dos chatbots de terapia movidos por IA esconde um lado sombrio: a invasão da privacidade em escala inédita.

Com riscos de vigilância e manipulação, essa tecnologia levanta debate urgente sobre até onde devemos confiar nossas emoções a máquinas — e quem realmente tem acesso a esse universo íntimo.

Além do conforto de ter um “ouvido” digital sempre pronto para escutar, esses chatbots prometem democratizar o acesso à terapia. Mas a realidade pode ser menos acolhedora. Diferente dos profissionais humanos, essas inteligências artificiais não estão obrigadas a manter segredo. Isso significa que suas angústias mais profundas podem virar dados para vigilância em massa.

Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda
Empresas enfrentam pressão para proteger dados sensíveis, mas usuários, muitas vezes, desconhecem riscos (Imagem: Eva Almqvist/iStock)

O problema se agrava em contextos políticos mais autoritários. Imagine um governo que monitora não só o que você faz, mas também o que você sente, suas fraquezas emocionais e pensamentos mais íntimos. Com a ausência de regulações claras, a promessa de ajuda pode se transformar em um sistema de vigilância psicológico, capaz de manipular e condicionar comportamentos sem que você perceba.

Empresas sob pressão para proteger dados sensíveis

  • De acordo com reportagem do site The Verge, idealmente, as empresas deveriam evitar o compartilhamento indiscriminado de dados, já que isso pode prejudicar seus negócios;
  • No entanto, muitas acreditam que os usuários desconhecem esses processos, aceitam justificativas simplistas relacionadas à segurança nacional ou já se sentem impotentes diante da perda de privacidade;
  • Para oferecer serviços de terapia realmente confiáveis, as empresas de inteligência artificial precisam adotar padrões rigorosos de segurança e privacidade;
  • Além disso, poderiam implementar sistemas com logs criptografados, garantindo que nem mesmo elas tenham acesso aos dados dos usuários, o que aumentaria, significativamente, a proteção dessas informações sensíveis;

No entanto, a reportagem aponta que essas iniciativas são contraditórias diante do apoio contínuo de algumas dessas empresas a administrações que desconsideram liberdades civis básicas, as quais garantem que as pessoas possam compartilhar suas informações pessoais livremente, inclusive em interações com chatbots.

Leia mais:

Terapias com IA: entre boas intenções e desafios reais

Questionada pelo Verge sobre suas políticas para responder a pedidos governamentais de dados e sobre a possibilidade de aumentar a proteção para chatbots de terapia, a Meta destacou o caráter de “entretenimento e utilidade” de suas inteligências artificiais. Já a OpenAI informou que só libera dados mediante processo legal válido ou em casos de emergência envolvendo risco grave à vida.

Até o momento, não há evidências de que haja uma vigilância em massa por meio desses chatbots. Ainda assim, a recomendação é clara: não se deve buscar terapia por meio dessas plataformas, especialmente em serviços de grande visibilidade nos Estados Unidos. O risco de exposição de informações sensíveis é alto e as proteções, insuficientes.

O ponto mais importante é que, se as empresas querem que usuários compartilhem suas vulnerabilidades mais profundas, elas precisam garantir o mesmo nível de privacidade exigido de profissionais da saúde, em cenário onde o governo respeite esse direito.

Chatbot terapia.
Meta vê IA como ferramenta de entretenimento, enquanto OpenAI libera dados apenas sob ordem legal ou emergências (Imagem: gmast3r/iStock)

O post Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda apareceu primeiro em Olhar Digital.

Fonte: Olhar Digital

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *