IA e saúde mental: A emergência de uma nova interface de cuidado
Na última quinta, durante o lançamento do Instituto Labee, tive a oportunidade de mediar um painel especialmente significativo, em que debatemos as interseções entre saúde mental e Inteligência Artificial generativa. A partir da apresentação conduzida pelo Rodrigo Leal, CEO do NAVI – hub de inteligência artificial do Tecnopuc – e sócio da Bee Touch, que […]

Na última quinta, durante o lançamento do Instituto Labee, tive a oportunidade de mediar um painel especialmente significativo, em que debatemos as interseções entre saúde mental e Inteligência Artificial generativa. A partir da apresentação conduzida pelo Rodrigo Leal, CEO do NAVI – hub de inteligência artificial do Tecnopuc – e sócio da Bee Touch, que abordou dados de um estudo recente da Harvard Business Review, seguimos uma reflexão que considero indispensável para o futuro da psicologia.
O estudo evidencia uma transformação no perfil de uso da IA generativa: enquanto em 2024 predominavam aplicações técnicas — como edição de textos, busca de informações e apoio para a criação de ideias —, para 2025 se projeta uma predominância de usos relacionados a aspectos emocionais, existenciais e subjetivos. As categorias de maior crescimento são, justamente, aquelas voltadas à terapia, companhia, organização da vida e busca de propósito. É um dado impactante, que não pode ser analisado apenas sob a ótica do avanço tecnológico. Precisa ser contextualizado a partir dos referenciais da psicologia e da ética do cuidado.
Na apresentação, foi destacado que muitas pessoas relataram recorrer à IA como uma forma de processar experiências complexas de sofrimento psíquico, como o luto e o trauma. Foram apontadas como vantagens três características da terapia baseada em IA: disponibilidade contínua, 24/7, superando barreiras de tempo e espaço; custo reduzido, ampliando o acesso, especialmente em contextos de desigualdade; e ausência de julgamento humano, o que reduz dificuldades de adesão, especialmente para quem vivencia estigmas ou receios na busca por ajuda.
No entanto, como debatemos no palco, esse fenômeno não pode ser compreendido como uma evolução positiva — ou, ainda, como uma ameaça assustadora — sem uma análise crítica rigorosa. Como psicóloga, não posso deixar de expor que intervenções psicoterapêuticas são processos complexos, mediados pela construção de um vínculo, pela empatia e pela capacidade do psicoterapeuta de observar e reconhecer nuances emocionais e contextuais que extrapolam respostas automatizadas. O processo psicoterapêutico cresce na relação.
A introdução da IA na psicologia — desde a avaliação até a intervenção —, entretanto, é inevitável e suscita questões fundamentais, como a validação científica: até que ponto modelos baseados em aprendizado de máquina podem ser benéficos, sem incorrer em riscos de vieses, efeitos iatrogênicos ou mesmo de desumanização do cuidado? Além disso, há limites que precisam ser cuidadosamente observados, como, por exemplo: a necessidade do consentimento informado, especialmente quando o usuário pode não ter clareza sobre as limitações e riscos do uso da IA; a garantia da privacidade e segurança dos dados sensíveis; e a definição de responsabilidades profissionais — quem responde por eventuais falhas?
Nessa discussão, é pertinente destacar a tendência de modelos como o ChatGPT serem excessivamente diplomáticos e evitarem respostas que impliquem confronto direto. Embora essa característica vise minimizar danos e promover interações seguras, ela pode, inadvertidamente, ferir o princípio bioético da não maleficência em contextos clínicos ou psicoterapêuticos que exijam intervenções mais confrontativas para promover alguma mudança. Em situações envolvendo transtornos específicos, a evitação sistemática do confronto pode atrasar processos terapêuticos e comprometer o bem-estar do paciente, demandando uma reflexão crítica sobre os limites e adaptações éticas necessárias no uso da IA nesses contextos.
É possível, contudo, que a IA seja utilizada como apoio para o profissional de saúde mental e para a pessoa ou empresa que vai utilizar seus serviços? Com certeza, sim. Como defendi durante nossa discussão, a IA deve ser compreendida como uma ferramenta complementar, facilitando o acesso e oferecendo suporte em situações específicas, psicoeducação e melhoria no repertório de enfrentamento — mas nunca como substituta da prática humana, especialmente nos casos que exigem maior sensibilidade, julgamento ético e manejo de sofrimento intenso.
As informações apresentadas, com a projeção para 2025, expressam não apenas uma tendência de mercado, mas um movimento cultural e subjetivo. Esse cenário nos convoca, enquanto profissionais da saúde mental, a uma atuação crítica e comprometida com o bem-estar das pessoas. Será preciso investir em pesquisas científicas robustas, no desenvolvimento de marcos regulatórios claros e na formação dos profissionais para lidar com esse novo ecossistema tecnológico.
Saio desse evento convicta de que estamos diante de uma inflexão histórica: a tecnologia deixou de ser um recurso operacional para se constituir como uma interface de cuidado subjetivo. O maior desafio da psicologia contemporânea é saber como incorporar, regular e, sobretudo, humanizar essa nova realidade, garantindo que a IA não se torne um espaço de banalização e alienação, mas de ampliação das possibilidades de acolhimento e saúde mental.
O avanço tecnológico ocorrerá independentemente de nossa vontade. O que se impõe, portanto, não é a tentativa de conter esse movimento, mas a responsabilidade de regulamentar e assegurar que seu desenvolvimento conte com a participação qualificada e a curadoria técnica e ética de especialistas que compreendem profundamente seus impactos. Não se trata da amplitude do que a inteligência artificial pode realizar, mas em como podemos garantir que ela seja utilizada de maneira benéfica. Assim, mais do que frear a tecnologia, cabe a nós orientar sua trajetória para que produza valor social, respeitando princípios fundamentais e, principalmente, evitando danos.