A inteligência artificial (IA) é aplicada hoje para otimizar processos em praticamente todas as áreas – da educação à saúde – e em diferentes realidades – para estudar, fazer correções, sugerir ideias.
Devido às respostas rápidas, linguagem acolhedora, acesso gratuito e disponibilidade 24 horas por dia, as plataformas baseadas em IA também têm atraído pessoas que não contam com suporte psicológico e buscam ajuda em momentos de crise emocional.
Mas, diante desse avanço, surge a pergunta: até que ponto a tecnologia pode oferecer cuidado sem substituir o essencial vínculo humano de uma terapia feita com um psicólogo?
Para a psicóloga e professora Pâmela Fardin, responsável técnica pela clínica-escola da Faesa, a IA é uma ferramenta poderosa de apoio, especialmente em atividades acadêmicas e de pesquisa.
No entanto, ela alerta: a tecnologia não substitui a escuta clínica nem o olhar sensível do profissional.
A IA é uma ferramenta que pode colaborar com o aperfeiçoamento do conteúdo que a gente produz, fazendo correção de trabalhos, de português. Mas em relação aos atendimentos, as vivências, a experiência profissional, isso a IA não substitui.”
Pâmela Fardin, psicóloga e professora
A especialista ressalta que a inteligência artificial até pode auxiliar na triagem de sintomas ou na identificação de padrões emocionais, discutindo diagnósticos com o paciente, mas a essência da psicologia está na relação interpessoal.
A escuta ativa e o vínculo são ferramentas essenciais em qualquer abordagem psicológica para estabelecer uma relação de confiança. E essa relação de confiança cresce na interação. Então, a terapia tem como base essa relação, que produz mudança.”
Pâmela Fardin.
Sendo assim, para Pâmela, a relação “homem-máquina”, por mais que benéfica e facilitadora em muitos momentos, encontra limites que só podem ser superados na interação “pessoa-pessoa”.
O avanço da IA no campo da saúde mental
Assim como em outras áreas, o uso da IA na psicologia ainda está em fase de estudos. No entanto, nos últimos anos, pesquisas acadêmicas têm demonstrado o potencial das ferramentas no apoio à saúde mental.
Um estudo realizado por Felipe Giuntini, no Instituto de Ciências Matemáticas e de Computação (ICMC) da Universidade de São Paulo (USP), em São Carlos, resultou no desenvolvimento de um sistema que utiliza IA para identificar sinais de depressão nas redes sociais.
Essa ferramenta faz parte da chamada computação afetiva, que tenta traduzir emoções humanas em dados analisáveis. O objetivo, segundo o pesquisador, não é diagnosticar, mas oferecer um recurso que auxilie o terapeuta a compreender o paciente.
A busca para desenvolver plataformas específicas de IA para auxiliar a psicologia também reflete um contexto preocupante para a saúde mental, no Brasil. Segundo o Ministério da Previdência Social, 440 mil pessoas foram afastadas do trabalho, em 2024, por transtornos mentais e comportamentais — um aumento de 67%, em relação a 2023.
Entre os jovens que estão no ensino médio, 79% apresentam um ou mais sintomas de depressão e ansiedade, segundo estudo realizado pelo Instituto Ayrton Senna, em parceria com o Centro de Políticas Públicas e Avaliação da Educação (CAEd), da Universidade Federal de Juiz de Fora (UFJF).
Diante desse cenário, cresce a necessidade de ampliar o acesso a políticas públicas de saúde mental e de preparar profissionais e pacientes para lidar com novas tecnologias.
Riscos e dilemas éticos
O principal alerta dos profissionais está nos limites éticos da tecnologia. Segundo Pâmela Fardin, a IA pode gerar uma falsa sensação de acolhimento, especialmente para quem busca ajuda emocional.
A IA é baseada em banco de dados. Ela é alimentada para responder, principalmente, o que a pessoa deseja ouvir. Isso, de certa forma, se torna um problema no processo psicoterapêutico. Para crescer, se desenvolver, se autoconhecer, é extremamente necessário que a pessoa também se depare com alguns obstáculos.”
Pâmela Fardin
Além dos riscos de alcançar um diagnóstico equivocado ou precipitado, a professora pontua que, dado que a IA é programada por seres humanos, as ferramentas podem reproduzir preconceitos e estereótipos. “A IA, sendo resultado da sociedade, vai ser conivente com isso.”
O professor do Departamento de Psicologia da Universidade Federal do Espírito Santo Adriano Pereira Jardim, responsável pela disciplina de Ética Profissional, explica que a capacidade de lidar com ambiguidades, principal característica da inteligência humana, segundo ele, é essencial para o processo terapêutico.
Sendo assim, para Jardim, a IA não pode substituir o trabalho de um profissional, visto que ela não tem capacidade de processar informações de forma tão complexa a ponto de lidar com questões naturais do processo humano.
Se estamos longe de ter uma IA com um processo cognitivo, de inteligência ou de conhecimento complexo e ambíguo, estamos ainda muito mais longe de imaginar que uma inteligência artificial possa desenvolver um processo semelhante a um processo emocional.”
Adriano Pereira Jardim, professor
O professor defende que a psicoterapia é um processo extremamente sofisticado e complexo, que exige uma concentração muito grande do profissional, visto que se relaciona aos afetos, sentimentos, valores e história de vida do paciente.
Por isso, Jardim aponta alguns riscos no uso da IA na psicologia, como por exemplo o fato de determinadas questões acabarem se tornando “gatilhos”:
“Uma maneira de conduzir um determinado assunto pode virar um gatilho para um processo depressivo, de ansiedade, autodestrutivo. Então, não me parece uma coisa adequada nem segura que as pessoas estejam estabelecendo relações de cunho emocional, de orientação, ou de aconselhamento, e muito menos ainda de psicoterapia, com um programa que não faz um processamento nesse sentido das emoções.”
O uso da IA, então, deve ser no sentido de apoiar determinadas tarefas e otimizar processos, explica o professor, mas não para substituir pensamentos complexos ou tomar decisões.
Segundo ele, é necessário ter filtro crítico para não assumir vieses e equívocos como verdades e também educação formal para refletir e verificar as conclusões das ferramentas de IA sobre determinado assunto.
“Hoje, nós temos algumas ferramentas que têm se desenvolvido para fazer um excelente apoio de processos cognitivos, mas jamais para sobrepor ou substituir o fator humano no sentido de julgar se aquela informação ou maneira de organizar os dados é realmente uma maneira vantajosa e correta.”
A exposição de dados sensíveis também representa um risco grave à privacidade, visto que eles podem ser utilizados para atualizar a base de conhecimento das plataformas. Por isso, para a professora Pâmela Fardin, a formação de novos profissionais precisa incluir discussões sobre ética digital e limites do uso da tecnologia na prática clínica.
A visão dos estudantes: apoio, não substituição
Entre os alunos de Psicologia da Faesa, a percepção é semelhante. O estudante Gabriel Cupertino vê a IA como aliada nos estudos, mas não como substituta da relação terapêutica.
Ele conta que quando começou a fazer terapia, há aproximadamente três anos, não conseguia identificar alguns sintomas da ansiedade. Foi a análise da psicóloga que o ajudou a perceber os alertas, como tensões no corpo.
A partir do momento em que comecei a identificar isso, consegui trabalhar esses pontos de relaxamento. Também conversando com ela, fui trabalhando algumas coisas do meu passado e algumas inseguranças.”
Gabriel Cupertino.
Hoje, a IA está no dia a dia do estudante como facilitadora de alguns processos, como busca de referências teóricas para trabalhos acadêmicos, mas não como substituta da terapia ou do processo de aprendizado.
Já Júlia Copolillo, do 10º período, reconhece o potencial das plataformas em situações emergenciais, mas reforça os limites.
Às vezes, a pessoa vai estar em um momento de crise, não vai saber a quem recorrer, e ela vai entrar em contato com aquela plataforma que está ali mais perto dela, de fácil acesso também. E eu acho que a IA vai servir como uma parceira do trabalho do psicólogo.”
Júlia Copolillo.
Uma das possibilidades que a aluna identifica é a de recomendação. Ela diz que a IA pode sugerir que a pessoa procure, por exemplo, o Centro de Valorização da Vida – o CVV 188, mas não fazer o trabalho efetivamente do psicólogo.
Júlia também sente que é preciso regulamentar a IA no que diz respeito à ética e ao uso de dados sensíveis. Por isso, a estudante acredita ser importante inserir estudos sobre as ferramentas no curso, para que os futuros profissionais entendam como elas têm auxiliado as pessoas no dia a dia.
“Precisamos aprender até mesmo para quando a gente for receber os pacientes dentro da clínica, para poder dar algum tipo de recomendação de como usar, como não usar também.”
Educação e inovação: o futuro do cuidado
A visão dialoga com a proposta da 24ª Jornada Científica e Cultural (JCC) da Faesa, que há 24 anos conecta academia, mercado e sociedade.
Mais do que um evento acadêmico, a JCC se tornou um espaço de inovação e reflexão sobre o papel da tecnologia na formação humana, promovendo debates, oficinas e projetos que aproximam teoria e prática.
A jornada reafirma o compromisso da instituição com a ética, a inclusão e o desenvolvimento social, mostrando que o futuro da psicologia depende da capacidade de integrar inteligência artificial e sensibilidade humana.
“A tecnologia tem um papel fundamental em potencializar e facilitar o aprendizado, mas não necessariamente substitui a relação social”, resume Pâmela Fardin.