A substituição da terapia tradicional por inteligência artificial (IA) está se tornando cada vez mais comum, despertando preocupações significativas. Especialistas advertem que, embora a IA ofereça acessibilidade e supere algumas barreiras, os riscos associados à falta de empatia, questões de privacidade e eficácia são consideráveis.
O Conselho Federal de Psicologia (CFP), em resposta a essas preocupações, está desenvolvendo diretrizes para assegurar o uso ético dessas tecnologias no Brasil.
Riscos de segurança e privacidade
Os serviços de IA frequentemente utilizados como alternativas à terapia tradicional podem representar graves riscos à privacidade dos usuários. A Lei Geral de Proteção de Dados (LGPD) do Brasil estabelece normas rigorosas para proteção de dados pessoais, mas, segundo especialistas, muitas plataformas ainda carecem de segurança adequada.
Leonardo Martins, psicólogo, alerta que dados sensíveis podem ser expostos ou utilizados sem consentimento devido à falta de regulamentação específica.
Falta de empatia genuína
Uma das críticas mais frequentes é que as ferramentas de IA não conseguem fornecer a empatia genuína oferecida por psicólogos humanos. Pesquisas indicam que chatbots não podem substituir a conexão humana necessária para um atendimento eficaz.
A interação é baseada em padrões pré-programados, sem a profundidade emocional e o julgamento humano, o que pode diminuir a eficácia em casos complexos.
Regulamentação em debate
No Brasil, é urgente regulamentar o uso de IA em contextos terapêuticos. Órgãos como o CFP estão desenvolvendo diretrizes para garantir que a IA seja utilizada de forma responsável e complementar, e nunca como substituta para profissionais qualificados.
Essas medidas visam assegurar que essas ferramentas adiram a normas éticas e assegurem a integridade emocional dos usuários.
Conclusões atuais
Até agora, o uso de inteligência artificial como ferramenta terapêutica continua em evolução, com muitos obstáculos regulatórios e de eficácia ainda pendentes. Embora essa tecnologia possa democratizar o acesso ao cuidado emocional, os riscos associados à privacidade e à qualidade do atendimento permanecem significativos.
O Brasil trabalha em diretrizes para equilibrar inovação e segurança. Enquanto isso, o uso de IA para aconselhamento deve ser abordado com cautela.





