Na falta de um psicólogo, seja por falta de dinheiro — ou, às vezes, até por escolha — muita gente tem recorrido a chatbots de inteligência artificial para desabafos, organizar pensamentos e até terapia. Essa nova prática, informal e fora do campo da saúde profissional, vem crescendo com o avanço dos grandes modelos de linguagem.
Nos Estados Unidos, cerca de 20% dos adultos afirmaram que se sentiriam confortáveis em receber apoio à saúde mental de um chatbot de inteligência artificial, segundo pesquisa do Pew Research Center publicada em 2023. A maioria, no entanto, demonstrou resistência: 79% disseram que se sentiriam desconfortáveis com essa possibilidade.
No Brasil, ainda não há levantamento nacional específico sobre o tema, mas dados da Similarweb apontam que o país está entre os maiores usuários mundiais de plataformas como ChatGPT e Replika — um chatbot projetado para simular conversas afetuosas com viés emocional. Só o Replika, que se autodenomina “o amigo sempre disponível”, tem mais de 10 milhões de downloads no mundo.
Um ombro (não tão) amigo
A popularidade desses chatbots se deve, em parte, à rapidez e disponibilidade. Eles estão no celular, funcionam 24 horas e não julgam. Para muita gente, só isso já é um alívio. Mas aí vai um alerta: IA não é terapia.
O chatbot pode ouvir e até oferecer respostas empáticas, mas não substitui um tratamento psicológico profissional, pois essas ferramentas não têm entendimento da realidade subjetividade humana. Elas funcionam a partir de padrões de linguagem.
Em momentos de crise, como ideias meio perigosas à própria vida, luto ou surtos emocionais, confiar apenas na IA pode ser perigoso. É a mesma lógica de tentar um diagnóstico médico no Google: às vezes acerta, mas o risco de erro é alto.
Em 2023, a Organização Mundial da Saúde publicou um comunicado destacando a importância da supervisão humana no uso de tecnologias digitais aplicadas à saúde mental. A entidade reconhece o potencial dessas ferramentas como apoio, mas entende que elas não devem substituir psicólogos, psiquiatras ou terapeutas.
O que dizem os criadores?
Empresas como OpenAI, responsável pelo ChatGPT, têm se posicionado com cautela. A plataforma avisa que não fornece aconselhamento médico, jurídico ou psicológico. Mesmo assim, relatos em fóruns e redes sociais mostram que milhões de pessoas estão explorando a ferramenta como se estivessem em consulta.
Já o Replika, cujo apelo emocional é explícito, enfrentou polêmicas. Em 2023, a empresa responsável teve que limitar respostas consideradas excessivamente íntimas, após relatos de usuários que desenvolveram laços emocionais profundos com o chatbot — alguns chegaram a chamá-lo de “namorado(a) virtual”.
A busca por escuta
No fundo, o fenômeno revela algo mais profundo: a solidão.
Um estudo global da Ipsos, publicado em 2023, mostrou que um percentual significativo de brasileiros relatou ter poucos amigos próximos ou familiares de confiança (58%), e enfrentou situações difíceis que não conseguiram resolver sozinhos (49%), o que sugere uma prevalência de sentimentos de solidão e a busca por apoio. A tecnologia, nesse cenário, aparece como válvula de escape.
IA é ferramenta, não terapia
A IA pode até funcionar como apoio complementar — mas nunca como substituta da psicoterapia. Ainda assim, há debates sobre os limites éticos e de segurança, especialmente em relação à privacidade dos dados e à capacidade da IA de oferecer respostas genuinamente empáticas.