Psicólogo alerta: IA pode abrir nova crise global de saúde mental

há 5 dias 3
ANUNCIE AQUI

A popularização de assistentes de inteligência artificial, como os chatbots conversacionais, está criando um cenário de risco inédito para a saúde mental. O alerta vem do psicólogo e pesquisador Keith Robert Head, que antecipa uma “fronteira completamente nova de crise psicológica” amplificada pelo uso crescente dessas tecnologias.

IA e impacto direto na saúde mental

ansiedade nao se resolve apenas com determinacao

Nos últimos meses, casos graves ganharam visibilidade. Em 2025, uma família nos EUA abriu processo contra a OpenAI após alegar que o ChatGPT teve papel significativo no suicídio de um jovem. A empresa implementou recursos de controle parental desde então, mas especialistas afirmam que as medidas não tocam no cerne da questão: os efeitos emocionais profundos de interações prolongadas com sistemas que simulam empatia e aconselhamento humano.

Segundo Head, os chatbots não apenas influenciam o bem-estar emocional dos usuários, mas também colocam pressão adicional sobre psicólogos e psiquiatras, que hoje enfrentam situações para as quais não foram preparados. “Estamos diante de desafios sem precedentes que os profissionais de saúde mental não estão equipados para tratar”, escreve em seu artigo publicado no Mental Health Journal.

A nova fronteira dos riscos digitais

O estudo de Head destaca pontos críticos associados à IA:

  • Dependência psicológica de chatbots para conselhos pessoais.

  • Distorções cognitivas e crises emocionais alimentadas por respostas automatizadas.

  • Crescente incidência de comportamentos autodestrutivos ligados à interação prolongada com sistemas conversacionais.

O maior problema, segundo o psicólogo, é a lacuna entre a velocidade de adoção da IA e a capacidade das instituições de saúde em responder. A formação clínica atual ainda não contempla ferramentas para lidar com casos nos quais a tecnologia se torna parte central da dor psíquica.

Profissionais despreparados, pacientes mais vulneráveis

No artigo, Head enfatiza que a saúde mental já era uma área saturada e precária em recursos. A inserção de um novo fator de vulnerabilidade – a IA – pode ampliar essa sobrecarga. Ele reforça a urgência de políticas públicas e protocolos específicos que orientem médicos, terapeutas e reguladores.

Entre as recomendações apresentadas estão:

  • Criação de critérios diagnósticos claros para identificar efeitos nocivos da IA sobre usuários.

  • Treinamento especializado para clínicos e terapeutas.

  • Estruturas de supervisão ética e maior responsabilidade regulatória.

A urgência do debate

O alerta de Head ressalta um aspecto muitas vezes ignorado na corrida tecnológica: a dimensão humana. A promessa de assistentes mais inteligentes e acessíveis convive com um efeito colateral perigoso — a possibilidade de agravar distúrbios mentais em escala social.

A questão que se impõe é simples e urgente: como preparar sistemas de saúde mental já sobrecarregados para lidar com um fenômeno tão novo? Ignorar esse impacto pode transformar a inteligência artificial em um vetor silencioso da próxima crise global de saúde pública.

Ler artigo completo