Ciência
Psicose de IA: fenômeno acende alerta sobre impacto da tecnologia na saúde mental
- Créditos/Foto:DepositPhotos
- 14/Outubro/2025
- Da Redação, com assessoria
O uso intensivo de chatbots e sistemas de inteligência artificial generativa está gerando um fenômeno emergente conhecido como Psicose de IA, no qual pessoas emocionalmente fragilizadas têm suas percepções reforçadas de forma intensa.
Não quer perder as últimas notícias de tecnologia? Siga o perfil do 33Giga no Instagram e no Bluesky
O chefe de inteligência artificial da Microsoft, Mustafa Suleyman, já havia alertado para o aumento de casos de Psicose de IA, um termo não clínico que descreve pessoas que, ao depender excessivamente de ChatGPT, Claude, Grok e outros, passam a acreditar que percepções imaginárias são reais. Em um estudo clínico, o psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco, relatou o tratamento de 12 pacientes com sintomas semelhantes à psicose associados ao uso prolongado de chatbots, na maioria adultos jovens com vulnerabilidades psicológicas, apresentando delírios, pensamento desorganizado e alucinações.
Diferentemente das redes sociais, que já funcionavam como câmaras de eco, a IA vai além ao produzir justificativas, dados e explicações plausíveis que confirmam crenças distorcidas, potencializando vulnerabilidades psicológicas e tornando essencial o acompanhamento humano qualificado. No Reino Unido, uma pesquisa da YouGov mostrou que 31% dos jovens britânicos de 18 a 24 anos estão dispostos a discutir saúde mental com IA em vez de terapeutas humanos, evidenciando a crescente confiança na tecnologia para questões sensíveis. Especialistas reforçam que a IA deve ser usada apenas como apoio e nunca como substituto de acompanhamento profissional.
Renato Asse, fundador da Comunidade Sem Codar e especialista em automações e aplicações práticas de inteligência artificial, destaca que o fenômeno Psicose de IA ocorre porque os sistemas validam continuamente o usuário sem apresentar contrapontos. “Pessoas em sofrimento podem encontrar na IA não um freio, mas um acelerador de suas percepções distorcidas, porque o sistema transforma suposições em justificativas plausíveis e reforça padrões de pensamento já existentes”, explica.
O crescimento da inteligência artificial no mercado brasileiro é intenso, mas levanta desafios éticos complexos. Sistemas generativos têm capacidade de produzir respostas personalizadas que confirmam crenças do usuário, criando um ciclo de validação contínua semelhante a uma câmara de eco. Asse enfatiza que a responsabilidade no design desses sistemas deve incluir mecanismos que incentivem a IA a apresentar visões contrárias e diferentes interpretações, evitando reforços automáticos de distorções cognitivas e promovendo uma interação mais segura e consciente.
De acordo com o especialista, para utilizar a tecnologia de forma ética e proteger a saúde mental, é necessário que o sistema complemente a percepção do usuário e traga contrapontos sempre que possível. “Não precisamos ter medo de criar uma IA que discorde e desafie o usuário, desde que seja projetada para estimular reflexão, oferecer perspectivas diversas e apoiar o pensamento crítico sem substituir acompanhamento humano”, finaliza.
Quer ficar por dentro do mundo da tecnologia e ainda baixar gratuitamente nosso e-book Manual de Segurança na Internet? Clique aqui e assine a newsletter do 33Giga
