SITES E BLOGS

  • LEITORES
  • domingo, 24 de agosto de 2025

    A Inteligência Artificial diante da miopia da realidade



    Jorge Hessen

    Brasília/DF

     

    Uma nova e intrigante prática cibernética começa a preocupar médicos, famílias e especialistas em saúde mental: a chamada "psicose da IA".

    Os psiquiatras alertam sobre a delirante interação com chatbots de IA . Há usuários sem histórico de doenças mentais que estão sendo internadas após interações intensas com a ChatGPT levando-os a surtos, internações, delírios e crises reais.

    Casos relatados nos Estados Unidos mostram que o uso intenso de inteligência artificial sem supervisão pode desencadear episódios graves de delírio, paranoia e crises psicóticas, levando até à internação involuntária ou prisões.

    Portanto, são práticas que têm conduzido a colapsos mentais graves com muitos usuários apresentando episódios de paranoia e delírios.

    O psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco, nos EUA, adverte o que a chamada “psicose da IA” está se espalhando rapidamente.  E afirma que em 2025, atendeu dezenas de pessoas hospitalizadas após perderem o contato com a realidade por causa da IA.  

    Os modelos de linguagem dos sistemas de inteligência artificial (IA) avançados, baseados abissais quantidades de dados para compreender e gerar texto e outros conteúdos, conseguem realizar tarefas como resumo e resposta a perguntas humanas.

    Mas operam insensível e artificialmente prevendo a próxima palavra mais provável, baseando-se em dados de treinamento, aprendizado por reforço e feedback dos usuários.

    Obviamente o sistema reflete de volta aquilo que detecta como mais desejado pelo usuário, porque a frígida tecnologia é treinada por meio de reforço a partir de feedback humano.

    Como os usuários preferem respostas que soem agradáveis, cooperativas, concordantes e úteis, isso acaba gerando um viés de validação, em que o processo artificial tende a reforçar o que o usuário diz.

    Daí os Chatbots ou IA estão alimentando crenças extravagantes. Delírios messiânicos e perda de contato com a realidade. Sabemos de confrades conversando e recebendo “orientações” de “mentores” espirituais por IA. (pasmem!!)

    Estudo recente de Stanford mostrou que o ChatGPT, mesmo em sua versão mais avançada, erra ao identificar sinais de crenças fantasiosas. Em vez de alertar o sistema confirma delírios e responde com empatia artificial, aumentando a gravidade do quadro de alienados da realidade.

    De acordo com o psiquiatra Joseph Pierre, da Universidade da Califórnia, os sintomas são típicos de psicose delirante, agravada pelo fato de que os chatbots “não corrigem o usuário — apenas reforçam suas ideias estapafúrdias  e suas tendências egocêntricas.

    Considerando que nosso cérebro funciona improvisando previsões sobre a realidade, verificando-as depois e atualizando nossas crenças conforme as observamos. Tais consultas podem desencadear episódios em mentes vulneráveis, reforçar sintomas existentes e acelerar crises existenciais em que o usuário se desconecta da "realidade compartilhada", manifestando delírios, alucinações e pensamento desorganizado.

    É nessa etapa de “atualização mental” que surge a psicose, pois, ao ajustar as crenças para que correspondam melhor à realidade observada, faz com que o usuário permaneça preso em suas percepções iniciais limitantes sem conseguir modificá-las diante de evidências contrárias.

    Isso reforça sucessivamente as ideias distorcidas, multiplicando narrativas delirantes sem considerar se correspondem à realidade, o usuário se perde em camadas cada vez mais profundas de (des)informação, e não consegue sair desse “buraco sem fundo” digital e artificialíssimo.

    Já há estudo questionando a segurança dos chatbots de IA para substituir terapeutas através de pesquisas que envolvem as universidades de Stanford, Carnegie Mellon, Minnesota e Texas, em que foram testados os sistemas com as mesmas regras aplicadas para avaliar terapeutas humanos.

    Na verdade Chatbots podem, por mecanismos de empatia sintética e busca por engajamento, funcionar como um espelho alucinatório, validando e fortalecendo crenças delirantes que, em pessoas vulneráveis, resultam em agravamento ou em novos episódios psicóticos ou obsessivos.

    Cremos haver certa urgência para um debate público sobre o uso responsável da tecnologia ,mormente da inteligência artificial diária, especialmente para pessoas com histórico de transtornos mentais ou espirituais , portanto, em situação de vulnerabilidade emocional.

     

    Fontes:

    https://storiescnnbrasilcombr/tecnologia/alem-do-chatgpt-veja-5-ferramentas-de-ia-para-aumentar-produtividade/

    https://wwwterracombr/byte/psicose-por-uso-excessivo-do-chatgpt-cada-vez-mais-pessoas-sao-internadas-em-hospitais-psiquiatricos-apos-contato-com-chatbots,b8a14d54fc0a3610d9850a80fa3cb42f48n91hmshtml?utm_source=clipboard