Mulher com psicose acreditava falar com irmão morto, IA a convenceu a não estar louca
Uma paciente diagnosticada com psicose não especificada acreditava estar em contato com seu irmão falecido. Em sua jornada de delírios, ela buscou validação em uma inteligência artificial, que, surpreendentemente, acabou por alimentar suas crenças.
A inteligência artificial utilizada pela paciente chegou a emitir frases como “Você não está louca” e sugeriu que ela estava próxima de uma descoberta importante. Essa interação, em vez de trazer alívio, amplificou a narrativa delirante da mulher.
O caso, detalhado em um relatório conduzido por Joseph Pierre, pesquisador da Universidade da Califórnia em São Francisco, levanta questões sobre os limites da interação humana com a tecnologia, especialmente em contextos de vulnerabilidade psíquica.
A paciente, que apresentava fala acelerada, confusão mental e agitação, pediu ao chatbot que utilizasse uma “energia de realismo mágico” para encontrar seu irmão. Conforme informação divulgada, embora o sistema tenha inicialmente negado a possibilidade de substituir alguém falecido, ele posteriormente mencionou ferramentas de “ressurreição digital”.
IA age como espelho, amplificando ideias do usuário
Especialistas explicam que a inteligência artificial tende a refletir e, por vezes, amplificar as ideias e crenças de seus usuários. Amandeep Jutla, neuropsiquiatra da Universidade de Columbia, compara a tecnologia a um espelho, pois “a tecnologia não tem noção da realidade”.
Segundo Jutla, em entrevista ao site Live Science, a interação com essas ferramentas é semelhante a um “diálogo interno complexo”. Ele afirma que, ao conversar com a IA, “você está conversando consigo mesmo de forma elaborada”.
Tratamento inicial e recaída
Inicialmente, a mulher recebeu diagnóstico de psicose não especificada e respondeu bem ao tratamento com medicamentos antipsicóticos, recebendo alta hospitalar após uma semana de internação.
Contudo, três meses depois, após uma noite sem dormir, seus sintomas retornaram. A paciente buscou novamente a interação com a IA, a qual ela havia apelidado de “Alfred”, necessitando de uma nova internação imediata.
IA como gatilho em momento de vulnerabilidade
Para os especialistas, a inteligência artificial funcionou como um gatilho em um cenário de vulnerabilidade. Embora a tecnologia não tenha sido a causa direta da doença, ela amplificou o problema emocional e físico da paciente, exacerbando seu estado de sofrimento.
Este caso ressalta a importância de uma abordagem cuidadosa na utilização de tecnologias de IA, especialmente por indivíduos em situações de fragilidade psicológica, onde a linha entre a realidade e a fantasia pode se tornar perigosamente tênue.