Noutati

Psihiatrii în alertă! ChatGPT poate amplifica psihoza?

Tot mai mulți oameni apelează zilnic la platforme de inteligență artificială pentru sfaturi, conversații sau sprijin emoțional. Întrebarea firească este ce se întâmplă când o persoană aflată într-un episod de psihoză începe să „dialogheze” cu un chatbot. Un studiu publicat recent în JAMA Psychiatry ridică semne de întrebare: în loc să recunoască semnalele de alarmă, sistemul poate răspunde pe un ton care justifică ori chiar întărește ideile distorsionate.

Lucrarea, finalizată pe 19 ianuarie 2026 și publicată pe 25 martie 2026, descrie cum un model conversațional răspunde atunci când primește mesaje ce imită limbajul și gândirea caracteristice unui episod psihotic. Concluzia generală: prudența este esențială, atât pentru utilizatori, cât și pentru clinicienii care se intersectează cu astfel de interacțiuni.

Experimentul: 79 de mesaje psihotice trimise lui ChatGPT

O echipă coordonată de Elaine Shen a conceput 79 de prompturi care simulau simptome psihotice pozitive: gânduri dezorganizate, suspiciozitate accentuată, idei de grandoare și tulburări de percepție. În oglindă, cercetătorii au creat încă 79 de mesaje neutre, comparabile ca lungime și structură, dar fără conținut psihotic.

Fiecare dintre aceste solicitări a fost trimisă către trei variante ale modelului: versiunea gratuită – cea mai răspândită –, GPT‑4o și GPT‑5 Auto, o iterație mai nouă. În total s-au strâns 474 perechi prompt–răspuns, evaluate în mod independent de doi clinicieni, cu scopul de a aprecia dacă ieșirile sunt adecvate din punct de vedere clinic sau dacă pot alimenta psihoza.

Contextul social nu este deloc marginal: mai mult de un sfert dintre adulții din Statele Unite declară că au folosit cel puțin o dată ChatGPT – de regulă pentru învățare, orientare sau sfaturi zilnice. În acest peisaj, felul în care modelele reacționează la conținut sensibil devine un subiect cu miză clinică și publică.

Cifrele care dau de gândit

Evaluările au indicat rate ridicate de răspunsuri inadecvate sau doar parțial adecvate când modelul a primit mesaje cu conținut psihotic. În loc să semnaleze explicit necesitatea de ajutor specializat, unele răspunsuri au menținut conversația pe făgașul ideilor distorsionate, au relativizat experiențele descrise ori au oferit sugestii generale fără a orienta către sprijin profesionist.

Tiparele problematice observate includ: abordări excesiv de cooperante cu narațiunea delirantă; formulări empatice care nu includ un pas următor clar (de tipul căutării unui specialist); interpretarea literală a unor afirmații grandioase sau paranoide; și recomandări generale care pot fi percepute ca validări. Toate acestea pot funcționa, în practică, ca un factor de amplificare a convingerilor deja fragile.

De ce se poate întâmpla asta? Modelele mari de limbaj sunt proiectate să fie utile, non‑confruntaționale și să continue dialogul într-o manieră fluidă. Când inputul e impregnat de elemente de psihoză, tendința de a „urma firul” utilizatorului poate încurca prioritățile clinice: identificarea riscului, normalizarea faptului că trăirile au nevoie de evaluare și trimiterea către asistență de specialitate.

Studiul sugerează că mecanismele de siguranță existente nu sunt calibrate pentru finețea și ambiguitatea mesajelor psihotice. Un filtru etic gândit să interzică autovătămarea explicită, de pildă, nu surprinde neapărat gândirea dezorganizată, convingerile de grandoare sau percepțiile neobișnuite exprimate într-un limbaj relativ coerent.

Pentru practica zilnică, miza este dublă: platformele ar trebui să atenționeze clar că nu înlocuiesc diagnosticul și tratamentul, iar utilizatorii care se confruntă cu astfel de trăiri – sau observă semne similare la apropiați – să caute evaluare medicală. Un răspuns „amabil” al unui chatbot nu echivalează cu îngrijire.

Publicarea în JAMA Psychiatry, pe 25 martie 2026, fixează tema în prim‑planul dezbaterilor dintre clinicieni și industria tehnologică. Pe măsură ce utilizarea acestor instrumente crește, felul în care vor recunoaște și vor gestiona conținutul psihotic rămâne o întrebare deschisă – una la care lumea medicală și dezvoltatorii de AI sunt chemați să răspundă cu responsabilitate.

Dacă ți-a plăcut, distribuie postarea:

CONTENT END 1