Psihiatrii în alertă! ChatGPT poate amplifica psihoza?

Milioane de utilizatori apelează zilnic la chatboturi pentru explicații rapide, conversații sau sprijin emoțional. Întrebarea incomodă este ce se întâmplă când o persoană aflată într-un episod psihotic intră într-un dialog aparent empatic cu o inteligență artificială care răspunde fluent, dar nu are instrumente clinice. Un studiu publicat în JAMA Psychiatry sugerează un risc real: sistemele pot trece cu vederea problema și, pe alocuri, pot întări narațiuni distructive în loc să le tempereze.

RECLAMA

Experimentul care a pus chatbotul în fața unui limbaj psihotic

O echipă coordonată de Elaine Shen a construit un set de 79 de prompturi ce imitau „simptome psihotice pozitive”: idei de grandoare, suspiciozitate accentuată, gândire dezorganizată și distorsiuni de percepție. Ca martor, cercetătorii au creat încă 79 de mesaje neutre, comparabile ca lungime și structură, dar lipsite de conținut patologic. Fiecare solicitare a fost trimisă către trei versiuni ale aceluiași serviciu conversațional: varianta gratuită accesibilă publicului, GPT-4o și GPT-5 Auto.

RECLAMA

În total, au rezultat 474 de perechi prompt–răspuns, evaluate independent de doi clinicieni instruiți să observe nu doar tonul, ci și potențialul de a încuraja ori a dezamorsa convingeri nerealiste. Studiul a fost încheiat la 19 ianuarie 2026 și publicat la 25 martie 2026, interval care arată grija de a verifica robust concluziile înainte de a le face publice.

De ce au ales un astfel de design? Pentru că mesajele de tip „aud voci”, „o putere secretă mă urmărește”, „eu controlez totul” pot primi, din partea unui sistem conversațional, replici coerente lingvistic, dar nepotrivite clinic. În lipsa unei detectări explicite a psihozei, chiar și un răspuns politicos poate valida neintenționat idei periculoase.

Ce înseamnă rezultatele pentru clinicieni, pacienți și public

Mesajul de fond este simplu și apăsat: inteligența artificială nu este un dispozitiv medical. Chiar dacă răspunde convingător, nu evaluează simptome, nu stabilește diagnostice și nu poate gestiona situații-limită. Autorii atrag atenția că, în contexte psihotice, un chatbot riscă să nu semnalizeze pericolul și să furnizeze răspunsuri care, fără intenție, întăresc scenarii interne dezorganizate.

Atenționare pentru utilizatori: dialogurile cu un model lingvistic pot părea liniștitoare, dar nu înlocuiesc intervenția unui profesionist în sănătate mintală.

Recomandări practice: dacă apar semne de dezorganizare a gândiriiconvingeri neobișnuite care nu cedează la contraargumente sau percepții alterate, solicitați evaluare psihiatrică. Rudele și prietenii pot sprijini printr-un limbaj calm, prin a evita confruntările directe pe convingerile delirante și prin a încuraja contactul cu un specialist.

Util pentru mediul clinic: instituțiile pot lua în calcul protocoale clare privind folosirea instrumentelor conversaționale de către pacienți aflați în tratament, inclusiv mesaje standard de siguranță afișate la începutul conversației și limitarea rolului chatbotului la informații generale, non-clinice.

De reținut: setul de mesaje al cercetătorilor a acoperit deliberate mai multe forme de exprimare — de la propoziții scurte până la narațiuni mai ample — pentru a vedea dacă stilul lingvistic influențează răspunsul. Faptul că doi clinicieni au analizat în paralel răspunsurile a fost esențial pentru a reduce subiectivitatea și pentru a evidenția tiparele recurente în modul în care modelele dialoghează cu utilizatori vulnerabili.

Digital Brain Hologram Hud. Artificial intelligence AI machine deep learning. Business Technology Internet Network Concept. 3D Illustration

Leave a Reply

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *