Umjetna inteligencija i veliki jezični modeli poput ChatGPT-a postaju dio našeg svakodnevnog života. Psihijatrija nije iznimka. Istraživanja pokazuju da umjetna inteligencija može pomoći u dijagnostici, predviđanju tijeka bolesti i planiranju liječenja – ali njezina je stvarna uloga još uvijek u razvoju, te je treba shvatiti kao potporu kliničarima, a ne kao zamjenu za njih.
Uvod: zašto umjetna inteligencija ulazi u psihijatrijsku ordinaciju
Iako u području mentalnog zdravlja postoji stanovita stigma, činjenica je da su poremećaji mentalnog zdravlja među vodećim uzrocima bolesti u svijetu. Tako se smatra da svaka treća osoba tijekom života doživi neki oblik psihičkog poremećaja. Zavisno gdje živite i koji zdravstveni sustav koristite, pristup pravodobnoj i učinkovitoj skrbi je negdje lakše dostupan dok je negdje i dalje ograničen: liste čekanja su duge, stručnjaka je malo, a mnogi nikada ne dobiju potrebnu pomoć. Istovremeno, umjetna inteligencija (UI) i veliki jezični modeli poput ChatGPT-a postaju dio našeg svakodnevnog života. Psihijatrija nije iznimka. Istraživanja pokazuju da UI može pomoći u dijagnostici, predviđanju tijeka bolesti i planiranju liječenja – ali njezina je stvarna uloga još uvijek u razvoju i treba je shvatiti kao potporu kliničarima, a ne kao zamjenu za njih.
Kako je sam pojam umjetne inteligencije širok te se danas koristi u raznim kontekstima ideja ovog članka je razraditi najbitnije sastavnice umjetne inteligencije te objasniti zašto su one bitne u psihijatriji. U ovom tekstu će se pokušati objasniti što chatbotovi mogu a što ne mogu, što su „digitalni biomarkeri“ i kako pametni telefoni i nosivi uređaji mogu pomoći u praćenju psihičkog stanja, na koja etička pitanja moramo misliti kada koristimo ove tehnologije te zašto je ljudska uloga i dalje ključna.
Chatbotovi u psihijatriji: razgovor s programom
Chatbotovi poput ChatGPT-a mogu biti korisni kao informativna pomoć, ali oni nisu dijagnostički alat, nisu namijenjeni za psihoterapiju i nisu zamjena za hitnu ili kriznu pomoć.
ChatGPT je veliki jezični model treniran na ogromnoj količini tekstova kako bi mogao odgovarati na pitanja i voditi naizgled prirodne razgovore. U psihijatriji su trenutačno najrealističnije primjene uglavnom „iza pozornice“. Može pomoći u administrativnom radu, sažeti razgovor, sastaviti liječničko izvješće ili strukturirati klinički zapis. Zadaci koji su prije oduzimali mnogo vremena mogu se obaviti brže, što potencijalno ostavlja više vremena za izravan kontakt s pacijentom. Takve su primjene obećavajuće, ali su još uvijek u fazi ispitivanja, i to uglavnom u zemljama engleskog govornog područja i dobro opremljenim zdravstvenim sustavima. U mnogim državama, posebno onima s manjim jezicima, ovakvi se alati tek počinju istraživati i na “mala vrata” ulaziti u svakodnevnu kliničku praksu.
Chatbotovi se mogu koristiti i za objašnjavanje dijagnoza, mogućnosti liječenja ili nuspojava lijekova jednostavnim jezikom, često jasnije nego što bi to pružila nasumična internetska pretraga. Kada se pitamo može li chatbot postaviti dijagnozu ili liječiti osobu, očekivanja lako preteknu stvarnost. Neka istraživanja o depresiji pokazuju da programi poput ChatGPT-a ponekad mogu prepoznati depresivne simptome u pisanim opisima i predložiti razumna rješenja, poput psihoterapije ili antidepresiva. No točnost se smanjuje kako slučaj postaje složeniji, dugoročne ishode loše predviđa, a u izravnim usporedbama s liječnicima, chatbot ima tendenciju podcijeniti težinu stanja i prognozu.
Stanje je još više zabrinjavajuće kada govorimo o suicidalnom riziku. U nekim je simulacijama ChatGPT prepoznao suicidalne misli i ohrabrio osobu da potraži pomoć. Ali u drugim je slučajevima dao netočne informacije o kriznim službama ili podcijenio vjerojatnost suicidalnog pokušaja u usporedbi sa stručnjacima za mentalno zdravlje. Tome u prilog govori i nedavni slučaj engleskog maloljetnika koji je počinio suicid nakon višemječnog dopisivanja s ChatGPT-om, izazivajući lavinu reakcija pa i reakciju samog OpenAI-a koji je izričito naglasio kako se chatbotovi ne bi smjeli služiti u svrhu psihoterapije i psihološke podrške u kriznim situacijama. Iz navedenog je jasno kako chatbotovi nisu sigurni kao samostalni alati u situacijama visokog rizika i ne mogu zamijeniti stvarne hitne službe, krizne telefone ili kliničku skrb. Postoje i opća ograničenja koja je važno razumjeti. Chatbotovi mogu zvučati vrlo uvjerljivo, a ipak biti u krivu te „halucinirati“ činjenice koje jednostavno nisu točne. Poznato je kako takvi program “nasljeđuju” pristranosti iz podataka na kojima su trenirani i kako njihove informacije ne moraju biti ažurne. Nadalje, što je posebno važno za mentalno zdravlje, ne mogu pouzdano čitati neverbalne znakove, govor tijela, tišinu ili snažne emocije.
Za pacijente i obitelji može pomoći jednostavno pravilo: chatbotovi poput ChatGPT-a mogu biti korisni kao informativna pomoć, za razumijevanje stručnih pojmova, pripremu pitanja za liječnika ili organiziranje vlastitih misli. Ali oni nisu dijagnostički alat, nisu namijenjeni za psihoterapiju i nikada ne smiju biti zamjena za hitnu ili kriznu pomoć.
Digitalni biomarkeri: što vaš telefon i sat mogu otkriti o raspoloženju
Ako se aplikacija ili nosivi uređaj nudi kao dio skrbi za mentalno zdravlje, razumno je da se pacijenti pitaju što se točno mjeri, tko će imati pristup informacijama, kako će biti zaštićene i na koji će način ti podaci utjecati na njihovo liječenje.
Psihijatrija se tradicionalno oslanja na ono što pacijenti ispričaju i na ono što kliničari uoče tijekom pregleda. Za razliku od nekih drugih područja medicine, u psihijatriji praktički ne postoje „krvni testova za depresiju“ ili „snimanja za anksioznost“. Zbog toga istraživači traže nove, objektivnije pokazatelje koje nazivamo digitalnim biomarkerima.
Digitalni marker je pojam koji podrazumijeva svakodnevno korištenje digitalnih uređaja, prvenstveno pametnih telefona i nosivih uređaja, za kontinuirano mjerenje određenih dijelova našeg ponašanja i biologije. Senzori u tim uređajima mogu bilježiti kretanje i tjelesnu aktivnost, obrasce spavanja, koliko često izlazimo iz kuće i koliko daleko putujemo, učestalost poziva ili poruka, pa čak i neke karakteristike govora, poput brzine, pauza i intonacije. Naglasak je najčešće na obrascima, a ne na sadržaju razgovora. Istraživanja su pokazala da se određene promjene u tim digitalnim tragovima mogu povezati s promjenama simptoma. Primjerice, osoba kojoj se depresija pogoršava može pokazivati smanjenu pokretljivost, neredovitije spavanje, manje društvenih kontakata i sporiji, monotoniji govor. U teoriji, to bi moglo omogućiti ranije prepoznavanje pogoršanja i preciznije praćenje stanja između pregleda. Ako se potvrde i koriste oprezno, digitalni biomarkeri mogli bi pomoći kliničarima da ranije uoče znakove pogoršanja, potaknu raniji kontakt s pacijentom i prilagode liječenje. Mogli bi nadopuniti subjektivne samoprocjene kontinuiranim, objektivnim podacima i osobito biti korisni u izvanbolničkom liječenju, gdje se pacijenti viđaju tek svakih nekoliko tjedana ili mjeseci. No ovo je područje još uvijek u ranoj fazi. Mnoge studije koriste različite senzore i metode, što otežava usporedbu rezultata. Istraživanja se često provode na malim, odabranim skupinama, najčešće mladih i tehnološki vještih sudionika, pa ne znamo dovoljno dobro kako se nalazi mogu primijeniti na širu populaciju. Tu su i ozbiljni problemi privatnosti, jer kontinuirano praćenje može djelovati nametljivo i otvara pitanja tko vidi podatke, gdje se čuvaju i kako su zaštićeni.
Za sada, ako se aplikacija ili nosivi uređaj nudi kao dio skrbi za mentalno zdravlje, razumno je da se pacijenti pitaju što se točno mjeri, tko će imati pristup informacijama, kako će biti zaštićene i na koji će način ti podaci utjecati na njihovo liječenje.
Što kliničari doista žele od umjetne inteligencije
Kada se psihijatre i kliničke psihologe pita što im je najvrjednije u umjetnoj inteligenciji, njihovi su odgovori iznenađujuće prizemni. Umjesto „čarobnih“ dijagnostičkih strojeva, najviše ih zanimaju alati koji im pomažu vidjeti širu sliku kroz vrijeme: kontinuirano praćenje simptoma, rani signali da bi se stanje pacijenta moglo pogoršati i potpora u predviđanju tko bi mogao trebati češće kontrole ili promjenu terapije. Drugim riječima, mnogi kliničari zamišljaju UI kao korisnog asistenta. Ona može organizirati i sažeti složene informacije, naglasiti trendove i smanjiti administrativno opterećenje. Tako im daje više vremena i prostora za ono što ljudi čine najbolje: slušanje, empatiju, razumijevanje životnog konteksta i vrijednosti pacijenta te zajedničko donošenje odluka o liječenju. Mnogo manje oduševljenja pokazuju za programe koji funkcioniraju na principu „crne kutije“, gdje se netransparentno i nejasno izbacuju preporuke za liječenje bez objašnjenja ili shvaćanja kako je program došao do pojedinog zaključka.
Kliničari uglavnom žele alate koje mogu barem okvirno razumjeti, tumačiti u svjetlu svog profesionalnog znanja i otvoreno o njima razgovarati s pacijentima. Pristup usmjeren na čovjeka znači da algoritmi pomažu otkriti obrasce i predložiti mogućnosti, ali odgovornost za odluke o dijagnostici i liječenju ostaje čvrsto u rukama kliničara, koji u obzir uzima ne samo podatke, nego i osobu koja sjedi ispred njega.
Rasprava: mogućnosti, rizici i razborito korištenje umjetne inteligencije
Chatbotovi, digitalni biomarkeri i druge sastavnice šireg pojma umjetne inteligencije nude stvarne mogućnosti za poboljšanje skrbi o mentalnom zdravlju, ali istovremeno otvaraju važna pitanja o etici, sigurnosti i budućnosti terapijskog odnosa.
Ako sve ovo stavimo na zajednički nazivnik, chatbotovi, digitalni biomarkeri i druge sastavnice šireg pojma umjetne inteligencije nude stvarne mogućnosti za poboljšanje skrbi o mentalnom zdravlju, ali istovremeno otvaraju važna pitanja o etici, sigurnosti i budućnosti terapijskog odnosa.
S jedne strane, chatbotovi danas mogu učiniti informacije dostupnijima i smanjiti administrativno opterećenje, tako da psihijatri mogu više vremena posvetiti pacijentima. Digitalni biomarkeri mogli bi omogućiti ranije prepoznavanje pogoršanja i detaljnije praćenje funkcioniranja u svakodnevnom životu, umjesto da se oslanjamo samo na ono čega se pacijent sjeti tijekom pregleda. Alati koji ističu rane znakove pogoršanja mogli bi pomoći kliničarima da djeluju prije nego što se razvije kriza, potencijalno spriječiti hospitalizacije i smanjiti patnju.
Istovremeno, etička pitanja moraju se shvatiti vrlo ozbiljno ako želimo da se ovim tehnologijama vjeruje. Privatnost i sigurnost podataka ključne su brige. Kontinuirano praćenje kretanja, spavanja, društvenih interakcija ili govora izuzetno je osjetljivo. Pacijenti trebaju jasne informacije i stvarni izbor o tome što se prikuplja, zašto je to potrebno, gdje se podaci pohranjuju i tko ih može vidjeti. Potrebne su snažne pravne i tehničke zaštite.
Važna je i pravednost, odnosno rizik od pristranosti. Ako se sustavi UI treniraju uglavnom na podacima iz određenih regija, kultura ili dobnih skupina, mogu lošije funkcionirati za druge, što dovodi do nejednake kvalitete skrbi. Zato je važno da istraživanja namjerno uključuju raznolike populacije i da kliničari ostanu svjesni ograničenja svakog alata koji koriste. Transparentnost i odgovornost također su bitni: ljudi bi trebali barem okvirno znati kako sustav dolazi do svojih prijedloga, a odgovornost za odluke mora ostati na medicinskim stručnjacima, umjesto da se skrivaju iza softvera.
Možda je najosjetljivije, ali i najvažnije pitanje kako ovi alati utječu na ljudski odnos u središtu psihijatrije. Rizik nije toliko u tome da će pacijenti odjednom htjeti razgovarati samo s „robotom“, koliko u tome da preopterećeni sustavi pokušaju tehnologiju koristiti kao jeftinu zamjenu za kvalitetnu skrb. Ako ljudi steknu dojam da se aplikacija ili chatbot koriste umjesto slušanja, a ne uz podršku kliničara, povjerenje se lako narušava.
Za pacijente i obitelji nekoliko jednostavnih ideja može biti korisno. UI u mentalnom zdravlju najbolje je shvatiti kao novi set instrumenata, a ne kao novog liječnika. Može informirati, podržati i obogatiti skrb, ali ne može zamijeniti ljudski kontakt, empatiju ni kliničku prosudbu. Ako se u vašem liječenju koriste alati UI, nemojte se ustručavati pitati svog liječnika koji se sustav koristi, kako otprilike radi, koja su njegova ograničenja i kako se štite vaši podaci.
Budućnost psihijatrije gotovo će sigurno biti digitalnija. Ako tim tehnologijama pristupimo sa znatiželjom, ali i s kritičkim razmišljanjem, jasnim etičkim pravilima i snažnom predanošću ljudskom dostojanstvu, one nam mogu pomoći izgraditi sustav skrbi koji je istovremeno moderniji i humaniji, onaj u kojem pametni alati rade u pozadini dok osoba ostaje u središtu.
Literatura
- Arbanas G, Brečić P. PRAKTIČNA PRIMJENA CHATBOTOVA U SVAKODNEVNOM (PSIHIJATRIJSKOM) RADU.
- Fischer L, Mann PA, Nguyen MH, Becker S, Khodadadi S, Schulz A, Edwin Thanarajah S, Repple J, Hahn T, Reif A, Salamikhanshan A. AI for mental health: clinician expectations and priorities in computational psychiatry. BMC psychiatry. 2025 Jun 6;25(1):584.
- Zhang X, Zheng H. Psychiatry in the age of AI: transforming theory, practice, and medical education. Frontiers in Public Health. 2025 Sep 29;13:1660448.
- Sun J, Lu T, Shao X, Han Y, Xia Y, Zheng Y, Wang Y, Li X, Ravindran A, Fan L, Fang Y. Practical AI application in psychiatry: historical review and future directions. Molecular Psychiatry. 2025 Jun 3:1-0.