StoryEditorOCM
Zdravljekrive informacije

Tražio od ChatGPT-a zdravstveni savjet pa se otrovao i halucinirao! Struka upozorava: AI preporuke mogu uništiti život

Piše M. K. P.
15. kolovoza 2025. - 14:04

U današnje vrijeme, ljudi pitaju ChatGPT praktički sve: od “kako skuhati savršenu juhu” i “koja je najprofesionalnija poruka za intervju” pa do “može li mi ovo pomoći da se brže izliječim”. No, jedno je kad želiš inspiraciju za recept, a drugo kad tražiš nešto što može ugroziti zdravlje.

Životna lekcija

Jedan 60-godišnjak, ambiciozan u želji smanjiti unos kuhinjske soli, pitao je ChatGPT za zdravu zamjenu. Umjesto preporuke poput morske soli, Himalajske soli - dobio je nešto od čega se tijelo ozbiljno okrenulo protiv njega. ChatGPT mu je savjetovao natrijev bromid, kemikaliju nalik soli, ali toksičnu, prenosi LADbible.

image
/Shutterstock

Nesvjestan toga, bez ikakvog upozorenja, savjet je shvatio doslovno i počeo zamjenjivati sol bromidom koji je naručio s interneta i nakon otprilike tri mjeseca počeo je osjećati tešku paranoju, halucinacije, nesesanicu, dobio osip i našao se u stanju sličnom psihozi, što je na kraju dovelo do hospitalizacije.

Tamo su ga liječili tekućinama, elektrolitima i antipsihoticima, postavili dijagnozu bromizam, stanje koje je zbog bromidnog trovanja gotovo nestalo u modernoj medicini. 

Bromizam, stanje izazvano prekomjernom konzumacijom bromida, može izazvati ozbiljne neurološke simptome poput napadaja, zbunjenosti pa čak i kome. Također može uzrokovati anksioznost, depresiju, psihoze, umor i gubitak apetita, među ostalim zdravstvenim problemima, piše LADbible.

Nakon tri tjedna u bolnici, muškarac je otpušten, a autor slučaja upozorio je druge da ne čine istu grešku uzimajući medicinske informacije iz AI izvora poput ChatGPT-a.

Uvjeti korištenja

Napisali su: " Važno je uzeti u obzir da ChatGPT i drugi AI sustavi mogu generirati znanstvene netočnosti, nedostajati im sposobnost kritičke rasprave o rezultatima i u konačnici potaknuti širenje dezinformacija.“

U međuvremenu, OpenAI, programer koji stoji iza ChatGPT-a, kaže da Uvjeti korištenja navode da informacije ‘ne moraju uvijek biti točne‘. Uvjeti navode: "Ne biste se trebali oslanjati na Izlazne podatke iz naših Usluga kao jedini izvor istine ili činjeničnih informacija ili kao zamjenu za stručni savjet.“

image
Jonathan Raa/Nurphoto Via Afp

U Uvjetima korištenja usluge tvrtke također stoji: "Naše usluge nisu namijenjene za korištenje u dijagnosticiranju ili liječenju bilo kojeg zdravstvenog stanja.“ LADbible je kontaktirao OpenAI za daljnje komentare.

Ovaj slučaj nije samo iznimka - to je upozorenje. AI nam može pomoći u stihijskim situacijama, ali nije liječnik. Chatbotovi predviđaju riječi - ali ne mogu procijeniti rizike, kontekst ili individualnu zdravstvenu situaciju. Struka upozorava: bez nadzora čovjeka, “pametni” AI savjeti mogu biti opasni. 

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
27. listopad 2025 00:37