U današnje vrijeme, ljudi pitaju ChatGPT praktički sve: od “kako skuhati savršenu juhu” i “koja je najprofesionalnija poruka za intervju” pa do “može li mi ovo pomoći da se brže izliječim”. No, jedno je kad želiš inspiraciju za recept, a drugo kad tražiš nešto što može ugroziti zdravlje.
Životna lekcija
Jedan 60-godišnjak, ambiciozan u želji smanjiti unos kuhinjske soli, pitao je ChatGPT za zdravu zamjenu. Umjesto preporuke poput morske soli, Himalajske soli - dobio je nešto od čega se tijelo ozbiljno okrenulo protiv njega. ChatGPT mu je savjetovao natrijev bromid, kemikaliju nalik soli, ali toksičnu, prenosi LADbible.
Nesvjestan toga, bez ikakvog upozorenja, savjet je shvatio doslovno i počeo zamjenjivati sol bromidom koji je naručio s interneta i nakon otprilike tri mjeseca počeo je osjećati tešku paranoju, halucinacije, nesesanicu, dobio osip i našao se u stanju sličnom psihozi, što je na kraju dovelo do hospitalizacije.
Tamo su ga liječili tekućinama, elektrolitima i antipsihoticima, postavili dijagnozu bromizam, stanje koje je zbog bromidnog trovanja gotovo nestalo u modernoj medicini.
Bromizam, stanje izazvano prekomjernom konzumacijom bromida, može izazvati ozbiljne neurološke simptome poput napadaja, zbunjenosti pa čak i kome. Također može uzrokovati anksioznost, depresiju, psihoze, umor i gubitak apetita, među ostalim zdravstvenim problemima, piše LADbible.
Nakon tri tjedna u bolnici, muškarac je otpušten, a autor slučaja upozorio je druge da ne čine istu grešku uzimajući medicinske informacije iz AI izvora poput ChatGPT-a.
Uvjeti korištenja
Napisali su: " Važno je uzeti u obzir da ChatGPT i drugi AI sustavi mogu generirati znanstvene netočnosti, nedostajati im sposobnost kritičke rasprave o rezultatima i u konačnici potaknuti širenje dezinformacija.“
U međuvremenu, OpenAI, programer koji stoji iza ChatGPT-a, kaže da Uvjeti korištenja navode da informacije ‘ne moraju uvijek biti točne‘. Uvjeti navode: "Ne biste se trebali oslanjati na Izlazne podatke iz naših Usluga kao jedini izvor istine ili činjeničnih informacija ili kao zamjenu za stručni savjet.“
U Uvjetima korištenja usluge tvrtke također stoji: "Naše usluge nisu namijenjene za korištenje u dijagnosticiranju ili liječenju bilo kojeg zdravstvenog stanja.“ LADbible je kontaktirao OpenAI za daljnje komentare.
Ovaj slučaj nije samo iznimka - to je upozorenje. AI nam može pomoći u stihijskim situacijama, ali nije liječnik. Chatbotovi predviđaju riječi - ali ne mogu procijeniti rizike, kontekst ili individualnu zdravstvenu situaciju. Struka upozorava: bez nadzora čovjeka, “pametni” AI savjeti mogu biti opasni.
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....