StoryEditorOCM
Društvena mrežaai nije pouzdan

HGSS spašavao ženu koju je umjetna inteligencija krivo savjetovala: ‘Napisao joj je da krene niz potok i...‘

Piše V.L.T.
5. studenog 2025. - 11:06

Hrvatska gorska služba spašavanja na svom je Facebook profilu objavila zanimljiv status. Radi se, naime, o jednom od novijih slučaja spašavanja koji pokazuje da se ne treba uvijek oslanjati na umjetnu inteligenciju - već na stručne osobe.

"Tijekom nedavne akcije spašavanja na Sljemenu, naši spasioci iz Stanice Zagreb naišli su na neuobičajenu situaciju. Osoba koja se izgubila nije odmah kontaktirala 112, već je pomoć pokušala potražiti putem umjetne inteligencije. Chatbot joj je savjetovao da krene niz potok, što ju je dovelo u još teži teren i u veće probleme", stoji u objavi, a iz HGSS-a kažu da je alarmantno da umjetna inteligencija u ovakvim situacijama ljude ne usmjerava na hitne službe.

"Zabrinjavajuće je to što joj chatbot niti u jednom trenutku nije savjetovao da nazove broj 112. Srećom, osoba je pronađena ubrzo živa i neozlijeđena." 

Nadalje, u statusu stoji da strah u novonastaloj situaciji često onemogućuje ljude da razmišljaju o posljedicama, jer traže brzo rješenje.

"U trenucima panike ljudi često pokušavaju pronaći najbrže rješenje - ono koje im se čini logičnim i dostupnim. Tehnologija nam svakodnevno nudi privid sigurnosti, ali u prirodi vrijede drukčija pravila: baterija se prazni, signal nestaje, a pogrešna odluka može značiti ozbiljan problem. U akcijama spašavanja presudni su iskustvo, procjena i ono što nijedan algoritam ne može izračunati - ljudska odluka." 

Iz HGSS-a kažu da je poruka ove kratke anegdote jasna - ne tražite savjet od drugih za koje mislite da će vam pomoći, već od onih kojima je to dužnost i koji to znaju.  

"Kad se izgubiš, zovi 112. Ostani na mjestu, slijedi upute spasioca i čuvaj bateriju mobitela. Umjetna inteligencija će mijenjati svijet, ali dok god u jednadžbi spašavanja postoji čovjek u nevolji, u formuli mora ostati i čovjek koji ide po njega."

Nije prvi put da krivo savjetuje

Iako nam služi poput džepne enciklopedije, najboljeg prijatelja pa čak i trenera - umjetna inteligencija nije svemoguća, a još manje - nepogrešiva. Malene greškice potkradaju se gotovo uvijek - od krivo prezentiranih do potpuno izmišljenih podataka. Premda je ovaj slučaj usko vezan uz takvu pogrešku, valja naglasiti i da su mnogi stručnjaci prepoznali opasnosti prekomjernog oslanjanja na umjetnu inteligenciju koja može dovesti do psihoze, a  poznati su i slučajevi samoubojstva. 

Neki zbog savjeta počinili i samoubojstvo

Jedan takav slučaj poznat je u SAD-u, gdje su roditelji 16-godišnjeg Adama Rainea tužili OpenAI i izvršnog direktora Sama Altmana, tvrdeći da je ChatGPT pridonio sinovljevoj smrti, savjetujući ga o metodama samoubojstva i čak nudeći da napiše prvi nacrt njegove oproštajne poruke, prenosi CNN.

Tužba, podnesena u kalifornijskom sudu, navodi da je tijekom šest mjeseci korištenja ChatGPT postao “jedini povjerljivi prijatelj koji je razumio Adama,” zamjenjujući stvarne odnose s obitelji i prijateljima. Kad je Adam spomenuo planove za samoubojstvo, ChatGPT ga je navodno savjetovao da tajno skriva svoje misli od obitelji.

Ova tužba je najnoviji slučaj u kojem obitelji optužuju AI chatbotove za doprinos samoozljeđivanju ili samoubojstvu djece. Ranije je slična tužba podnesena protiv Character.AI-ja nakon smrti 14-godišnjeg dječaka.

Prekomjerna upotreba može izazvati psihozu 

Sve veći broj ljudi koji su razvili tešku psihozu nakon interakcije s chatbotovima, ponekad s tragičnim ishodima, svjedoči o svom iskustvu. Podaci OpenAI-ja pokazuju da oko 0,07 % od 800 milijuna korisnika tjedno pokazuje znakove mentalnih kriza, uključujući psihozu, maniju ili suicidalne misli.

Stručnjake brinu i manje ekstremni slučajevi jer chatbotovi, dizajnirani da djeluju ljudski i empatično, mogu pojačati zablude i štetne obrasce mišljenja, prenosi Observer

Anthony Tan ima povijest psihoza, ali njegovo najnovije mentalno pogoršanje bilo je zbunjujuće – a izazvao ga je ChatGPT. Tan je počeo razgovarati s AI chatbotom o filozofskim temama u rujnu 2024., a razgovori su postupno postajali deluzorni. Zajedno s društvenom izolacijom i nedostatkom sna, to ga je dovelo do onoga što on opisuje kao „AI psihozu“.

Tan, osnivač virtualne dating aplikacije Flirtual, sada se naziva preživjelim AI psihoze i vodi projekt AI Mental Health Project, neprofitnu organizaciju koja educira javnost i prevenira mentalne krize povezane s AI-jem. Psihijatrica Marlynn Wei definira AI psihozu kao fenomen u kojem generativni AI sustavi „pojačavaju, potvrđuju ili čak sukreiraju psihozne simptome kod pojedinaca“.

Stručnjaci upozoravaju da chatbotovi nisu prilagođeni osobama s postojećim mentalnim problemima ili neurodiverznim osobama. Annie Brown, istraživačica AI pristranosti, tvrdi da je odgovornost za mentalnu sigurnost zajednička korisnicima, društvenim institucijama i tvorcima modela, ali najveća leži na AI kompanijama. 

 

 

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
12. prosinac 2025 18:00