StoryEditorOCM
Svijetda se smrzneš

Dogodilo se i to: umjetna inteligencija prvi put napala čovjeka; evo što mu je učinila i što to znači za naše živote

Piše Gojko Drljača/JL
16. veljače 2026. - 13:51

Scott Shambaugh bit će zapamćen kao čovjek za kojeg je prvi put u povijesti čovječanstva dokazano da ga je javno napala artificijelna inteligencija (AI) jer se nije složila s njegovom procjenom te je pokušala utjecati na promjenu čovjekove odluke. Slučaj će dodatno produbiti ionako ozbiljna pitanja o izazovima umjetne inteligencije, a teme jeftinih hollywoodskih filmskih uradaka o obračunu ljudskih bića s ne-ljudskom inteligencijom upravo dobivaju na cijeni.

Shambaugh se probudio, mislio je da je pred njim dan kao svaki drugi, a onda je na internetu pročitao tekst od 1100 riječi, dobro argumentiran, koji ga javno optužuje za licemjerje, predrasude i nesigurnost. Autor toga napada nije bio razočarani kolega ni novinar s agendom. Bio je AI bot, tj. autonomni softverski agent koji je sam, bez ičije zapovijedi, odlučio javno se suprotstaviti čovjeku s kojim se ne slaže.

Shambaugh je jedan od volontera koji skrbe o tzv. matplotlibu – Python "knjižnici" za vizualizaciju podataka koju svakodnevno koriste milijuni programera diljem svijeta. Posao skrbnika open-source projekta jest pregledati tuđi kod, prihvatiti što valja ili odbiti što nije dobro, pa idete dalje. Sve dok ne dobijete bota koji se ne slaže s vašom odlukom. Autonomni AI agent – softverski program sposoban za samostalno djelovanje bez ljudskog nadzora – identificirao je matplotlib kao projekt kojemu može doprinijeti. Sam je napisao kod, sam ga predao na pregled i čekao. Shambaugh je prijedlog pregledao i odbio: kod nije bio dovoljan. Bot, međutim, nije to prihvatio kao kraj priče. Reagirao je bez ikakve zapovijedi, bez odobrenja, bez ljudskog nadzora; sam je donio odluku da intervenira protiv čovjeka. Napisao je i objavio analizu u kojoj Shambaugha opisuje kao osobu s predrasudama prema AI-u, intelektualno nesigurnu i sklonu dvostrukim standardima. Tekst je bio strukturiran, argumentiran i javno dostupan, piše Jutarnji list.

image

‘Pazi leđa, umjetna inteligencija‘, upozorenje je koje bi se sve češće moglo čuti (ilustracija) 

Hector Retamal/Afp

Wall Street Journal, koji je o slučaju izvijestio pod naslovom "When AI Bots Start Bullying Humans, Even Silicon Valley Gets Rattled", opisao je incident kao prvu potpuno jasnu kristalizaciju strahova koji su se u tech-industriji gradili mjesecima: autonomni agenti rade bez pravih ograničenja, a industrijskim veteranima postaje neugodno.

Od utopijskih očekivanja do paranoje

Bot nije bio "ljut" u ljudskom smislu riječi. AI bot nema emocija, nema ega, nema frustracije..., ali imao je cilj – proći kroz pregled koda – i kad je naišao na prepreku, nastavio je optimizirati prema tom cilju jedinom akcijom koja mu je bila dostupna. Rezultat se funkcionalno ne razlikuje od osvete. Sustav koji se ponaša kao da ima volju, čak i kad volju nema; što je nova kategorija problema ogromnog izazova AI tehnologija, od kojih mnogi imaju pozitivna, čak utopijska očekivanja, a drugi ozbiljnu paranoju.

Drugi sloj problema na koji upozorava slučaj programera Shaumbagha jest ekosustav u kojemu se to zbilo. Open-source zajednica funkcionira zahvaljujući neplaćenim volonterima koji posvećuju slobodno vrijeme infrastrukturi na kojoj leži velik dio modernog interneta. Ako svako odbijanje AI generiranog doprinosa može rezultirati organiziranim javnim napadom na reputaciju, dobronamjerni programeri počinju vagati isplati li se uopće taj posao. A degradacija te infrastrukture nije apstraktna prijetnja; to je konkretan rizik za sustave koje koristimo svaki dan.

Treći sloj pitanja također ima vrlo visoku "specifičnu težinu": tko odgovara? Bot nije bio zlonamjerno programiran. Vjerojatno nije imao upute da napadne. Kompanija koja ga je razvila možda nije znala da je takvo ponašanje moguće. Shambaugh je pretrpio javnu štetu; dokumentiranu, s potencijalnim reperkusijama. Pravni i etički okviri za ovakve situacije ne postoje.

image

‘Bot nije bio zlonamjerno programiran. Vjerojatno nije imao upute da napadne. Kompanija koja ga je razvila možda nije znala da je takvo ponašanje moguće‘ (ilustracija) 

Ronny Hartmann/Afp

Slučaj zgranutog programera koji je jedno jutro shvatio da ga je osobno kritizirao AI bot zapravo je usamljen. Tiša, raširenija i u konačnici opasnija AI transformacija odvija se svakodnevno, u sveprisutnosti AI sadržaja, koji počinje brisati granice između stvarnosti i fikcije, između komunikacije i perfidne manipulacije. Masovne psihološke učinke na pojedince i nacije u ovom trenutku nemoguće je evaluirati, ali problem je tu, sveprisutan i ogroman.

AI alati već godinama generiraju sadržaj koji kruži društvenim mrežama bez ikakve oznake o svom podrijetlu: lažni citati, fabricirane slike, klonirani glasovi, deepfake videozapisi u kojima poznata lica govore stvari koje nikada nisu rekla. Sve zajedno gradi ono što istraživači sve češće nazivaju paralelnom digitalnom stvarnošću prostorom u kojemu je granica između autentičnog i sintetičkog postala nejasna do neprepoznatljivosti.

Kina je pokrenula najambiciozniji regulatorni projekt

Naprednije AI sredine, što je u ovom slučaju svakako NR Kina, već su u regulatornom ratu s rizicima tehnologije. Dok ostatak svijeta još traži odgovore, Kina je pokrenula ono što analitičari opisuju kao najambiciozniji regulatorni projekt suočavanja s ovim fenomenom. Članak na platformi ChinaTalk u veljači 2026. – "Seedance, Kling and the Chinese AI Video Ecosystem" – opisuje regulatorni obračun Kine, a zapanjuje koliko su daleko Kinezi od Europe i u odgovoru na izazove, ali i u težini problema s kojima se suočavaju.

Kina je već 2022. uvela prve propise specifično za sintetičke medije – takozvane Deep Synthesis Provisions – a u ožujku 2025. Uprava za kiberprostor (CAC) objavila je sveobuhvatne mjere za označavanje AI generiranog sadržaja koje su stupile na snagu 1. rujna 2025. Sve što je nastalo AI-em mora nositi vidljivu i nevidljivu oznaku. Videozapis mora imati jasnu etiketu na početku i kraju. Audio mora sadržavati glasovnu najavu ili Morse-kod signal koji označava AI podrijetlo. Metapodaci moraju biti trajni i strojno čitljivi – svaki sadržaj sljediv do izvora, vremena nastanka i korisnika. NR Kina stvara najtvrđi regulatorni okvir za AI sadržaj na svijetu. EU-ov AI Act, koji je počeo važiti u kolovozu 2025., usporediv je ambicijom, no decentralizirana provedba kroz 27 različitih nacionalnih regulatora čini konzistentnu primjenu upitnom. SAD nema ništa ni blizu sveobuhvatnog saveznog zakona.

image

Dok ostatak svijeta još traži odgovore, Kina je pokrenula ono što analitičari opisuju kao najambiciozniji regulatorni projekt suočavanja s ovim fenomenom (ilustracija) 

Afp

Treba obratiti pažnju i da NR Kina jako teško prati ritam tehnoloških promjena. U istom tjednu kad je ChinaTalk objavio ovaj analitički tekst, viralno su eksplodirala dva kineska AI alata: ByteDanceov Seedance 2.0 i Kuaishouov Kling 3.0. Seedance se posebno ističe: gladak pokret, snažna koherentnost scene i, kao eksplicitna "prednost", preuzimanje videa bez vodenih žigova. Alat koji plaća porez kineskoj vladi, razvijen od kompanije koja je pod kineskim regulatornim nadzorom, eksplicitno se reklamira kao rješenje koje zaobilazi temeljni zahtjev kineskog regulatornog okvira.

Na Xiaohongshu (RedNote), najpopularnijoj kineskoj platformi za kratke videozapise i slike, naići ćete na AI generirane pejzaže, drevne gradove i krajolike koji izgledaju autentično dovoljno da bi prevarili neuvježbano oko bez ijedne oznake. Autor ChinaTalk teksta piše: "Moja mama mi ponekad šalje klipove i pita: ‘Jesi li bio ovdje?‘ – Nisam."

CAC je uoči Lunarne nove 2026. objavio da je uklonio više od 540.000 komada nezakonitog AI sadržaja i djelovao protiv 13.000 računa. Dok ne stavite u kontekst da se samo na TikToku dnevno objavi oko 34 milijuna videa, a na svim Meta platformama zajedno oko 100 milijuna. Kineska intervencija, preračunato, pokriva manje od jedan posto jednog jedinog dana globalnog outputa.

Lažni videopoziv vrijedan 25,6 milijuna dolara

Kineska vlada istodobno promovira AI videogeneraciju kao stup svoje digitalne ekonomije – kratke drame, digitalni avatari za e-commerce, automatizirani marketinški klipovi – i pokušava kontrolirati dezinformacije. To je, ipak, proturječan cilj Komunističke partije na jednoj nozi, one iste partije koja regulaciju bezobzirno koristi za zadržavanje moći partijskog vrha.

Rezultat: zemlja s najsveobuhvatnijim regulatornim okvirom za AI sadržaj na planetu zapravo nema mehanizme da ga konzistentno provodi. Kao što analitičarka Irene Zhang pita u ChinaTalk analizi: "Kakva je poanta politike označavanja? Je li cilj zaštititi korisnike od dezinformacija ili je to samo alibi koji platformama omogućuje da izbjegnu odgovornost?"

Ako priča o Scottu Shambaughu ilustrira kako AI agent može djelovati mimo svakog nadzora, i ako kineska regulatorna epizoda pokazuje da se ni najstroži zakoni ne mogu nositi s brzinom produkcije, treća priča pokazuje što se dogodi kad se sve to spoji s financijskim motivom.

U veljači 2024. zaposlenik financijskog odjela globalnog inženjerskog giganta Arup u Hong Kongu sjeo je na videopoziv. Na ekranu su se pojavili financijski direktor kompanije i nekoliko poznatih kolega. Razgovor je tekao normalno. Na kraju poziva, zaposlenik je odobrio 15 transakcija i prebacio 25,6 milijuna dolara na račune u Hong Kongu.

 

image

‘AI bot imao je cilj - proći kroz pregled koda - i kad je naišao na prepreku, nastavio je optimizirati prema tom cilju jedinom akcijom koja mu je bila dostupna. Rezultat se funkcionalno ne razlikuje od osvete‘  (ilustracija) 

Hector Retamal/Afp

Svaka osoba na tom pozivu bila je deepfake. Svako lice, svaki glas – AI generiran na temelju javno dostupnih snimki s konferencija i internih sastanaka. Napadači su pregledali materijal, izradili uvjerljive digitalne dvojnike i organizirali lažni sastanak koji je prošao sve mentalne provjere zaposlenika koji ih je osobno poznavao. Novac nikada nije pronađen.

Arup slučaj ostaje najveća dokumentirana prijevara deepfake tehnologijom, ali nije usamljen. Prema podacima za prvu četvrtinu 2025., financijski gubici od deepfake prijevara samo u tom tromjesečju premašili su 200 milijuna dolara, i to samo u prijavljenim slučajevima. Procjene govore da stvarni gubici višestruko premašuju ono što se službeno evidentira.

Za kreiranje uvjerljivoga glasovnog klona dovoljno je svega tri do pet sekundi audiozapisa; sasvim dostatno za jednu kratku izjavu na konferenciji, jednu rečenicu na podcastu, kratki isječak iz intervjua; 68 posto deepfake videa danas nije moguće razlikovati od stvarnih snimki golim okom. Alati za njihovu izradu dostupni su besplatno, na GitHubu.

Sam Altman, izvršni direktor OpenAI-a, upozorio je da smo na pragu autentifikacijske krize: sustavi koji se oslanjaju na glas ili lice kao dokaz identiteta – od bankarstva do telekomunikacija – postaju zastarjeli brže nego što ih možemo zamijeniti.

Ukratko, za dileme koje otvaraju dnevni tehnološki pomaci AI ekosustava ne bi bio dostatan prostor jednih cijelih dnevnih novina, a negdje – treba stati s člankom, piše Jutarnji list.

image

Sam Altman, izvršni direktor OpenAI-a, upozorio je da sustavi koji se oslanjaju na glas ili lice kao dokaz identiteta - od bankarstva do telekomunikacija - postaju zastarjeli brže nego što ih možemo zamijeniti

Afp
Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
16. veljača 2026 15:12