Zvuči kao početak znanstvenofantastičnog filma, ali znanstvenici su pokazali da umjetna inteligencija može iz prvog pokušaja dizajnirati potpuno nove zarazne viruse. Stručnjaci sa Sveučilišta Stanford u Kaliforniji koristili su Evo – alat umjetne inteligencije koji stvara genome od nule. Nevjerojatno, alat je uspio stvoriti viruse koji mogu zaraziti i ubiti određene bakterije.
Autor studije Brian Hie, profesor računalne biologije na Sveučilištu Stanford, rekao je da je "sljedeći korak život generiran umjetnom inteligencijom", piše Daily Mail.
Iako su virusi umjetne inteligencije "bakteriofagi", što znači da inficiraju samo bakterije, a ne i ljude, neki stručnjaci strahuju da bi takva tehnologija mogla izazvati novu pandemiju ili stvoriti katastrofalno novo biološko oružje.
Eric Horvitz, računalni znanstvenik i glavni znanstveni direktor Microsofta, upozorava na to da bi se "umjetna inteligencija mogla zloupotrijebiti za inženjering biologije".
"Dizajn proteina pokretan umjetnom inteligencijom jedno je od najuzbudljivijih i najbržih područja umjetne inteligencije trenutno, ali ta brzina također izaziva zabrinutost zbog potencijalnih zlonamjernih upotreba. Moramo ostati proaktivni, marljivi i kreativni u upravljanju rizicima", upozorio je.
Korišten AI model sličan ChatGPT-ju
U studiji je tim koristio AI model nazvan Evo, koji je sličan ChatGPT-ju, za stvaranje novih virusnih genoma – kompletnih skupova genetskih uputa za organizme. Baš kao što je ChatGPT obučen na člancima, knjigama i tekstualnim razgovorima, Evo je obučen na milijunima bakteriofagnih genoma.
Istraživači su procijenili tisuće sekvenci generiranih umjetnom inteligencijom prije nego što su ih suzili na 302 održiva bakteriofaga. Studija je pokazala da ih je 16 sposobno pronaći i ubiti sojeve Escherichia coli (E. coli), uobičajene bakterije koja uzrokuje bolesti kod ljudi.
"Bio je to prilično iznenađujući rezultat, koji je za nas bio zaista uzbudljiv, jer pokazuje da bi ova metoda potencijalno mogla biti vrlo korisna za terapiju", rekao je koautor studije Samuel King, bioinženjer na Sveučilištu Stanford.
Budući da su njihovi virusi umjetne inteligencije bakteriofagi, oni ne zaraze ljude ili neke druge eukariote, bilo da se radi o životinjama, biljkama ili gljivama, naglašava tim.
No neki stručnjaci zabrinuti su da bi se tehnologija mogla koristiti za razvoj biološkog oružja – organizama koji uzrokuju bolesti, a namjerno su dizajnirani da nanesu štetu ili ubiju ljude.
Jonathan Feldman, istraživač računalnih znanosti i biologije na Tehnološkom institutu Georgia, rekao je da "nema uljepšavanja rizika".
"Nismo ni blizu spremni za svijet u kojem umjetna inteligencija može stvoriti funkcionalan virus. Ali moramo biti, jer je to svijet u kojem sada živimo", napisao je u članku za Washington Post.
Umjetna inteligencija može dizajnirati otrovne proteine
Craig Venter, biolog i vodeći stručnjak za genomiku sa sjedištem u San Diegu, rekao je da bi bio "ozbiljno zabrinut" ako bi netko "to učinio s boginjama ili antraksom".
"Jedno područje gdje potičem na izniman oprez je svako istraživanje virusnog pojačanja, posebno kad je nasumično pa ne znate što dobivate", kazao je on za MIT Technology Review.
U svojem radu, objavljenom kao predtisak u bioRxivu, tim sa Stanforda priznaje "važna razmatranja biosigurnosti" i naglašava "zaštitne mjere svojstvene našim modelima".
Na primjer, proveli su testove kako bi osigurali da modeli ne mogu samostalno otkriti genetske sekvence koje bi fage učinile opasnima za ljude.
Međutim, Tina Hernandez-Boussard, profesorica medicine na Medicinskom fakultetu Sveučilišta Stanford, rekla je da su ovi modeli dovoljno "pametni" da se snađu u takvim preprekama.
"Morate imati na umu da su ovi modeli izgrađeni kako bi imali najviše performanse, pa nakon što im se daju podaci za obuku, mogu poništiti zaštitne mjere", rekla je ona.
U drugoj novoj studiji istraživači u Microsoftu otkrili su da umjetna inteligencija može dizajnirati otrovne proteine koji bi mogli izbjeći postojeće sigurnosne sustave provjere.
Njihova studija, objavljena u časopisu Science, upozorava na to da bi se alati umjetne inteligencije mogli iskoristiti za generiranje tisuća sintetičkih verzija određenog toksina – mijenjajući njegov slijed aminokiselina, a istovremeno čuvajući njegovu strukturu i potencijalno funkciju.
Autor studije Eric Horvitz, glavni znanstveni direktor u Microsoftu, upozorio je na to da postoje "višestruki načini na koje se umjetna inteligencija može zloupotrijebiti za inženjering biologije. Dizajn proteina, pokretan umjetnom inteligencijom, jedno je od najuzbudljivijih i najbržih područja umjetne inteligencije trenutno, ali ta brzina također izaziva zabrinutost zbog potencijalnih zlonamjernih upotreba. Očekujemo da će ovi izazovi potrajati, pa će postojati kontinuirana potreba za identificiranjem i rješavanjem novih ranjivosti", rekao je on, piše Daily Mail.
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....