Lozinke generirane umjetnom inteligencijom (AI), poput ChatGPT-a, Claude AI-a i Geminija, iako izgledaju snažno, često su predvidljive, nesigurne i lako ih je probiti u praksi.
To je pokazalo istraživanje tvrtke za kibernetičku sigurnost "Irregular".
Suosnivač tvrtke Dan Lahav upozorava da korisnici ne bi trebali koristiti AI za generiranje lozinki te da bi trebali odmah promijeniti svoje lozinke ako to učine.
"Mnogi ljudi ne znaju da je to problem", rekao je Lahav za Sky News, prenosi 021.
Istraživanje je pokazalo da AI modeli ne generiraju nasumične lozinke, već generiraju obrasce na temelju podataka na kojima su obučeni, što daje dojam snage, ali u stvarnosti čini lozinke predvidljivima.
Primjer 50 lozinki koje je generirao Claude AI pokazao je samo 23 jedinstvene lozinke, dok je jedna lozinka korištena čak deset puta.
Testovi s ChatGPT-om i Geminijem pokazali su slične obrasce predvidljivosti, iako u manjoj mjeri.
Iako online provjeravatelji lozinki ocjenjuju ove lozinke kao izuzetno jake, stručnjaci ističu da su slabosti u obrascima lako uočljive i da ih čak i starija računala mogu relativno brzo probiti.
Problem, prema Sky Newsu, ne odnosi se samo na korisnike, već i na developere koji koriste AI za pisanje koda.
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....