
Deepfake tehnologija predstavlja jednu od najozbiljnijih prijetnji savremenom informativnom prostoru, jer direktno podriva povjerenje u vizuelne i audio dokaze – elemente koji su decenijama smatrani najjačim potvrđivačima istine. No, u slučaju Miloša Medenice, koji se dva puta obratio putem navodnih video snimaka, objavljenih na društvenoj mreži X, bezbjednosni sistem našao se na ozbiljnom testu – da li su snimci stvarni ili su Deepfake. Dok se policija ekspresno oglasila da je video lažan, IT stručnjaci tvrde da ne treba ”trčati pred rudu”, jer je teško kopirati nečiju boju glasa i pokrete sa takvim detaljima i u ovom slučaju nemoguće je sa stoprocentnom sigurnošću utvrditi da li je video stvaran ili lažan.
I dok traje istraga, kako policijska tako i tužilačka, javnost je zamišljena da li je moguće do te mjere napraviti realan video i da li je sve što se sa video snimcima Medenice dešava, zaista njegovo stvarno obraćanje ili je dio deepfake tehnologije.
Ono što jeste problem i što jeste cilj deepfake, je da za razliku od klasičnih dezinformacija ili fotomontaža, takvi sadržaji imaju snažniji psihološki efekat jer „govore sami za sebe“. Video u kojem osoba prepoznatljivog lika i glasa iznosi određene tvrdnje automatski se doživljava kao vjerodostojan, čak i kada racionalna analiza ukazuje na suprotno. Upravo u toj tački deepfake postaje moćno sredstvo manipulacije.
SLUČAJ MILOŠA MEDENICE – DEEP FAKE ILI STVARNI VIDEO SNIMCI
Na prvom snimku, koji je objavljen na društvenoj mreži X, a za koji Uprava policije tvrdi da je riječ o proizvodu vještačke inteligencije, Medenica navodno zahvaljuje ministru unutrašnjih poslova Danilu Šaranoviću i direktoru Uprave policije (UP) Lazaru Šćepanoviću zbog, kako je navodno rekao, sramne presude kojom je „nevin osuđen na veliku kaznu zatvora“.
“I što su mi omogućili da me sklone na sigurno”, poručio je navodno Medenica uz poruku „nema stresa i besa“.
Iz policije su iznenađujuće reagovali odmah sa tvrdnjom da je taj video-zapis sintetički generisan, odnosno izrađen korišćenjem alata zasnovanih na vještačkoj inteligenciji (tzv. AI-generisani ili deepfake sadržaj), iako detaljna istraga uključujući i tužilačku nije završena.
Međutim, poslije ovog snimka objavljen je još jedan, na kojem se Medenica navodno obraća lideru Demokratske narodne partije (DNP) Milanu Kneževiću, koji je i komentarisao prvu objavu Medenice, ironično poručujući policiji da „ga traže kod bazena crvena mulja, da se ne bi tamo sakrio“.
“Brate Milane, neka si napustio Vladu gej aferaša. Podrška velika za tebe i za Botun. Ako te krenu opet hapsiti, imaš mjesta kod mene, samo ponesi malo pipuna i paprika. A dako i Ljubo nešto pomogne”, kaže navodno Medenica, koji je na „novom“ navodnom snimku obučen u drugačiju garderobu.
Uprava policije još se nije oglasila povodom drugog navodnog snimka na kojem se vidi odbjegli šef organizovane kriminalne grupe, koji je najavio da će se video snimcima oglašavati sve dok ga ne uhapse.
Iako je najavio i javnost očekivala novi video, on makar, kako je najavljeno, nije ponovo oglasio.
Ukoliko istraga definitivno utvrdi da se radi o lažnim snimcima, slučaj Miloša Medenice bio bi prvi slučaj korištenja Deepfake video snimaka, koji kako se koriste u ovom konkretnom predmetu – nakon izricanja presude i bjekstva – mogu imati više ciljeva: diskreditaciju institucija, relativizaciju sudskih odluka, slanje poruka kriminalnim strukturama ili testiranje sposobnosti države da odgovori na digitalne prijetnje.
ŠTA JE ZAPRAVO DEEPFAKE
U savremenim bezbjednosnim doktrinama, deepfake se sve češće posmatra kao dio hibridnog ratovanja, zajedno sa sajber-napadima i informacionim operacijama. Njegova prednost za aktere koji ga koriste leži u niskoj cijeni izrade, anonimnosti i velikoj brzini širenja putem društvenih mreža.
Jedan od najopasnijih efekata deepfake fenomena jeste tzv. „erozija povjerenja“. Kako broj lažnih snimaka raste, javnost postaje skeptična i prema stvarnim dokazima. Time se otvara prostor da se autentični kompromitujući snimci proglase lažnim, dok se istovremeno lažni predstavljaju kao stvarni – zavisno od političkog interesa.
U političkom kontekstu, deepfake može poslužiti za diskreditaciju političkih protivnika, izazivanje društvenih nemira, uticaj na izborne procese, ucjenu nosilaca javnih funkcija.
Upravo se u tom kontekstu uklapaju i slučajevi objavljivanja eksplicitnih snimaka, gdje nije presudno samo da li je sadržaj stvaran ili vještački generisan, već efekat koji proizvodi u javnosti. Sama sumnja da snimak „možda jeste, a možda nije“ često je dovoljna da nanese trajnu političku i ličnu štetu.
Korišćenje kompromitujućih snimaka za ucjenu nije nova pojava, ali deepfake tehnologija drastično širi njen domet. Dok su ranije za ucjenu bili potrebni stvarni snimci, danas je dovoljno imati nekoliko fotografija i uzorak glasa. To znači da potencijalna meta može biti praktično bilo ko – političari, sudije, tužioci, policijski funkcioneri, novinari.
U takvim scenarijima, cilj nije uvijek javno objavljivanje sadržaja. Često je dovoljno zaprijetiti njegovim plasiranjem kako bi se iznudile određene odluke, informacije ili politička lojalnost. Ova vrsta pritiska je posebno opasna jer se odvija van institucionalnih tokova i teško se dokazuje.
Jedan od ključnih problema u borbi protiv deepfake sadržaja jeste činjenica da zakonodavni sistemi u većini država nijesu u potpunosti prilagođeni ovom fenomenu. Postojeći propisi o kleveti, lažnom predstavljanju ili povredi privatnosti često nijesu dovoljni da obuhvate složenost vještački generisanog sadržaja.
Zato Deepfake fenomen nije samo tehnološki problem, već duboko društveni i politički izazov. On testira otpornost institucija, profesionalizam medija i kritičko razmišljanje građana.
U vremenu kada „vidjeti“ više ne znači i „vjerovati“, borba za istinu seli se iz sudnica u digitalni prostor, gdje pravila i dalje ne postoje.
Standard
PRAVILA KOMENTARISANJA
Komentari se objavljuju na portalu Skala radija. Odgovorni za sadržaj su isključivo autori napisanih komentara.
U komentarima je zabranjeno koristiti uvredljive riječi, psovke i klevete. Neće se objavit komentar koji sadrži ove elemente kao ni tekst komentara koji sadrži govor mržnje. Ukoliko se dogodi propust pa tekst bude objavljen, moderator je dužan da ga odmah ukloni čim ga primijeti ili mu neko skrene pažnju na sadržaj. Neprimjeren sadržaj će biti uklonjen a autor može biti prijavljen nadležnim organima.
Za eventualne primjedbe i sugestije mejl je [email protected].