Algoritmi i izbori: glasanje u eri AI

0

Vještačka inteligencija (AI) postala je  integralni dio svakodnevnice i u kratkom periodu, od proliferacije javno dostupnih rješenja, promijenila je način na koji građani traže, primaju, prenose i pristupaju informacijama.

Javna debata na temu AI fluktuira između dvije ekstremne i međusobno isključive pozicije – nade da će napredak vještačke inteligencije riješiti sve imanentne probleme čovječanstva s jedne strane, dok sa druge strane postoji strah od gubitka kontrole i prijetnje od zamjene ljudskih kapaciteta algoritmima i mašinama.

U mnogim slučajevima, sistemi AI se prvenstveno vide kao prijetnja demokratiji. U središtu je strah od manipulacije voljom birača i zloupotrebom njihovih podataka bilo u zemlji ili van nje. Istovremeno, mogu se čuti i spekulativna razmatranja da bi AI mogla jednostavno zamijeniti demokratiju u nekoj budućoj fazi zbog svoje sposobnosti da procijeni javnu volju na superiorniji način od glasača na izborima.

U svakom slučaju, od mikro-targetiranja birača do predviđanja rezultata izbora, AI je značajno promijenila dinamiku izborne prakse i političkih procesa širom svijeta. AI sa sobom nosi brojne mogućnosti i izazove, a uticaji variraju od unaprjeđenja participacije do potencijalnog podrivanja izbornih procesa.

Napredak generativnih tehnologija pruža nove i brže alate za političko komuniciranje i mogao bi imati duboki uticaj na to kako javnost, političari, partije i mediji vide kandidate i kampanju. Ubrzanim korakom izlazimo iz domena fotošopa ili nekog drugog metoda alteracije digitalnih fajlova i prelazimo u eru dihotomije lažnog i uvjerljivog sadržaja, koji je dostupan i jednostavan za kreaciju.

Kroz istoriju, politički kandidati su, u poređenju sa današnjim mogućnostima, obično imali ograničene alate za procjenu sentimenta i mišljenja biračkog tijela, što je promijenjeno pojavom velikih setova podataka (big data) i njihovom analizom. Tokom predsjedničkih izbora u SAD-u 2008. godine kandidati su se oslanjali na analizu podataka sa društvenih mreža, dok danas kampanje integrišu sisteme vještačke inteligencije za usmjeravanje napora i resursa.

Razumijevanje uticaja vještačke inteligencije na izbore je ključno obzirom na njenu značajnu ulogu u načinu vođenja modernih političkih kampanja. Algoritmi AI mogu se koristiti za bolje ciljanje reklama, razumijevanje javnog sentimenta putem analize podataka i upravljanje bazama podataka glasača, čime potencijalno mijenjaju ravnotežu izbornih rezultata. AI takođe može predstavljati prijetnju generisanjem i širenjem dezinformacija radi manipulacije javnog mnjenja. Stoga je bitno da pojedinci budu informisani kako bi bila osigurana transparentnost, integritet i pravičnost u demokratskim procesima.

Mogućnosti i izazovi

Potencijane pozitivne i negativne strane utpotrebe AI u izbornim procesima

Što se tiče mogućnosti, jedna od ključnih prednosti AI je njena sposobnost da brzo i precizno analizira ogromne količine podataka. To je čini vrijednim alatom za i analizu biračkog raspoloženja. Kampanje mogu da koriste vještačku inteligenciju za razumijevanje preferencija i ponašanja birača u realnom vremenu, omogućavajući im da efikasnije prilagode svoje poruke i brzo reaguju na promjenljiva osjećanja.

Kada govorimo o izbornim procesima, definitivno možemo zamisliti više mjesta gdje bi vještačka inteligencija (AI) mogla pružiti podršku, navode iz Crnogorskog udruženja za vještačku inteligenciju (MAIA – Montenegrin AI Association).

Sagovornici ističu da se AI može koristiti kao metoda automatizacije izbornog procesa, sa umanjenjem ljudskog faktora u dijelu gdje su malverzacije najčešće. Primjer je uključenje kompjuterske vizije prilikom brojanja glasova, što bi ujedno učinilo taj proces bržim i efikasnijim. Takođe se može poboljšati detekcija potencijalnih nepravilnosti kroz, na primjer analizu video nadzora ili detekciju neregularnih ponašanja prilikom brojanja glasova.

Naravno, statistička analiza i praćenje trendova distribucije glasova po opštinama, bazirano na podacima iz prethodnih godina, može služiti i kao interesantan podatak, ali i kao dobra osnovna vrijednost za poređenje ostvarenih rezultata. Metode AI kao što su uzročnost (causality) i pripisivanje odgovornosti (responsibility attribution) mogu pomoći u otkrivanju skrivenih faktora i drugih problema prilikom analize rezultata, dodaju iz MAIA.

Kada je riječ o negativnim implikacijama, navode da je jedna od prvih stvari predviđanje rezultata izbora što bi u tom kontekstu, imalo negativne implikacije jer bi moglo da utiče na pristrasnost birača. Ističe i da postoji zabrinutost oko kreiranja realističnog sadržaja koji nije potkrijepljen činjenicama, a koji se vrlo lako može koristiti za generisanje i širenje propagande.

U njihovom trenutnom stanju, generativni modeli slike i teksta se veoma lako mogu upotrijebiti u svrhu kreiranja i širenja dezinformacija. Moć ovih modela leži u njihovim mogućnostima da kreiraju visoko realističan sadržaj koji je površinski veoma sličan onome što čovjek intuitivno očekuje, ali koji potencijalno nema činjenične veze sa stvarnošću. Na primjer, ChatGPT skoro uvijek proizvodi smislen, sintaksno i semantički tačan tekst, koji većini čitalaca zvuči izuzetno uvjerljivo. Međutim, trenutno model ne posjeduje bilo kakav vid regulacije koji garantuje da je generisan tekst zaista istinit i potkrijepljen činjenicama, navode iz MAIA.

Imajući u vidu da algoritmi društvenih mreža više vrednuju polarizujući sadržaj, nego činjenice, odnosno plasiraju informacije na osnovu afiniteta svakog pojedinačnog korisnika, neistiniti sadržaj može da se proširi daleko i brzo dostigne ciljanu publiku.

Sa porastom sofisticiranih tehnologija AI i javno dostupnih rješenja (poput thispersondoesnotexist), polako se pravi otklon od potencijalne hiperprodukcije netačnih tekstualnih formi, a zakoračuje se i na teren dipfejka (deepfake).  Riječ je o tehnologiji zasnovanoj na vještačkoj inteligenciji pomoću koje se mijenja postojeći ili stvara potpuno novi realistični audio, foto ili video sadržaj. Cilj je da se prikaže ono što se u stvarnosti nije dogodilo, potencijalno šireći dezinformacije ili narušavajući reputaciju pojedinaca. Tokom izbora, takvi alati bi se mogli koristiti za širenje lažnih narativa o kandidatima ili pitanjima, obmanjujući glasače i podrivajući integritet izbornog procesa.

Nedavna upotreba dipfejk videa od strane Republikanskog nacionalnog komiteta (RNC), ali i od strane političkih aktera na Novom Zelandu, ukazuje koliko je vjerovatno da će AI transformisati i izmijeniti politički pejzaž u budućnosti. Takvi alati bi mogli ostaviti dubok trag na to kako javnost, političari i mediji percipiraju kandidate i kampanju.

Iz Udruženja ističu da smo za sada mirni uzimajući u obzir kompleksnost jezika na našim prostorima u odnosu na engleski jezik, na kojem se primarno takvi sadržaji pojavljuju. Ali, smatra, da ne bi bilo iznenađujuće da se u skoroj budućnosti suočimo sa sličnim zloupotrebama. Dodaje da se sve više ulaže u razvoj anti-deepfake tehnika i algoritama za utvrđivanje autentičnosti sadržaja.

Društvene mreže počele su da uvode nove politike kako bi se bavile sadržajem generisanim putem AI. Meta je zabranila dipfejk sadržaj na svojim platformama, ali ostaje nejasno da li se to pravilo odnosi i na političare, odnosno njihove naloge na toj platformi. TikTok i Tviter takođe imaju svoja pravila u vezi sa tim fenomenom.

Važno je napomenuti da su ChatGPT i slične generativne tehnologije samo alati, a njihova upotreba zavisi od namjera pojedinaca. Dok neki mogu koristiti te alate za širenje dezinformacija, drugi ih mogu koristiti za kreiranje informativnog i istinitog sadržaja.

Sagovornici kažu da se posljednjih nekoliko mjeseci radi na uvođenju takozvanog digitalnog žiga za sav sadržaj koji je kreirala AI. Kina je npr. uvela polisu zabrane distribucije digitalnih slika generisanih od strane AI, ukoliko su iste bez pečata.

Iz Crnogorskog društva za vještačku inteligenciju su nas upoznali i da je trenutno u razmatranju rigorozan novi pravilnik o regulaciji generativnih modela (bilo open-source ili proizvoda velikih kompanija poput Google ili OpenAI) koji se primarno odnosi na njihovu dostupnost i način upotrebe unutar EU. Italija je zabranila upotrebu ChatGPT-ja, a predložila je  restrikcije o upotrebi AI prilikom selekcije kandidata za posao. Sve to nam govori da je regulacija AI uveliko počela, iako još uvijek relativno nesistematizovana.

Kada govorimo o političkoj areni, to uključuje regulative o zaštiti podataka, standarde transparentnosti za AI sisteme prilikom prikupljanja i obrade podataka, kao i smjernice za etičku upotrebu AI u strategijama vezanim za političke kampanje. Pored toga, potrebno je permanentno istraživanje i dijalog kako bi se držao korak sa brzim razvojem AI i osiguralo da njena upotreba na izborima doprinosi fer i demokratskom procesu.

Iz MAIA naglašaju da je od najveće važnosti da se tehnologija AI razumije kako bi se odgovorno koristila i samim tim regulisala, naročito sa iznenadnim porastom njene upotrebe. Aktivno se radi na tome i jedan važan korak u tom pravcu je dugo pripremani Akt o AI. Takođe smo svjedoci saslušanja Sam Altman-a (CEO OpenAI) u Senatu u Americi (koje je prvo u nizu u vezi sa generativnom AI) s ciljem izrade propisa o vještačkoj inteligenciji i njenim etičkim, pravnim i nacionalnim bezbjednosnim problemima, zaključuju sagovornici.

Dok razvoj AI rješenja, kao što je ChatGPT, može predstavljati nove izazove u borbi protiv dezinformacija i eventualno narušiti integritet izbornih procesa, na korisnicima je da koristepomenute alate na odgovoran i etički način. Biće potreban multisektorski pristup i zajednički napor svih zainteresovanih strana kako bi se osiguralo da prednosti AI dođu u fokus, kao i da se njihov negativni uticaj redukuje.

dfcme.me

OSTAVI KOMENTAR

Please enter your comment!
Please enter your name here

PRAVILA KOMENTARISANJA

Komentari se objavljuju na portalu Skala radija. Odgovorni za sadržaj su isključivo autori napisanih komentara.

U komentarima je zabranjeno koristiti uvredljive riječi, psovke i klevete. Neće se objavit komentar koji sadrži ove elemente kao ni tekst komentara koji sadrži govor mržnje. Ukoliko se dogodi propust pa tekst bude objavljen, moderator je dužan da ga odmah ukloni čim ga primijeti ili mu neko skrene pažnju na sadržaj. Neprimjeren sadržaj će biti uklonjen a autor može biti prijavljen nadležnim organima.

Za eventualne primjedbe i sugestije mejl je [email protected].