A mesterséges intelligencia által generált képen Juhász Péter tömegsírrá változtatja az V. kerületet – új manipulációs technológiák a választási kampányokban
A 2024-es év az első olyan, amikor a mesterséges intelligencia forradalom komoly hatást gyakorol(hat) akár kétmilliárd ember választói viselkedésére is. Ennek tavaly már voltak előzményei. Az MI egyszerre jelenthet áldást és átkot: javíthatja a szavazási részvételt és az azt kiszolgáló infrastruktúra biztonságát, de ezzel egyidejűleg gyorsan, olcsón és nagy tömegben manipulált információkkal áraszthatja el a nyilvánosságot. Egyelőre inkább a mesterséges intelligencia káros alkalmazására láthatunk példákat, a védekezés pedig még gyerekcipőben jár.
A mesterséges intelligencia közösségi médiája
A mesterséges intelligencia (MI vagy AI) fejlődésében 2022 jelentette a fordulópontot, amikor az Open AI a széles nyilvánosság számára elérhetővé és alkalmazhatóvá tette a generatív MI-n alapuló csevegőrobotját, amely interakciós formában képes válaszolni a felhasználók kérdéseire vagy utasításaira.
Röviden azt mondhatjuk, hogy a generatív mesterséges intelligencia nem igazi intelligencia a szó hagyományos értelmében, hanem az algoritmusok tréningezésére használt adatbázisban található szövegek statisztikai mutatói közötti kapcsolatokra támaszkodva hoz létre (generál) új tartalmat a felhasználók kérdéseire. Ezek a technológiák az elmúlt években az élet egyre több területéhez képesek érdemben hozzájárulni témaspecifikus szövegek, képek vagy hanganyagok generálásával és/vagy feldolgozásával.
A mesterséges intelligencia forradalma tehát a közösségi média felemelkedéséhez hasonlítható, ami a kétezres évek közepétől széles tömegek számára tette lehetővé a (politikai) nyilvánosságba való bekapcsolódást és (politikai) önszerveződést, beleértve a közösségi média által elért tömegek széleskörű manipulációját is. A generatív mesterséges intelligencia pedig lényegében a tömeges manipulációhoz szükséges dezinformációk termelését „automatizálja”, legyen szó bármilyen témáról, műfajról vagy célcsoportról.
Hamis hanganyag és képek Szlovákiában és Magyarországon
Az új technológiával történő választási manipuláció egyik legegyszerűbb esete az, amikor a mesterséges intelligencia által generált hamis tartalmakat vagy dezinformációkat arra használják, hogy manipulálják a jelöltekkel vagy közügyekkel kapcsolatos percepciókat.
A 2023-as szlovák parlamenti választások során, például, a liberális Progresszív Szlovákia pártot vezető Michal Šimečka és Monika Tódová, illetve a Denník N napilap munkatársa közötti mesterségesen generált, az illető személyek hangját használó párbeszédet publikáltak egy nem létező szavazatvásárlásról. Noha a francia AFP-hírügynökség tényellenőrző szervezete azonnal cáfolta a megjelent hanganyag valódiságát, az erről szóló nyilatkozatot rendkívül nehéz volt eljuttatni a szlovák szavazókhoz a kampánycsend időszaka miatt. Egy másik, a Facebookon megjelent, inkább viccesnek tűnő, hamisított nyilatkozat azzal vádolta meg Šimečkat, hogy megválasztása esetén a sör árát kétszeresére emelné Szlovákiában.
Hasonló próbálkozásra immár itthon, az önkormányzati választási kampányban is találunk példát. Az ismeretlenek által működtetett Mindenekel5. Facebook-oldal például Juhász Péter ellenzéki polgármester-jelölt „rombolásra” irányuló kerületfejlesztési terveit egy olyan mesterséges képpel illusztrálja, amely a nézőkre zsigeri módon hatva a Szent István Bazilika előtti Zrínyi utca felét egy tömegsírként vagy szeméttelepként ábrázolja.
Katasztrófák, élőhalottak és mitikus hősök az Egyesült Államokban és Indiában
A generált tartalmak szélesebb körű használatát elsősorban Indiában és az Egyesült Államokban figyelhetjük meg 2024-ben. Az MI-manipuláció ebben az esetben sokkal szisztematikusabban, a kampány központi mobilizációs elemeként érvényesül. Az Egyesült Államokban ebben a Republikánus Párt jár az élen. A választás lebonyolításáért felelős Republikánus Nemzeti Bizottság (RNC) nyíltan egy AI-generálta, inautentikus videót publikált, melyben a Joe Biden elnök hangját használó narráció Biden újraválasztása esetén a jövőt katasztrófák sorozataként ábrázolja - ennek részeként Kína elfoglalja Tajvant, az amerikai pénzügyi piacok szabadesésbe váltanak, migránsok tömegei kelnek át a déli határon, San Francisco külvárosait pedig katonák felügyelik a bűnözés miatt.
Ennél is szélesebb körben érvényesült az AI-generálta tartalom az indiai választások során, ahol élő vagy halott politikusok élethű digitális másait használták a kampányüzenetek célba juttatásához. 2024 januárjában M. Karunanidhi, a déli Tamil Nadu állam politikai pátriárkája először szerepelt egy MI-videóban pártja ifjúsági konferenciáján. A politikus a klipben könnyen felismerhető volt a rá jellemző világító sárga sál és túlméretezett sötét szemüveg alapján. Két nappal később Karunanidhi egy kollégája emlékiratainak könyvbemutatóján is „megjelent”, annak ellenére, hogy 2018-ban elhunyt. Pártjának szóvivője azzal indokolta a politikus virtuális szerepeltetését, hogy személye „lelkesíti a pártkádereket”, motiválja az őt korábban ismerő idősebb szavazókat, illetve megismerteti nézeteit a fiatalabb szavazókkal.
A mesterséges intelligencia használatára a harmadik miniszterelnöki ciklusáért küzdő Narenda Modi elnök kampányában is találunk példákat. Március elején a jobboldali Hokage Modi Sama Facebook-oldal az indiai miniszterelnököt az indiai mitológiában központi jelenőségű Mahábhárata eposz, a Bhagavad-gítá kerettörténetének kiemelkedő hősének szereplőjeként, Bhishma Pitamájaként ábrázolta az Instagramon. Az oldal a Meta Ad Library adatai alapján február 27. és március 21. között az MI által generált Modi-képek vezető hirdetője lett az Instagramon.
Argentína – a világ első MI-választása?
A generatív mesterséges intelligenciának a rendkívül meggyőző inautentikus tartalmak létrehozásán és politikai kampányokban való használatán túl az egyik legnagyobb előnye a dezinformációs tartalmak gyors felskálázása. A mesterséges intelligencia rendkívüli sebességgel képes olyan nagy mennyiségű tartalmat létrehozni, ami meghaladja az emberi moderátorok és tényellenőrző szervezetek kapacitásait – ezáltal is felerősítve a hamis információk terjedését az adott választási kampányban.
Erre példa a 2023-as argentin elnökválasztás, melynek során a két elnökjelölt az MI-generálta tartalmakat a hagyományos kampányeszközökkel egyenrangú mozgósítási technikaként használta. Sergio Tomás Massa a balközép, peronista Unión por la Patria jelöltjeként magát számos képzeletbeli szereplő bőrébe bújva ábrázolta, így a Szellemirtók egyik főszereplőjeként vagy a nácivadász Indian Jones-ként. Ezzel szemben a választást végül megnyerő jobboldali-populista és libertárius Javier Gerardo Mileit Massa előszeretettel karikírozta a Mechanikus Narancs vagy a Félelem és reszketés Las Vegasban filmek drogos vagy erőszakos figurájaként.
Az MI-manipuláció elleni fellépés lehetőségei
A mesterséges intelligencia jelentette manipuláció elleni fellépésnek jelenleg három szintje különböztethető meg: törvényhozási, önszabályozási és civil szervezeti. A jelenség megrendszabályozására azonban eddig még kevés példát találunk. Ezek közé tartozik az Európai Unió által 2024 márciusában elfogadott Mesterséges Intelligencia Törvény (Artifical Intelligence Act vagy AIA), amely annyiban mérföldkőnek számít, hogy kimondott céljai közé tartozik az új technológiát keretek közé szorító, globálisan mintaadó szabályozás kialakítása, továbbá a technológiából fakadó – a nyilvánosságot, a jogállamot vagy az állampolgári jogokat érintő – káros társadalmi hatások minimalizálása.
Miközben az AIA és más szabályozások számos módon ösztönzik az iparági szereplőket a mesterséges intelligencia felelős és etikus alkalmazására, a legnagyobb szereplők már egy ideje különféle önszabályozási kezdeményezéseket jelentettek be a „biztonságos, védett és megbízható” technológiai fejlesztések érdekében. Emellett a legnagyobb vállalatok, így például a Meta, a Google vagy a Microsoft, 2024 februárjában vállalták, hogy elejét veszik technológiáik választási beavatkozásokra való felhasználásának. Ugyanakkor az új technológiákra vonatkozó törvényhozási keretek újszerűsége, továbbá az önszabályozási gyakorlatok kikényszerítési bizonytalanságai mind abba az irányba mutatnak, hogy a mesterséges intelligencia jelentette manipulációs kockázatok még hosszú ideig velünk fognak maradni. Ezek minimalizálásának legfontosabb eszközeként jelenleg ezért elsősorban a hamis híreket gyorsan leleplezni és a célközönséghez eljuttatni képes független-, illetve a civil szervezetekkel együttműködő tényellenőrző médiumok szolgálhatnak.
Győri Lóránt, a Political Capital geopolitikai elemzője
A Political Capital tagja a tényellenőrzéssel foglalkozó Magyar Digitális Média Obszervatórium (HDMO) konzorciumának.