Sg.hu - Az oroszbarát dezinformációs anyagok áradatát mesterséges intelligencia segítségével zúdítják a közönségre.
A fogyasztói szintű mesterséges intelligencia eszközök drámai módon felgyorsították az Oroszország-párti dezinformáció terjedését. Ezeket az eszközöket arra használják, hogy tömegesen készítsenek képeket, videókat és hamis weboldalakat. A céljuk nem más, mint hogy fokozzák a társadalmi feszültségeket, különösen az általános választások, Ukrajna és a bevándorlás körüli kérdések kapcsán, ahogyan azt egy a héten megjelent kutatás is alátámasztja.
A kampány számos néven ismert, többek között Operation Overload és Matryoshka néven (más kutatók a Storm-1679-hez is kapcsolják). 2023 óta működik, és több csoport, köztük a Microsoft és az Institute for Strategic Dialogue szerint is az orosz kormányhoz köthető. A kampány hamis narratívákat terjeszt médiumokat utánzó módon, és nyilvánvaló célja a demokratikus országokban a megosztottság szítása. Bár a kampány a világ minden táján célba veszi a közönséget, fő célpontja Ukrajna. A kampány során több száz, mesterséges intelligenciával manipulált videó próbálta elősegíteni az oroszbarát narratívákat. A jelentés bemutatja, hogy 2024 szeptembere és 2025 májusa között a kampányt vezető személyek által előállított tartalom mennyisége drámaian megnőtt, és világszerte több millió megtekintést kapott.
A kutatók beszámolójukban 230 különálló tartalmat azonosítottak, amelyeket a kampány 2023 júliusától 2024 júniusáig terjesztettek. Az utolsó nyolc hónap során azonban az Operation Overload összesen 587 egyedi tartalmat állított elő, melyek többsége mesterséges intelligencia eszközök révén készült - állítják a szakértők. A tartalom drámai növekedését a könnyen hozzáférhető, fogyasztói szintű MI-eszközök segítették elő. Ez a könnyű elérhetőség lehetővé tette a kampány "tartalomösszevonás" stratégiáját, melynek keretében a művelet irányítói MI-eszközök segítségével több, azonos történetet népszerűsítő tartalmat tudtak előállítani.
"Ez átállást jelent a skálázhatóbb, többnyelvű és egyre kifinomultabb propagandataktikák felé" - írták a jelentésben a Reset Tech, egy londoni székhelyű, dezinformációs kampányokat nyomon követő nonprofit szervezet, és a Check First, egy finn szoftvercég kutatói. "A kampány az elmúlt nyolc hónapban jelentősen fokozta az új tartalmak előállítását. A kutatókat a kampány által alkalmazott eszközök és tartalomtípusok sokfélesége is megdöbbentette. "Ami meglepett, az a tartalom sokszínűsége, a különböző típusú tartalmak, amelyeket elkezdtek használni" - mondja Aleksandra Atanasova, a Reset Tech vezető nyílt forráskódú hírszerzési kutatója. "Olyan, mintha diverzifikálták volna palettájukat, hogy minél több különböző szögből megközelítsék ezeket a történeteket. Különböző típusú tartalmakat rétegeznek egymásra."
Atanasova hozzátette, hogy a kampány nem tűnt úgy, hogy egyedi MI-eszközöket használna céljai eléréséhez, hanem mindenki számára elérhető hang- és képgenerátorokat használ. Bár nehéz volt azonosítani az összes eszközt, amelyet a kampány résztvevői igénybe vette, a kutatók egy eszközben biztosak, és ez a Flux AI. A Flux AI egy szöveg-kép generátor, amelyet a Black Forest Labs fejlesztett ki, egy németországi székhelyű vállalat, amelyet a Stability AI korábbi alkalmazottai alapítottak. A SightEngine képelemző eszköz segítségével a kutatók 99 százalékos valószínűséggel megállapították, hogy az Overload kampány által megosztott hamis képek egy része - amelyek közül néhány állítólag muszlim migránsok zavargásait és tűzgyújtásait mutatta Berlinben és Párizsban - a Flux AI képgeneráló eszközével készült.
A kutatók ezután olyan képek létrehozására váltak képessé, amelyek hűen tükrözik a már közzétett képek esztétikai vonásait, mindezt diszkriminatív nyelvezet alkalmazásával, például az "dühös muszlim férfiak" kifejezés révén. Ez rávilágít arra, hogy miként lehet manipulálni a mesterséges intelligencia szöveg-kép modelleket a rasszizmus terjesztésére és az anti-muszlim sztereotípiák felerősítésére. A kutatók hangsúlyozták, hogy ez súlyos etikai kérdéseket vet fel a különböző MI generáló rendszerek működésével kapcsolatban, különös figyelmet érdemelve az utasítások hatásaira.
"Többszintű védelmi mechanizmusokat építünk be a jogellenes visszaélések megelőzése érdekében, beleértve a platformok számára az MI által generált tartalmak azonosítását lehetővé tevő származási metaadatokat, és támogatjuk partnereinket további moderációs és származási eszközök bevezetésében" - reagált a jelentésre a Black Forest Labs szóvivője. "A visszaélések megelőzése a kockázatcsökkentő intézkedések, valamint a fejlesztők, a közösségi média platformok és a hatóságok közötti együttműködésen múlik, és mi továbbra is elkötelezettek vagyunk ezeknek az erőfeszítéseknek a támogatásában."
Atansova hangsúlyozta, hogy az általa és kollégái által vizsgált képek nem rendelkeztek metaadatokkal. Az Operation Overload kampány mesterséges intelligencián alapuló hangklónozási technológiát alkalmaz a videók manipulálására, hogy a nézők számára azt a benyomást keltse, mintha neves személyiségek olyan kijelentéseket tennének, amelyeket valójában soha nem mondtak. A kampány keretében készült videók száma 2023 júniusától 2024 júliusáig 150-ről 2024 szeptemberére és 2025 májusára 367-re nőtt. A kutatók megállapították, hogy az elmúlt nyolc hónapban készült videók többsége mesterséges intelligencia technológiát alkalmazott a nézők megtévesztésére.
A kampány februárban közzétett egy videót az X platformon, amelyben Isabelle Bourdon, a francia Montpellier-i Egyetem docense és kutatója szerepel. A felvétel látszólag arra ösztönözte a német polgárokat, hogy vegyenek részt tömeges zavargásokban és szavazzanak a szélsőjobboldali Alternatív Németországért (AfD) pártra a közelgő szövetségi választások során. Azonban ez az állítás hamis: a videó valójában az iskola hivatalos YouTube-csatornáján található anyagból származik, ahol Bourdon egy nemrégiben elnyert társadalomtudományi díjról beszél. A manipulált felvételen az MI-hangklónozási technológia révén úgy tűnt, mintha a német választásokról beszélne, ezzel megtévesztve a nézőket.
Az Operation Overload által létrehozott MI-generált tartalmakat több mint 600 Telegram-csatornán, valamint botfiókokon osztják meg olyan közösségi médiaplatformokon, mint az X és a Bluesky. Az elmúlt hetekben a tartalom először megjelent a TikTokon is. Ezt májusban fedezték fel először, és bár a fiókok száma csekély volt - mindössze 13 -, a közzétett videókat 3 millió alkalommal nézték meg, mielőtt a platform eltávolította a fiókokat. "Nagyon éberen figyelünk azokra, akik megpróbálják manipulálni a platformunkat, és már eltávolítottuk a jelentésben szereplő fiókokat" - nyilatkozta Anna Sopel, a TikTok szóvivője. "Folyamatosan felderítjük, megakadályozzuk és megelőzzük a titkos befolyásoló műveleteket, és minden hónapban átláthatóan beszámolunk az elért eredményekről."
A kutatók felfedték, hogy míg a Bluesky sikeresen felfüggesztette a hamis fiókok 65%-át, addig "az X platform minimális lépéseket tett, holott számos bejelentés érkezett a problémáról, és egyre több bizonyíték merült fel a koordinált tevékenységre". Az Operation Overload keretében létrehozott hamis és mesterséges intelligencia által generált tartalmak után a kampány egy különös megközelítést alkalmaz: e-maileket küldenek több száz médiumnak és tényellenőrző szervezetnek világszerte, amelyekben példákat mutatnak be a különböző platformokon előforduló hamis információkra, és felkérik a tényellenőröket, hogy ellenőrizzék azok hitelességét.
Bár elsőre ellentmondásosnak tűnhet, hogy egy dezinformációs kampány éppen azokat figyelmezteti, akik a dezinformáció ellen harcolnak, a pro-orosz ügynökök végső célja, hogy tartalmaikat valódi híroldalakon népszerűsítsék az interneten – még akkor is, ha azokat "HAMIS" felirattal látják el. Kutatók szerint 2024 szeptembere óta több mint 240 címzettnek küldtek el akár 170 000 ilyen e-mailt. Az üzenetek gyakran több linket is tartalmaztak, amelyek mesterséges intelligencia által generált tartalomra mutattak, ugyanakkor az e-mailek szövegezése nem MI segítségével készült – állítják a szakértők.
Az oroszbarát dezinformációs csoportok már jó ideje kísérleteznek mesterséges intelligencia alapú eszközök alkalmazásával, hogy növeljék hatékonyságukat. Tavaly nyilvánosságra került, hogy egy CopyCop nevű, valószínűleg az orosz államhoz köthető csoport nagyszabású nyelvi modelleket (LLM) használt hamis weboldalak létrehozásához, amelyek a megbízható médiák álcáját öltötték magukra. Noha ezek a módszerek általában nem vonzanak jelentős látogatottságot, a hozzájuk kapcsolódó közösségi média kampányok képesek felkelteni a figyelmet, és bizonyos esetekben a hamis információk a Google keresési találatai között a legjobb helyekre is felkerülhetnek.
Az American Sunlight Project legfrissebb jelentése alapján az orosz dezinformációs hálózatok évente legalább 3 millió mesterséges intelligencia által generált cikket produkálnak. Ezek a tartalmak súlyosan befolyásolják az MI-alapú csevegőrobotok, mint például az OpenAI ChatGPT és a Google Gemini kimenetét. A kutatók többször is feltárták, hogyan használják a dezinformációs ügynökök ezeket az MI-eszközöket, és mivel az emberek számára egyre nehezebb megkülönböztetni a valóságból származó információkat az MI által előállított tartalmaktól, a szakértők előrejelzése szerint a dezinformációs kampányokat tápláló MI-tartalmak száma továbbra is növekedni fog. "Már jól kiforrott stratégiájuk van" - állítja Atanasova. "Tudják, mit csinálnak."