Operațiunea Metronom din Ungaria. Cum arată soldații digitali din bătălia live-urilor de pe TikTok dintre Orbán și Magyar

Ilustrație: Diana Dupu
Am analizat peste 250.000 de comentarii de pe TikTokul din Ungaria și am descoperit că 90% din conținut e suspect. Zeci de mii de comentarii au fost postate fie folosind un fel de automatizare, fie sunt text copy-paste, fie conținând ordine explicite de amplificare. O analiză a Qriton Technologies, un grup de cercetători antidezinformare, a constatat 54 de cazuri de manipulare a algoritmilor și spune că TikTok trebuia să intervină, dar nu a făcut nimic. Reprezentanții TikTok nu au răspuns solicitărilor Context.ro de a prezenta un punct de vedere.
Dacă intri pe live-urile de TikTok ale lui Viktor Orbán și Peter Magyar, vei fi întâmpinat de un fluviu de emojiuri și comentarii pro și contra. Impresia este că sute și sute de simpatizanți sunt trup și suflet cu favoritul lor și împotriva contracandidatului. În realitate, e vorba de activități de manipulare a algoritmilor, dar și a percepției publice. Secțiunea comentariilor este vizibilă sutelor de mii dacă nu milioanelor de urmăritori (în țără și în străinătate)
O analiză a Qriton Technologies în parteneriat cu Context.ro arată că 1% dintre TikTokeri realizau 30% din comentariile de pe live-ul lui Orbán, iar o mare parte din comentarii sunt repetitive și uneori postate cu o frecvență care indică o formă de automatizare.
Am început analiza după ce am urmărit pe 17 martie unul dintre live-urile lui Viktor Orbán. Am văzut atunci cum secțiunea comentarii e invadată de postaci pro-Orbán/FIDEZ sau Pro-Magyar. Am cules prima dată datele de pe contul Orbán. În prima analiză am scos la iveală că zeci de mii de comentarii postate de câteva mii de conturi au un nivel mare de coordonare. În ultimele zile ne-am uitat și la live-urile lui Peter Magyar și am găsit același tipare. Zeci de conturi care postează sute sau chiar peste 1000 de comentarii într-o singură sesiune live.
Așa arată secțiunea de comentarii de pe contul lui Magyar. Le-am analizat și am descoperit că în live-urile sale de pe 7 aprilie un singur user a comentat de 2426 de ori cu o frecvență de 48 de comentarii pe minut sau un comentariu la fiecare 1.2 secunde.
Andra-Lucia Martinescu și Marius Dima de la Qriton Technologies au analizat 19 sesiuni live ale lui Orbán în care au fost generate peste 250 de mii de comentarii de peste 5000 de utilizatori. Datele arată că au existat 56 de situații în care regulile stabilite de UE prin Digital Service Act au fost încălcate. Potrivit experților Qriton Technologies, TikTok trebuia să se asigure că asta nu se întâmplă, însă compania n-a intervenit. “Dovezile prezentate aici sugerează că aceste obligații nu au fost îndeplinite: o campanie neautentică coordonată de această amploare, desfășurată pe parcursul mai multor sesiuni într-un interval de puțin peste o săptămână, ar fi trebuit să declanșeze detectarea automată și intervenția în timp util cu mult înainte ca cercetătorii și organismele de supraveghere să o poată documenta, chiar dacă în mod reactiv”, se arată în raportul Qriton Technologies.
Stahanoviștii digitali din Ungaria
Unele dintre cele mai importante constatări ale analizei este că o parte semnificativă din conținut, adică acele comentarii din timpul live-urilor, este sintetic. Mai exact, sunt indicii puternice că în spatele conturilor nu sunt cetățeni obișnuiți care doar își arată susținerea față de Orbán sau contracandidatul său. Un element cheie este viteza cu care sunt postate comentariile și volumul produs de presupușii utilizatori.
Un caz emblematic este cel al p4ra6e11um, care a postat 3.866 de mesaje cu un interval mediu de 0,9 secunde, adică a postat câte un mesaj în mai puțin de o secundă. Cel puțin 300 astfel de conturi au avut un comportament similar.
Operațiune digitală sub steag fals sau mercenariat online
Datele culese au scos la iveală și o tactică nouă: aceleași conturi au postat mesaje pentru ambele tabere politice. Potrivit Qriton Technologies sunt două ipoteze:
- Fie cei care controlează infrastructura digitală încearcă să inducă ideea că manipularea algoritmilor este realizată de ambele tabere,
- Fie că aceleași softuri care automatizează postarea de comentarii au fost vândute ambelor tabere.
Experții Qriton Technologies au dat și câteva exemple:
“Șase conturi au menținut o împărțire aproape echilibrată (35 – 65%) între campaniile opuse. Cele mai precise două – smuel.pj (16 Fidesz / 16 Tisza, exact 50%) și akfx6 (12 Fidesz / 13 Tisza, 48,0%) – postează ambele la o cadență de 1,7 secunde, cu peste 50% din intervalele dintre mesaje sub 2 secunde. Aceștia nu sunt indivizi cu loialități politice duale, ci sugerează mai degrabă scripturi cu două liste de redare.
Un subset de conturi face mecanismul și mai lizibil. martinkovcs35 a trecut de la „ CSAK A FIDESZ másold” la „ ÁRAD A TISZA” în 1,7 secunde. Brandingul emoji s-a schimbat simultan cu sloganul: de la inimioare portocalii la tricolor. tibor19806 a făcut aceeași schimbare în 2,5 secunde. lakatos.dvid10, care opera în categoria sub-secundă, cu un interval mediu de 0,9 secunde, a alternat între șabloanele „CSAK A FIDESZ” și „Hajrá Tisza”. La toate cele 16 conturi care au făcut schimbări, au fost înregistrate 81 de schimbări de tabără verificate, dintre care 27 au avut loc în mai puțin de 5 secunde.”
Hoardele AI au ocupat Panonia digitală
Cu ajutorul unui soft dezvoltat de Context.ro, am detectat și peste 120 de conturi care au publicat peste 10.000 de clipuri multe dintre ele generate de AI. Unele sunt animații, altele sunt deepfake-uri. Softul nostru a semnalat că peste 44% din aceste clipuri au probleme: fie propagă informații false, fie fac apel la frică și încearcă să manipuleze emoțional audiența, fie scot din context fapte într-un scop manipulator.
Pentru campania din Ungaria a fost lansat și un autoproclamat influencer AI care a postat în principal clipuri critice la adresa lui Orbán și a guvernării sale. Miile de postări au generat peste 110 milioane de vizualizări în ultimele cinci luni.
Analizele realizate de Context.ro și Qriton Technologies nu au putut să atribuie unui actor operațiunile inautentice depistate. Cu toate acestea, presa maghiară și cea regională au notat că Rusia a dislocat resurse substanțiale pentru bătălia electorală din Ungaria.
Oamenii lui Putin dislocați la Budapesta pentru a-l ajuta pe Orban
O echipă formată din trei „tehnologi politici” ruși specializați în manipularea rețelelor sociale ar fi fost trimisă la ambasada Rusiei din Budapesta, într-o operațiune ce are ca scop menținerea la putere a lui Viktor Orbán, potrivit informațiilor obținute de VSquare. Aceștia beneficiază de statut diplomatic pentru a nu fi expulzați și acționează în numele GRU, serviciul de informații militare al Rusiei.
Operațiunea Matrioska
Operațiunea Matrioșka, specializată în diseminarea de informații false, atribuită Federației Ruse, a fost activată în alegerile din Ungaria și exploatează falsuri privind relația tensionată Ungaria-Ucraina, arată o analiză Lakmus. Bot Blocker, un grup de activiști digitali specializați în vânătoare de boți, a identificat inițial cinci videoclipuri provenite din rețeaua Matrioșka, distribuite pe X și care au câte 100.000 de vizualizări. Experții au explicat că aceste vizualizări sunt cel mai probabil artificiale.
Presa americană despre admirația MAGA pentru Viktor Orbán: „Pentru ei, Orbán este un model”
Într-o ediție a emisiunii americane Last Week Tonight, gazda John Oliver a făcut o paralelă între mișcarea republicană MAGA din SUA și regimul de dreapta a lui Viktor Orbán care „a devenit în mod clar o sursă de inspirație pentru conservatorii americani, până în punctul în care JD Vance plănuiește, aparent, să viziteze Ungaria pentru a-și arăta sprijinul față de Orbán înaintea alegerilor. Și asta pentru că, pentru ei, Orbán nu este un avertisment. Este un model.”
Realizatorul a avertizat că modelul Orbán, construit pe controlul presei, influențarea sistemului judiciar și redesenarea circumscripțiilor în avantaj politic, ar trebui să îngrijoreze SUA, deoarece, deși Statele Unite au încă mecanisme solide de control instituțional, ar putea urma aceeași cale.
Rușii au propus organizarea unui atentat înscenat
Un raport intern al serviciului rus de informații externe (SVR), obținut de un serviciu european de informații și analizat de The Washington Post, arată că operativii propuneau o metodă de a „schimba fundamental întreaga paradigmă a campaniei electorale” — „organizarea unui atentat asupra lui Viktor Orbán”. Scopul ar fi fost mutarea atenției publice de la problemele reale ale cetățenilor la o percepție sentimentală. În realitate, nu a existat niciun atentat la adresa premierului Viktor Orbán, însă propunerea demonstrează cât de mare este miza pentru Moscova.
Prima campanie politică „post-realitate”
Istorica și jurnalista americană Anne Applebaum descrie într-un editorial publicat în The Atlantic cum arată spațiul informațional creat de conturile pro-guvernamentale maghiare de pe TikTok. Acesta include o versiune generată cu inteligență artificială a președintelui ucrainean Volodimir Zelenski, stând pe un vas de toaletă de aur dând ordine unui soldat maghiar, dar și pe liderul opoziției, Péter Magyar, creat cu AI, care pare să spună că nu are nicio problemă să cedeze fabricile ungare străinilor. Autoarea concluzionează că, în prezent, campaniile „politice din întreaga lume au devenit uneori absurde sau conspiraționiste”, iar alegerile din Ungaria ar putea fi prima campanie „post-realitate”.
Pe aceeași temă
Pe aceeași temă







