Raluca Radu, profesor al Universității București, autor al unui manual de deontologie a comunicării publice a fost prezentă sâmbătă la Interviurile DCNews moderate de jurnalistul Val Vâlcu unde a vorbit despre cum pot fi modelați algoritmii platformelor de socializare.

Acești algoritmi sunt construiți în așa fel încât, dacă o postare este deja populară, ea va fi afișată mai multor utilizatori, pentru a se viraliza. Unele persoane rău intenționate folosesc această funcție a platformelor respective pentru a răspândi propagandă politică, cum a fost și cazul alegerilor prezidențiale de luna trecută, mărturisește profesoara.

„Algoritmul este un cod mesaj și codul este scris într-un mod foarte simplist, ceva de genul acesta: dacă se întâmplă x, atunci y. Deci, dacă un conținut devine viral într-un timp foarte scurt, noi îl împingem să devină și mai popular.

Pe urmă, din scandalurile publice, rețelele de socializare au început să învețe ce trebuie promovat și ce nu trebuie promovat.

Mesajele antivacciniste nu trebuie promovate, trebuie trase în jos și trebuie promovat conținut care vine din surse sigure pe zona de medicină. Mesaje politice nu trebuie promovate, trebuie trase în jos. De ce nu trebuie promovate mesajele politice? Pentru că, de multe ori, rețelele de socializare intrau în discuții interminabile legate de alegeri sau legate de manipulare și atunci ei spuneau: Noi suntem, de fapt, niște organizații care avem în spate ingineri, n-avem în spate jurnaliști. Nu putem să controlăm conținutul pe ce este manipulare politică și ce nu. Ca să nu mai își pună probleme de genul ăsta, trăgeau în jos mesajele politice”.

Profesoara a explicat și care ar putea fi scenariul alegerilor din decembrie anul trecut, când foarte multe conturi de TikTok au apreciat, distribuit și comentat clipurile politice ale candidatului câștigător al primului tur de alegeri prezidențiale, între timp anulat.

„De fiecare dată când ai un scandal de genul acesta, tu încerci să reglezi algoritmul să nu mai împingă în față conținut care este potențial periculos. Pe de altă parte, ai conținut care este clar ilegal, de exemplu, nuditate. Acel conținut, chiar dacă are potențial să devină viral, nu poate fi împins în față, pentru că este ilegal, adică rețeaua ar putea să sufere în fața legii și-l trag în jos. Cam așa funcționează algoritmii.

Pe urmă au învățat că, într-adevăr, sunt oameni care se coordonează ca să viralizeze în mod incorect un anumit tip de conținut și au făcut coduri care verifică dacă există o activitate coordonată și dacă activitatea se desfășoară prea rapid și atunci pare că este, de fapt, un alt cod care are această activitate pe rețele de socializare. Adică am o armată de roboți care dau like, nu sunt oameni adevărați și blochează și tipul acela de activitate.

Sunt mai întâi roboți, adică niște coduri, niște algoritmi scriși de persoane din afara rețelelor de socializare, care funcționează, acționează ca niște oameni adevărați. Pe de altă parte sunt oameni care sunt angajați în așa-zisele ferme de troli, care dau like sau scriu conținut. Sunt niște oameni reali sunt în Africa sau sunt în Rusia și, în funcție de cine plătește, ei scriu conținut pentru cine plătește sau dau like pentru cine plătește, schimbând și VPN-ul. Au fost anchete jurnalistice internaționale care au expus tipul acesta de ferme de troli și jurnaliști care, fiind atacați de troli, au încercat să caute mai departe ce se întâmplă de fapt.

Rețelele de socializare au învățat să lucreze cu acești roboți și cu acești troli ca să blocheze viralizarea unui conținut care nu ar trebui să se viralizeze. Asta se întâmplă, în general, cu rețelele care vor să facă profit. Dar poți să ai și rețele care nu vor neapărat să facă profit. Dacă ai instituții de media care există numai ca să facă propagandă, de ce n-ai avea și rețele de socializare care există numai ca să facă propagandă? Acest lucru se pare că s-a întâmplat cu TikTok, două anchete de investigații făcute de jurnaliști din România, care au demonstrat că TikTok are niște probleme de securitate”.