Peste 10 persoane au tras un semnal de alarmă cu privire la modul în care marile rețele de socializare au permis răspândirea conținutului periculos pentru a crește numărul reacțiilor utilizatorilor.
Potrivit surselor, acest conținut periculos includea violență, șantaj sexual și terorism și era menit să capteze atenția utilizatorilor, scrie BBC News.
Un inginer din cadrul Meta, ce deține Facebook și Instagram, a descris modul în care șefii lui i-au zis să permită conținutul periculos „la limită”. Acesta include misoginism și teorii ale conspirației.
Se pare că decizia a fost luată pentru a concura cu TikTok, care permite acest tip de mesaje din același motiv: să atragă cât mai multe reacții.
Meta și TikTok ar fi permis răspândirea conținutului periculos cu bună știință
„Ne-au spus, într-un fel, că e din cauză că prețul acțiunilor a scăzut,” a declarat inginerul Meta.
Situația e similară și în cazul TikTok. Un angajat TikTok a oferit acces rar la panourile interne ale companiei privind plângerile utilizatorilor, precum și alte dovezi despre cum personalul fusese instruit să prioritizeze mai multe cazuri care implicau politicieni în detrimentul unor rapoarte despre conținut dăunător care implica copii, potrivit raportului BBV.
Deciziile erau luate pentru a „menține o relație puternică” cu figurile politice, pentru a evita amenințările de reglementare sau interdicții, nu din cauza riscurilor pentru utilizatori, a spus angajatul TikTok.
Avertizorii de integritate care au vorbit în documentarul BBC Inside the Rage Machine oferă o perspectivă detaliată asupra modului în care industria a reacționat după creșterea explozivă a TikTok, al cărui algoritm extrem de captivant pentru recomandarea videoclipurilor scurte a dat peste cap rețelele sociale.
Citește și: Descoperirea care ar putea zgudui industria AI. Ce problemă au modelele de inteligență artificială
Un cercetător senior de la Meta, Matt Motyl, a spus că alternativa companiei la TikTok, Instagram Reels, a fost lansată în 2020 fără suficiente măsuri de siguranță. Cercetări interne au arătat că multe din comentariile de pe Reels aveau o prevalență semnificativ mai mare de hărțuire, discurs instigator la ură, violență sau incitare, comparativ cu restul platformei.
Potrivit surselor, Meta a angajat 700 de persoane pentru dezvoltarea Reels, dar, în același timp, a refuzat angajarea specialiștilor pentru protecția copiilor și integritatea alegerilor, a spus un alt fost angajat senior Meta.
Motyl a dezvăluit zeci de documente pe care le-a descris drept „cercetări de nivel înalt care arată tot felul de efecte negative asupra utilizatorilor pe aceste platforme”. Printre acestea se afla și dovada că Facebook era conștient de problemele cauzate de propriul algoritm.
Algoritmul oferea creatorilor de conținut „o cale care maximizează profitul în detrimentul bunăstării audienței” și „setul actual de stimulente financiare pe care îl creează algoritmii noștri nu pare aliniat cu misiunea noastră” de a apropia oamenii, potrivit unui studiu intern.
Acesta afirma că Facebook poate „alege să fie pasiv și să continue să le ofere utilizatorilor fast-food digital, dar asta funcționează doar pentru o perioadă limitată”.
Meta și TikTok neagă acuzațiile, în ciuda dovezilor
„Orice sugestie că amplificăm deliberat conținut dăunător pentru câștig financiar este falsă,” a declarat un reprezentant Meta.
TikTok a spus că acestea sunt „afirmații fabricate” și că investește în tehnologie care previne ca astfel de conținut să fie vizualizat.
Algoritmii sunt o „cutie neagră”, ale cărei mecanisme interne sunt greu de analizat, a spus Ruofan Ding, care a lucrat ca inginerla motorul de recomandare TikTok între 2020 și 2024.
„Nu avem control asupra algoritmului de deep learning în sine,” a declarat Ding. „Pentru noi, tot conținutul este doar un ID, un număr diferit.”
Aceștia se bazau pe echipele de siguranță pentru a elimina conținutul dăunător. Însă, pe măsură ce TikTok își îmbunătățea algoritmul aproape săptămânal pentru a câștiga cotă de piață, Ding a început să observe mai mult conținut „la limită” sau problematic, care apărea după ce utilizatorii petreceau mai mult timp pe platformă.
Conținutul „la limită” eâ termenul folosit pentru postări dăunătoare, dar legale, inclusiv conținut misogin, rasist, sexualizat sau teorii ale conspirației.
Sistemele prin care utilizatorii pot indica faptul că nu doresc să vadă astfel de conținut nu funcționează, susțin utilizatorii.
Potrivit raportului, TikTok a clasificat unele cazuri minore legate de politicieni ca fiind mai prioritare decât cazuri grave care implicau adolescenți.
De exemplu, un politician ironizat prin comparație cu o găină a fost prioritizat în fața unui adolescent de 17 ani victimă a cyberbullying-ului în Franța și a unei fete de 16 ani din Irak, ale cărei imagini sexualizate false circulau pe platformă.
Când echipa a cerut prioritizarea cazurilor care implicau tineri, li s-a spus să urmeze ordinea stabilită.
TikTok a respins acuzațiile, spunând că siguranța tinerilor e o prioritate și că afirmațiile „denaturează fundamental modul în care funcționează sistemele de moderare”.
Planurile spațiale ale lui Elon Musk deja sunt criticate de experți. Ce vrea să trimită miliardarul în orbită și de ce e...