Interviu expert în DEEPFAKE. Cel mai rău scenariu: „Pot vedea un viitor în care orice lucru este online ar putea fi fals”
sursa foto: Shutterstock
Matyas (Maty) Bohacek, cercetător în domeniul inteligenței artificiale la Universitatea Stanford, recomandă un ghid în câțiva pași simpli, pentru a nu pica în capcana deepfake – un fenomen care devine din ce în ce mai frecvent și ușor de realizat.
- Conceptul deepfake se referă la un conținut (audio, video sau imagine) trucat cu ajutorul inteligenței artificiale.
- „O imagine hiperrealistă care se folosește de inteligență artificială, pentru a face ca o persoană să spună sau să facă lucruri care nu s-au întâmplat în realitate” este definiția publicată într-un articol din Technology Innovation Review, citat de Scena9.
- În România, un proiect de lege propus în aprilie 2023 și adoptat de Senat în vara aceluiași an încă stârnește valuri de susținere, dar și critici, din partea unor organizații precum Centrul de jurnalism independent sau Active Watch, care au publicat și o scrisoare deschisă. Încă nu se știe dacă și în ce formulă acesta va deveni o lege.
- Reporter: Ai putea să ne spui, te rog, care ar fi trei-cinci sfaturi despre cum putem identifica deepfake-urile, atât pe suport audio, cât și video și imagine?
Matyas Bohacek: În cazul video-urilor trucate, cred că cel mai bun indicator este să ne uităm la zona gurii. Vor fi unele discrepanțe în zona asta: gura se va deschide uneori când persoana nu spune nimic sau va fi închisă când aceasta vorbește.
Un alt factor este reprezentat de gesturi. De pildă, dacă un politician ține un discurs, atunci va folosi mâinile pentru a sublinia ceva. Dar dacă eu stau și dintr-o dată fac așa (gesticulează – n.r.), nu are niciun sens, nu? Deci, aceste feluri de glitch-uri și gesturi, în general.
Mai pot exista și un fel de zgomote de fundal care ar putea fi un bun indicator, pentru că aceste generatoare uneori greșesc ceva în audio și atunci apare un zgomot ciudat în fundal.
Și, de asemenea, destul de des, aceste videoclipuri vor fi statice. Deci, de obicei, va fi o persoană care stă în picioare sau în șezut. Nu se va întâmpla nimic în fundal, pentru că este mai ușor pentru generatori să creeze acest tip de falsuri. Aceștia cred că sunt niște indicatori buni, aș spune eu, pentru a identifica un deepfake video.
Un alt indicator poate fi să te uiți cine distribuie conținutul, mai ales în cazul video-urilor cu politicieni. A distribuit foarte rapid oponentul lui? Acesta poate fi un semnal.
În ceea ce privește imaginile deepfake, un lucru pe care îl greșesc destul de des în cazul femeilor sau al persoanelor care poartă cercei este că aceștia vor fi diferiți. Astfel, la o ureche, vor avea un cercel mic, iar la cealaltă vor avea un cercel mare – sau ceva de genul acesta.
În plus, de multe ori, persoanele vor avea fie patru, fie șase degete.
Nici lumina nu va fi corespunzătoare. Așa că este foarte bine să te uiți la umbre, să vezi dacă au sens. Deci, de exemplu, există o lumină solară care coboară, iar apoi o persoană a cărei umbră este foarte mare sau foarte mică, sau este rotită într-un mod ciudat. Ăsta e un indicator foarte bun.
Și apoi mai sunt și aceste lucruri mai mici la care te poți uita. Uneori, aceste modele generează ceva care nu are sens din punct de vedere fizic. De exemplu, pot reda pielea umană într-un mod care arată ca și cum ar fi animat, chiar dacă ar trebui să fie fotorealist.
Deepfake-ul audio este, probabil, cel mai greu de detectat, pentru că este aproape perfect. Eu personal aș avea probleme în a identifica multe dintre ele, cred.
Nu este chiar un indicator, dar, aceste modele nu pot să râdă sau să plângă cu adevărat. Așadar, poți fi atent la cum sună asta. Mai poți fi atent la intonații ciudate sau pauze ciudate între propoziții sau cuvinte.
Dar un lucru pe care vreau să-l subliniez este că niciunul dintre acești factori nu este, de unul singur, un indicator suficient de bun pentru a spune: OK, acesta este un deepfake. Indicatorii trebuie combinați și e nevoie să ne gândim la ei într-un mod mai critic.
- Rep: Cum putem să-i protejăm pe cei mai în vârstă de deepfake? Mă refer la părinții noștri, la bunicii noștri, la cei care nu au o experiență atât de mare cu online-ul în general.
M.B.: Cred că totul se rezumă la a petrece timp cu ei și a discuta despre asta. Și este foarte greu. Din ceea ce am experimentat cu bunicii mei, nu este greu doar să le explici că există ceva numit deepfake, ci este greu pentru ei să înțeleagă ce este inteligența artificială sau că poate exista ceva de genul acesta – o tehnologie care este capabilă să creeze o întreagă media falsă.
Vor avea o mulțime de întrebări. Adică, asta este experiența mea. Atâta timp cât sunt curioși, este foarte bine, pentru că nu trebuie să înțeleagă toate detaliile. Atâta timp cât știu la ce să fie atenți este perfect.
Așadar, le puteți arăta că există câteva lucruri la care se pot uita atât la imagini, cât și la videoclipuri. Cred că în prezent asta este cea mai bună cale de urmat.
Să sperăm că în viitor vor exista unele forme de adnotări sau stegulețe pe rețelele sociale sau pe telefon, prin care vom putea vedea că anumite imagini sau videoclipuri au potențial de a fi suspecte. Dar asta probabil că nu se va întâmpla în următorul an sau doi.
- Rep: În România ne pregătim pentru patru tipuri de alegeri și, văzând experiența din SUA, Pakistan și din toate celelalte țări unde există deja conținut deepfake în care apăreau diverși politicieni, care este sfatul tău pentru noi, la ce să fim atenți? Cum crezi că ar putea afecta fenomenul deepfake în mod special alegerile care urmează să aibă loc în România?
M.B.: Da, vom avea același lucru în Republica Cehă, de unde sunt eu. Am mai primit această întrebare acum o zi și mă gândeam la ea și chiar este greu, pentru că nu poți face prea multe. Cred că un lucru care ar trebui făcut imediat este să vorbim despre asta, să educăm în acest sens. Să ne asigurăm că oamenii sunt conștienți de acest lucru (că unele fișiere audio, imagini sau videoclipuri de pe internet pot fi manipulate – n.r.). Să știe că acest lucru este deja aici și că se întâmplă, nu mai este ceva ipotetic, de domeniul SF. Este aici, se întâmplă chiar acum. Asta este esențial.
Apoi, cred că avem nevoie de termeni mai buni decât deepfake pentru țările noastre din Europa de Est, deoarece cred că mulți oameni, chiar vorbitori de engleză, nu știu ce înseamnă deepfake.
Cred că o lecție de învățat este să găsim un termen nativ, ceva în limba pe care toată lumea o înțelege. Ceva clar și explicativ: Acest videoclip este manipulat, ceva de genul ăsta.
- Rep: În România se discută despre adoptarea unei legi, care să pedepsească destul de aspru trucajele deepfake. Cum crezi că ar ajuta o astfel de lege? Și, totodată, de ce crezi că ar putea să nu fie eficientă?
M.B.: Cred că e bine să existe o legislație care să interzică deepfake-urile. Dar cum putem afla cine este vinovat? Pentru mine, aceasta este marea întrebare, pentru că, de multe ori, dacă avem un deepfake care devine viral, acesta va fi distribuit de un cont complet aleatoriu care nu este legat de nicio persoană reală, așa că cine l-a creat? Cine ar trebui să fie pasibil de amenzi sau de orice altă pedeapsă? După părerea mea, o abordare mai bună în acest caz ar fi să ne asigurăm că platformele care amplifică acest conținut sunt responsabile să identifice deepfake-urile.
De exemplu, dacă Twitter, Facebook, sau orice altă platformă de socializare publică aceste videoclipuri, ele au mecanisme interne pentru a detecta deepfake-urile. Au atât detectoare automate, cât și persoane care analizează manual deepfake-urile. Astfel, ei știu dacă există un deepfake.
Așa că eu cred că ar trebui să fie responsabili fie să-l retragă imediat, fie să nu îl amplifice. Ceea ce înseamnă că va fi acolo, pe un profil, dar nimeni nu-l va vedea pe pagina principală. Nu le va fi sugerat oamenilor. Nu va fi astfel amplificat. Sau cea de-a treia opțiune este aceea de a face o etichetă mare: ACESTA ESTE UN DEEPFAKE. Și să fie clar, să explice ce este un deepfake.
Asta cred că ar trebui să fie obligatoriu prin lege. Nu sunt sigur însă de modul în care pot fi pedepsiți cei care creează conținutul. Dacă știți cine a făcut-o, grozav. Probabil că ar trebui să existe o pedeapsă. Dacă deepfake-ul este legat de o formă de înșelăciune sau de propagandă falsă, ar trebui să se încadreze în același mod în care sunt pedepsite aceste fapte.
Dar, după părerea mea, cred că va fi foarte greu să poată fi identificată persoana care a creat conținutul deepfake și/sau cine a plătit pentru el.
Prin urmare, cred că o primă abordare bună din punct de vedere legislativ ar fi să ne ocupăm de platformele pe care se distribuie efectiv. Pentru că, fără aceste platforme, deepfake nu face niciun rău. Dacă nu este distribuit, nu face niciun rău.
- Rep: Există deja în vreo țară o astfel de legislație?
M.B.: Știu că în Spania se discută ceva similar. Și există unele propuneri și aici, în SUA. Pentru că administrația Biden a avut câteva propuneri, cred, bune în această direcție. Dar problema este că, în acest moment, ele sunt blocate de Camera Reprezentanților, care este Republicană. Așa că nu cred că vor reuși să treacă toate. Nu cred că există vreo țară care să aibă așa ceva în vigoare deocamdată.
- Rep: Care este cel mai rău scenariu și care este cel mai bun scenariu pentru viitor, așa cum le vezi tu? Pentru că, așa cum ai spus, deepfake nu este ceva de domeniul SF, ci ceva ce se întâmplă deja.
M.B.: Cred că cel mai bun scenariu ar fi să avem o legislație solidă care, așa cum am spus, să oblige platformele fie să eticheteze conținutul, fie să-l retragă, fie să nu-l amplifice.
Dar, de asemenea, un scenariu bun este cel în care sistemele de operare pe care le folosim, fie că este vorba de iOS sau Android sau orice altceva, chiar și pe web, vor avea un fel de integrare a autenticității conținutului.
Ceea ce înseamnă că, într-un fel, se inversează abordarea aici, nu mai întrebi ce este fals, ci ce este credibil. Astfel, în viitor, când vei face o înregistrare video sau o imagine cu telefonul sau cu orice altceva, dispozitivul tău va încorpora un tip de semnătură, un fel de cheie criptată în fișier, pe care nu o vei vedea. Va fi ca orice altă imagine, orice altă înregistrare video, nu o vei vedea ca utilizator, dar va fi în fișier și atunci când fișierul va fi partajat sau când îl vei pune pe rețelele de socializare, oricine îl va vedea va putea ști de pe ce dispozitiv provine și că este verificat. Iar imaginile modificate își vor pierde această etichetă a autenticității.
Cred că acest lucru ar fi foarte util. Cred că ar fi un scenariu foarte bun, în care identificăm deepfake-urile și încercăm să verificăm proactiv ce este credibil. Acesta este cel mai bun scenariu.
Există și o platformă în care, în calitate de jurnalist sau ca orice alt utilizator, vei putea, pur și simplu, să arunci o imagine și ți se vor afișa toate aceste informații. Iar viziunea este ca aceste informații să fie vizibile nu doar pe acest site, ci peste tot. De exemplu, dacă mă duc pe Twitter și derulez în jos, la fiecare imagine va exista o mică pictogramă sau o mică insignă care mă va conduce la aceste informații.
Așadar, viziunea sau tipul de abordare aici este că va depinde de fiecare dacă decide să creadă sau nu. Poți vedea această etichetă și să te gândești că nu este de încredere, dar poți să te gândești și că vei avea încredere în ea, în ciuda etichetei. Va depinde de tine, dar îți vor fi oferite toate informațiile care există despre această imagine și vei putea lua o decizie.
Iar cel mai rău scenariu este acela în care această tehnologie nu este implementată, în care nu există nicio formă de legislație cu privire la ceea ce trebuie să facă platforma și aș putea vedea un viitor în care nu poți avea încredere în nimic online, în care orice este online ar putea fi fals. Și, oricât de trist ar suna, cred că acest viitor nu este exclus.
Deci cred că acestea sunt cele două extreme cu care lucrăm și sper că vom reuși să îndreptăm lucrurile spre cea pozitivă.
- Rep: Având în vedere că există deja atâtea exemple de conținut deepfake, cum putem avea grijă de noi înșine și de sănătatea noastră mintală, să nu devenim prea paranoici și să nu începem să verificăm totul de mai multe ori?
M.B.: Aceasta este o întrebare excelentă, o întrebare importantă pe care mi-o pun și eu destul de des. Cred că este foarte greu să găsim un echilibru. Cred că, în momentul de față, este bine să știi despre aceste lucruri și să fii sceptic într-un mod sănătos. Să te gândești la asta, dar să nu faci o obsesie din ea. Nu analiza excesiv fiecare videoclip, fiecare imagine, fiecare sunet. Cred că, în momentul de față, chiar dacă deepfak-urile se îmbunătățesc, ele sunt încă destul de vizibile și recognoscibile. De cele mai multe ori, încă îți poți da seama. Așa că, atâta timp cât ții cont de acest lucru și ești atent la asta, cred că vei fi bine, în majoritatea timpului.
Și, în viitor, sperăm că vom avea parte de o protecție mai bună din partea platformelor și a tehnologiei.
Cred că este bine să rămânem sănătoși la cap (sane – engl.), să încercăm să învățăm despre fenomenul deepfake. Dar, la sfârșitul zilei, vei fi cel mai bine în ceea ce privește detectarea atunci când ești sceptic într-un mod sănătos. De fapt, acesta este cel mai bun mod de a fi în acest moment.
*Acest interviu a fost realizat în limba engleză și a fost tradus și editat, pentru coerență.
One Comment
Leave A Comment
Pe aceeași temă
Pe aceeași temă
De ce nu v-asumați raspunderea sa publicati si actualizati lista cazurilor deepfake si un clasament al publicatiilor / autorilor , care au realizat acele chestiii ?
Doar sfaturi ca la gradinițā e apā de ploaie , copiii !