Info

AI, deepfake şi decredibilizarea unei probe până acum incontestabile

Advertorial

Roman Bradu, Managing Partner Bradu, Neagu & Asociaţii, specializat în White Collar Crime şi avocatura de business

Roman Bradu, Managing Partner Bradu, Neagu & Asociaţii, specializat în White Collar Crime şi avocatura de business

Autor: Publicitate

14.03.2024, 14:38 653

Sigur, ChatGPT ne scrie e-mailurile, ne scrie postările de pe linkedin, ne traduce documente şi generează conţinut care reduce substanţial timpul petrecut pe un singur task. Popularizarea şi normalizarea integrării inteligenţei artificiale în viaţa de zi cu zi – atât la job, cât şi acasă – creează şi mai mult loc pentru eroare, acordând încredere oarbă unui conţinut generat fără a menţiona surse, într-un format bun de luat „de-a gata”, tradus instant în orice limbă, creat de un soft capabil de a-şi simţi/citi audienţa (în termenul greu de tradus „sentient”).

Mai mult, dorim să punctăm şi uşurinţa cu care beneficiarul final al unui material/document/rezultat/răspuns poate fi păcălit – cum distingem între un răspuns generat de AI şi un răspuns oferit de o persoană competentă, care îşi cunoaşte domeniul? Cum distingem între manuscrisul unui autor şi un text generat de AI-ul care a învăţat stilul lui de scris? Cum distingem o opinie juridică a unui avocat de cea scrisă de AI cu acces la legislaţie? Până la urmă, şi unul, şi celălalt oferă disclaimer.

Noemi Cădariu, Managing Associate Bradu, Neagu & Asociaţii, avocat specializat în Dispute Resolution

Cum mai reuşim să recunoaştem la finalul zilei, de fapt, factorul uman?

Ştim downside-ul evident al avantajelor zilnice pe care le aduce inteligenţa artificială în automatizarea şi facilitarea taskurilor, respectiv lenevirea minţii umane, atât dintr-o perspectivă activă – prin pasarea unor componente active ale unui proiect în cârca AI-ului – cât şi dintr-o perspectivă pasivă – prin obţinerea facilă şi rapidă a unor informaţii percepute cu titlu de adevăr şi neverificate.

Ce ne facem însă în privinţa fenomenului neglijat al deepfake? Zâmbim atunci când inteligenţa artificială generează conţinut favorabil nouă, pierzând din vedere faptul că moneda are întotdeauna două feţe, iar conţinutul AI-ului – fiind în continuă dezvoltare – poate oricând genera conţinut complet nefavorabil omului (individual, ori ca grup).

 

  1. Ce este, de fapt, fenomenul deepfake?

Deepfake-ul este o formă avansată de manipulare digitală a conţinutului media, care implică utilizarea tehnologiilor de învăţare automată (i.e. inteligenţă artificială) şi de generare a imaginilor pentru a crea materiale audio, foto sau video false, care par autentice şi credibile. Termenul de deepfake reuneşte noţiunea de „deep learning” (învăţarea profundă) şi „fake” (falsul), reflectând însăşi complexitatea naturii sale sofisticate.

În procesul de creare al conţinutului imagistic deepfake este implicat un algoritm de învăţare profundă (deep AI) cu o cantitate semnificativă de date (fotografii, înregistrări video sau audio) referitoare la persoana ţintă a conţinutul dorit. Algoritmul este instruit să înveţe caracteristicile faciale şi vocale ale persoanei ţintă pentru a putea recrea şi manipula orice fel de conţinut media – finalmente cu scopul de a face acea persoană să pară că se află într-un anumit loc, că spune anumite cuvinte, că face anumite activităţi care, fireşte, nu s-au întâmplat şi nu reflectă realitatea.

Există diferite tehnici utilizate în procesul de creare a deepfake-urilor, printre care notăm generarea de imagini folosind reţele generative adversariale – respectiv un duet între două reţele neurale având obiective diametral opuse, una fiind însărcinată cu generarea conţinutului fals, cealaltă fiind însărcinată cu depistarea falsurilor. Acest sistem creează deci un proces iterativ prin care se îmbunătăţesc rezultatele falsificării, prin învăţarea pozitivă şi negativă simultan.

Deşi pare o formă de entertainment creativă atunci când scopul îi este inofensiv, fenomenul deepfake e acaparat de un nor negru al unei direcţionări maliţioase, de la manipulare politică şi propagandă până la conţinut pornografic (cu un procent alarmant de pedopornografie). Într-o analiză a Deeptrace Labs, peste 96% din conţinutul deepfake identificat în online în anul 2019 era conţinut neconsensual pornografic – unde întâlnim ca victime atât persoane publice, cât şi persoane de rând, atât majori, cât şi minori, cu preponderenţă femei şi întărind şi fenomenul de revenge porn.

În mediul politic, diseminarea conţinutului deepfake vizual şi auditiv este aptă să creeze isterie, să instige la violenţă şi să răspândească propagandă mai facil decât prin orice alt canal de comunicare, în special pe platformele de social media şi mai ales raportat la faptul că tendinţa de verificare a surselor unui conţinut consumat pe aceste platforme este în continuă scădere.

Cu titlu de exemplu, imagini şi înregistrări generate în fenomenul deepfake au fost larg răspândite în cele două conflicte armate puternic mediatizate şi contemporane nouă, anume Rusia-Ucraina şi Israel-Hamas, generând discursuri politice false ale conducătorilor acestor ţări (printre care (i) discursul deepfake al lui Volodymyr Zelensky în care ordona ucrainenilor să se predea armatei ruse[1], (ii) conţinut deepfake despre victimele din conflictul Israel-Hamas[2], (iii) hackerii iranieni întrerup difuzări din EAU cu ştiri deepfake[3], şi (iv) interviul deepfake creat cu preşedintele Vladimir Putin[4]).

Deşi în prezent se lucrează la perfecţionarea contracarării efectelor negative ale conţinutului deepfake, prin dezvoltarea unor tehnologii de detecţie a acestui gen de conţinut şi prin încercarea de educare a publicului larg în evaluarea critică a conţinutului media falsificat, la acest moment un astfel de rezultat este nerealist.

Raportat la modul de consum al informaţiilor – în special la rapiditatea consumării efective a conţinutului prin care dăm scroll în fiecare zi, pe platforme sociale create pentru livrare de dopamină în conţinut scurt, concentrat şi rapid, discernerea şi filtrarea informaţiei consumate devine un concept utopic, în special pentru Gen Z şi următoarele, generaţii cărora nu le-a fost insuflat deloc principiul „cercetează şi apoi crede”.

Mai mult, cu identificarea tardivă a conţinutului deepfake, acest gen de conţinut are suficient timp să zăbovească în online, să disipe informaţii false şi înşelătoare, să instige la violenţă, la ură, la segregare rasială, precum şi la distrugerea reputaţiei femeilor victime valului de deepfake porn. Până când s-a identificat o astfel de imagine ori înregistrare ca fiind machine-generated, deja dauna e produsă, reputaţia ştirbită şi publicul influenţat.

  1. Curentul european privind fenomenul deepfake şi reglementarea naţională
  1. Poziţia europeană

La finele anului 2022, Comisia Europeană a propus o nouă directivă pentru combaterea violenţei şi a violenţei domestice împotriva femeilor în diferite modalităţi. În prezent, Consiliul European şi Parlamentul European susţin propunerea de incriminare, printre altele, a distribuirii nonconsensuale a conţinutului pornografic generat de AI, cu scopul de a destabiliza fenomenul de revenge porn.

Reacţia UE apare ca rezultat al celui mai recent astfel de scandal deepfake porn, a cărui victima a fost la începutul acestui an chiar Taylor Swift, cu peste 45 milioane accesări în online. Uniunea Europeană a propus de la începutul lunii februarie incriminarea distribuirii unui astfel de conţinut pe teritoriul UE (incluzând revenge porn şi hărţuirea online) – previzionat a intra în vigoare la mijlocul anului 2027.

Vice preşedintele Comisiei Europene, Věra Jourová, a declarat celor de la Politico[5] faptul că „cel mai recent dezgustător mod de a umili femeile implică distribuirea unor imagini intime generate de inteligenţa artificială în mai puţin de câteva minute. Astfel de imagini pot crea prejudicii grave, nu doar popstarurilor, ci oricărei femei care va fi astfel nevoită să demonstreze la muncă ori acasă că acele imagini sunt rezultatul deepfake”.

La nivelul Uniunii, Parlamentul European a aprobat miercuri, 13 martie 2024, regulamentul privind inteligenţa artificială, EU AI Act, considerat a fi prima reglementare oficială a inteligenţei artificiale din lume. Prioritatea Parlamentului European este să se asigure că sistemele AI folosite în UE sunt sigure, transparente, trasabile, nediscriminatorii şi ecologice. Se doreşte mai ales supravegherea acestor sisteme de oameni, nu prin procese la rândul lor automatizate, pentru evitarea unor rezultate dăunătoare cauzate de utilizarea acestor sisteme. În cadrul acestor reglementări şi viitoare sancţiuni, regăsim şi fenomenul deepfake ca o componentă a sistemelor de inteligenţă artificială generativă.

Subliniem faptul că adoptarea unui astfel de regulament reprezintă o premieră globală, plasând UE ca lider în întâmpinarea creării unui cadru legal privind sistemele de inteligenţă artificială, regulament ce cu siguranţă va reprezenta şi o sursă de inspiraţie pentru ţările non-membre, cu precădere pentru SUA – unde fenomenul are o amploare mult depăşind incindenţa pe teritoriul uniunii.

Aprobarea finală va fi dată de Consiliul Uniunii Europene – aprobare aşteptată până la finalul anului 2024, intrând în vigoare la 20 de zile după publicarea sa în Jurnalul Oficial, pe când interdicţiile şi limitările fiind impuse la 6 luni de la acea dată. Despre unele limitări şi interdicţii este posibilă prorogarea aplicării până la 12 luni de la intrarea sa în vigoare, însă toate celelalte obligaţii prevăzute de această directivă vor fi impuse, fără excepţii, la cel târziu 36 de luni de la intrarea sa în vigoare, respectiv finalul anului 2027 (în condiţiile cunoscute actualmente).

Actul reglementează categorii diferite de risc în privinţa diferitor sisteme de inteligenţă artificială, între risc inacceptabil – considerate o ameninţare pentru oameni şi fiind interzise (i.e. identificarea şi clasarea biometrică a persoanelor fizice), risc ridicat – care au un efect negativ asupra siguranţei şi drepturilor fundamentale ale oamenilor, urmând a fi evaluate înainte de a fi puse pe piaţă (i.e. softuri privind gestionarea migraţiei, azilului şi controlului la frontieră; softuri ce oferă asistenţă în interpretarea şi aplicarea legii) şi risc limitat – categorie ce include inteligenţa artificială generală şi generativă (i.e. ChatGPT; sisteme care generează şi manipulează imagini, conţinut audio şi video, respectiv deepfakes)[6].

Cu toate acestea, este important de avut în vedere faptul că aceste reguli şi clasificări au fost create şi redactate acum 3 ani, moment la care aplicaţii de tipul ChatGPT şi OpenAI nu aveau popularitatea şi incidenţa pe care o au în prezent – şi nici puterea de învăţare şi baza de date atât de amplă. Clasificarea sistemelor generative de conţinut, dată fiind incidenţa lor, accesarea lor facilă, precum şi posibilele implicaţii faptice şi legale ale acestui tip de rezultat ca fiind sisteme cu risc limitat ar putea suferi în timp un „upgrade” de periculozitate.

  1. Cadrul legislativ naţional

Pe plan naţional, însă, încă din aprilie 2023 a fost iniţiat proiectul de lege nr. 471/2023 privind utilizarea responsabilă a tehnologiei în contextul fenomenului deepfake, aflându-se încă în analiză – trimis pentru raport suplimentar în faţa a două comisii, cu termen în data de 01.03.2024, termen deja depăşit.

În expunerea de motive, legiuitorul român ia în considerare dezvoltarea accelerată a tehnologiei, a inteligenţei artificiale şi a tehnicilor de creare a realităţii virtuale artificiale precum şi progresele impresionante ale instrumentelor de tip machine learning, considerându-şi necesară intervenţia pentru limitarea efectelor maliţioase în conţinutul fals generat de aceste instrumente. Legiuitorul mai arată faptul că specialiştii în domeniu consideră deepfake-ul mult mai periculos şi cu un impact mult mai puternic decât ştirile false diseminate în presă cu care suntem deja obişnuiţi, întrucât deepfake-ul poate genera şi conţinut imagistic şi auditiv legat intrinsec de victima personificată astfel.

Salutăm astfel iniţiativa deputatului Eugen Bejinariu şi a senatorului Robert-Marius Cazanciuc, în calitate de iniţiatori ai acestui proiect, achiesând opiniei exprimate cu privire la fenomenul deepfake, respectiv faptul că realizarea şi distribuirea unor astfel de materiale (denumite fals sever) constituie – fiecare, în individualitatea sa materială – un act responsabil, realizat cu discernământ şi intenţie directă, urmărind prejudicierea imaginii, reputaţiei sau demnităţii victimei prin diseminarea unor materiale înşelătoare şi falsificate ce creează aparenţa că emană direct de la victimă ori plasează victima în ipoteze ce nu exprimă realitatea faptică, obiectivă.

Includem, cu titlu de exemplu, portretizarea deepfake şi a Preşedintelui României într-un material peiorativ, generat în format video şi a cărui precizie se apropie de mimarea unui video şi discurs real[7]. Putem respinge facil un astfel de conţinut atunci când plecăm de la premisa că este fals şi atunci când însăşi titlul său ne delimitează faptul că este generat de softuri AI, însă fără evidenţa acestor premise şi cu continua dezvoltare şi perfecţionare a acestor softuri, câtă vreme vom mai putea cu adevărat să le distingem?

În forma adoptată de Senat, legea ne oferă 4 articole, incluzând definirea cadrului de aplicare, definirea fenomenului deepfake, condiţiile în care un material creat de inteligenţa artificială trebuie să-şi divulge natura, precum şi cui revine competenţa verificării îndeplinirii acestor condiţii de legalitate.

Legea ne defineşte fenomenul deepfake ca fiind „orice conţinut falsificat de tip imagine, audio şi/sau video realizat, de regulă, cu ajutorul inteligenţei artificiale, a realităţii virtuale, a realităţii augmentate sau altor mijloace, astfel încât să creeze aparenţa că o persoană a spus sau a făcut lucruri, pentru care nu şi-a dat consimţământul, care în realitate nu au fost spuse sau făcute de acea persoană”.

Distribuirea şi difuzarea unor astfel de materiale deepfake în mass-media sunt interzise dacă nu sunt însoţite de un avertisment redat pe cel puţin 10% din suprafaţa expunerii şi pe toată durata difuzării respectivului conţinut vizual sau de un mesaj sonor la începutul şi la finalul conţinutului audio: „Acest material conţine ipostaze imaginare.

 

  1. Decredibilizarea unei probe până acum incontestabile

Ce deserviciu ne creăm cu adevărat prin perfecţionarea sistemelor de inteligenţă artificială generative de conţinut? În plan probatoriu, cel puţin până acum, imagistica (foto sau video) precum şi înregistrările audio şi audio-video au fost – atât în procesele penale, cât şi în procesele civile – o probă incontestabilă, probă a cărei veridicitate era arareori contestată, probă pe care ne puteam baza ireproşabil.

Or, în acest context fantasmagoric unde:

  • putem genera o persoană omniscientă – care să fie în mai multe locuri simultan în înregistrări de supraveghere ori în fotografii;
  • putem portretiza un individ într-un loc/într-o circumstanţă/într-o alăturare în care el nu a fost niciodată;
  • putem genera mărturii, recunoaşteri şi declaraţii false – imputate unei persoane care nu le-a declarat niciodată;
  • putem manipula ori genera/fabrica probe – i.e. modificarea conţinutului de pe înregistrări de supraveghere sau imagistica din percheziţii;
  • putem genera evenimente prin imagistică foto sau video care să simuleze un eveniment care nu a existat niciodată – important în alăturarea unor persoane de interes într-un presupus eveniment;
  • putem denigra şi decredibiliza orice individ, prin disiparea unui conţinut deepfake care îl prezintă implicându-se în comportamente ilegale, scandaloase, denigratoare şi, cel mai probabil false, finalmente ştirbindu-i reputaţia;
  • putem discredita martori, fie prin crearea de conţinut contradictoriu declaraţiilor lor, fie prin plasarea lor în alte locaţii în timp şi spaţiu care ar face imposibilă prezenţa lor ca martori şi la faptele despre care declară;
  • putem facil clona şi fura identităţi în scopul comiterii de fraude (informatice, bancare, financiare), prin mimarea unui persoane reale în care oamenii au încredere şi căreia îi vor oferi date personale;
  • putem facil viola intimitatea şi hărţui persoane online, prin creare de profiluri false cu conţinut deepfake ce portretizează persoană în cauză în ipostaze nereale şi apte de a crea prejudicii de imagine;
  • putem falsifica documente, prin clonarea siglelor, ştampilelor, imitarea artificială a stilului de scriere ori prin simpla modificare credibilă doar a unor părţi din documente, finalmente putând aveam implicaţii financiare ori chiar penale.

Deşi astfel de generări de conţinut puteau fi create şi în trecut, ele erau mult rudimentare conţinutului dezvoltat de inteligenţa artificială – care-şi perfecţionează constant opera pentru a mima perfect componenta umană – şi programele nu erau lesne accesibile publicului larg. Acum, printr-un singur search pe Google, accesibil oricui (şi chiar şi minorilor), găsim zeci de softuri accesibile gratuit ori contra unui cost infim, unde până şi cel mai de bază şi accesibil soft poate genera conţinut credibil.

Fenomenul disipării de conţinut deepfake este în continuă creştere, softurile deja accesibile devin tot mai deştepte şi mai user friendly, fiindu-i oricui facil să genereze în sub 30 de minute conţinut apt să creeze prejudicii grave de imagine pentru victima aleasă. În plus, spre deosebire de platformele de ştiri ori mass-media, platformele de social media nu-şi filtrează conţinutul prin verificare umană, ci prin roboţei care sunt, din păcate, mult prea uşor de păcălit.

Algoritmul reţelelor de social media poate să disipe în scurt timp (uneori într-o chestiune de câteva ore) un material deepfake la zeci şi sute de mii de utilizatori, iar suportul oferit de aceste platforme este lent, cu o posibilitate minimă de a ajunge în contact cu o persoană peste roboţeii de suport. Astfel, deşi conţinutul poate fi îndepărtat după lungi appealuri şi raportări, într-o procedură ce se poate întinde pe durata unor zile şi chiar săptămâni, deepfake­­-ul are timp să circule, să zăbovească, să scandalizeze şi să îşi otrăvească opinia publică liniştit, fără presiunea numărătorii inverse.

În fine, în contextul inteligenţei artificiale generative de conţinut, care pluteşte liberă în online accesibilă oricui o doreşte, în lipsa desăvârşită a unui cadru legal privind uneltele de inteligenţă artificială care să-i impună limitări ori care să ne arate cine răspunde efectiv pentru otrava unui astfel de conţinut (mai ales unde autorul nu poate fi identificat), protecţia datelor îşi lărgeşte sfera, devenind relevant de inclus şi bazele de date care îţi pot accesa imaginile personale (cum sunt Facebook, Instagram, TikTok, Twitter, Whatsapp ş.a.).

 


[2]TikTok Struggles to Take Down Deepfake Videos of Hamas’ Victims (bloomberglaw.com)

„Ei urmează un model similar: o moarte tragică apare la ştiri şi, în câteva zile sau chiar ore, utilizatorii postează videoclipuri cu asemănarea acelei persoane, vorbind despre modul în care a murit. Formatul tendinţei include, de obicei, o introducere din perspectiva acelei persoane şi o imagine falsificată a acesteia pe ecran, care spune povestea modului în care a murit.”

 

Pentru alte știri, analize, articole și informații din business în timp real urmărește Ziarul Financiar pe WhatsApp Channels

Cele mai citite ştiri
AFACERI DE LA ZERO