Inteligenţa artificială (AI) a devenit o tehnologie cheie pentru transformarea digitală în organizaţiile private şi publice, anticipându-se că, până în 2030, va fi folosită direct sau indirect în majoritatea sectoarelor. Dealtfel, o analiză realizată de strategy&, departamentul de strategie al reţelei globale PwC, arată că utilizarea inteligenţei artificiale generative (GenAI) are potenţialul de a genera o creştere economică suplimentară anuală între 0,4% şi 0,7% în Europa, până în 2030, dacă organizaţiile sunt receptive la inovare, dezvoltă o strategie şi mai ales dacă sunt dispuse să facă investiţiile necesare, inclusiv pentru prevenirea riscurilor asociate. În aceste condiţii, s-ar atinge până la 90% din potenţialul de majorare a productivităţii totale datorate GenAI. Pe lângă relevanţa economică a utilizării GenAI, încrederea în performanţa, securitatea, fiabilitatea şi corectitudinea AI sunt esenţiale pentru utilizatori, clienţi şi factori de decizie.
Din acest motiv, la nivelul Uniunii Europene a fost adoptat un regulament vizând utilizarea sistemelor de inteligenţă artificială, sub denumirea de EU AI Act. Acesta este direct aplicabil în statele membre şi impactează atât organizaţiile private, cât şi pe cele publice, indiferent dacă acestea sunt producători, distribuitori sau utilizatori de sisteme AI. Alte ţări întreprind de asemenea demersuri de reglementare. Astfel, în prezent, SUA se bazează pe legile federale existente pentru a reglementa AI, dar îşi propune să introducă o legislaţie specifică şi o autoritate federală de reglementare. În acelaşi timp, Regatul Unit a elaborat ”Cartea albă privind reglementarea AI” care cuprinde un cadru bazat pe principii pe care autorităţile de reglementare ale diferitelor sectoare să le interpreteze şi să le aplice pentru dezvoltarea şi utilizarea AI.
Revenind la UE, regulamentul european impune obligaţii în funcţie de riscurile potenţiale ale diferitelor tipuri de sisteme AI. Se aşteaptă ca acest regulament să aibă un impact similar cu cel privind protecţia datelor cu caracter personal (GDPR). Organizaţiile trebuie să se conformeze legal la noile cerinţe. În caz contrar, se expun mai multor riscuri legale, care includ potenţiale amenzi. În plus, încălcarea EU AI Act ar putea determina şi o analiză privind posibile încălcări ale altor prevederi legale aplicabile, precum GDPR sau alte reglementări specifice fiecărei industrii.
Cine sunt principalii vizaţi de EU AI Act?
Producătorii şi distribuitorii de sisteme de inteligenţă artificială reglementate în Uniunea Europeană sunt vizaţi de cea mai mare parte a cerinţelor. Aceştia sunt furnizori care pun pe piaţă sau implementează sisteme de AI, indiferent dacă sunt stabiliţi în UE sau într-o ţară terţă, precum şi distribuitori de sisteme de AI reglementate care sunt stabiliţi în UE.
Regulamentul UE împarte sistemele de AI în mai multe categorii bazate pe caracteristicile lor de risc, care sunt fie permise fără restricţii, fie permise în anumite condiţii, fie interzise. Această abordare se bazează pe o evaluare a riscurilor preconizate pe care le poate prezenta un anumit sistem de AI pentru sănătatea, siguranţa sau drepturile fundamentale ale cetăţenilor UE.
Sistemele de AI cu riscuri inacceptabile sunt interzise per se. Acestea includ, de exemplu, sisteme pentru manipularea subliminală a oamenilor sau anumite sisteme biometrice de recunoaştere în timp real în spaţiile publice. Sistemele de AI cu risc ridicat sunt în centrul regulamentului. Acestea sunt permise numai în situaţii excepţionale, cu respectarea unor cerinţe stricte de documentare, monitorizare şi calitate.
UE a stabilit termene de conformare pentru diferitele clasificări ale riscurilor. Organizaţiile trebuie să clasifice şi să evalueze în mod proactiv riscurile sistemelor lor de inteligenţă artificială pentru a evita sancţiunile şi daunele aduse reputaţiei.
De exemplu, la şase luni de la intrarea în vigoare a legii, o companie care implementează un sistem de inteligenţă artificială considerat interzis, cum ar fi unul care detectează emoţii la locul de muncă, riscă amenzi de până la 35 milioane euro sau 7% din cifra sa de afaceri anuală totală la nivel mondial din anul financiar precedent, luându-se în considerare valoarea cea mai mare. Un astfel de sistem trebuie să fie scos de pe piaţa europeană sau reproiectat astfel încât să fie eliminate criteriile interzise definite de Legea UE privind inteligenţa artificială.
Ce măsuri trebuie să ia companiile? O parte dintre ele sunt listate mai jos:
- Evaluarea impactului AI asupra cadrelor de conformitate existente.
- Clasificarea sistemelor AI şi elaborarea unui inventar în funcţie de clasificările de risc şi menţinerea unui inventar dinamic bazat pe taxonomia UE.
- Identificarea sistemelor AI interzise şi luarea de măsuri imediate.
- Revizuirea modelului de guvernanţă pentru alinierea la noile cerinţe ale regulamentului.
- Dezvoltarea şi punerea în aplicare a unor proceduri de gestionare, testare şi validare a riscurilor.
- Guvernanţa datelor: asigurarea unor practici solide de gestionare a datelor.
- Asigurarea unor controale adecvate, în special pentru sistemele avansate de AI.
- Cartografierea interdependenţelor: înţelegerea dependenţelor interne şi externe legate de sistemele de inteligenţă artificială, de exemplu cu furnizorii de cloud şi de platforme terţe în vederea punerii în aplicare a controalelor şi a măsurilor de protecţie adecvate.