Opinii

Opinii primite la redacţie. De ce Elon Musk şi alte personalităţi consideră că utilizarea AI reprezintă o ameninţare?

Opinii primite la redacţie. De ce Elon Musk şi alte...
31.03.2023, 17:06 463

 

După entuziasmul care a cuprins  întreaga lume, sau aproape întreaga lume după cum se observă în ultima vreme, odată cu anunţurile providerilor de soluţii bazate pe inteligenţa artificială (engl. Artificial Inteligence – AI), traversăm momentul în care o serie de voci influente la nivel global par că trag un semnal de alarmă cu privire la expansiunea exponenţială a acestor soluţii. Recent, a fost dat publicităţii un moratoriu (https://futureoflife.org/open-letter/pause-giant-ai-experiments), semnat de personalităţi ale spaţiului public, în frunte cu Elon Musk, fondatorul Tesla, prin care acestea cred că e oportună suspendarea utilizării AI pe scara largă, datorită lipsei de reglementare şi a pericolelor pe care le reprezintă utilizarea liberă a Inteligenţei Artificiale (IA). 

Întrebarea este cum s-a ajuns aici şi care sunt argumentele acestor oameni influenţi la nivel global, profund implicaţi în schimbările economice din ultimii ani, cunoscuţi ca avangardişti şi inovatori ai vremurilor prezente?

Apariţia ChatGPT a schimbat lucrurile

Chat GPT este un machine learning model, adică funcţionează aidoma creierului uman, folosind „neuroni” interconectaţi, care pot învăţa să identifice modele în date şi să facă predicţii despre ceea ce urmează să se întâmple în continuare.

Apariţia soluţiei de la OpenAI, denumită ChatGPT este considerată o adevărată revoluţie, întrucât este pentru prima dată când un chatbot ce are integrat inteligenţa artificială este antrenat (şi încărcat) pe cantităţi uriaşe de date de pe Internet, astfel încât să formuleze răspunsuri care pot părea că sunt formulate de oameni. 

ChatGPT a câştigat un milion de utilizatori doar în prima săptămână de la lansare, iar website-ul ChatGPT primeşte în prezent aproximativ un miliard de vizitatori lunar, cu o valoare estimată de 100 milioane de utilizatori activi, potrivit comunicatelor OpenAI.

Statusul reglementărilor AI 

Odată cu apariţia ChatGPT din ce în ce mai multe persoane au acces şi utilizează inteligenta artificială atât pentru uz personal cât şi în scop de business, dar domeniul a rămas încă nereglementat. În acest moment nu există nici un sistem de guvernanţă a inteligenţei artificiale, ceea ce înseamnă că nu există nicio pedeapsă în cazul în care un astfel de software este creat sau utilizat cu rea-intenţie.

Deşi există destul de multe iniţiative de reglementare a zonei AI, nu există niciuna care să se afle într-un stadiu suficient de avansat. Uniunea Europeană, de exemplu, lucrează la Regulamentul privind Inteligenţa Artificială (AI Act), fiind primul act normativ ce are ca scop principal reglementarea AI-ul, pornind de la riscurile pe care acesta le prezintă pentru consumatori. Pe lângă acest demers, încă în lucru, există mai multe iniţiative care încearcă să stabilească cadrul etic de dezvoltare a soluţiilor AI, încercând să traseze un cadru de principii morale ce trebuie transpuse în scrierea de cod a AI-ului

Motivul principal pentru care Elon Musk şi alţi actori importanţi au semnat moratoriul de suspendare a utilizării AI-ului pentru o perioada de şase luni, este pentru că nu există încă un cadru legislativ aplicabil şi nici o matrice după care să stabilim care soluţie AI lucrează în detrimentul oamenilor şi care nu.

Cum pot fi afectaţi oamenii de utilizarea AI-ului?

În timp ce AI-ul are un potenţial imens neexploatat,  utilizarea nereglementată poate duce la a încălcarea drepturilor omului, mai ales în ceea ce priveşte discriminarea anumitor segmente ale societăţii ca urmare a „algoritmilor părtinitori - biased”. 

Deşi AI-ul a devenit un trend abia acum, prin intermediul Chat GPT, poate şi pentru că ChatGPt este atât de simplu de utilizat încât oricine are o adresă de e-mail îşi face un cont în platformă şi poate transmite mesaje către chatbot, nu trebuie să uităm că algoritmii de inteligenţă artificială sunt utilizaţi deja în foarte multe arii din viaţă noastră. În lipsa acestor reglementări clare de acces şi utilizare este foarte probabil că va utilizarea soluţiilor AI, necontrolat şi nereglementat, va afecta în primul rând grupurile  vulnerabile, care sunt deja profilate şi hărţuite în spaţiul non-digital, cum este cazul minorităţilor.

Riscurile la adresa drepturilor fundamentale ale omului apar în special când AI-ul stă la baza unor decizii automate ce au un impact masiv în viaţa de zi cu zi, cum ar fi: prelucrarea automată a datelor despre sănătatea unei persoane, prelucrarea datelor despre locul de muncă sau despre creditare. De exemplu, în 2015, Algoritmul de angajare al Amazon s-a dovedit a fi părtinitor cu femeile „pentru că algoritmul se baza pe număr de cv-uri depuse în ultimii zece ani şi la vremea respectivă cei mai mulţi dintre solicitanţi au fost bărbaţi, astfel că AI-ul a fost instruit pentru a favoriza bărbaţi înaintea femeilor. (Real-life Examples of Discriminating Artificial Intelligence by Terence Shin Towards Data Science ). Şi acesta este doar un exemplu.

La ce riscuri se pot expune businessurile prin utilizarea AI-ului?

Când vorbim despre riscurile la care se expun companiile prin utilizarea AI am identificat cel puţin patru aspecte de care trebuie să ţinem cont.

Un  obstacol important în calea adoptării AI este lipsa de competenţe şi disponibilitatea personalului tehnic cu experienţa şi instruirea necesare pentru a implementa în mod eficient o astfel de soluţie tehnică. 

În al doilea rând, pornind de la datele la care compania oferă acces inteligenţei artificiale pentru a învăţa, aici se ridică problema legată de acurateţea datelor pe care va fi învăţat algoritmul.

Următoarea problemă importantă este modul în care soluţia tehnologică utilizează acele date, din punct de vedere al regulilor de confidenţialitate şi transparenţă. Întrucât conform regulilor de prelucrare a datelor din GDPR, companiile trebuie să asigure confidenţialitatea datelor personale ale clienţilor (utilizatorilor) care intră în contact cu AI-ul. 

Nu în ultimul rând, vorbim despre transparenţa în ceea ce priveşte modul în care a fost codat algoritmul, întrucât fără respectarea regulilor minimale de etică în dezvoltarea tehnologică, AI-ul poate genera răspunsuri ori soluţii nepotrivite sau părtinitoare, care pot genera probleme de încredere pentru brandul ce îl utilizează.

Întrebarea care se naşte este însă dacă sunt suficiente şase luni pentru ca un set de reglementări de bază să fie create şi adoptate la nivel global, astfel încât să fie evitate, pe termen lung, aceste riscuri.

 

Cristina Deca este managing partner Decalex, firmă de consultanţă în protecţia datelor. 

 

Pentru alte știri, analize, articole și informații din business în timp real urmărește Ziarul Financiar pe WhatsApp Channels

Urmează ZF Bankers Summit'24