- Există opinii diferite din partea companiilor și a mediului de reglementare în privința viitorului cadru legal pentru Inteligența Artificială (IA)
- Ambele puncte de vedere indică potențiale lacune, care pot prezenta riscuri
Există perspective diferite în modul în care sectorul public și cel privat percep viitorul eticii, guvernanței, protecției vieții private, politicilor și reglementării tehnologiilor pentru inteligența artificială (IA), se arată în studiul EY - Bridging AI’s trust gaps, realizat în colaborare cu The Future Society. Principalele diferențe identificate în studiu se încadrează în patru arii: echitate și evitarea discriminării, inovație, accesul la date și confidențialitate și drepturile asupra datelor.
Studiul include interviuri cu 71 de decidenți politici și peste 280 de organizații globale. Respondenților li s-a cerut să facă o ierarhizare a principiilor etice în funcție de importanța lor în cazul a 12 scenarii diferite de utilizare a inteligenței artificiale, fiind apoi evaluată atitudinea lor față de riscurile și reglementarea inteligenței artificiale.
Opiniile decidenților politici converg în privința unor priorități specifice, în timp ce în sectorul privat lipsește consensul
În răspunsurile decidenților politici se remarcă o aliniere în ceea ce privește principiile etice pentru diferite aplicații de inteligență artificială. De exemplu, referitor la utilizarea inteligenței artificiale pentru recunoașterea facială, cele mai importante preocupări menționate de decidenții politici sunt „echitatea și evitarea discriminării” și „confidențialitatea și drepturile asupra datelor personale”. La aceeași întrebare, nu s-a notat o diferențiere între prioritățile identificate de respondenții din sectorul privat. Printre preocupările principale ale sectorului privat se numără principiile deja reglementate în prezent, cum ar fi GDPR, și mai puțin problemele emergente, cum ar fi echitatea și nediscriminarea.
Lipsa unui acord privind viitoarea direcție de guvernanță implică riscuri
Atât decidenții politici, cât și companiile consideră necesară o abordare care să implice mai multe părți interesate în stabilirea direcției de guvernanță a inteligenței artificiale. Totuși, rezultatele evidențiază un dezacord în privința modului de implementare: 38% dintre organizațiile intervievate se așteaptă ca sectorul privat să conducă o inițiativă de reglementare cu multipli actori interesați, în timp ce numai 6% dintre decidenții politici sunt de acord. Această disonanță generează provocări pentru ambele grupuri în avansarea unui cadru de guvernanță. Totodată, aceasta implică riscuri de piață și de reglementare pentru companiile care deja dezvoltă produse de inteligență artificială, în timp ce abordările privind guvernanța se află încă în dezbatere.
Depășirea dezacordurilor prin colaborare
Rezultatele studiului susțin faptul că fiecare dintre părțile implicate are anumite limitări în ceea ce privește implementarea unei inteligențe artificiale etice, 69% dintre companii fiind de acord că legiuitorii înțeleg complexităţile tehnologiilor din sfera inteligenței artificiale și provocările mediului de afaceri, în timp ce 66% dintre decidenții politici nu au fost de acord.
Aceste concluzii sugerează că o mai strânsă colaborare între cele două grupuri va fi esențială pentru adresarea deficitului de cunoștințe. Decidenții politici ar trebui să adopte o abordare consultativă și deliberativă, cu contribuții din partea sectorului privat, în special în privința aspectelor tehnice și comerciale complexe, în cazul cărora nu dețin cunoștințe de specialitate. Deopotrivă, sectorul privat ar trebui să facă eforturi în direcția ajungerii la un consens referitor la principiile de guvernanță a inteligenței artificiale, astfel încât să se țină cont de cerințele în materie de reglementare ale ambelor părți.
Nigel Duffy, lider EY Global Artificial Intelligence, a declarat:
„Companiile și industriile se transformă prin intermediul inteligenței artificiale, iar lipsa consensului reduce încrederea publicului în inteligența artificială și încetinește adoptarea unor aplicații critice. Pentru ca eforturile să dea rezultate, companiile și decidenții politici trebuie să se pună de acord. Coordonarea între părțile interesate este esențială pentru elaborarea unor abordări pragmatice privind politicile și guvernanța, în care să se țină cont de constrângerile și realitățile practice”.
„Viteza cu care tehnologiile de sub umbrela inteligenței artificiale pătrund în toate aspectele vieții noastre profesionale și personale, ne face să credem că nivelul de maturitate este unul mai avansat decât în realitate. Pentru integrarea principiilor de etică în dezvoltarea soluțiilor bazate pe inteligență artificială încă este necesar un efort susținut pe termen mediu-lung din partea comunității de business și tehnologie în vederea calibrării modelelor folosite. Datele reprezintă principala sursa de învățare pentru inteligența artificială și este rolul nostru, atât în mediul public, cât și în cel privat, să ne asigurăm că modul în care acestea sunt folosite respectă principii sănătoase pentru dezvoltarea etică a aplicațiilor ce vor lua decizii cu impact asupra societății”, a declarat Aurelia Costache, Lider al Departamentului de Consultanță din cadrul EY România.
Pentru a accesa raportul Bridging AI’s trust gaps, click aici.