3 perces olvasási idő 8 febr. 2022
ey-ferfi-beszelget-egy-robottal-kep.jpg

Ki felel egy mesterséges intelligencia döntéseiért?

Szerző EY

Könyvvizsgálat. Adó. Stratégia és Tranzakció. Jog. Üzleti tanácsadás.

3 perces olvasási idő 8 febr. 2022
Kapcsolódó témák Forensics

A mesterséges intelligencia kockázatai. Szerző: Attila Schrettner, EY, Felelős Üzleti Működés Szolgáltatások.

2021 november 25-én az UNESCO  összes tagállama megállapodott egy, a mesterséges intelligencia (a továbbiakban: ”AI”) technológia egészséges fejlődését lehetővé tévő értékeket és alapelveket rögzítő dokumentum elfogadásáról . Hasonló módon fogadott el ajánlásokat az OECD  és a G20 is. De mi teszi szükségessé, hogy nemzetközi szintű megállapodások születhessenek ebben a témában, amely első érzésre még jövőszerűnek tűnik?

Az ok, hogy a gyakorlatban épp az ellenkezőjét látjuk ennek a megérzésnek. Nemzetközi szinten a vállalatok 86%-a válaszolta, hogy az AI – részben a COVID-nak is köszönhetően – mainstream technológiának számít. A cégek 67%-a, 2021-ben tovább fejlesztette ezt a területet. Ennek oka, hogy a technológiától elvárják a folyamatok hatékonyságának növelését (74%), azt, hogy új üzleti modelleket hozzon létre (55%) és támogassa innovatív termékek és szolgáltatások piacra kerülését (54%). 

A vállalatok

86 %

-a szerint az AI mainstream technológiának számít.

A fenti számok ismeretében látható, hogy a technológia ma is jelentős hatást fejt ki a globális és a magyar gazdaságra, valamint az emberek mindennapjaira. Így érdemes megvizsgálni, milyen etikai kérdései lehetnek az alkalmazásának.

Az Európai Parlament (EP) szakértői egy tizenkét elemből álló listában foglalták össze az AI kapcsán felmerülő etikai kérdéseket[1]. Ezek közül a vállalatok számára releváns lehet:

  • Munkaerőpiaci hatás – Hány munkahelyet teremt és veszélyeztet az AI egyre szélesebb körű alkalmazása? Milyen algoritmus és mintázatok mentén szűri az egy adott állásra jelentkező személyeket az AI? Milyen teljesítményértékelési döntéseket készít az AI a munkavállalókról?
  • Pénzügyi hatás – Milyen hatása van az AI által hozott döntéseknek a vállalatok eredményességére és más pénzügyi mutatóira?
  • Elszámoltathatóság és felelősség – Hogyan határozható meg, hogy ki egy adott AI által hozott döntés felelőse?
  • Megfelelés – Hogyan biztosítható, hogy az AI által hozott döntések megfeleljenek a mindenkori jogszabályoknak, szabályozói elvárásoknak, ajánlásoknak, standardokan, és jó gyakorlatoknak? Hogyan garantálható az AI által kezelt személyes adatok megfelelő (GDPR szerinti) kezelése?
  • Biztonság – Hogyan garantálható az AI informatikai környezetének biztonsága? Hogyan védhető az AI rendszer a csaló szándékú külső beavatkozásoktól?

Ezeket az aggodalmakat támasztja alá az EY felmérése is[2] a felhasználók körében. Habár a felhasználók túlnyomó része (~95%) tisztában van az AI fogalmával, de technológia működését alig harmaduk (~30%) érti. Ezen felül a felhasználók aggódnak, hogy a vállalatok szabálytalanul használják fel személyes adataikat, a vállalatok által használt technológiák nem transzparensek, és manipulálhatják a megatartásukat.

Új EU-s rendelettervezet

A felhasználói aggodalmakat a mérlegre helyezve az Európai Biztosság elkezdte egy új rendelet kidolgozását. Itt fontos hangsúlyozni, hogy a dokumentum jelenleg csak javaslat státuszban, van így a végleges elvárások pontos meghatározáshoz meg kell várni a végleges szöveg megjelenését. Azonban a szabályozás fő irányvonalai így is kiolvashatók.

A rendelet az irányítási rendszerek többségéhez hasonlóan kockázat lapú megközelítést alkalmaz, ezen belül pedig elfogadhatatlan-, nagy-, illetve alacsony vagy minimális kockázattal járó kategóriákba sorolja az AI rendszereket. 

Az elfogadhatatlan kockázatú megoldások közé tartozhatnak majd például:

  • Természetes személyek magatartásának szándékos befolyásolására, torzítására használt AI rendszerek
  • Természetes személyeket célzó, valós idejű, távoli biometrikus azonosítására használt AI rendszerek nyilvánosság számára hozzáférhető helyeken

A nagy kockázatú AI rendszerek közé pedig például az alábbiak:

  • Természetes személyek valós idejű és nem valós idejű, távoli, biometrikus azonosítására szolgáló AI rendszerek
  • Víz-, gáz-, fűtési és villamosenergia-szolgáltatás során használt AI rendszerek
  • Természetes személyek hitelképességének értékelésére vagy hitelpontszámuk megállapítására használt AI rendszerek
  • Természetes személyek toborzására vagy kiválasztására használt AI rendszerek

Az elfogadhatatlan kockázattal rendelkező mesterséges intelligencia alkalmazása főszabály szerint tilos lehet a rendelet jelenlegi szövegtervezete alapján. A nagy kockázatú rendszer esetén elvárás lehet – a teljesség igénye nélkül - egy sor kontroll és működési változás alkalmazása, többek közt:

  • Kockázatkezelési rendszer bevezetése
  • Minőségirányítási rendszer bevezetése
  • AI rendszerek folyamatos fejlesztése
  • Átláthatóság és felhasználó tájékoztatása
  • Emberi felügyelet garantálása
  • Adatkezelési gyakorlatok megfelelősége (beleértve a személyes adatokat is)
  • Cyber-biztonsági elvárások teljesítése
  • Naplózás biztosítása
  • Bejelentés felügyeleti hatóság felé
  • Műszaki dokumentáció összeállítása

A rendelet az únión kívüli vállaltokra is vonatkozhat, az EU-s állpolgárok is az általuk használt AI rendszerek hatálya alá esnek majd és büntetési tétele magasabb lehet a GDPR-nál , akár 30 millió EUR vagy az adott cégcsoport globális árbevételének 6%-a. 

Egy cégcsoport globális árbevételének akár

6 %

-át is elérheti, az AI rendszerek miatt kiszabott büntetések mértéke.

Látható a trend, hogy közeljövőben egyre több és szofisztikáltabb jó gyakorlat, standard és szabályozás fog megjelenni az AI rendszerek vonatkozásában. Erre pedig célszerű proaktív módon felkészülni a vállalatoknak. Első lépésben célszerű lehet megismerni a jó gyakorlatokat, standardokat és szabályozásokt. Következő lépésben a relevánsnak ítélt elvárásokat javasolt összevetni a vállalt saját képességeivel és felmérni az AI rendszerekhez kapcsolódó érintetteket és kockázatokat. Ezután az azonosított eltérések alapján megfogalmazható egy AI etikai stratégia, egy fejlesztési ütemterv és étre hozható az ezek végrehajtását lehetővé tévő irányítási rendszer kialakítása.

A cikk teljes terjedelmében a Belső Ellenőrök Magyarországi Közhasznú Szervezetének oldalán olvasható.

  • Források

      Egyesült Nemzetek Nevelésügyi, Tudományos és Kulturális Szervezete

      UN: 193 countries adopt first-ever global agreement on the Ethics of Artificial Intelligence; Link: https://news.un.org/en/story/2021/11/1106612 

      OECD: Recommendation of the Council on Artificial Intelligence, Link: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 

      G20: G20 Ministerial Statement on Trade and Digital Economy, Link: https://www.mofa.go.jp/files/000486596.pdf 

      Joe McKendrick (2021): AI Adoption Skyrocketed Over the Last 18 Months, Harvard Business Review

      Appen: The 2021 State of AI and Machine Learning Report

      The AI Journal: AI in a post-COVID-19 world, Link: https://aijourn.com/report/ai-in-a-post-covid-19-world/ 

    Magyarország Mesterséges Intelligencia Stratégiája 2020-2030, Link: https://ai-hungary.com/api/v1/companies/15/files/137203/view 

    Link: https://eur-lex.europa.eu/legal-content/HU/TXT/HTML/?uri=CELEX:52021PC0206&from=EN 

    European Commission: Regulatory framework proposal on artificial intelligence, Link: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai 

     General Data Protection Regulation

    The Institute of Internal Auditors: GLOBAL PERSPECTIVES AND INSIGHTS: Artificial Intelligence – Considerations for the 

    Profession of Internal Auditing, Special Edition, Link: https://na.theiia.org/periodicals/Public%20Documents/GPI-Artificial-Intelligence.pdf 

Összefoglalás

Az AI etikai, kockázati és irányítási kérdéseiben még nincs teljes szakmai konszenzus, jól látható azonban, hogy olyan szabályozás alakul, ami jelentősen befolyásolhatja, hogyan és milyen feltételek mellett lehet majd sikeresen alkalmazni a technológiát. 

A cikkről

Szerző EY

Könyvvizsgálat. Adó. Stratégia és Tranzakció. Jog. Üzleti tanácsadás.

Kapcsolódó témák Forensics