Blahoslav Němeček

AI Act: Nová éra regulace umělé inteligence

Rozmach umělé inteligence (AI) v posledních letech s sebou přináší nejen ohromné příležitosti, ale i nová rizika. Od kybernetických útoků po etické otázky – AI se stává dvojí hranou meče. Naštěstí Evropská unie reaguje na tuto výzvu Aktem o umělé inteligenci (AI Act), který stanovuje jasná pravidla pro vývoj a používání AI systémů.

Umělá inteligence nás v současnosti doprovází prakticky na každém kroku. V silách AI je pomoci nám s řešením globálních problémů například v podobě chudoby, nemocí nebo klimatických změn. Zároveň ale otevírá dveře novým hrozbám. Kyberzločinci využívají AI k sofistikovaným útokům, které jsou stále obtížněji odhalitelné. Deepfakes, manipulace s informacemi a autonomní zbraně – to jsou jen některé znepokojivé příklady, jak se dá umělá inteligence zneužít.

Problémy přináší také etická otázka využití umělé inteligence. Algoritmy mohou diskriminovat, zasahovat do soukromí a omezovat svobodu. Systémy rozpoznávání obličejů, prediktivní policing a sociální scoring jsou jen některé z oblastí, kde se dostáváme na tenký led.

Právní rámec pro zodpovědný vývoj AI

Evropská unie se těmto rizikům postavila čelem Aktem o umělé inteligenci. Jde o vůbec první komplexní právní rámec upravující používání AI na světě. Cílem aktu o AI je zajistit, aby systémy AI byly v souladu s lidskými právy a hodnotami EU. Zároveň má podpořit inovace a konkurenceschopnost evropských společností. Toho se docílí zejména tím, že jako nařízení je přímo aplikovatelný ve všech členských státech Evropské unie.

AI Act zavádí klasifikaci systémů umělé inteligence podle míry rizika. Systémy s nepřijatelnou mírou rizika, jako jsou například nástroje pro sociální scoring či manipulativní reklamní systémy, budou zcela zakázány. Systémy s vysokým rizikem, příkladem může být využití AI ve zdravotnictví, justici či dopravě, budou podléhat přísným požadavkům na transparentnost, dohled a odpovědnost.

Na koho AI Act dopadá a jaké jsou sankce?

Nová pravidla dopadají nejen na subjekty usazené nebo se nacházející v Evropské unii, ale i na cizí, jejichž AI systém a jeho výstupy jsou používány v Evropské unii.

Povinnosti týkající se AI systémů s vysokým rizikem tak zasáhnou většinu článků dodavatelského řetězce. To znamená od osob uvádějících AI systémy na trh EU pod svým vlastním jménem či ochrannou známkou, přes výrobce produktů, dovozce, distributory až po subjekty, které AI systémy využívají – např. zaměstnavatelé.

Na dodržování AI Actu se bude dohlížet na národní i evropské úrovni. Za porušení zákazu pro AI systémy s nepřijatelným rizikem hrozí pokuta až 35 milionů eur, případně až ve výši sedm procent celkového celosvětového ročního obratu. Za porušení povinností týkajících se vysoce rizikových AI systémů a povinností v oblasti transparentnosti AI systémů hrozí pokuta až 15 milionů eur nebo tři procenta z celosvětového ročního obratu společnosti.

Generativní AI: Revoluce v digitálním světě a výzvy pro firmy

ChatGPT, Bard nebo Midjourney – nástroje vedoucí revoluci v digitálním světě. Během okamžiku generují texty, obrázky, hudbu a další obsah nebývalé kreativity a kvality. Společnosti je proto využívají k automatizaci procesů, zlepšení zákaznické zkušenosti a vývoji nových produktů.

A tento trend neustále zrychluje. Podle našeho průzkumu 77 % lídrů v evropských finančních službách očekává, že generativní AI výrazně ovlivní produktivitu práce. Zároveň 68 % z nich předpovídá, že v příštím roce bude nutné rekvalifikovat zaměstnance až ve čtvrtině všech rolí. To jasně ukazuje zásadní dopad má generativní AI na pracovní prostředí.

Lídři v evropských finančních službách a GenAI

lídrů očekává, že GenAI výrazně ovlivní produktivitu práce
lídrů předpovídá, že AI výrazně ovlivní absolventské pozice
lídrů uvádí, že nemají připravený akční plán
lídrů předpovídá, že v příštím roce bude nutné rekvalifikovat zaměstnance až ve čtvrtině všech rolí

S nástupem generativní AI však rostou i obavy o bezpečnost a ochranu dat a osobních údajů. V našem průzkumu mezi světovými CEOs z průkopnického světa telekomunikací a médií akcentovalo nutnost etického přístupu k umělé inteligenci 74 % oslovených. Téměř polovina (48 %) spotřebitelů má pak obavy z toho, jak algoritmy nakládají s jejich daty.

Společnosti musí zajistit, aby nedošlo ke zneužití nástrojů k úniku citlivých informací a manipulaci s nimi nebo k šíření dezinformací. Pokud navíc dojde k porušení ochrany osobních údajů v důsledku selhání AI systému, společnosti mohou nést odpovědnost nejen podle nařízení GDPR, ale také právě podle nových požadavků aktu o AI. 

Ještě jeden pohled za telekomunikačními společnostmi zároveň odhaluje, že 68 % z nich podle vlastních slov nedělá dost pro to, aby zamezily nežádoucím následkům využívání AI.

GenAI mění telekomunikace

respondentů se domnívá, že nedělají dost pro to, aby zamezili nežádoucím následkům využívání AI
respondentů uvádí, že musejí dělat více prot to, aby snížíli riziko využití AI k podpoře kyberútoků a dalších škodlivých akvitit

Zarážející také je, že i přes mezi byznysovými lídry všeobecně uznávaný potenciál generativní AI, mnoho firem stále není připraveno na její dopady. Náš průzkum odhalil, že 35 % společností nemá akční plán pro rekvalifikaci svých zaměstnanců. To může vést k problémům s implementací a využíváním generativní AI a k ohrožení jejich konkurenceschopnosti.

Vnitropodnikové nástroje jako bezpečná alternativa

Zmíněné hrozby spojené s generativní AI lze naštěstí minimalizovat. Vnitropodnikové chaty představují efektivní řešení, které firmám umožňuje mít plnou kontrolu nad přístupem k datům a jejich ochranou. Na rozdíl od veřejně dostupných nástrojů, jako je ChatGPT, vnitropodnikové chaty lze hloubkově integrovat s firemními systémy a databázemi. Díky tomu získávají přístup k relevantním a aktuálním informacím, což výrazně zvyšuje jejich efektivitu a přesnost.

Důležitou výhodou vnitropodnikových chatů je možnost granulárního nastavení autorizace, šifrování a monitorování komunikace. To umožňuje firmám definovat, kdo má přístup k jakým informacím a jak s nimi může nakládat. Správné nastavení je klíčové pro zamezení úniku citlivých dat.

Uveďme si příklad: Pokud by vnitropodnikový chat bez správného nastavení získal přístup k datům o mzdovém ohodnocení zaměstnanců, mohl by tyto informace na dotaz vyzradit. S pečlivou konfigurací přístupových práv a bezpečnostních protokolů však lze tomuto riziku úplně předejít.

Vnitropodnikové chaty tak firmám nejen pomáhají zvýšit produktivitu a efektivitu, ale zároveň jim poskytují nezbytnou kontrolu nad citlivými daty a minimalizují rizika spojená s jejich zneužitím.

AI Act a firmy: Adaptace na novou realitu

AI Act představuje pro firmy novou výzvu. Je nutné se s ním seznámit a implementovat nezbytná opatření k zajištění souladu s novými pravidly. To zahrnuje identifikaci a klasifikaci používaných AI systémů, zavedení procesů pro řízení rizik a zajištění transparentnosti a odpovědnosti. Na AI Act je ale nutné hledět nejen jako na seznam povinností. Je to příležitost k inovacím a budování důvěru. Etické a zodpovědné používání AI může posílit reputaci firmy a zvýšit její konkurenceschopnost.


Shrnutí

Rozmach umělé inteligence (AI) v posledních letech s sebou přináší nejen ohromné příležitosti, ale i nová rizika.

O tomto článku

Autoři

Kontaktujte nás
Máte zájem o více informací?