Jakie szanse i ryzyka niesie stosowanie sztucznej inteligencji?

Jakie szanse i ryzyka niesie za sobą wdrożenie sztucznej inteligencji?


Jakie konsekwencje będzie miało niedostosowanie organizacji do wymogów AI Act? 

Ten artykuł wchodzi w skład 2/2022 wydania  Biuletynu Ryzyka

Algorytmy sztucznej inteligencji od wielu lat stanowią jeden z centralnych punktów dyskusji o kierunku w jakim powinna pójść legislacja europejska, w celu zagwarantowania z jednej strony, możliwości rozwoju biznesu i nowych technologii, a z drugiej bezpieczeństwa obrotu konsumenckiego.

Rozwiązania oparte na sztucznej inteligencji, niezależnie od poziomu organizacji na którym zostaną wykorzystane, pomogą stworzyć nowatorskie modele biznesowe. Głównym celem, jest tutaj  automatyzacja procesów wewnętrznych i zewnętrznych w taki sposób aby usprawnić działanie organizacji i przyśpieszyć często rozbudowane i powolne procedury. Sztuczna inteligencja znajdzie zatem zastosowanie wszędzie tam, gdzie problem wymaga błyskawicznej analizy danych w oparciu o złożone modele czy zastępowania ludzi w codziennych, powtarzalnych zadaniach. Co więcej, rozwiązania bazujące na sztucznej inteligencji można implementować w większości sektorów. W czasach Big Data, ogromnego przepływu informacji i nastawienia na szybkość i dokładność świadczonych usług, ciężko wyobrazić sobie sektor, w którym wykorzystanie AI nie mogłoby stanowić ogromnej szansy.

Automatyzacja wiążę się jednak z pewnymi zagrożeniami. Szczególnie istotne jest odpowiednie dostosowanie, zarówno organizacji i całego rynku (lub określonych sektorów) w celu utworzenia jednolitego standardu postępowania opartego na szczegółowej analizie ryzyka i compliance regulacyjnym. 

Omawiane zmiany, będą szczególnie istotne dla sektorów silnie regulowanych, takich jak sektor finansowy. Zarówno regulacja, stanowiąca obiekt zainteresowania tego artykułu, jak i pozostałe regulacje i projekty takie jak DORA, Komunikat Chmurowy czy niedawno opublikowany Cyber Resilience Act będą w dalszym ciągu rozbudowywały katalog obowiązków organizacyjnych. Podmioty te muszą zatem, możliwie jak najwcześniej, rozpocząć proces przygotowywania się do nadchodzących regulacji. O ile ciężko oczywiście wyobrazić sobie wdrażanie w całości ciągle debatowanych przepisów, to przygotowanie na poziomie koncepcyjnym i strategicznym jest już jak najbardziej konieczne, szczególnie w sektorach tak silnie i wielopoziomowo regulowanych jak sektor finansowy.


Szanse związane wdrożeniem rozwiązań bazujących na AI

Główne sfery, w jakich wykorzystanie sztucznej inteligencji może stanowić nową jakość to min. automatyzacja świadczonych usług i produktów, poprawa wydajności pracy, marketing i targetowanie oraz wykrywanie nieprawidłowości.

Wszystkie powyżej wymienione zakresy wykorzystania AI łączy kilka cech. Przede wszystkim sztuczna inteligencja pozwala na oddelegowanie wielu codziennych zadań organizacyjnych, które pracownicy muszą wykonywać obok zadań eksperckich i kreatywnych. Wykorzystanie AI daje również możliwość świadczenia usług znacznie szybciej niż dotychczas, przykładowo dzięki algorytmom generującym odpowiedzi na proste pytania, czy tworzącym podstawowe zestawienia informacji potrzebne w codziennej pracy. AI daje również szansę na osiągnięcie wyższego poziomu obsługi klienta poprzez zautomatyzowanie całego procesu. Dzięki rozwiązaniom bazującym na imitowaniu ludzkiego głosu i prowadzeniu konwersacji w czasie rzeczywistym, możliwe jest rozstrzygnięcie większości spraw bez konieczności angażowania pracowników.

Nie można również zapominać o rozwiązaniach stworzonych dla konkretnych sektorów. Dobrym przykładem są tutaj rozwiązania tworzone w sektorze finansowym, które pozwolą na błyskawiczną ocenę szkód pod kątem wysokości wypłacanego ubezpieczenia czy zdolności kredytowej zarówno dużych jak i mniejszych podmiotów rynkowych.

Wszyscy zdają się zauważać ogromne korzyści jakie czerpać można z wdrożenia rozwiązań bazujących na sztucznej inteligencji. Zauważył to również unijny prawodawca, czego efektem jest przygotowanie serii aktów prawnych, których celem jest uregulowanie kwestii rosnącego wykorzystania w obrocie algorytmów sztucznej inteligencji.

Ryzyka regulacyjne: AI Act

Projekt rozporządzenia w sprawie sztucznej inteligencji opublikowany w kwietniu 2021 roku, wywołał gorącą debatę, zarówno na poziomie unijnym jak i poszczególnych państw członkowskich. Celem projektu było ustanowienie jednolitych zasad klasyfikowania systemów sztucznej inteligencji według poziomu ryzyka jaki zgodnie z ustawą przypisywać będziemy danym systemom. Akt będzie prawdopodobnie podlegał pewnym modyfikacjom, szczególnie w zakresie treści niektórych definicji i zawartości kluczowych załączników o czym niżej.

Główne postulaty wskazane przez unijnego prawodawcę to przewodnia i nadzorcza rola człowieka, techniczna solidność i bezpieczeństwo, ochrona prywatności i zarządzanie danymi, przejrzystość, różnorodność, niedyskryminacja i sprawiedliwość, społeczny i środowiskowy dobrostan oraz odpowiedzialność. Wskazać można, również na pewną myśl przewodnią towarzyszącą tej regulacji jaką jest uzależnienie rygoryzmu przepisów, od ryzyka związanego z określonym systemem. Szczególnie istotne będą dla nas systemy, których wykorzystanie zostanie uznane za zakazane praktyki oraz systemy wysokiego ryzyka.

Za zakazane praktyki zostanie uznana:

  • Manipulacja powodująca lub mogąca powodować szkodę fizyczną lub psychiczną
  • Social scoring
  • Identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych do celów egzekwowania prawa – z wyjątkiem:

1. ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci

2. zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu;

3. wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy lub podejrzanego o popełnienie kwalifikowanych przestępstw objętych europejskim nakazem aresztowania (katalog: art. 2 ust. 2 Decyzji ramowej Rady 2002/584/WSiSW

Za system wysokiego ryzyka uznaje się system sztucznej inteligencji, który:

  • jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w Załączniku II do rozporządzenia lub sam jest takim produktem.
  • Musi to być również produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.

Za systemy wysokiego ryzyka uznaje się również te wymienione bezpośrednio w załączniku III:

  • Identyfikacja i kategoryzacja biometryczna osób fizycznych
  • Zarządzanie infrastrukturą krytyczną i jej eksploatacja
  • Kształcenie i szkolenie zawodowe
  • Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia
  • Dostęp do podstawowych usług prywatnych oraz usług i świadczeń publicznych, a także korzystanie z nich
  • Ściganie przestępstw
  • Zarządzanie migracją, azylem i kontrolą graniczną
  • Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne

Uznanie danego systemu za system wysokiego ryzyka będzie wiązać się z:

  • Koniecznością spełnienia szeregu wymogów w zakresie: wdrożenia systemów zarządzania, wprowadzenia kryteriów jakości danych, szczegółowej dokumentacji i analizy logów, przejrzystości i udostępniania informacji użytkownikom, nadzoru człowieka oraz dokładności, solidności i cyberbezpieczeństwa (wynikających z rozdziału 3 projektu rozporządzenia)
  • Naruszenie tych wymogów będzie wiązało się z nałożeniem kar:

1. do 30 milionów euro lub 6 % rocznego światowego obrotu: zakazane praktyki, niestosowanie się do zasad zarządzania danymi

2. do 20 milionów euro lub 4 % rocznego światowego obrotu: niestosowanie się do jakichkolwiek zasad lub obowiązków innych, niż dotyczące zakazanych praktyk oraz zasad zarządzania danymi

3. do 10 milionów euro lub 2 % rocznego światowego obrotu: Przekazywanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organ krajowym

 

Jak widać regulacja tworzy rozbudowany system klasyfikowania systemów AI. Nie uchroniło to jednak aktu przed daleko idącą krytyką. Spór ten toczy się w szczególności w zakresie: definicji sztucznej inteligencji, rozszerzenia katalogu zakazanych praktyk oraz w szczególności katalogu systemów wysokiego ryzyka zawartego w załączniku III.

Jednak krajobraz regulacyjny nie kończy się na AI Act. Wydaje się to rozsądne o tyle, że z wykorzystaniem sztucznej inteligencji wiąże się wiele szczegółowych kwestii, które wymagają uregulowanie w celu zapewnienia bezpieczeństwa, szczególnie w obrocie konsumenckim. Jednym z kroków jakie UE podjęła w celu zapewnienia tego bezpieczeństwa jest stworzenie projektu Cyber Resilience Act (CRA) opublikowanego 15 września, będzie on obok NIS 2 i DORA stanowił podstawy unijnego systemu cyberbezpieczeństwa. Zagadnienia odporności cyfrowej są więc obok AI Act, elementem który należy brać pod uwagę wprowadzając do organizacji rozwiązania bazujące na sztucznej inteligencji. Nie można również zapominać o regulacjach chmurowych. Cloud często wykorzystywany jest równolegle do rozwiązań bazujących na sztucznej inteligencji, wymienione regulacje będą zatem w pewnym zakresie nakładać się z zakresem aktów chmurowych takich jak polski Komunikat Chmurowy, opublikowany przez KNF.

Poniżej krótkie podsumowanie wspomnianych aktów prawnych:

  • Cyber Resilience Act
  1. CRA ma na celu wzmocnienie bezpieczeństwa PDE (products with digital elements „produkty z elementami cyfrowymi”)  i nakłada obowiązki, które obejmują: planowanie, projektowanie, rozwój, produkcję, dostawę i utrzymanie PDE
  2. zapobieganie podatności na zagrożenia cybernetyczne i postępowanie z nimi; oraz
  3. dostarczanie informacji dotyczących cyberbezpieczeństwa użytkownikom PDE
  4. CRA nakłada również obowiązki zgłaszania do ENISA każdej aktywnie wykorzystywanej podatności, jak również każdego incydentu, który wpływa na bezpieczeństwo PDE, w ciągu 24 godzin od powzięcia o nim wiadomości
  5. Obowiązki dotyczą przede wszystkim producentów PDE, do których zalicza się podmioty, które opracowują lub produkują PDE, jak również podmioty, które zlecają projektowanie, opracowywanie i produkcję stronie trzeciej. Importerzy i dystrybutorzy PDE muszą również zapewnić zgodność produktów z wymaganiami CRA
  6. Wymogi te obowiązują przez cały okres użytkowania produktu lub pięć lat od momentu wprowadzenia go na rynek, w zależności od tego, który okres jest krótszy.
  • Komunikat Chmurowy:

UKNF w zakresie wykorzystania chmury publicznej lub hybrydowej rekomenduje w Komunikacie Chmurowym UKNF m.in.:

  1. Zapewnienia odpowiednich kompetencji pracowników
  2. Spełnienia minimalnych wymagań w zakresie umowy z dostawcą rozwiązań chmurowych
  3. Posiadania planu przetwarzania informacji w chmurze obliczeniowej
  4. Zapewnienia spełnienia odpowiednich standardów technicznych np. norm ISO
  5. Stosowania metod kryptograficznych
  6. Monitorowania środowiska przetwarzania tajemnicy ubezpieczeniowej lub tajemnicy agencyjnej w usługach chmury obliczeniowej
  7. Dokumentowania wszelkich istotnych operacji związanych z korzystaniem z usługi chmurowej.
  • Digital Operational Resilience Act (DORA):
  1. Wzmocnienie odporności cyfrowej na zagrożenia wynikające z wykorzystywania nowoczesnej technologii i zapewnienia szybkiego powrotu do sprawności operacyjnej
  2. Wdrożenie polityki zarządzania ryzykiem związanym z ICT i ustalenie postępowania z incydentami z obszaru ICT
  3. Testowanie odporności na zagrożenia
  4. Zarządzanie ryzykiem ze strony dostawców zewnętrznych oraz wymianą informacji
  5. Zastosowanie w całym sektorze finansowym oraz w poszerzonym obszarze regulacyjnym "krytycznych dostawców usług zewnętrznych w zakresie technologii informacyjno-komunikacyjnych", co będzie obejmowało takie usługi jak chmura, analityka danych i audyt
  6. Bezpośrednią odpowiedzialności organu zarządzającego za zgodne z przepisami, w tym DORA, korzystanie z usług ICT (w tym AI).

Wnioski

Rozwiązania bazujące na sztucznej inteligencji mogą zrewolucjonizować nasze patrzenie na procesy zarówno wewnątrz jak i na zewnątrz organizacji. Jednak rosnąca liczba regulacji wymaga od biznesu podjęcia odpowiednich kroków, jeszcze zanim omówione regulacje wejdą w życie. Ilość regulacji wymaga zatem zarówno kompleksowego przygotowania technologicznego jak i zrozumienia nowych obowiązków stawianych przed biznesem.




Podsumowanie

Artykuł przedstawia obecny kształt, procedowanej przez organy UE regulacji dot. sztucznej inteligencji. Autorzy przedstawią kluczowe zagadnienia z perspektywy biznesu, celem artykułu jest zwrócenie uwagi na istotność omawianych zagadnień i konieczność rozpoczęcia przygotowań do wdrożenia nowych obowiązków możliwie jak najwcześniej. 


Kontakt
Chcesz dowiedziec sie wiecej? Skontaktuj sie z nami.

Informacje

Autorzy

Polecane artykuły

Do kogo należy „dzieło” stworzone przez sztuczną inteligencję?

Problem własności dzieł stworzonych przez sztuczną inteligencję (AI) jest kwestią, nad którą zastanawiają się niemal wszystkie kraje. W Polsce dzieło stworzone przez AI nie jest przedmiotem ochrony praw autorskich. Największe wątpliowści pojawiają się zwłaszcza, gdy wytwory sztucznej inteligencji wykorzystują w swych pracach cudze utwory.

Sztuczna inteligencja – zagrożenie czy zbawienie? Podsumowanie debaty oksfordzkiej

Jeszcze kilka lat temu sztuczna inteligencja wydawała się być częścią filmów science-fiction. Dzisiaj AI (a wraz z nią uczenie maszynowe) jest obecna prawie wszędzie. W 2018 roku tylko 30% przedsiębiorstw korzystało z AI w swoich działaniach marketingowych, w 2020 roku robiło to już 85%. Zadaliśmy sobie pytanie, czy to dobrze, czy źle, i zorganizowaliśmy debatę oksfordzką z udziałem naszych specjalistów. W niniejszym artykule przedstawiamy najważniejsze jej konkluzje.