Rozwój AI a zgodność z Regulacjami:
Coraz więcej organizacji testuje implementację rozwiązań typu „Generative Artificial Intelligence” w swoich produktach. Z jednej strony technologia ta stwarza ogromne korzyści i możliwości, z drugiej – wiążą się z nią ryzyka, którym należy zapobiegać lub je ograniczać poprzez wdrożenie odpowiednich mechanizmów kontrolnych, aby rozwiązania oparte o sztuczną inteligencję były bezpieczne, etyczne oraz zgodne z prawem. W zakresie zgodności z prawem (compliance) należy mieć na uwadze podejście regulacyjne do AI, w szczególności przygotowywane obecnie przepisy w Unii Europejskiej.
W grudniu 2022 roku odbyła się już ósma debata w Radzie Unii Europejskiej nad projektem rozporządzenia unijnego (Akt o Sztucznej Inteligencji) opublikowanym w kwietniu 2021 roku. Celem rozporządzenia jest regulacja kwestii dotyczących systemów sztucznej inteligencji, które stwarzają wysokie ryzyko lub ryzyko które nie jest możliwe do zaakceptowania.
W projekcie pojawia się pierwsza prawna definicja sztucznej inteligencji, wyznaczająca ramy, do jakich systemów będą miały zastosowanie omawiane przepisy, przedstawiony jest także katalog zakazanych praktyk. Definicję i zakres stosowania będzie można dalej aktualizować
o nowe technologie i nowe praktyki w miarę ich rozwoju przez Komisję Europejską. Rozporządzenie to będzie pierwszym tego typu kompleksowym aktem prawnym regulującym zagadnienia związane ze sztuczną inteligencją, które będzie bezpośrednio stosowane we wszystkich państwach członkowskich UE.
Rozporządzenie wejdzie w życie 20 dni po jego publikacji, a zacznie być stosowane 24 miesiące od wejścia w życie, co pozwoli na dostosowanie się do opisanych w nim zasad. Zasadniczo będzie miało ono zastosowanie do nowych systemów, a do już istniejących tylko w przypadku, gdy ulegną one znaczącym zmianom.
„Generative artificial intelligence” (GenAI) jest aktualnie najpopularniejszym tematem
w mediach społecznościowych - jest to rodzaj systemu opartego na AI, który służy do generowania tekstu, zdjęć, kodu, muzyki lub innych mediów w oparciu o wprowadzone zapytanie. Do najbardziej zaawansowanych GenAI należą:
- Chat GPT-4 – „chatbot” oparty na multimodalnym modelu językowym (LLM ang. Large Language Model). Jest to już czwarta wersja narzędzia of firmy OpenAI. Za pomocą precyzyjnego zapytania jest w stanie wygenerować tekst lub kod. Rozwiązanie OpenAI różni się od swoich konkurentów tym, że jego „wiedza” oparta jest o dane zgromadzone w trakcie uczenia modelu (wrzesień 2021), co oznacza, że nie posiada dostępu do informacji które pojawiły się po tym okresie. Jako, że Microsoft jest głównym udziałowcem w OpenAI, rozwiązanie GenAI które zostało zaimplementowane do wyszukiwarki Bing, oparte jest na wyżej opisywanym Chat GPT-4.
- Google Bard – rozwiązanie od giganta z Mountain View, oparte na modelu językowym LaMDA (Language Model for Dialogue Applications). Podobnie jak ChatGPT jest rozwiązaniem typu „chatbot” potrafiącym odpowiadać na zapytania i generować odpowiedzi w formie tekstu lub kodu. Jednakże, elementem wyróżniającym Google Bard od Chat-GPT lub Bing Chatbot jest dostęp do aktualnych danych. Google Bard jest w stanie np. streścić nam przebieg wczorajszego meczu w lidze NBA.
Niestety, jak każda technologia, także sztuczna inteligencja niesie ze sobą swoisty zestawy ryzyk związanych z jej wykorzystaniem. Komisja Europejska wskazuje na pewne obszary ryzyka, które są typowe dla AI:
- Efekt czarnej skrzynki – stworzenie systemu, którego działania lub dane wejściowe są niewidoczne dla obserwatora.
- Złożoność – działanie systemu i zagrożenia z nim związane mogą być niezrozumiałe dla użytkownika.
- Stronniczość (uprzedzenie) czyli podejmowanie przez algorytm tendencyjnych lub dyskryminacyjnych decyzji.
- Nieprzewidywalność, czyli zachowanie którego nie sposób ocenić dopóki się nie uruchomi się mechanizmów decyzyjnych na próbce danych.
- Autonomiczne zachowanie, które z jednej strony jest jedną z największych korzyści AI, a z drugiej może stwarzać ryzyko utraty kontroli nad systemem.
Oprócz wymienionych wyżej ryzyk można wskazać ryzyka technologiczne, regulacyjne, związane z przetwarzaniem danych, organizacyjne, finansowe i reputacyjne. Od strony technicznej najważniejsze będą: nadużycia cyberprzestępców, oraz długoterminowe błędy w procesach spowodowane niedopatrzeniami lub złą jakością danych. Pierwsze ryzyko jest związane wprost z zainteresowaniem ze strony cyberprzestępców, którzy będą wykorzystywać podatności tej technologii w niewłaściwym celu. Długoterminowe ryzyko technologiczne jest związane z samą naturą AI – jest to technologia, która powstała po to, by rozwiązywać złożone problemy, odpowiadać na złożone pytania i ewoluować w czasie. Potencjalne błędy i niedopatrzenia czy też zła jakość danych zastosowana podczas tworzenia AI z biegiem czasu może powodować ryzyka dla organizacji i skutkować poważnymi błędami w procesach. Oprócz ryzyk związanych z samą technologią trzeba wziąć pod uwagę, na ile pozwala ona osiągnąć cele biznesowe i na ile wykorzystanie jej jest zgodne z celami strategicznymi przedsiębiorstwa lub branży. Warto również przemyśleć, jak zminimalizować ryzyka i jednocześnie zwiększyć korzyści z jej wykorzystania. Środkami by zminimalizować ryzyka mogą być następujące działania:
- Rada ds. Etyki AI – powołanie wielodyscyplinarnej rady doradczej, zapewniającej niezależne porady i wskazówki dotyczące kwestii etycznych związanych z rozwojem AI. Członkowie rady powinni wywodzić się z etyki, prawa, filozofii, technologii, prywatności oraz nauki. Rada powinna podlegać Zarządowi organizacji tak aby ujednolicić podejście.
- Normy etyczne projektowania AI – utworzenie polityk, norm i standardów w zakresie etycznego projektowania oraz postępowania z narzędziami AI.
- Wykaz i ocena skutków AI – utworzenie wykazu wszystkich algorytmów, w tym kluczowych szczegółów AI, który jest generowany przy użyciu narzędzi do odkrywania oprogramowania. Każde narzędzie oparte o AI powinno być również wpisane do rejestru ryzyk w organizacji oraz cyklicznie rozpatrywane w procesie zarządzania ryzykiem.
- Narzędzia weryfikacji – zaprojektowanie i wdrożenie narzędzi i technik walidacji potwierdzających, że wprowadzone do organizacji algorytmy działają zgodnie
z założeniami oraz zwracają dokładne jak również bezstronne wyniki. - Szkolenia uświadamiające – zaplanowanie i przeprowadzanie warsztatów dla pracowników, uświadamiających jakie potencjalne prawne i etyczne zagrożenia mogą wystąpić przy niewłaściwym użyciu narzędzi AI oraz jakie konsekwencje prawne będą mieć miejsce przy naruszeniu praw, wolności i interesów użytkowników.
- Niezależne audyty – przeprowadzanie niezależnych audytów etycznych i projektowych AI przez stronę trzecią pod kątem przestrzegania polityk, norm i standardów przyjętych przez organizacje.
Podsumowanie
W czasach, gdy coraz więcej rozwiązań znajdujących zastosowanie niemal w każdej dziedzinie życia opartych jest na sztucznej inteligencji należy brać pod uwagę fakt, że ich wykorzystywanie niesie ze sobą spore ryzyko. Jednym z najważniejszych jest z całą pewnością bezpieczeństwo danych ponieważ posługiwanie się systemami sztucznej inteligencji związane jest bezpośrednio z udostępnieniem dużej ich ilości co może w efekcie prowadzić do wycieku poufnych informacji lub skutkować nieuprawnionym do nich dostępem. Trzeba również wspomnieć o ryzyku związanym z występowaniem nieoczekiwanych błędów, na przykład, gdy systemy AI dostarczają zaskakujące i nieoczekiwane rozwiązania lub gdy dane treningowe zawierają nieprawidłowe wytyczne, które mogą negatywnie wpływać na decyzje podejmowane przez systemy AI. Ryzyko związane z tego typu niepożądanymi sytuacjami od lat jest przedmiotem dyskusji prowadzonej na szczeblu Rady Unii Europejskiej w celu wypracowania efektywnych regulacji kwestii dotyczących użytkowania systemów sztucznej inteligencji. Ma to przybrać formę rozporządzenia unijnego (Akt o Sztucznej Inteligencji), które będzie pierwszym tego typu aktem prawnym kompleksowo regulującym zagadnienia związane ze sztuczną inteligencją, które będzie bezpośrednio stosowane we wszystkich państwach członkowskich UE. Co więcej, Komisja Europejska zdefiniowała kilka newralgicznych obszarów w tym zakresie takich jak: efekt czarnej skrzynki, złożoność, stronniczość, nieprzewidywalność oraz autonomiczne zachowanie, które stwarza nawet ryzyko utraty kontroli nad systemem. Oprócz wymienionych powyżej ryzyk można wskazać również na te, które związane są z technologią, regulacjami, przetwarzaniem danych, a także kwestiami organizacyjnymi, finansowymi i reputacyjnymi narażając użytkowników na nadużycia ze strony cyberprzestępców oraz długoterminowe błędy w procesach spowodowane niedopatrzeniami lub złą jakością danych. Aby zminimalizować istniejące ryzyko związane z wykorzystywaniem systemów AI oraz zwiększyć korzyści z tym związane warto podjąć działania na rzecz powołania Rady ds. Etyki AI, w której skład weszłyby niekwestionowane autorytety z dziedziny: etyki, prawa, filozofii, technologii oraz nauki. Istotne byłoby również wypracowanie efektywnych narzędzi weryfikacji oraz stworzenie odpowiednich ram funkcjonowania w postaci obowiązujących powszechnie norm i standardów w zakresie etycznego projektowania oraz postępowania z narzędziami wykorzystującymi AI.
Zapisz się na newsletter EY Technology
Otrzymuj comiesięczny zestaw najciekawszych artykułów, raportów i analiz z zakresu technologii dla biznesu.