5 min. czytania 2 cze 2023
Korzyści i ryzyka związane z wprowadzeniem sztucznej inteligencji.

Korzyści i ryzyka związane z wprowadzeniem sztucznej inteligencji. Ryzyka rozwiązań opartych o AI

Autor Jakub Walarus

EY Polska, Consulting, Partner Cyber Security Compliance,

Doradca z poczuciem misji. W EY prawie od zawsze. Praktyk zarządzania ryzykiem nowych technologii oraz ochrony prywatności. Mąż, ojciec dwóch synów.

5 min. czytania 2 cze 2023

Upowszechnienie sztuczne inteligencji niesie ze sobą szereg ryzyk – od bezpieczeństwa danych poprzez możliwość wystąpienia nieoczekiwanych błędów po ryzyko utraty kontroli nad systemem. Aby zminimalizować istniejące i potencjalne ryzyka oraz zwiększyć korzyści związane z zastosowaniem sztucznej inteligencji warto powołać w firmie Radę ds. Etyki AI.

Popularność rozwiązań opartych na sztucznej inteligencji (AI, ang. Artificial Intelligence) zwiększa się błyskawicznie. W ciągu ostatnich trzech miesięcy wraz ze wzrostem popularności narzędzia ChatGPT od firmy OpenAI zauważalny jest wzrost zainteresowania tą technologią przez takie firmy jak Microsoft czy Google.

O korzyści i ryzyka związane z rozwojem AI zapytaliśmy sam ChatGPT (4,0):

Zapytanie:

Napisz artykuł na temat OpenAI. Niech artykuł obejmie potencjalne ryzyka, korzyści oraz opisz proszę jak powinno się kontrolować AI w dużych korporacjach.

Odpowiedź GPT-4,0:

OpenAI, wiodąca organizacja badawcza ds. sztucznej inteligencji, od lat przyciąga uwagę w branży technologicznej dzięki swoim rewolucyjnym osiągnięciom i ogromnemu potencjałowi. Założona w 2015 roku, OpenAI ma na celu rozwijanie bezpiecznych i korzystnych systemów sztucznej inteligencji, które mają służyć dobrobytowi ludzkości. Podczas gdy organizacja odniosła znaczące sukcesy, ważne jest uwzględnienie zarówno korzyści, jak i ryzyka związanego z tą potężną technologią. Ponadto, istotne jest wprowadzenie skutecznych środków kontroli mocy OpenAI w dużych organizacjach korporacyjnych.

Jedną z kluczowych korzyści związanych z OpenAI jest jego zdolność do rewolucjonizowania różnych sektorów. Dzięki swoim badaniom, OpenAI dokonało przełomów w dziedzinach takich jak przetwarzanie języka naturalnego, uczenie maszynowe i robotyka, umożliwiając postęp w dziedzinach takich jak opieka zdrowotna, edukacja, finanse i wiele innych. Systemy sztucznej inteligencji opracowane przez OpenAI mają potencjał do automatyzacji powtarzalnych zadań, wzmocnienia ludzkich zdolności oraz poprawy efektywności i precyzji w podejmowaniu decyzji.

Jednak z wprowadzeniem OpenAI wiążą się również pewne ryzyka, które należy brać pod uwagę. Jednym z głównych ryzyk jest bezpieczeństwo danych. Korzystanie z systemów sztucznej inteligencji wymaga udostępnienia dużej ilości danych, co może prowadzić do wycieku poufnych informacji lub nieuprawnionego dostępu. Istnieje także ryzyko błędów i nieprzewidywalności, gdy systemy AI generują nieoczekiwane wyniki, co szczególnie wrażliwe może być w sytuacjach krytycznych. Ponadto, istnieje ryzyko uprzedzeń i dyskryminacji, gdy dane treningowe zawierają istniejące uprzedzenia, które mogą wpływać na decyzje podejmowane przez systemy AI.

Aby skutecznie kontrolować moc OpenAI w dużych organizacjach korporacyjnych, istotne jest wprowadzenie odpowiednich środków. Przede wszystkim, organizacje powinny opracować jasne polityki i wytyczne dotyczące wykorzystania sztucznej inteligencji, w tym OpenAI. Te polityki powinny określać standardy etyczne, zasady ochrony prywatności i wymogi zgodności prawnej, które muszą być przestrzegane przez pracowników i interesariuszy.

Należy również opracować ramy etyczne specyficzne dla wykorzystania AI w organizacji. Te ramy powinny uwzględniać kwestie takie jak uczciwość, transparentność i odpowiedzialność w systemach AI. Należy również uwzględnić potencjalne uprzedzenia, niezamierzone konsekwencje i wpływ na społeczeństwo.

Odpowiednie zarządzanie danymi jest kluczowe dla kontrolowania mocy OpenAI. Dotyczy to odpowiedzialnego gromadzenia, przechowywania i wykorzystywania danych. Należy uzyskać odpowiednie zgody, anonimizować wrażliwe dane i zabezpieczyć je przed nieuprawnionym dostępem lub nadużyciem.

Regularne audyty i oceny są niezbędne, aby zidentyfikować wszelkie uprzedzenia, ryzyka lub potencjalne szkody związane z systemami AI. Może to obejmować ocenę działania i wpływu aplikacji AI, ocenę uczciwości algorytmów i monitorowanie zgodności z wytycznymi.

Konieczne jest utrzymanie nadzoru i kontroli ludzkiej nad systemami AI. Podczas gdy AI może automatyzować procesy, ludzka ocena i podejmowanie decyzji nadal są kluczowe. Ludzie powinni mieć możliwość interweniowania, korygowania błędów i unieważniania decyzji podejmowanych przez systemy AI, gdy jest to konieczne.

Rozwój AI a zgodność z Regulacjami:

Coraz więcej organizacji testuje implementację rozwiązań typu „Generative Artificial Intelligence” w swoich produktach. Z jednej strony technologia ta stwarza ogromne korzyści i możliwości, z drugiej – wiążą się z nią ryzyka, którym należy zapobiegać lub je ograniczać poprzez wdrożenie odpowiednich mechanizmów kontrolnych, aby rozwiązania oparte o sztuczną inteligencję były bezpieczne, etyczne oraz zgodne z prawem. W zakresie zgodności z prawem (compliance) należy mieć na uwadze podejście regulacyjne do AI, w szczególności przygotowywane obecnie przepisy w Unii Europejskiej.

W grudniu 2022 roku odbyła się już ósma debata w Radzie Unii Europejskiej nad projektem rozporządzenia unijnego (Akt o Sztucznej Inteligencji) opublikowanym w kwietniu 2021 roku. Celem rozporządzenia jest regulacja kwestii dotyczących systemów sztucznej inteligencji, które stwarzają wysokie ryzyko lub ryzyko które nie jest możliwe do zaakceptowania.
W projekcie pojawia się pierwsza prawna definicja sztucznej inteligencji, wyznaczająca ramy, do jakich systemów będą miały zastosowanie omawiane przepisy, przedstawiony jest także katalog zakazanych praktyk. Definicję i zakres stosowania będzie można dalej aktualizować
o nowe technologie i nowe praktyki w miarę ich rozwoju przez Komisję Europejską. Rozporządzenie to będzie pierwszym tego typu kompleksowym aktem prawnym regulującym zagadnienia związane ze sztuczną inteligencją, które będzie bezpośrednio stosowane we wszystkich państwach członkowskich UE.

Rozporządzenie wejdzie w życie 20 dni po jego publikacji, a zacznie być stosowane 24 miesiące od wejścia w życie, co pozwoli na dostosowanie się do opisanych w nim zasad. Zasadniczo będzie miało ono zastosowanie do nowych systemów, a do już istniejących tylko w przypadku, gdy ulegną one znaczącym zmianom.

„Generative artificial intelligence” (GenAI) jest aktualnie najpopularniejszym tematem
w mediach społecznościowych - jest to rodzaj systemu opartego na AI, który służy do generowania tekstu, zdjęć, kodu, muzyki lub innych mediów w oparciu o wprowadzone zapytanie. Do najbardziej zaawansowanych GenAI należą:

- Chat GPT-4 – „chatbot” oparty na multimodalnym modelu językowym (LLM ang. Large Language Model). Jest to już czwarta wersja narzędzia of firmy OpenAI. Za pomocą precyzyjnego zapytania jest w stanie wygenerować tekst lub kod. Rozwiązanie OpenAI różni się od swoich konkurentów tym, że jego „wiedza” oparta jest o dane zgromadzone w trakcie uczenia modelu (wrzesień 2021), co oznacza, że nie posiada dostępu do informacji które pojawiły się po tym okresie. Jako, że Microsoft jest głównym udziałowcem w OpenAI, rozwiązanie GenAI które zostało zaimplementowane do wyszukiwarki Bing, oparte jest na wyżej opisywanym Chat GPT-4.

- Google Bard – rozwiązanie od giganta z Mountain View, oparte na modelu językowym LaMDA (Language Model for Dialogue Applications). Podobnie jak ChatGPT jest rozwiązaniem typu „chatbot” potrafiącym odpowiadać na zapytania i generować odpowiedzi w formie tekstu lub kodu. Jednakże, elementem wyróżniającym Google Bard od Chat-GPT lub Bing Chatbot jest dostęp do aktualnych danych. Google Bard jest w stanie np. streścić nam przebieg wczorajszego meczu w lidze NBA.

Niestety, jak każda technologia, także sztuczna inteligencja niesie ze sobą swoisty zestawy ryzyk związanych z jej wykorzystaniem. Komisja Europejska wskazuje na pewne obszary ryzyka, które są typowe dla AI:

  • Efekt czarnej skrzynki – stworzenie systemu, którego działania lub dane wejściowe są niewidoczne dla obserwatora.
  • Złożoność – działanie systemu i zagrożenia z nim związane mogą być niezrozumiałe dla użytkownika.
  • Stronniczość (uprzedzenie) czyli podejmowanie przez algorytm tendencyjnych lub dyskryminacyjnych decyzji.
  • Nieprzewidywalność, czyli zachowanie którego nie sposób ocenić dopóki się nie uruchomi się mechanizmów decyzyjnych na próbce danych.
  • Autonomiczne zachowanie, które z jednej strony jest jedną z największych korzyści AI, a z drugiej może stwarzać ryzyko utraty kontroli nad systemem.

Oprócz wymienionych wyżej ryzyk można wskazać ryzyka technologiczne, regulacyjne, związane z przetwarzaniem danych, organizacyjne, finansowe i reputacyjne. Od strony technicznej najważniejsze będą: nadużycia cyberprzestępców, oraz długoterminowe błędy w procesach spowodowane niedopatrzeniami lub złą jakością danych. Pierwsze ryzyko jest związane wprost z zainteresowaniem ze strony cyberprzestępców, którzy będą wykorzystywać podatności tej technologii w niewłaściwym celu. Długoterminowe ryzyko technologiczne jest związane z samą naturą AI – jest to technologia, która powstała po to, by rozwiązywać złożone problemy, odpowiadać na złożone pytania i ewoluować w czasie. Potencjalne błędy i niedopatrzenia czy też zła jakość danych zastosowana podczas tworzenia AI z biegiem czasu może powodować ryzyka dla organizacji i skutkować poważnymi błędami w procesach. Oprócz ryzyk związanych z samą technologią trzeba wziąć pod uwagę, na ile pozwala ona osiągnąć cele biznesowe i na ile wykorzystanie jej jest zgodne z celami strategicznymi przedsiębiorstwa lub branży. Warto również przemyśleć, jak zminimalizować ryzyka i jednocześnie zwiększyć korzyści z jej wykorzystania. Środkami by zminimalizować ryzyka mogą być następujące działania:

  • Rada ds. Etyki AI – powołanie wielodyscyplinarnej rady doradczej, zapewniającej niezależne porady i wskazówki dotyczące kwestii etycznych związanych z rozwojem AI. Członkowie rady powinni wywodzić się z etyki, prawa, filozofii, technologii, prywatności oraz nauki. Rada powinna podlegać Zarządowi organizacji tak aby ujednolicić podejście.
  • Normy etyczne projektowania AI – utworzenie polityk, norm i standardów w zakresie etycznego projektowania oraz postępowania z narzędziami AI.
  • Wykaz i ocena skutków AI – utworzenie wykazu wszystkich algorytmów, w tym kluczowych szczegółów AI, który jest generowany przy użyciu narzędzi do odkrywania oprogramowania. Każde narzędzie oparte o AI powinno być również wpisane do rejestru ryzyk w organizacji oraz cyklicznie rozpatrywane w procesie zarządzania ryzykiem.
  • Narzędzia weryfikacji – zaprojektowanie i wdrożenie narzędzi i technik walidacji potwierdzających, że wprowadzone do organizacji algorytmy działają zgodnie
    z założeniami oraz zwracają dokładne jak również bezstronne wyniki.
  • Szkolenia uświadamiające – zaplanowanie i przeprowadzanie warsztatów dla pracowników, uświadamiających jakie potencjalne prawne i etyczne zagrożenia mogą wystąpić przy niewłaściwym użyciu narzędzi AI oraz jakie konsekwencje prawne będą mieć miejsce przy naruszeniu praw, wolności i interesów użytkowników.
  • Niezależne audyty – przeprowadzanie niezależnych audytów etycznych i projektowych AI przez stronę trzecią pod kątem przestrzegania polityk, norm i standardów przyjętych przez organizacje.

Podsumowanie

W czasach, gdy coraz więcej rozwiązań znajdujących zastosowanie niemal w każdej dziedzinie życia opartych jest na sztucznej inteligencji należy brać pod uwagę fakt, że ich wykorzystywanie niesie ze sobą spore ryzyko. Jednym z najważniejszych jest z całą pewnością bezpieczeństwo danych ponieważ posługiwanie się systemami sztucznej inteligencji związane jest bezpośrednio z udostępnieniem dużej ich ilości co może w efekcie prowadzić do wycieku poufnych informacji lub skutkować nieuprawnionym do nich dostępem. Trzeba również wspomnieć o ryzyku związanym z występowaniem nieoczekiwanych błędów, na przykład, gdy systemy AI dostarczają zaskakujące i nieoczekiwane rozwiązania lub gdy dane treningowe zawierają nieprawidłowe wytyczne, które mogą negatywnie wpływać na decyzje podejmowane przez systemy AI. Ryzyko związane z tego typu niepożądanymi sytuacjami od lat jest przedmiotem dyskusji prowadzonej na szczeblu Rady Unii Europejskiej w celu wypracowania efektywnych regulacji kwestii dotyczących użytkowania systemów sztucznej inteligencji. Ma to przybrać formę rozporządzenia unijnego (Akt o Sztucznej Inteligencji), które będzie pierwszym tego typu aktem prawnym kompleksowo regulującym zagadnienia związane ze sztuczną inteligencją, które będzie bezpośrednio stosowane we wszystkich państwach członkowskich UE. Co więcej, Komisja Europejska zdefiniowała kilka newralgicznych obszarów w tym zakresie takich jak: efekt czarnej skrzynki, złożoność, stronniczość, nieprzewidywalność oraz  autonomiczne zachowanie, które stwarza nawet ryzyko utraty kontroli nad systemem. Oprócz wymienionych powyżej ryzyk można wskazać również na te, które związane są z technologią, regulacjami, przetwarzaniem danych, a także kwestiami organizacyjnymi, finansowymi i reputacyjnymi narażając użytkowników na nadużycia ze strony cyberprzestępców oraz długoterminowe błędy w procesach spowodowane niedopatrzeniami lub złą jakością danych. Aby zminimalizować istniejące ryzyko związane z wykorzystywaniem systemów AI oraz zwiększyć korzyści z tym związane warto podjąć działania na rzecz powołania Rady ds. Etyki AI, w której skład weszłyby niekwestionowane autorytety z dziedziny: etyki, prawa, filozofii, technologii oraz nauki. Istotne byłoby również wypracowanie efektywnych narzędzi weryfikacji oraz stworzenie odpowiednich ram funkcjonowania w postaci obowiązujących powszechnie norm i standardów w zakresie etycznego projektowania oraz postępowania z narzędziami wykorzystującymi AI.

Zapisz się na newsletter „EY Technology”

Otrzymuj comiesięczny zestaw najciekawszych artykułów, raportów i analiz z zakresu technologii dla biznesu. 

Zapisz się

Kontakt

Informacje

Autor Jakub Walarus

EY Polska, Consulting, Partner Cyber Security Compliance,

Doradca z poczuciem misji. W EY prawie od zawsze. Praktyk zarządzania ryzykiem nowych technologii oraz ochrony prywatności. Mąż, ojciec dwóch synów.

  • Facebook
  • LinkedIn
  • X (formerly Twitter)