Czy sztuczna inteligencja może istnieć bez zaufania?

Autor Cathy Cobey

EY Global Trusted AI Advisory Leader

Thought leader in digital trust. Advocate of women in technology. Lover of good food. Film festival enthusiast. Avid learner. Parent.

Kontakt lokalny

EY Polska, Lider EY wavespace Warsaw, Partner

Stymulator zmian. Pasjonat oduczania się. Mąż i ojciec dwójki dzieci. Zapalony sportowiec. Całoroczny cyklista.

7 min. czytania 11 kwi 2019
Powiązane tematy Innowacje AI EY wavespace™

Pokaż załączniki

  • What is intelligence without trust (pdf)

    Pobierz 869 KB

5 obszarów, które pomagają liderom biznesu budować zaufanie, kiedy sztuczna inteligencja powoduje transformację biznesu.

Sztuczna inteligencja w końcu przekształci wiele przedsiębiorstw i branż. Jednak na jej tempo rozwoju wpływa brak zaufania. Obecnie, bez dojrzałej świadomości ryzyka oraz odpowiednich ram i kontroli, zastosowania sztucznej inteligencji nie rozwinęły się zbytnio poza dowody na istnienie koncepcji i pojedynczych rozwiązań.

Wiele firm wykorzystuje sztuczną inteligencję w obszarach niskiego ryzyka, często wyłącznie w celu uzyskania wniosków z analiz. Na razie, jeżeli technologia zastępuje podejmowanie decyzji przez człowieka, dzieje się to pod jego nadzorem. Autonomiczne podejmowanie decyzji przez AI wciąż jeszcze jest w powijakach, ale przypadki użycia AI rozwijają się w coraz szybszym tempie. Z czasem AI będzie odpowiedzialna za podejmowanie większej liczby decyzji, i będą to decyzje o większym znaczeniu. Przykładem są chociażby szeroko znane testy wykorzystywania sztucznej inteligencji w projektach autonomicznych samochodów.

Aby zrozumieć znaczenie zaufania w budowaniu udanych systemów AI, liderzy biznesu muszą rozpocząć od przyjrzenia się pięciu kluczowym zagadnieniom i odpowiedzieć na najważniejsze pytania.

Pytanie 1: Dlaczego sztuczna inteligencja różni się od innych technologii?

Sztuczna inteligencja ostatecznie doprowadzi do transformacji wielu przedsiębiorstw i branż. Na tempo jej rozwoju wpływa jednak brak zaufania. Obecnie bez świadomości ryzyka i odpowiednich ram oraz środków kontroli, zastosowania sztucznej inteligencji nie wykroczyły znacząco poza dowody słuszności koncepcji i odosobnione rozwiązania.

W przeciwieństwie do innych technologii AI sama adaptuje się do nowych warunków, ucząc się podczas jej stosowania. Decyzje, jakie AI podejmuje dzisiaj mogą się różnić od tych podejmowanych jutro. Ważne jest, aby zmiany te były stale monitorowane, tak aby weryfikować, że podejmowane decyzje pozostają właściwe i wysokiej jakości. Sztuczna inteligencja używa do uczenia danych historycznych. Jakie niesie to ryzyko? Zastanówmy się, jaki ma to wpływ na decyzje dotyczące zatrudnienia. Czy dane historyczne uwzględniają uprzedzenia, z jakimi mierzyły się kobiety i przedstawiciele mniejszości? Czy algorytmy powtarzają błędy przeszłości pomimo wdrożenia procesów zarządczych, które mają im zapobiegać? Czy system zapobiega niesprawiedliwości i przestrzega prawa?

"Sztuczna inteligencja może być świetnym narzędziem wspierającym człowieka, ale musimy zdawać sobie sprawę z ograniczeń tej technologii" – mówi Nigel Duffy, Globalny lider ds. AI w EY. "Najlepsza reakcja ze strony AI może i tak nie być właściwa ze względu na wartości kulturowe i wartości firmy".

Decyzje podejmowane przez AI powinny być zgodne z wartościami wyznawanymi przez firmę, jak również szerszymi normami etycznymi i społecznymi, a standardy etyczne człowieka opierają się na wielu elementach: rodzinie, kulturze, religii i społeczności. Zespoły zajmujące się rozwojem AI często składają się głównie z mężczyzn rasy białej lub pochodzenia azjatyckiego i nie odzwierciedlają różnorodności występującej na świecie. Czy osobiste wartości tych osób wpływają na konkretne wartości firmy, które chcemy zastosować w tych sytuacjach?

Musimy także zadać sobie pytanie, czy systemy AI robią to, czego od nich oczekujemy. Wykorzystanie sztucznej inteligencji jest coraz powszechniejsze, ale i tak niewiele organizacji ma wystarczająco dojrzałe zasoby, aby monitorować jej funkcjonowanie. Istnieje wiele przykładów firm, które zbankrutowały z powodu słabo zarządzanego zautomatyzowanego systemu zarządzania decyzjami; spółka może sama się zniszczyć w ciągu jednego dnia przez automatyczny system, który wymknie się spod kontroli.

AI może być świetnym narzędziem wspierającym człowieka, ale musimy zdawać sobie sprawę z ograniczeń tej technologii. Najlepsza reakcja ze strony AI może i tak nie być właściwa ze względu na wartości kulturowe i wartości firmy.
Nigel Duffy

Pytanie 2: Jakie ryzyko wiąże się z nieudanym systemem AI?

Ryzyko występuje zarówno w obszarze prawnym, finansowym jak i reputacji. Błędy systemów AI mogą wiązać się z brakiem zgodności z przepisami dotyczącymi zatrudnienia lub innymi regulacjami. W jednym przypadku pewna firma handlowa straciła 440 mln USD ze względu na błąd oprogramowania – i to w zaledwie 45 minut.

Algorytmy są omylne i łatwo można je naruszyć. Badając algorytmy wskazujące treść obrazów, zespół badaczy odkrył, że zmieniając w zdjęciu jedynie kilka pikseli można sprawić, że system pomyśli, że zabawkowy żółw jest pistoletem.

Nie są to argumenty przeciwko stosowaniu AI. Są to jednak ostrzeżenia wskazujące, jak ważne jest upewnienie się, że AI rzeczywiście wykonuje pierwotnie zamierzone zadania, przy istnieniu rygorystycznych procesów i środków kontroli.

children building model house

Pytanie 3: W jaki sposób liderzy biznesowi mogą ograniczyć ryzyko?

Tak jak w przypadku każdej nowej technologii, należy określić sposób zarządzania AI, korzystając z istniejących praktyk zarządzania przedsiębiorstwem i technologią, a następnie rozważyć, co można uzupełnić, zmodyfikować lub wzbogacić. Na przykład, konieczne może być wzmocnienie monitoringu w czasie rzeczywistym, aby zbadać, w jaki sposób AI ewoluuje i czy nadal działa w ramach wyznaczonych jej granic.

Istotne jest także myślenie o AI z perspektywy całego systemu zamiast koncentrowania się na jej poszczególnych częściach składowych. Należy pamiętać, że pojedynczy algorytm AI nie funkcjonuje zwykle samodzielnie, ale prawdopodobnie współpracuje z zasobami robotycznymi, czujnikami opartymi na Internecie rzeczy i innymi algorytmami. Dodatkowe ryzyko może wynikać z wzajemnych zależności tych wielu systemów.

Podobnie przedsiębiorstwa nie powinny wdrażać zewnętrznych zastosowań AI bez pełnego zrozumienia profilu ryzyka i ograniczeń tych zastosowań.

"Przedsiębiorstwa muszą uczynić pierwszy krok w kierunku zarządzania ryzykiem, zadając krytyczne pytania takie jak: „Gdzie w moim przedsiębiorstwie wdrażana jest AI i jakie środki kontroli dziś istnieją?” - stwierdza Cathy Cobey, Globalny Lider Doradztwa ds. zaufanej AI.

"Przedsiębiorstwa muszą uczynić pierwszy krok w kierunku zarządzania ryzykiem, zadając krytyczne pytania takie jak: „Gdzie w moim przedsiębiorstwie wdrażana jest AI i jakie środki kontroli dziś istnieją?”
Cathy Cobey
EY Global Trusted AI Advisory Leader

Pytanie 4: Dlaczego zaufanie do AI jest takie ważne?

Jeżeli mamy polegać na AI podejmującej decyzje i prowadzącej nasze samochody, wymaga to zaufania. Bez niego technologia się nie przyjmie lub będzie wymagała takiego nadzoru ze strony człowieka, że zaprzeczy to wydajności i innym korzyściom.

Stworzenie ram do korzystania z AI i zarządzania ryzykiem może wydawać się skomplikowane, ale proces ten jest podobny do tworzenia środków kontroli, polityki i procesów już stosowanych w odniesieniu do ludzi. Już teraz oceniamy ludzkie zachowania w odniesieniu do zbioru norm i gdy tylko ludzie zaczynają poza te normy wykraczać – jak w sytuacji, gdy uprzedzenia wpływają na ich ocenę – reagujemy.

Firmy powinny także rozumieć spektrum ryzyka i dopasować środki kontroli i procedury zarządcze do danego ryzyka. Ryzyko związane z technologią AI zależy od sposobu jej wykorzystania. Na przykład, oprogramowanie do obrazowania oznaczające prywatne zdjęcia ludzi wiąże się ze znacznie niższym profilem ryzyka niż oprogramowanie stosowane do wykrywania pieszych przechodzących przez drogę.

Zrozumienie profilu ryzyka technologii AI i przypadków jej użycia pomaga w określeniu odpowiednich ram zarządzania i środków kontroli, które należy na tę technologię nałożyć.

"Tak jak każda technologia, która zmienia świat, AI wiąże się z ryzykiem" – mówi Nigel. "Istnieją jednak dobrze określone sposoby na zarządzanie potencjalnymi minusami przy jednoczesnej kapitalizacji ogromnych plusów"

Pytanie 5: Jak firmy mogą utrzymać zaufanie do sztucznej inteligencji podczas wdrożenia systemów?

Spółki muszą uwzględniać zaufanie od samego początku, czyniąc je centralnym punktem wymagań, a nie jedynie późniejszą refleksją lub obawą, która pojawi się na etapie realizacji. Funkcje ryzyka, zgodności z przepisami i zarządzania, zapewniające rzeczywistą i skuteczną weryfikację i kontrolę nad działaniem AI, stworzą fundamenty pod zastosowania przynoszące prawdziwe transformacje, które firmy będą mogły wykorzystać.

Kluczowe działania obejmują:

  1. Określenie, w jaki sposób można podejmować decyzje o zastosowaniach odpowiednich lub nieodpowiednich dla AI, w tym wykorzystanie „rady etyki” składającej się ze specjalistów z różnorodnych dziedzin
  2. Sprawdzenie obszarów, w których przedsiębiorstwo korzysta z AI oraz wykonanie profilu ryzyka do celów prawidłowego zarządzania
  3. Uwzględnienie zaufania w projekcie od samego początku w ramach wymagań systemu AI
  4. Korzystanie z narzędzi i metod niezbędnych do stałego monitoringu
  5. Zaangażowanie specjalistów merytorycznych w świadczenie usług takich jak niezależne testowanie i weryfikacja algorytmów AI

"Nie można przeoczyć potencjału AI także jako narzędzia do zarządzania ryzykiem" – mówi Cathy. "AI można wykorzystywać na przykład do ograniczania ryzyka związanego z cyberbezpieczeństwem i prywatnością, jak również ludzkich błędów."

Firmy gotowe do opracowania lub udoskonalenia strategii w zakresie AI powinny pamiętać o następujących kwestiach:

  • Jak dobrze AI funkcjonuje i spełnia oczekiwania?
  • W jaki sposób identyfikowane i naprawiane są błędy?
  • W jakim stopniu istnieje przejrzystość dla użytkowników końcowych?
  • Jak odporna jest stosowana strategia AI pod względem naruszeń i bezpieczeństwa?
  • Jak łatwo można zrozumieć, udokumentować i zweryfikować metody i decyzje podejmowane przez system AI?

"Sztuczna Inteligencja może być świetnym narzędziem wspierającym człowieka, ale musimy zdawać sobie sprawę z ograniczeń tej technologii" – mówi Nigel Duffy, Globalny lider ds. AI w EY. "Najlepsza reakcja ze strony AI może i tak nie być właściwa ze względu na wartości kulturowe i wartości firmy"

Bezpośrednio na maila

Bądź na bieżąco i subskrybuj newsletter EY. 

Subskrybuj

Podsumowanie

Chociaż prawidłowe wdrożenie AI do modeli biznesowych nadal wiąże się z wieloma pytaniami dotyczącymi zaufania, zrozumienie i zdanie sobie sprawy z ryzyka ostatecznie umożliwi spółkom podjęcie działań, dzięki którym zbiją na niej największy kapitał.

Informacje

Autor Cathy Cobey

EY Global Trusted AI Advisory Leader

Thought leader in digital trust. Advocate of women in technology. Lover of good food. Film festival enthusiast. Avid learner. Parent.

Kontakt lokalny

EY Polska, Lider EY wavespace Warsaw, Partner

Stymulator zmian. Pasjonat oduczania się. Mąż i ojciec dwójki dzieci. Zapalony sportowiec. Całoroczny cyklista.

Powiązane tematy Innowacje AI EY wavespace™
  • Facebook
  • LinkedIn
  • X (formerly Twitter)