6 min. czytania 13 gru 2022

Sektor ubezpieczeniowy i ryzyka związane z wdrożeniem rozwiązań bazujących na AI - część 1

Autor Justyna Wilczyńska-Baraniak

EY Polska, Kancelaria EY Law, Własność Intelektualna, Technologie i Dane Osobowe, Partner, Adwokat

Lider Zespołu Prawa Własności Intelektualnej, Technologii, Danych Osobowych w Kancelarii EY Law. Doradza na rzecz korporacji w zakresie ochrony własności intelektualnej i wdrażania nowych technologii.

6 min. czytania 13 gru 2022

Wykorzystanie AI w działalności ubezpieczycieli stanowi zarówno ogromną szansę, jak i poważne ryzyko dla organizacji.

Systemy bazujące na maszynowym uczeniu lub szerzej sztucznej inteligencji otwierają drogę do rozwiązania jednego z największych problemów stojących przed sektorem ubezpieczeniowym, jakim jest terminowość procesowania roszczeń lub czynności aktuarialnych.

Sztuczna inteligencja pozwoli na zapewnienie bardziej efektywnej obsługi klienta, usprawni system wykrywania oszustw, wyceny ubezpieczenia i oceny ryzyka oraz co bardzo ważne, umożliwi optymalizację całego procesu rozpatrywania roszczenia. Jeśli jednak weźmiemy pod uwagę podejście oparte na ryzyku, konieczne będzie wskazanie również potencjalnych utrudnień w automatyzacji procesów za pomocą sztucznej inteligencji.

W tym tekście wskazane zostaną zagadnienia powiązane z planowanymi regulacjami, które są obecnie procedowane przez ustawodawcę unijnego, oraz tymi, które już obowiązują w państwach członkowskich. W celu zgodnego z prawem i efektywnego pod względem biznesowym wdrożenia AI w sektorze ubezpieczeniowym zakłady ubezpieczeniowe powinny już w fazie projektowania rozwiązania wziąć pod uwagę wymagania prawne i oczekiwania potencjalnych klientów.

AI a cyberzagrożenia

W procesie wdrażania rozwiązań bazujących na szeroko rozumianych nowych technologiach w organizacji nie można zapominać o cyberbezpieczeństwie, którego istotność wzrasta wraz z poziomem wdrożenia rozwiązań z zakresu nowych technologii.

Unijny ustawodawca w coraz szerszym zakresie reguluje obowiązki zapewnienia odporności cyfrowej, tym samym nie wolno pomijać problematyki wdrożenia takich aktów, jak NIS 2, DORA czy CRA. Omówione zostanie również szczegółowo niedawne stanowisko KNF w tym zakresie.

Stan branży ubezpieczeniowej

Sektor ubezpieczeniowy należy do jednych z najbardziej uregulowanych i konkurencyjnych sektorów gospodarki. Zakłady ubezpieczeń oraz podmioty z nimi współpracujące, jak agenci ubezpieczeniowi czy likwidatorzy szkód, działają w środowisku wymagającym świadczenia usług bezpiecznych, atrakcyjnych cenowo przy jednoczesnym spełnieniu bardzo restrykcyjnych wymogów regulacyjnych.

Rozwiązania bazujące na AI są już szeroko stosowane w działalności ubezpieczeniowej, również na polskim rynku. Jako pionierskie wskazać tu można szkody komunikacyjne i sektor zdrowia. AI w tych sektorach, według największych polskich ubezpieczycieli, pomaga w procesie likwidacji szkody oraz usprawnienia kontaktu z klientami.

Sektor ubezpieczeniowy, dążąc do usprawnienia działalności biznesowej poprzez wykorzystanie sztucznej inteligencji, musi brać pod uwagę wymogi regulacyjne już na etapie wdrażania rozwiązań AI. Modyfikacja funkcjonujących systemów pod kątem zgodności z prawem może przekroczyć koszt wdrożenia samego systemu.

Aby uniknąć takich sytuacji, należy zapoznać się zarówno z projektowanym AI Act, ale również z innymi regulacjami technologicznymi, jak np. projekt DORA, Komunikatem Chmurowym UKNF z 23 stycznia 2020 r. lub Wytycznymi KNF dotyczącymi likwidacji szkód z ubezpieczeń komunikacyjnych opublikowanymi w lipcu 2022 r. (Wytyczne KNF).

Jak widać, wymogi regulacyjne to zarówno przepisy powszechnie obowiązujące, jak i wytyczne organów nadzorczych, które w zamyśle mają rozjaśniać wątpliwości interpretacyjne związane z przepisami prawa, jednak często prowadzą do nakładania nowych obowiązków na podmioty nadzorowane, w tym zakłady ubezpieczeń i agentów.

Biorąc pod uwagę jakość, jaką AI wnosi do branży ubezpieczeniowej, można spodziewać się jedynie wzrostu wykorzystania tego typu technologii w sektorze ubezpieczeniowym.

Wykorzystanie AI w sektorze ubezpieczeniowym

Najbardziej interesujące możliwości wykorzystania sztucznej inteligencji w sektorze ubezpieczeniowym można podzielić na kilka kategorii:

  • Ulepszona analiza roszczenia – obejmuje m.in. scoring, wykrywanie anomalii i nieprawidłowości, behawioralne modelowanie zachowań, klasyfikację roszczeń według rodzaju i złożoności, a także zautomatyzowanie procesu płatności.
  • Image recognition – rozpoznawanie obrazów przez AI w celu oszacowania kosztów naprawy, szczególnie w ubezpieczeniach majątkowych gospodarstw domowych i motoryzacyjnych.
  • Ograniczanie strat – wykorzystanie AI do szacowania wartości strat, w szczególności w przypadku roszczeń o dużej częstotliwości.
  • Digitalizacja dokumentów – szczególną uwagę zwrócić należy tutaj na tzw. systemy OCR, których główną funkcją jest rozpoznawanie ręcznie pisanych treści i przetwarzanie ich w sposób pozwalający na włączenie w zdigitalizowaną strukturę zakładu ubezpieczeniowego również osób nie korzystających z komputerów.

Powyższe kategorie należy rozpatrzyć w szczególności pod kątem legalności i zgodności z nadchodzącymi zmianami w prawie unijnym.

AI Act

Projekt rozporządzenia w sprawie sztucznej inteligencji opublikowany w kwietniu 2021 r. wywołał gorącą debatę, zarówno na poziomie unijnym, jak i poszczególnych państw członkowskich. Celem projektu było ustanowienie jednolitych zasad klasyfikowania systemów sztucznej inteligencji według poziomu ryzyka, jaki zgodnie z ustawą przypisywać będziemy danym systemom. Akt będzie prawdopodobnie podlegał pewnym modyfikacjom, szczególnie w zakresie treści niektórych definicji i zawartości kluczowych załączników, o czym niżej.

Główne postulaty wskazane przez unijnego ustawodawcę to przewodnia i nadzorcza rola człowieka, techniczna solidność i bezpieczeństwo, ochrona prywatności i zarządzanie danymi, przejrzystość, różnorodność, niedyskryminacja i sprawiedliwość, społeczny i środowiskowy dobrostan oraz odpowiedzialność. Wskazać można również na pewną myśl przewodnią towarzyszącą tej regulacji, jaką jest uzależnienie rygoryzmu przepisów od ryzyka związanego z określonym systemem. Szczególnie istotne będą systemy, których wykorzystanie zostanie uznane za zakazane praktyki, oraz systemy wysokiego ryzyka.

Za zakazane praktyki zostaną uznane:

  • Manipulacja powodująca lub mogąca powodować szkodę fizyczną lub psychiczną
  • Social scoring
  • Identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych do celów egzekwowania prawa – z wyjątkiem:
    • ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci;
    • zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu;
    • wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy lub podejrzanego o popełnienie kwalifikowanych przestępstw objętych europejskim nakazem aresztowania (katalog: art. 2 ust. 2 Decyzji ramowej Rady 2002/584/WSiSW.

Za system wysokiego ryzyka uznaje się system sztucznej inteligencji, który:

  • Przeznaczony jest do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w Załączniku II do rozporządzenia lub sam jest takim produktem.
  • Musi to być również produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji podlegający jako produkt – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.

Za systemy wysokiego ryzyka w kontekście sektora ubezpieczeniowego uznaje się również te wymienione bezpośrednio w załączniku III:

  • Identyfikacja i kategoryzacja biometryczna osób fizycznych;
  • Zarządzanie infrastrukturą krytyczną i jej eksploatacja;
  • Kształcenie i szkolenie zawodowe;Zatrudnienie pracowników i zarządzanie nimi oraz dostęp do samozatrudnienia;Dostęp do podstawowych usług prywatnych oraz usług i świadczeń publicznych, a także korzystanie z nich;Ściganie przestępstw;Zarządzanie migracją, azylem i kontrolą graniczną;
  • Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne.

Uznanie danego systemu za system wysokiego ryzyka wiąże się z:

  • Koniecznością spełnienia wielu wymogów w zakresie: wdrożenia systemów zarządzania, wprowadzenia kryteriów jakości danych, szczegółowej dokumentacji i analizy logów, przejrzystości i udostępniania informacji użytkownikom, nadzoru człowieka oraz dokładności, solidności i cyberbezpieczeństwa.

Naruszenie tych wymogów będzie wiązało się z nałożeniem kar:

  • do 30 mln euro lub 6% rocznego światowego obrotu: zakazane praktyki, niestosowanie się do zasad zarządzania danymi;
  • do 20 mln euro lub 4% rocznego światowego obrotu: niestosowanie się do jakichkolwiek zasad lub obowiązków innych niż dotyczące zakazanych praktyk oraz zasad zarządzania danymi;
  • do 10 mln euro lub 2% rocznego światowego obrotu: przekazywanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym.

Jak widać, regulacja tworzy rozbudowany system klasyfikowania systemów AI. Nie uchroniło to jednak aktu przed daleko idącą krytyką. Spór ten toczy się w szczególności w zakresie: definicji sztucznej inteligencji, rozszerzenia katalogu zakazanych praktyk oraz katalogu systemów wysokiego ryzyka zawartego w Załączniku III.

Zgłaszane wątpliwości

Obecnie wskazać można na istotne stanowiska wyrażone przez sektor prywatny lub publiczny w krajach unijnych: Czechy (wzmocnienie ochrony praw podstawowych), jak i ze strony różnego rodzaju think tanków i podmiotów zainteresowanych, takich jak: Center for Data Innovation, EURACTIV (podsumowanie stanowisk USA) oraz MedTech Europe wraz z kilkoma innymi organizacjami (zgodność AI Act z sektorowymi regulacjami w zakresie bezpieczeństwa produktów).

Likwidacja szkody

Kluczową częścią prowadzenia działalności ubezpieczeniowej jest zapewnienie terminowej obsługi szkody zgodnie z Wytycznymi KNF.

Potencjał AI w procesie likwidacji szkody doskonale wpisuje się w nadzorczy i biznesowy wymóg terminowej obsługi likwidacji szkody. Rozwiązania oparte na AI oferują szerokie spektrum zastosowań dla ubezpieczycieli, zarówno z punktu widzenia usprawnienia procesów wewnętrznych likwidacji szkody (wycena ubezpieczonego przedmiotu, szacowanie szkody, potencjalnych czynników wpływających na jej powstanie), jak i procesów zewnętrznych, np. zgłoszenie szkody.

Wnioski

Wejście w życie przepisów regulujących wykorzystanie AI w sektorze ubezpieczeniowym będzie miało daleko idące skutki, zarówno dla nowatorskich pomysłów na stosowanie algorytmów, jak i na już istniejące rozwiązania. Ubezpieczyciele będą musieli powziąć odpowiednie kroki jak najszybciej, szczególnie biorąc pod uwagę doświadczenie, jakie dał nam proces wdrażania innych unijnych przepisów, takich jak RODO. Konieczne będzie zatem zapewnienie kompleksowej obsługi, zarówno technologicznej, jak i prawnej oraz finansowej.

Natłok regulacji stanowi wyzwanie, któremu jednak należy sprostać, aby móc rozwijać swoją organizację w kierunku przyśpieszenia i uproszczenia jej funkcjonowania. Pomimo liczby regulacji ciężko stawiać tezę, iż spowolnią one znacznie proces unowocześniania działania przedsiębiorstw. Wynika to przede wszystkim z faktu, że korzyści z modernizacji organizacji zdecydowanie rekompensują koszty, jakie ubezpieczyciele będą musieli ponieść w związku z procesem wdrażania omówionych powyżej aktów prawnych.

 

Make IP clear 

Ochrona własności intelektualnej w biznesie - cykl artykułów

Dowiedz się więcej

Bezpośrednio na maila

Bądź na bieżąco i subskrybuj newsletter EY

Subskrybuj

Podsumowanie

Przedstawiamy część 1 artykułu o ryzykach regulacyjnych związanych z wdrożeniem rozwiązań bazujących na AI w sektorze ubezpieczeniowym. 

Artykuł ukazał się w Gazecie Ubezpieczeniowej w dniu 13 grudnia 2022 r. 

Kontakt

Chcesz dowiedziec sie wiecej? Skontaktuj sie z nami.

Informacje

Autor Justyna Wilczyńska-Baraniak

EY Polska, Kancelaria EY Law, Własność Intelektualna, Technologie i Dane Osobowe, Partner, Adwokat

Lider Zespołu Prawa Własności Intelektualnej, Technologii, Danych Osobowych w Kancelarii EY Law. Doradza na rzecz korporacji w zakresie ochrony własności intelektualnej i wdrażania nowych technologii.