Wykorzystanie AI w działalności ubezpieczycieli stanowi zarówno ogromną szansę, jak i poważne ryzyko dla organizacji.
Systemy bazujące na maszynowym uczeniu lub szerzej sztucznej inteligencji otwierają drogę do rozwiązania jednego z największych problemów stojących przed sektorem ubezpieczeniowym, jakim jest terminowość procesowania roszczeń lub czynności aktuarialnych.
Sztuczna inteligencja pozwoli na zapewnienie bardziej efektywnej obsługi klienta, usprawni system wykrywania oszustw, wyceny ubezpieczenia i oceny ryzyka oraz co bardzo ważne, umożliwi optymalizację całego procesu rozpatrywania roszczenia. Jeśli jednak weźmiemy pod uwagę podejście oparte na ryzyku, konieczne będzie wskazanie również potencjalnych utrudnień w automatyzacji procesów za pomocą sztucznej inteligencji.
W tym tekście wskazane zostaną zagadnienia powiązane z planowanymi regulacjami, które są obecnie procedowane przez ustawodawcę unijnego, oraz tymi, które już obowiązują w państwach członkowskich. W celu zgodnego z prawem i efektywnego pod względem biznesowym wdrożenia AI w sektorze ubezpieczeniowym zakłady ubezpieczeniowe powinny już w fazie projektowania rozwiązania wziąć pod uwagę wymagania prawne i oczekiwania potencjalnych klientów.
AI a cyberzagrożenia
W procesie wdrażania rozwiązań bazujących na szeroko rozumianych nowych technologiach w organizacji nie można zapominać o cyberbezpieczeństwie, którego istotność wzrasta wraz z poziomem wdrożenia rozwiązań z zakresu nowych technologii.
Unijny ustawodawca w coraz szerszym zakresie reguluje obowiązki zapewnienia odporności cyfrowej, tym samym nie wolno pomijać problematyki wdrożenia takich aktów, jak NIS 2, DORA czy CRA. Omówione zostanie również szczegółowo niedawne stanowisko KNF w tym zakresie.
Stan branży ubezpieczeniowej
Sektor ubezpieczeniowy należy do jednych z najbardziej uregulowanych i konkurencyjnych sektorów gospodarki. Zakłady ubezpieczeń oraz podmioty z nimi współpracujące, jak agenci ubezpieczeniowi czy likwidatorzy szkód, działają w środowisku wymagającym świadczenia usług bezpiecznych, atrakcyjnych cenowo przy jednoczesnym spełnieniu bardzo restrykcyjnych wymogów regulacyjnych.
Rozwiązania bazujące na AI są już szeroko stosowane w działalności ubezpieczeniowej, również na polskim rynku. Jako pionierskie wskazać tu można szkody komunikacyjne i sektor zdrowia. AI w tych sektorach, według największych polskich ubezpieczycieli, pomaga w procesie likwidacji szkody oraz usprawnienia kontaktu z klientami.
Sektor ubezpieczeniowy, dążąc do usprawnienia działalności biznesowej poprzez wykorzystanie sztucznej inteligencji, musi brać pod uwagę wymogi regulacyjne już na etapie wdrażania rozwiązań AI. Modyfikacja funkcjonujących systemów pod kątem zgodności z prawem może przekroczyć koszt wdrożenia samego systemu.
Aby uniknąć takich sytuacji, należy zapoznać się zarówno z projektowanym AI Act, ale również z innymi regulacjami technologicznymi, jak np. projekt DORA, Komunikatem Chmurowym UKNF z 23 stycznia 2020 r. lub Wytycznymi KNF dotyczącymi likwidacji szkód z ubezpieczeń komunikacyjnych opublikowanymi w lipcu 2022 r. (Wytyczne KNF).
Jak widać, wymogi regulacyjne to zarówno przepisy powszechnie obowiązujące, jak i wytyczne organów nadzorczych, które w zamyśle mają rozjaśniać wątpliwości interpretacyjne związane z przepisami prawa, jednak często prowadzą do nakładania nowych obowiązków na podmioty nadzorowane, w tym zakłady ubezpieczeń i agentów.
Biorąc pod uwagę jakość, jaką AI wnosi do branży ubezpieczeniowej, można spodziewać się jedynie wzrostu wykorzystania tego typu technologii w sektorze ubezpieczeniowym.
Wykorzystanie AI w sektorze ubezpieczeniowym
Najbardziej interesujące możliwości wykorzystania sztucznej inteligencji w sektorze ubezpieczeniowym można podzielić na kilka kategorii:
- Ulepszona analiza roszczenia – obejmuje m.in. scoring, wykrywanie anomalii i nieprawidłowości, behawioralne modelowanie zachowań, klasyfikację roszczeń według rodzaju i złożoności, a także zautomatyzowanie procesu płatności.
- Image recognition – rozpoznawanie obrazów przez AI w celu oszacowania kosztów naprawy, szczególnie w ubezpieczeniach majątkowych gospodarstw domowych i motoryzacyjnych.
- Ograniczanie strat – wykorzystanie AI do szacowania wartości strat, w szczególności w przypadku roszczeń o dużej częstotliwości.
- Digitalizacja dokumentów – szczególną uwagę zwrócić należy tutaj na tzw. systemy OCR, których główną funkcją jest rozpoznawanie ręcznie pisanych treści i przetwarzanie ich w sposób pozwalający na włączenie w zdigitalizowaną strukturę zakładu ubezpieczeniowego również osób nie korzystających z komputerów.
Powyższe kategorie należy rozpatrzyć w szczególności pod kątem legalności i zgodności z nadchodzącymi zmianami w prawie unijnym.
AI Act
Projekt rozporządzenia w sprawie sztucznej inteligencji opublikowany w kwietniu 2021 r. wywołał gorącą debatę, zarówno na poziomie unijnym, jak i poszczególnych państw członkowskich. Celem projektu było ustanowienie jednolitych zasad klasyfikowania systemów sztucznej inteligencji według poziomu ryzyka, jaki zgodnie z ustawą przypisywać będziemy danym systemom. Akt będzie prawdopodobnie podlegał pewnym modyfikacjom, szczególnie w zakresie treści niektórych definicji i zawartości kluczowych załączników, o czym niżej.
Główne postulaty wskazane przez unijnego ustawodawcę to przewodnia i nadzorcza rola człowieka, techniczna solidność i bezpieczeństwo, ochrona prywatności i zarządzanie danymi, przejrzystość, różnorodność, niedyskryminacja i sprawiedliwość, społeczny i środowiskowy dobrostan oraz odpowiedzialność. Wskazać można również na pewną myśl przewodnią towarzyszącą tej regulacji, jaką jest uzależnienie rygoryzmu przepisów od ryzyka związanego z określonym systemem. Szczególnie istotne będą systemy, których wykorzystanie zostanie uznane za zakazane praktyki, oraz systemy wysokiego ryzyka.
Za zakazane praktyki zostaną uznane:
- Manipulacja powodująca lub mogąca powodować szkodę fizyczną lub psychiczną
- Social scoring
- Identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych do celów egzekwowania prawa – z wyjątkiem:
- ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci;
- zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu;
- wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy lub podejrzanego o popełnienie kwalifikowanych przestępstw objętych europejskim nakazem aresztowania (katalog: art. 2 ust. 2 Decyzji ramowej Rady 2002/584/WSiSW.
Za system wysokiego ryzyka uznaje się system sztucznej inteligencji, który:
- Przeznaczony jest do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w Załączniku II do rozporządzenia lub sam jest takim produktem.
- Musi to być również produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji podlegający jako produkt – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.
Za systemy wysokiego ryzyka w kontekście sektora ubezpieczeniowego uznaje się również te wymienione bezpośrednio w załączniku III:
- Identyfikacja i kategoryzacja biometryczna osób fizycznych;
- Zarządzanie infrastrukturą krytyczną i jej eksploatacja;
- Kształcenie i szkolenie zawodowe;Zatrudnienie pracowników i zarządzanie nimi oraz dostęp do samozatrudnienia;Dostęp do podstawowych usług prywatnych oraz usług i świadczeń publicznych, a także korzystanie z nich;Ściganie przestępstw;Zarządzanie migracją, azylem i kontrolą graniczną;
- Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne.
Uznanie danego systemu za system wysokiego ryzyka wiąże się z:
- Koniecznością spełnienia wielu wymogów w zakresie: wdrożenia systemów zarządzania, wprowadzenia kryteriów jakości danych, szczegółowej dokumentacji i analizy logów, przejrzystości i udostępniania informacji użytkownikom, nadzoru człowieka oraz dokładności, solidności i cyberbezpieczeństwa.