EY oznacza globalną organizację i może odnosić się do jednej lub więcej firm członkowskich Ernst & Young Global Limited, z których każda stanowi odrębny podmiot prawny. Ernst & Young Global Limited, brytyjska spółka z ograniczoną odpowiedzialnością, nie świadczy usług na rzecz klientów.
Jak EY może pomóc
-
Pomagamy podmiotom z branży finansowej skutecznie ograniczać ryzyka związane z praniem pieniędzy i finansowaniem terroryzmu. Łączymy wiedzę ekspercką z zakresu Compliance, doświadczenie operacyjne z realizacji procesów KYC/AML oraz znajomość nowoczesnych technologii informatycznych. Dzięki temu możemy świadczyć kompleksowe usługi doradcze, a także wspierać naszych klientów w codziennej realizacji procesów operacyjnych w obszarze Financial Crime.
Przeczytaj więcej -
Prawo dotyczące ochrony sygnalistów zobowiązuje firmy do udostępnienia kanałów umożliwiających poufne zgłaszanie naruszeń, wdrożenie mechanizmów praktycznie chroniących sygnalistów przed odwetem oraz wypracowanie zasad rozpatrywania zgłoszeń w ściśle określonych terminach. Sprawdź jak możemy pomóc w dostosowaniu firmy do nowych przepisów.
Przeczytaj więcej -
Od lutego 2022 firmy z obszaru Unii Europejskiej muszą przestrzegać sankcji gospodarczych nałożonych w bezprecedensowej skali na Rosję i Białoruś. Nasz zespół ma unikalne doświadczenie w tematach sankcyjnych – edukacji, weryfikacji kontrahentów oraz wdrażaniu odpowiednich procedur. Pomagamy ograniczyć ryzyko kar finansowych i odpowiedzialności karnej wynikające z naruszeń przepisów sankcyjnych.
Przeczytaj więcej -
Wspieramy firmy w prowadzeniu etycznego biznesu budując systemy compliance oraz wdrażając narzędzia i mechanizmy sprzyjające zarządzaniu zgodnością.
Przeczytaj więcej
Kolejną zaawansowaną cechą AI jest jej zdolność do generowania i replikowania ludzkich głosów, co może mieć znaczący wpływ na współpracę z klientami. Istnieje kilka znanych przykładów, w których generowane przez sztuczną inteligencję głosy istniejących klientów były wykorzystywane przez przestępców w próbach przeprowadzania transakcji w imieniu posiadacza rachunku. W niektórych przypadkach te syntetyczne głosy mogą być wykorzystywane do wydobywania poufnych danych z instytucji finansowych. Powyższe, w połączeniu z cyfryzacją usług finansowych i zmniejszającą się potrzebą bezpośredniego kontaktu z klientem, stanowi istotne wyzwanie dla podmiotów działających w branży finansowej.
Konwencjonalne środki bezpieczeństwa nie są wystarczająco dostosowane do złożoności rozwiązań opartych na sztucznej inteligencji, ponieważ mechanizmy działania AI mogą być nieprzejrzyste. Ponadto, tradycyjne systemy bezpieczeństwa nie zawsze są w stanie odróżnić treści syntetyczne od prawdziwych, w związku z czym potencjalnego rozwiązania poszukuje się w systemach bezpieczeństwa opartych na AI. Podejście to zyskuje popularność wśród firm świadczących usługi finansowe, jednak nie jest jeszcze powszechnym rozwiązaniem.
W odpowiedzi na wyzwania związane ze sztuczną inteligencją, w kwietniu 2021 r. Komisja Europejska opracowała unijny akt o sztucznej inteligencji (AI Act), którego celem jest stworzenie kompleksowych regulacji dotyczących sztucznej inteligencji i nałożenie pewnych ograniczeń na rozwiązania na niej oparte. Obecnie akt czeka jeszcze na formalne przyjęcie, końcowa wersja nie jest jeszcze dostępna do publicznej wiadomości. Przyszła legislacja potencjalnie podzieli technologię AI na kilka kategorii ryzyka:
niedopuszczalne ryzyko – zakazane praktyki, takie jak manipulacja, wykorzystywanie wrażliwych grup społecznych, propaganda polityczna, stosowanie systemów zdalnej identyfikacji biometrycznej w przestrzeni publicznej.
wysokie ryzyko – ryzyko związane z wykorzystaniem sztucznej inteligencji w niektórych produktach i usługach, które wymagałoby dodatkowych kontroli i rejestracji ze strony kontrahentów oferujących te usługi. Wśród obszarów wymieniono również identyfikację biometryczną osób fizycznych.
ograniczone ryzyko – produkty i usługi, które wymagałyby dodatkowych obowiązków w zakresie przejrzystości. Wśród obszarów, które wchodzą w zakres tego ryzyka, wymieniono również treści generowane przez sztuczną inteligencję, w tym deepfake'i.
niskie lub minimalne ryzyko – inne rozwiązania oparte na sztucznej inteligencji.
Firmy działające w branży finansowej często wykorzystują identyfikację biometryczną jako część środków bezpieczeństwa, a także operują poufnymi informacjami identyfikacyjnymi swoich klientów. W związku z brakiem informacji na temat konkretnych technologii, które według unijnego aktu o AI będą uważane za sztuczną inteligencję, bankowe środki bezpieczeństwa mogą trafić do wyższych kategorii ryzyka. Może to skutkować dodatkowymi wymaganiami dla firm działających w sektorze finansowym. Potencjalnie, firmy mogą być zobowiązane do utworzenia nowych zespołów zarządzających ryzykiem AI oraz wprowadzenia dodatkowych programów szkoleniowych. Jednocześnie treści generowane przez sztuczną inteligencję, w tym deepfake'i, zostały zaklasyfikowane do kategorii ograniczonego ryzyka, co oznacza niższe wymogi i ograniczenia. Może to skutkować dysproporcją między napływem treści generowanych przez sztuczną inteligencję a kosztami identyfikacji i eliminacji tych treści i w rezultacie doprowadzić do nieefektywnie zorganizowanych systemów kontroli.
Ewolucja rozwiązań opartych na sztucznej inteligencji pozwoliła firmom organizować procesy w bardziej efektywny sposób. Jednocześnie przyniosła ona również nowe wyzwania firmom działającym w branży finansowej, które są narażone na wpływ treści syntetycznych generowanych przez AI. Obecne środki i systemy bezpieczeństwa nie są wystarczające do zidentyfikowania złożonych i nieprzejrzystych mechanizmów wykorzystywanych przez rozwiązania oparte na sztucznej inteligencji, które zwiększają podatność firm. Brak skutecznej regulacji co do wykorzystywania rozwiązań opartych na AI, umożliwia przestępcom wypracowanie bardziej wyrafinowanych schematów oszustw. Systemy bezpieczeństwa oparte na sztucznej inteligencji są obecnie uważane za najskuteczniejsze w zwalczaniu zagrożeń związanych z AI. Natomiast brak regulacji i jasnych wytycznych dla firm związanych z wykorzystaniem AI może skutkować niezgodnością takich systemów bezpieczeństwa z przyszłym unijnym aktem o AI, a tym samym nieefektywnym rozporządzeniem resursów biznesowych.