EY oznacza globalną organizację i może odnosić się do jednej lub więcej firm członkowskich Ernst & Young Global Limited, z których każda stanowi odrębny podmiot prawny. Ernst & Young Global Limited, brytyjska spółka z ograniczoną odpowiedzialnością, nie świadczy usług na rzecz klientów.
Jak EY może pomóc
-
Prawo dotyczące ochrony sygnalistów zobowiązuje firmy do udostępnienia kanałów umożliwiających poufne zgłaszanie naruszeń, wdrożenie mechanizmów praktycznie chroniących sygnalistów przed odwetem oraz wypracowanie zasad rozpatrywania zgłoszeń w ściśle określonych terminach. Sprawdź jak możemy pomóc w dostosowaniu firmy do nowych przepisów.
Przeczytaj więcej -
Dowiedz się jak EY Virtual Compliance Officer może wesprzeć pracę działu compliance w Twojej organizacji.
Przeczytaj więcej -
Wspieramy firmy w prowadzeniu etycznego biznesu budując systemy compliance oraz wdrażając narzędzia i mechanizmy sprzyjające zarządzaniu zgodnością.
Przeczytaj więcej
Wykorzystanie sztucznej inteligencji do śledzenia korupcji staje się coraz powszechniejsze. W wielu kwestiach sztuczna inteligencja otworzyła nowe dotychczas niespotykane możliwości i sprawdza się bardzo dobrze. Efektywne wdrożenie AI w niektórych obszarach okazuje się jednak trudniejsze niż mogłoby się wydawać.
Sztuczna inteligencja rozpalała umysły od dawna. Pojawiała się w filmach i powieściach science fiction. Szeroka publiczność miała możliwość zetknięcia się bezpośrednio ze sztuczną inteligencją w momencie udostępnienia w listopadzie 2022 roku ChatGPT. Od tego czasu udostępniane są nowe modele AI i oswajamy się jako społeczeństwa z tym narzędziem próbując je wykorzystywać do różnych celów.
Jedną z dziedzin, gdzie próbuje się wykorzystać sztuczną inteligencję jest antykorupcja. I nie jest to nowy trend, bo próby trwają już od dwóch dekad, ale opierały się one głównie na eksperymentach lub przypadkach hipotetycznych. Do empirycznych wdrożeń droga była stale daleka. [1]
W ostatnim czasie AI poczyniła spore postępy w niektórych obszarach tradycyjnie kojarzonych z tematyką antykorupcyjną, takich jak zamówienia publiczne, zarządzanie zgodnością, zmowy i przeciwdziałanie praniu pieniędzy. Dzięki długiej historii digitalizacji zamówień publicznych sztuczna inteligencja otwiera drogę do analizy tych zamówień na nieosiągalną dotychczas skalę. Możliwe staje się monitorowanie procesów w czasie rzeczywistym a nie tylko podczas okresowych audytów. Co więcej, sztuczna inteligencja może w zautomatyzowany sposób identyfikować i reagować na nowe metody nieuczciwych działań, pozwalając śledczym łatwiej dotrzymać tempa oszustom.
Dla przykładu, śledczy wykorzystują w Peru sztuczną inteligencję do przesiewania rosnącej liczby podejrzanych transakcji finansowych. Dzięki temu udało się podwoić liczbę spraw kierowanych do organów ścigania. Globalny bank zmniejszył o 75% liczbę fałszywych alarmów o oszustwach. Inny bank podwoił wskaźnik wykrywalności nieprawidłowych transakcji.
Sztuczna inteligencja pozwala również na wykorzystanie i efektywne zintegrowanie informacji z ogromnego zasobu źródeł, na skalę nieosiągalną w analizach wykonywanych przez człowieka. Przykładowo w Armenii sztuczna inteligencja wykorzystywana jest przy weryfikacji zeznań majątkowych funkcjonariuszy publicznych. Z kolei w Czechach AI pomaga identyfikować złożone łańcuchy koneksji politycznych.
Sztuczna inteligencja ma również przyszłość w wielu nowych obszarach często wiązanych z tematyką korupcyjną. Na niemałą skalę jest już wykorzystywana na przykład do analizy monitoringu satelitarnego dla wykrywania nielegalnej wycinki drzew, wykrywania odpowiedzialnych za wycieki ropy do morza czy nielegalnych połowów. Sztuczna inteligencja pomaga również przewidywać potencjalne obszary zagrożone tego typu działaniami na podstawie obserwowalnych sygnałów np. budowy nowych okolicznych dróg lub innej infrastruktury, co umożliwia odpowiednim służbom podjęcie działań i zapobieżenie nielegalnej działalności czasami nawet zanim ta na dobre zdąży się rozpocząć.
Duże nadzieje wiąże się z wykorzystaniem AI w ograniczaniu korupcji w służbie publicznej poprzez automatyzację procesu decyzyjnego, a zarazem ograniczenie możliwości wywierania wpływu lub presji na urzędnika. Jednak napotyka to trudności choćby ze względu na fakt, że konieczne jest pozostawienie pewnej uznaniowości w podejmowaniu decyzji. Okazało się, że systemy sztucznej inteligencji podejmowały niekiedy błędne decyzje od odmów wypłaty zasiłków bezrobotnym po przyznawanie nienależnych świadczeń socjalnych. Te kłopoty i złożoność zagadnień powodują, że na końcu ścieżki decyzji musi znajdować się człowiek.