EY oznacza globalną organizację i może odnosić się do jednej lub więcej firm członkowskich Ernst & Young Global Limited, z których każda stanowi odrębny podmiot prawny. Ernst & Young Global Limited, brytyjska spółka z ograniczoną odpowiedzialnością, nie świadczy usług na rzecz klientów.
Jak EY może pomóc
-
Ochrona sygnalistów jest wymogiem prawnym dla średnich i dużych przedsiębiorstw. Niedostosowanie się do nadchodzących regulacji grozi sankcjami.
Przeczytaj więcej -
Dowiedz się jak EY Virtual Compliance Officer może wesprzeć pracę działu compliance w Twojej organizacji.
Przeczytaj więcej -
Wspieramy firmy w prowadzeniu etycznego biznesu budując systemy compliance oraz wdrażając narzędzia i mechanizmy sprzyjające zarządzaniu zgodnością.
Przeczytaj więcej
W dniach 20 - 21 maja 2025 r. odbyła się ósma już edycja Compliance & Integrity Days 2025, organizowanego przez Instytut Compliance. Wydarzenie to zgromadziło ekspertów z zakresu compliance, prawa, nowych technologii oraz zarządzania ryzykiem zarówno z sektora prywatnego, jak i publicznego. Tematyka paneli była różnorodna, co pozwoliło uczestnikom pogłębić wiedzę na temat najbardziej aktualnych i istotnych zagadnień w obszarze compliance. Nie zabrakło również tematów związanych ze sztuczną inteligencją.
Zwieńczeniem programu konferencji była sesja plenarna poświęcona wewnętrznym postępowaniom wyjaśniającym. Jarosław Grzegorz, Partner w Dziale Zarządzania Ryzykiem Nadużyć EY, w prezentacji zatytułowanej „AI lekiem na wszelkie bolączki?” zaprezentował innowacyjne rozwiązania z obszaru wykorzystania sztucznej inteligencji w procesach dochodzeniowych, stanowiące potencjalną odpowiedź na rosnącą złożoność i presję czasową w sprawach wewnętrznych.
W ramach panelu plenarnego zatytułowanego „AI compliance – nie pieśń przyszłości, a dźwięk teraźniejszości!” poruszono palące kwestie związane z wdrażaniem sztucznej inteligencji w życie codzienne, w tym w sektorze ochrony zdrowia.
Jednym z tematów, był przypadek eksperymentalnego, w pełni wirtualnego szpitala stworzonego w Chinach [1]. Projekt zakłada funkcjonowanie autonomicznych agentów AI, odgrywających role lekarzy i pielęgniarek, którzy samodzielnie diagnozują i prowadzą leczenie w symulowanym środowisku. Według twórców, system ten potrafi obsłużyć dziesiątki tysięcy przypadków w czasie znacznie krótszym niż byłoby to możliwe dla ludzi, osiągając wysoką skuteczność diagnostyczną. Choć model ten stanowi ciekawe narzędzie szkoleniowe i dowód na potencjał AI w medycynie, wywołał również istotne pytania o ryzyko braku nadzoru nad decyzjami AI, trudności w przypisaniu odpowiedzialności za ewentualne błędy oraz wyzwania związane z przestrzeganiem krajowych regulacji. Podkreślano również, że nawet najbardziej zaawansowany system nie zastąpi ludzkiej empatii i umiejętności podejmowania decyzji w oparciu o kontekst, który algorytmy nie zawsze są w stanie właściwie odczytać.
Powyższy przypadek poruszony na konferencji Compliance & Integrity Days można uzupełnić o inne przykłady ze świata, które pokazują, jak szeroko AI wkracza w obszar opieki zdrowotnej – nie tylko w środowisku eksperymentalnym, ale również w realnych warunkach klinicznych. W Tajwanie rozwijany jest projekt „robotycznej pielęgniarki”. [2] Dzięki jednemu z opracowanych modeli, urządzenie to patroluje szpitalne korytarze, monitorując parametry życiowe pacjentów i wspierając personel medyczny. [3] Choć rozwiązanie to ma potencjał do odciążenia zasobów ludzkich w systemie ochrony zdrowia, to jednocześnie rodzi pytania o niezawodność działania w sytuacjach nagłych oraz o standardy ochrony danych osobowych.
W Stanach Zjednoczonych rozwijana jest platforma wirtualnej fizjoterapii, która wykorzystuje sztuczną inteligencję do monitorowania ruchów pacjentów i dostosowywania planów leczenia w czasie rzeczywistym. [4] Dzięki temu rozwiązaniu możliwe jest prowadzenie terapii na odległość w sposób bardziej spersonalizowany i efektywny, co stanowi istotne wsparcie w leczeniu przewlekłych dolegliwości układu mięśniowo-szkieletowego. Choć technologia ta zyskuje na popularności, jej dynamiczny rozwój wyprzedza tempo prac legislacyjnych. W efekcie nadal brakuje jasnych wytycznych regulujących zakres odpowiedzialności za działania terapeutyczne oparte na decyzjach podejmowanych przez algorytmy, co budzi obawy zarówno ze strony pacjentów, jak i profesjonalistów medycznych.
Równie interesującym przykładem wykorzystania sztucznej inteligencji w ochronie zdrowia jest wdrożony w brytyjskiej służbie zdrowia (NHS) system, który analizuje zdjęcia zmian skórnych pod kątem ich potencjalnej złośliwości, wspierając lekarzy w szybszej i trafniejszej diagnozie raka skóry. Technologia ta została już zastosowana w wielu placówkach NHS i przetworzyła ponad 165 000 przypadków pacjentów, identyfikując ponad 15 tysięcy nowotworów skóry. [5] Choć rezultaty są imponujące, eksperci zwracają uwagę na ryzyko nadmiernego polegania na decyzjach algorytmu. Istnieje realna obawa, że system może nie rozpoznać niestandardowych objawów choroby lub błędnie zaklasyfikować zmiany łagodne jako złośliwe. Dlatego brytyjski instytut NICE (National Institute for Health and Care Excellence) zdecydował o warunkowej rekomendacji stosowania systemu w NHS – dopuszczając jego użycie przy jednoczesnym prowadzeniu dalszych analiz dotyczących skuteczności i bezpieczeństwa. [6]
Powyżej przedstawione przykłady pokazują, że niezależnie od kontekstu kulturowego, skali wdrożenia czy poziomu zaawansowania technologicznego, zastosowanie sztucznej inteligencji w medycynie może nieść ze sobą potencjalne ryzyka, które wymagają systemowego podejścia. Na pierwszym planie pojawia się problem braku przejrzystości algorytmicznej – wiele z omawianych systemów operuje w tzw. modelu „czarnej skrzynki”, co uniemożliwia pełne zrozumienie logiki podejmowanych decyzji i utrudnia przeprowadzenie rzetelnego audytu wewnętrznego lub dochodzenia w przypadku błędu. Jednocześnie brak spójnych ram prawnych i odpowiedzialnościowych pozostawia lukę, w której trudno jednoznacznie wskazać, kto ponosi konsekwencje w sytuacji, gdy rekomendacja AI doprowadzi do szkody pacjenta.
Dodatkowo, systemy wykorzystują i przetwarzają dane wrażliwe, co rodzi pytania o zgodność z przepisami dotyczącymi ochrony prywatności. Na to nakładają się kwestie etyczne – algorytmy uczące się na bazie istniejących zbiorów danych mogą nieświadomie powielać systemowe uprzedzenia, prowadząc do marginalizacji określonych grup pacjentów lub błędnej oceny przypadków nietypowych. W tym kontekście rola funkcji compliance nie powinna ograniczać się wyłącznie do kontroli zgodności z regulacjami – konieczne jest także tworzenie procedur umożliwiających retrospektywną analizę decyzji AI, niezależny nadzór nad danymi treningowymi i mechanizmami decyzyjnymi oraz bieżące monitorowanie skutków wdrożeń. Tylko takie podejście pozwoli zachować równowagę między innowacją a odpowiedzialnością, dając technologiom AI rzeczywistą wartość w systemie ochrony zdrowia.