EY oznacza globalną organizację i może odnosić się do jednej lub więcej firm członkowskich Ernst & Young Global Limited, z których każda stanowi odrębny podmiot prawny. Ernst & Young Global Limited, brytyjska spółka z ograniczoną odpowiedzialnością, nie świadczy usług na rzecz klientów.
Jak EY może pomóc
-
Prawo dotyczące ochrony sygnalistów zobowiązuje firmy do udostępnienia kanałów umożliwiających poufne zgłaszanie naruszeń, wdrożenie mechanizmów praktycznie chroniących sygnalistów przed odwetem oraz wypracowanie zasad rozpatrywania zgłoszeń w ściśle określonych terminach. Sprawdź jak możemy pomóc w dostosowaniu firmy do nowych przepisów.
Przeczytaj więcej -
Dowiedz się jak EY Virtual Compliance Officer może wesprzeć pracę działu compliance w Twojej organizacji.
Przeczytaj więcej -
Wspieramy firmy w prowadzeniu etycznego biznesu budując systemy compliance oraz wdrażając narzędzia i mechanizmy sprzyjające zarządzaniu zgodnością.
Przeczytaj więcej
Rada UE przyjęła dyrektywę regulującą stosowanie sztucznej inteligencji. To pierwsza tego typu regulacja na świecie co znaczy, że będzie punktem odniesienia dla przyszłych regulacji w krajach pozaunijnych. Akt prezentuje podejście do sztucznej inteligencji oparte na ryzyku szkodliwości społecznej, czyli im wyższe jest ryzyko wyrządzenia szkody społeczeństwu tym ostrzejsze zasady.
Nowe prawo ma na celu zapewnienie poszanowania praw podstawowych obywateli Unii Europejskiej przez wdrożenie bezpiecznych i wspieranie powstawania godnych zaufania systemów sztucznej inteligencji w całej wspólnocie. Dyrektywa nie będzie miała zastosowania do systemów przeznaczonych wyłącznie do wojskowych, obronnych i badawczych celów. [1]
Systemy sztucznej inteligencji będące źródłem ograniczonego ryzyka mają podlegać nieznacznym wymogom w zakresie przejrzystości. Dopuszczenie do unijnego rynku systemów wysokiego ryzyka będzie obwarowane szeregiem wymogów i obowiązków. Nie będą mogły być dopuszczone do stosowania w UE systemy stosujące manipulacje behawioralno-poznawczą czy punktację społeczną. Związane z ich stosowaniem ryzyko uznano za niedopuszczalne. [2] Zabronione będzie również stosowanie systemów do działań policyjnych opartych na profilowaniu z wykorzystaniem danych biometrycznych czy religii, rasy, orientacji seksualnej.
Przestrzegania nowego prawa mają pilnować utworzone w tym celu organy. W Komisji Europejskiej powstaje Biuro AI odpowiedzialne za egzekwowanie prawa w UE, które ma być wspierane prawnie przez panel naukowy złożony z niezależnych ekspertów. Przedstawiciele państw członkowskich utworzą radę do spraw sztucznej inteligencji wspierającą KE i państwa członkowskie w sprawie spójnego i skutecznego stosowania ustawy. Powstanie jeszcze forum doradcze odpowiedzialne za dostarczanie wiedzy technicznej.
Przed wdrożeniem niektórych systemów sztucznej inteligencji będzie sprawdzany ich wpływ na prawa podstawowe. Systemy wysokiego ryzyka i niektórzy ich użytkownicy będą rejestrowani w unijnej bazie danych a same systemy będą podlegały przepisom o przejrzystości.
Kary za naruszenia ustawy o sztucznej inteligencji będą określane jako procent całkowitego rocznego obrotu spółki naruszającej, jednak nie mniej niż określana prawem kwota. Podmiotom małym i średnim oraz startupom będą wymierzane proporcjonalne kary administracyjne.
Przepisy dyrektywy zaczną obowiązywać w dwa lata po jej wejściu w życie.