Co szczególnie ciekawe, jedynie mniej niż co czwarty ankietowany nie analizował lub nie potrafił potwierdzić czy weryfikował możliwości skorzystania z instrumentów dotacyjnych i ulg podatkowych przy implementacji w firmach narzędzi sztucznej inteligencji. Dla porównania kwestię dotacji badało 23% przedsiębiorstw, ulg podatkowych – 19%, a obu tych instrumentów – 35% organizacji.
Dobra znajomość przepisów
Większość firm w Polsce (61%) oceniła, że dobrze lub bardzo dobrze orientuje się w przepisach prawa dotyczących AI. W tej grupie znajduje się 20% respondentów, którzy są najbardziej zadowoleni z poziomu swojej wiedzy. Na co dzień przeprowadzają analizy zgodności z prawem implementacji i użycia systemów AI przed ich wdrożeniem oraz na bieżąco monitorują zmiany w prawie. Tylko 8% badanych przyznało, że nie wie, jakie regulacje mają zastosowanie do sztucznej inteligencji.
Dobra znajomość przepisów prawa przekłada się na znaczny odsetek respondentów, którzy deklarują implementację narzędzi AI w całości przez swój zespół wewnętrzny. Najbardziej niezależne podejście cechuje firmy wdrażające tę technologię w obszarze compliance (37% odpowiedzi) oraz finansów (35%).
W Unii Europejskiej wciąż trwają prace nad AI Act, który ustanawia zharmonizowane przepisy dotyczące sztucznej inteligencji, wskazuje zakazane praktyki oraz przedstawia wymogi odnośnie do systemów AI wysokiego ryzyka wraz z obowiązkami spoczywającymi na podmiotach będących ich operatorami. Zmian jest naprawdę dużo i dla wielu przedsiębiorstw będą one oznaczały rewolucję. Po uchwaleniu AI Act każdy system AI udostępniony na terenie UE po dacie wejścia w życie AI Act, co do zasady, będzie musiał być z nim zgodny. Oznacza to, że wzrośnie liczba wyzwań regulacyjnych z którymi będą się mierzyć zarówno prawnicy jak i klienci. Jednym z nich będzie ocena czy dany system jest już systemem sztucznej inteligencji czy jeszcze nie. Ocena ta będzie determinowała stosowanie do danego rozwiązania technologicznego przepisów wynikających z AI Act. Proponowana definicja jest bardzo szeroka, a spodziewam się, że w praktyce organy krajowe i unijne ds. AI, a także sądy będą ją podawać różnym interpretacjom. Zatem poziom regulacyjnych ryzyk znacząco wzrośnie, stanowiąc kolejne wyzwanie dla wielu organizacji oceniających swój stan wiedzy przez pryzmat aktualnej a nie nadchodzącej legislacji – zauważa Justyna Wilczyńska-Baraniak, Partnerka EY, Liderka Zespołu Prawa Własności Intelektualnej, Technologii, Danych Osobowych w Kancelarii EY Law.
Globalne trendy regulacyjne w AI
Dynamiczny rozwój sztucznej inteligencji sprawia, że decydenci coraz pilniej pracują nad tym, aby implementacja tego rozwiązania minimalizowała główne ryzyka z nim związane. Zespoły EY przeanalizowały podejścia regulacyjne ośmiu jurysdykcji, które odgrywają istotną rolę w opracowywaniu zasad korzystania z AI. Obejmują one Chiny, Japonię, Kanadę, Koreę Południową, Singapur, Stany Zjednoczone, Unię Europejską i Wielką Brytanię. Na tej podstawie namierzyli pięć głównych trendów, które wpływają na kształt aktów prawnych dotyczących sztucznej inteligencji.
Trend 1. Zasady OECD jako punkt odniesienia
Wytyczne dotyczące sztucznej inteligencji, przyjęte w 2019 r. przez OECD i grupę G-20, służą jako globalny punkt odniesienia, pomagając rządom i organizacjom w kształtowaniu zorientowanego na człowieka podejścia do AI. Obejmują one takie aspekty, jak szerokie rozpowszechnianie korzyści płynących ze sztucznej inteligencji w społeczeństwie, brak łamania zabezpieczeń społecznych, ochronę praw człowieka oraz odpowiednie ramy zarządzania i odpowiedzialności wśród firm korzystających z AI.
Trend 2. Podejście oparte na ryzyku
Każda z analizowanych jurysdykcji dostosowuje lub modyfikuje swoje przepisy do ryzyka stwarzanego przez określone działania związane z AI, aby znaleźć złoty środek między ograniczaniem ryzyka a zachęcaniem do innowacyjności i odpowiedzialnego rozwoju. Główną zaletą takiego podejścia jest to, że umożliwia ono wczesną interwencję regulacyjną przy jednoczesnym zachowaniu wymogów dotyczących compliance i kosztów proporcjonalnych do potencjalnych negatywnych skutków.
Trend 3. Wprowadzanie przepisów sektorowych
Regulatorzy uwzględniają aspekty specyficzne dla danego sektora, gdyż wykorzystanie AI może stwarzać odmienne ryzyka w zależności od obszaru. Przykładowo, pojazdy autonomiczne powinny być objęte dodatkowymi wytycznymi, a organy nadzoru bankowego muszą minimalizować ryzyko przy udzielaniu kredytów konsumenckich w oparciu o rekomendacje AI. Wytyczne sektorowe są uzupełnieniem ogólnych regulacji, które zapewniają podstawowe ramy zabezpieczeń.
Trend 4. Analizowanie wpływu na inne obszary
Ustanawianie przepisów dotyczących sztucznej inteligencji skłania regulatorów do tworzenia nowych lub reinterpretacji istniejących polityk w innych obszarach, takich jak własność danych, tożsamość cyfrowa, cyberbezpieczeństwo czy przepływ treści cyfrowych.
Trend 5. Stosowanie piaskownic regulacyjnych
Piaskownice regulacyjne umożliwiają bezpieczne testowanie innowacji związanych z AI w nadzorowanym środowisku, w którym przepisy mogą być ograniczone w czasie i/lub zakresie. Takie podejście przynosi wiele korzyści, w tym rozwój bardziej ukierunkowanych i skutecznych regulacji, wspieranie inwestycji venture capital, ułatwianie konkurencji i zachęcanie do lepszej komunikacji między organami regulacyjnymi a firmami.
O badaniu
Badanie - Jak polskie firmy wdrażają AI - zostało przeprowadzone na zlecenie EY Polska przez Cube Research w okresie sierpień – wrzesień 2023 roku na próbie 501 dużych i średnich przedsiębiorstw działających w branżach produkcyjnej, usługowej i handlowej.