Znaczące rozbieżności zaobserwowano również w odniesieniu do innych kluczowych aspektów odpowiedzialnego wdrażania AI:
- Naruszenia systemów bezpieczeństwa AI: tylko 32% członków zarządów postrzega to jako problem, w porównaniu do 64% konsumentów.
- Niewystarczające zabezpieczenia prywatności: 31% wśród CxO wobec 61% konsumentów.
- Nieprzestrzeganie regulacji i przepisów dotyczących AI: 23% wśród CxO wobec 52% konsumentów.
- Rozdźwięk pomiędzy obawami użytkowników oraz kadry zarządzającej może wynikać z różnych kwestii, jak niejasna komunikacja pomiędzy działem technologicznym a zarządem, bądź zbytnią pewnością siebie i wiarą we wdrożone rozwiązania. Przedsiębiorstwa, które jako pierwsze rozpoczęły procesy implementacyjne często robiły „krok w nieznane”, więc, jak wielu innowatorów, skupiły się na potencjale AI do uzyskania przewagi konkurencyjnej, a kwestie związane z ryzykiem mogły mieć dużo mniejszy priorytet. Warto jednak zaznaczyć - podejście konsumentów w sprawie AI jest jednoznacznie, co oznacza, że firmy będą musiały zaadresować kwestie związane z bezpieczeństwem i odpowiedzialnym wykorzystaniem AI. Te które tego nie zrobią stracą w efekcie przewagę zbudowaną dzięki swoim wcześniejszym działaniom – mówi Radosław Frańczak, Consulting Sales Leader, EY Polska.
Im większa adopcja, tym większe rozbieżności
Badanie EY pokazuje, że poziom zaawansowania we wdrażaniu sztucznej inteligencji w firmach ma istotny wpływ na to, jak zarządy postrzegają swoją zgodność z oczekiwaniami konsumentów. Firmy, które dopiero integrują AI, wykazują znacznie większą ostrożność. Tylko nieco ponad połowa (51%) członków zarządu z firm będących w fazie implementacji AI uważa, że ich postawy są zbieżne z poglądami konsumentów. To znacząca różnica w porównaniu do 71% członków zarządu z organizacji, w których sztuczna inteligencja jest już wdrożona w działalności biznesowej.
Dodatkowo ponad połowa (51%) respondentów zgodziła się że opracowanie ram zarządzania dla obecnych technologii AI jest dla ich organizacji wyzwaniem. Jednocześnie, zauważalna jest duża luka kompetencyjna pomiędzy odsetkiem firm chcących wprowadzić kolejne technologie AI, a będące świadomymi ryzyk, które się z nimi wiążą. Prawie 9/10 (88%) chce korzystać z SDG (Synthetic Data Generation) ale tylko 58% jest zaznajomiona z wiążącymi się z tą technologią zagrożeniami.
- Wdrażanie innowacyjnych technologii, takich jak sztuczna inteligencja, wiąże się z rosnącymi wymaganiami regulacyjnymi, które często bywają niedostatecznie uwzględniane w strategiach bezpieczeństwa firm. A trzeba przecież pamiętać, że przyjęte rozporządzenie AI ACT zakazuje stosowania systemów, które m.in. „stosują techniki podprogowe lub manipulacyjne będące poza świadomością danej osoby lub wprowadzają w błąd”, a kary w tym wypadku mogą sięgać aż do 35 mln euro lub 7% rocznego obrotu. Wdrożenie tej regulacji do unijnego porządku prawnego odbywa się stopniowo, ale już od 2 sierpnia tego roku zaczęły być stosowane przepisy dotyczące kar oraz modeli AI ogólnego przeznaczenia – mówi Justyna Wilczyńska-Baraniak, Partnerka EY Law, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych.
O badaniu:
Globalne badanie EY, przeprowadzone w marcu i kwietniu 2025 roku, objęło 975 liderów C-suite odpowiedzialnych za AI w swoich organizacjach. Respondenci reprezentowali firmy o rocznych przychodach powyżej 1 mld USD, działające we wszystkich głównych sektorach w 21 krajach Ameryki Północnej i Południowej, APAC i EMEIA.