Informacja prasowa
28 sie 2025 

Badanie EY: Konsumenci jedno, członkowie zarządów drugie. Brak zrozumienia potrzeb klientów w sprawie AI

Kontakt dla mediów

Badanie EY - AI Pulse - ujawnia rozdźwięk między firmami, a konsumentami w kwestii sztucznej inteligencji. Mimo że 63% członków zarządu deklaruje zrozumienie obaw klientów, tylko 23% z nich widzi problem w braku odpowiedzialności za negatywne użycie AI. Ponadto 51% respondentów zgodziła się że opracowanie ram zarządzania dla tej technologii jest dla ich organizacji wyzwaniem. Tymczasem 58% konsumentów uważa, że brak odpowiedzialności przedsiębiorstw za szkodliwe wykorzystanie AI to problem.

Najnowsze badanie  EY - AI Pulse - rzuca światło na znaczące różnice w postrzeganiu kwestii związanych z odpowiedzialnym rozwojem sztucznej inteligencji pomiędzy zarządami firm a konsumentami. Mimo że większość (63%) członków zarządu badanych przedsiębiorstw (CxO) uważa, że ich odczucia dotyczące AI są zbliżone do klientów, to szczegółowe wyniki wskazują na wyraźne rozbieżności.

Jeden z kluczowych obszarów, w którym widoczna jest ta dysproporcja, to kwestia odpowiedzialności za negatywne lub szkodliwe wykorzystanie AI. Zaledwie 23% ankietowanych członków zarządów uważa, że brak odpowiedzialności za takie incydenty stanowi problem. W tym samym czasie, aż 58% konsumentów wskazuje ten obszar jako znaczącą obawę, co oznacza aż 35 p.p. różnicy.



Znaczące rozbieżności zaobserwowano również w odniesieniu do innych kluczowych aspektów odpowiedzialnego wdrażania AI:

  • Naruszenia systemów bezpieczeństwa AI: tylko 32% członków zarządów postrzega to jako problem, w porównaniu do 64% konsumentów.
  • Niewystarczające zabezpieczenia prywatności: 31% wśród CxO wobec 61% konsumentów.
  • Nieprzestrzeganie regulacji i przepisów dotyczących AI: 23% wśród CxO wobec 52% konsumentów.

- Rozdźwięk pomiędzy obawami użytkowników oraz kadry zarządzającej może wynikać z różnych kwestii, jak niejasna komunikacja pomiędzy działem technologicznym a zarządem, bądź zbytnią pewnością siebie i wiarą we wdrożone rozwiązania. Przedsiębiorstwa, które jako pierwsze rozpoczęły procesy implementacyjne często robiły „krok w nieznane”, więc, jak wielu innowatorów, skupiły się na potencjale AI do uzyskania przewagi konkurencyjnej, a kwestie związane z ryzykiem mogły mieć dużo mniejszy priorytet. Warto jednak zaznaczyć - podejście konsumentów w sprawie AI jest jednoznacznie, co oznacza, że firmy będą musiały zaadresować kwestie związane z bezpieczeństwem i odpowiedzialnym wykorzystaniem AI. Te które tego nie zrobią stracą w efekcie przewagę zbudowaną dzięki swoim wcześniejszym działaniom – mówi Radosław Frańczak, Consulting Sales Leader, EY Polska.

Im większa adopcja, tym większe rozbieżności

Badanie EY pokazuje, że poziom zaawansowania we wdrażaniu sztucznej inteligencji w firmach ma istotny wpływ na to, jak zarządy postrzegają swoją zgodność z oczekiwaniami konsumentów. Firmy, które dopiero integrują AI, wykazują znacznie większą ostrożność. Tylko nieco ponad połowa (51%) członków zarządu z firm będących w fazie implementacji AI uważa, że ich postawy są zbieżne z poglądami konsumentów. To znacząca różnica w porównaniu do 71% członków zarządu z organizacji, w których sztuczna inteligencja jest już wdrożona w działalności biznesowej.

Dodatkowo ponad połowa (51%) respondentów zgodziła się że opracowanie ram zarządzania dla obecnych technologii AI jest dla ich organizacji wyzwaniem. Jednocześnie, zauważalna jest duża luka kompetencyjna pomiędzy odsetkiem firm chcących wprowadzić kolejne technologie AI, a będące świadomymi ryzyk, które się z nimi wiążą. Prawie 9/10 (88%) chce korzystać z SDG (Synthetic Data Generation) ale tylko 58% jest zaznajomiona z wiążącymi się z tą technologią zagrożeniami.

- Wdrażanie innowacyjnych technologii, takich jak sztuczna inteligencja, wiąże się z rosnącymi wymaganiami regulacyjnymi, które często bywają niedostatecznie uwzględniane w strategiach bezpieczeństwa firm. A trzeba przecież pamiętać, że przyjęte rozporządzenie AI ACT zakazuje stosowania systemów, które m.in. „stosują techniki podprogowe lub manipulacyjne będące poza świadomością danej osoby lub wprowadzają w błąd”, a kary w tym wypadku mogą sięgać aż do 35 mln euro lub 7% rocznego obrotu. Wdrożenie tej regulacji do unijnego porządku prawnego odbywa się stopniowo, ale już od 2 sierpnia tego roku zaczęły być stosowane przepisy dotyczące kar oraz modeli AI ogólnego przeznaczenia – mówi Justyna Wilczyńska-Baraniak, Partnerka EY Law, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych.

O badaniu:

Globalne badanie EY, przeprowadzone w marcu i kwietniu 2025 roku, objęło 975 liderów C-suite odpowiedzialnych za AI w swoich organizacjach. Respondenci reprezentowali firmy o rocznych przychodach powyżej 1 mld USD, działające we wszystkich głównych sektorach w 21 krajach Ameryki Północnej i Południowej, APAC i EMEIA.

O firmie EY

Celem działalności EY jest budowanie lepiej funkcjonującego świata poprzez wspieranie klientów, pracowników, społeczeństwa i planety w tworzeniu trwałych wartości oraz budowanie zaufania na rynkach kapitałowych.

Korzystając z danych, sztucznej inteligencji oraz zaawansowanych technologii zespoły EY pomagają klientom odważnie kształtować przyszłość i znajdować odpowiedzi na obecne i przyszłe wyzwania.

EY świadczy kompleksowe usługi w zakresie audytudoradztwapodatków, strategii i transakcji. Dzięki wiedzy sektorowej, globalnie połączonym, multidyscyplinarnym zespołom i różnorodnym partnerstwom EY może świadczyć usługi w ponad 150 krajach.

EY w Polsce to prawie 4000 specjalistów pracujących w 8 miastach: w Warszawie, Gdańsku, Katowicach, Krakowie, Łodzi, Poznaniu, Wrocławiu i Rzeszowie. Działając na polskim rynku co roku EY doradza tysiącom firm, zarówno małym i średnim przedsiębiorstwom, jak i największym korporacjom. Tworzy unikatowe analizy, dzieli się wiedzą, integruje środowisko przedsiębiorców oraz angażuje się społecznie.

Wszystko po to, aby z odwagą kształtować przyszłość.

Powiązane informacje prasowe