Unijny AI act – pierwsza regulacja sztucznej inteligencji

Unijny AI act ma być pierwszym na świecie prawem regulującym kompleksowo problemy związane ze sztuczną inteligencją. Głosowanie w komisjach zaplanowane jest na 11 maja, a latem projekt ma stanąć na forum sesji plenarnej Parlamentu Europejskiego. Zakończenie prac planowane jest do końca bieżącego roku. [1]

Gwałtowny rozwój sztucznej inteligencji oraz jej wkraczanie w nowe obszary naszego życia niepokoi niektórych naukowców specjalizujących się w tej dziedzinie. To właśnie między innymi znawcy tematu stali za głośnym listem otwartym wzywającym do przerwania na pół roku prac nad doskonaleniem sztucznej inteligencji. List podpisali między innymi prof. Stuart Russell z Berkeley i prof. Max Tegmark z MIT. Obaj są uznanymi autorytetami w dziedzinie sztucznej inteligencji. [2]
 

W liście otwartym jego sygnatariusze podnosili między innymi ryzyka związane z możliwym zalaniem kanałów informacyjnych nieprawdziwą treścią, automatyzacją dających satysfakcję zawodów, czy rozwojem sztucznych umysłów, które mogłyby nas przewyższyć i zastąpić. Ich zdaniem systemy sztucznej inteligencji powinny być rozwijane tylko jeśli będziemy mieli pewność, że efekty będą pozytywne a ryzyko możliwe do opanowania.
 

Na razie nie słychać doniesień ani deklaracji o postulowanym w liście zawieszeniu prac nad rozwojem AI. Eksperci przewidują, że najprawdopodobniej czeka nas zastępowanie pracy ludzi przez sztuczną inteligencję. Ekonomiści Ed Felten (University of Princeton), Manav Raj (University of Pennsylvania) i Robert Seamans (New York University) opracowali listę zawodów najbardziej zagrożonych zastąpieniem pracowników przez sztuczną inteligencję. Na szczycie listy znaleźli się m.in. telemarketerzy, nauczyciele angielskiego, literatury, prawa, filozofii, socjologii. Naukowcy przewidują, że niektóre z tych zawodów mogą zupełnie zniknąć. Ale lista zagrożonych profesji jest dużo dłuższa.[3]
 

Zastępowanie ludzi wykonujących określone zawody, to tylko jedno z postulowanych wyzwań. Sztuczna inteligencja może mieć potencjał by ingerować w nasze życie w sposób jaki trudno obecnie przewidzieć. Mogą to być ingerencje szkodliwe. I takim szkodliwym ingerencjom ma zapobiegać wypracowywany w UE AI act. [4]
 

To przełomowe rozwiązanie, które ma regulować sztuczną inteligencję w zależności od jej potencjału do wyrządzania szkody. Zakazane będzie używanie jej na przykład w systemach punktacji społecznej, identyfikacji biometrycznej w czasie rzeczywistym czy manipulacjach podprogowych. Wyodrębniono też grupę zastosowań wysokiego ryzyka na przykład w diagnostyce medycznej czy systemie sądowniczym. W grupie systemów ograniczonego ryzyka nałożone mają być tylko obowiązki przejrzystości.
 

W AI act chodzi przede wszystkim o przejrzystość, możliwość wyjaśnienia zdarzeń i możliwość ich rozliczenia, tj. możliwości rozstrzygnięcia kto lub co jest odpowiedzialne za dane zdarzenie. AI act ma też być podstawą prawną do powołania nowego Urzędu do spraw Sztucznej Inteligencji, który ma pomagać państwom członkowskim w kwestiach technicznych. 

Zobacz również

Dyrektywa o ochronie sygnalistów, a postępowania wyjaśniające

Jednym z nowych obowiązków nakładanych przez dyrektywę o ochronie sygnalistów jest konieczność prowadzenia wewnętrznych postępowań wyjaśniających. Sednem tego zagadnienia, a jednocześnie kluczowym wyzwaniem dla spółek i organów zarządczych będzie kwestia wykazania, że przy podejmowaniu działań następczych dochowano należytej staranności. W przeciwnym razie spółka może narażać się na negatywne konsekwencje.

Trzy linie obrony - kto jest odpowiedzialny za zarządzanie ryzykiem?

Model trzech linii obrony, do którego odwołują się m.in. Dobre praktyki spółek notowanych na GPW, wskazuje, że za zarządzanie ryzykiem odpowiedzialni są (w różnym stopniu i zakresie): pracownicy operacyjni jako właściciele ryzyk, ich przełożeni, czyli menedżerowie ryzyk, którzy stoją na drugiej linii obrony oraz audyt wewnętrzny będący trzecią linią obrony, który podobnie jak w przypadku pozostałych procesów pełni funkcję stricte kontrolną.

Ochrona sygnalistów przed odwetem

Najistotniejszym celem dyrektywy o ochronie sygnalistów, jest uniemożliwienie stosowania działań odetowych wobec sygnalisty zgłaszającego przypadki naruszenia prawa Unii Europejskiej.

Kto to jest sygnalista?

Polska jest w gronie państw, w których obowiązek wdrożenia rozwiązań umożliwiających zgłaszanie nieprawidłowości jest uregulowany tylko częściowo. Wynika to np. z ustaw regulujących działalność instytucji finansowych.

Ochrona sygnalistów (whistleblowing)

Prawo dotyczące ochrony sygnalistów zobowiązuje firmy do udostępnienia kanałów umożliwiających poufne zgłaszanie naruszeń, wdrożenie mechanizmów praktycznie chroniących sygnalistów przed odwetem oraz wypracowanie zasad rozpatrywania zgłoszeń w ściśle określonych terminach. Sprawdź jak możemy pomóc w dostosowaniu firmy do nowych przepisów.



    Kontakt

    Chcesz dowiedzieć się więcej? Skontaktuj się z nami.