Wprowadzenie
Wniosek Rozporządzenia Parlamentu i Rady (UE) ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji)
i zmieniające niektóre akty ustawodawcze UE {SEC(2021) 167 final} – {SWD(2021) 84 final} – {SWD(2021) 85 final} (dalej „Wniosek”) jest pierwszym proponowanym aktem prawnym o sztucznej inteligencji (dalej „AI”). Będzie to pierwszy akt prawny na świecie regulujący przedmiotowe zagadnienie.
Wniosek stanowi główny element unijnej strategii jednolitego rynku cyfrowego. Jak stanowi uzasadnienie do Wniosku głównym jego celem jest zapewnienie należytego funkcjonowania rynku wewnętrznego poprzez określenie zharmonizowanych przepisów dotyczących, w szczególności opracowywania, wprowadzania do obrotu w UE i wykorzystywania produktów i usług opartych na wykorzystaniu technologii AI lub stanowiących samodzielne systemy sztucznej inteligencji.
We Wniosku określono wspólne obowiązkowe wymogi mające zastosowanie do projektowania i opracowywania określonych systemów sztucznej inteligencji przed ich wprowadzeniem do obrotu, a dalsze ich funkcjonowanie zostanie zapewnione, w oparciu o zharmonizowane normy techniczne. We Wniosku uwzględniono również sytuację po wprowadzeniu systemów sztucznej inteligencji do obrotu, harmonizując sposób prowadzenia kontroli ex post. Ponadto, mając na uwadze, że Wniosek zawiera określone przepisy szczegółowe dotyczące ochrony osób fizycznych w związku z przetwarzaniem danych osobowych, w szczególności ograniczenia wykorzystywania systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, podstawą niniejszego rozporządzenia w zakresie takich przepisów szczegółowych będzie art. 16 Traktatu o Funkcjonowaniu Unii Europejskiej z dnia 13grudnia 2007 r.
Zakres i przedmiot Wniosku
Zakres Wniosku obejmuje wszystkie sektory (z wyjątkiem wojskowego) i wszystkie rodzaje sztucznej inteligencji. Jako akt prawny dotyczący produktów, nie nadawałby on praw osobom fizycznym, ale regulowałby dostawców systemów sztucznej inteligencji i podmioty wykorzystujące je w celach zawodowych.
Wniosek przypisuje zastosowania sztucznej inteligencji do trzech kategorii ryzyka:
-aplikacje i systemy, które stwarzają niedopuszczalne ryzyko, takie jak rządowe oceny społeczne,
– aplikacje wysokiego ryzyka, takie jak narzędzie do skanowania CV, które klasyfikuje kandydatów do pracy. Podlegają określonym wymogom prawnym,
– aplikacje, które nie zostały wyraźnie zakazane lub wymienione jako obarczone wysokim ryzykiem, pozostają w dużej mierze nieuregulowane.
Zmieniono listę inwazyjnych i dyskryminujących zastosowań systemów sztucznej inteligencji obejmujące obecnie:
– zdalne systemy identyfikacji biometrycznej „w czasie rzeczywistym” w publicznie dostępnych przestrzeniach,
– zdalne systemy identyfikacji biometrycznej „po”, z jedynym wyjątkiem egzekwowania prawa w celu ścigania poważnych przestępstw i tylko po uzyskaniu zgody sądu,
– systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasę, pochodzenie etniczne, status obywatelski, religię, orientację polityczną),
– predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub wcześniejszych zrachowaniach przestępczych),
– systemy rozpoznawania emocji w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych, oraz
– masowe pobieranie danych biometrycznych z mediów społecznościowych lub nagrań CCTV (telewizyjne systemy dozorowe) w celu tworzenia baz danych rozpoznawania twarzy (naruszanie praw człowieka i prawa do prywatności),
Systemy wysokiego ryzyka, zgodnie z zapisami Wniosku, to te, które stanowią poważne zagrożenie dla zdrowia, bezpieczeństwa lub podstawowych praw osób. Wymagają obowiązkowej oceny zgodności, podejmowanej przez dostawcę w ramach samooceny, przed wprowadzeniem na rynek. Szczególnie krytyczne aplikacje, takie jak te dotyczące wyrobów medycznych, wymagają, aby samoocena dostawcy, zgodnie z wymogami Wniosku, została rozpatrzona przez jednostkę notyfikowaną przeprowadzającą ocenę, zgodnie z obowiązującymi przepisami UE np. rozporządzenie w sprawie wyrobów medycznych.
Systemy sztucznej inteligencji spoza powyższych kategorii nie podlegają żadnym regulacjom, a państwa UE w dużej mierze nie mogą ich dalej regulować. Istniejące przepisy krajowe związane z projektowaniem lub użytkowaniem takich systemów nie są stosowane. Przewiduje się jednak dobrowolny kodeks postępowania dla takich systemów (w dalszej perspektywie).
Wniosek proponuje również wprowadzenie w UE Europejskiej Rady Sztucznej Inteligencji, w celu promowania współpracy krajowej i zapewnienia zgodności z jego zapisami.
Przyjęcie Wniosku wymagać będzie od państw UE ustanowienia własnych jednostek notyfikujących. W celu sprawdzenia, czy systemy AI rzeczywiście spełniają normy określone we Wniosku przeprowadzana jest ocena zgodności. Odbywa się ona albo poprzez samoocenę, co oznacza, że dostawca systemu AI sam sprawdza zgodność albo poprzez ocenę zgodności przez stronę trzecią, co oznacza, że tę ocenę przeprowadza jednostka notyfikująca. Jednostki notyfikujące zachowują możliwość przeprowadzania audytów w celu sprawdzenia, czy ocena zgodności jest przeprowadzana prawidłowo.
Zgodnie z obecnym Wnioskiem wydaje się, że wiele systemów sztucznej inteligencji wysokiego ryzyka nie wymaga oceny zgodności przez stronę trzecią, co jest krytykowane, gdyż według krytykujących systemy sztucznej inteligencji wysokiego ryzyka powinny być oceniane przez niezależną stronę trzecią, aby w pełni zapewnić ich bezpieczeństwo.
Zakazane praktyki to te, które:
– wykorzystują AI do podprogowej manipulacji lub wykorzystywania słabości ludzi, które mogą skutkować szkodami fizycznymi lub psychicznymi,
– wykorzystują bezkrytycznie zdalną identyfikację biometryczną w czasie rzeczywistym w przestrzeni publicznej w celu egzekwowania prawa,
– wykorzystują „wyniki społeczne” oparte na sztucznej inteligencji przez władze w celu niesprawiedliwego postawienia osób lub grup w niekorzystnej sytuacji.
Wniosek całkowicie zakazuje tego ostatniego, podczas gdy dla pozostałych proponowany jest system zezwoleń w kontekście egzekwowania prawa.
We Wniosku chodzi, w szczególności o przejrzystość, możliwość wyjaśnienia zdarzeń i możliwość ich rozliczenia, tj. możliwość rozstrzygnięcia kto lub co jest odpowiedzialne za dane zdarzenie.
Wniosek stanowić będzie podstawę prawną do powołania nowego Urzędu do spraw Sztucznej Inteligencji, który pomagać będzie państwom UE w kwestiach technicznych.
Nadal istnieją w UE nieporozumienia odnośnie definicji systemów sztucznej inteligencji. Rada UE uważa, że definicja nie może obejmować niektórych rodzajów istniejącego oprogramowania. Zwraca też uwagę na trudności związane z definicją „autonomii” AI.
Rozporządzenie ma zostać przyjęte do końca br.
Już za 2 tygodnie część II, czytajcie, udostępniajcie i komentujcie.
r.pr. dr Wiktor Czeszejko-Sochacki, LL.M.