1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

UE chce uregulować sztuczną inteligencję

21 kwietnia 2021

Komisja Europejska przedstawiła projekt nowych regulacji dotyczących wykorzystania technologii sztucznej inteligencji (AI).

https://p.dw.com/p/3sLXP
SHIFT vom 27.03.2021 Künstliche Intelligenz
Zdjęcie: Colourbox

To pierwsze takie przepisy nie tylko w Unii Europejskiej, ale i na świecie. Prace nad przepisami trwały ponad trzy lata. – Dzięki nim UE obejmuje pozycję lidera w dziedzinie opracowywania nowych, globalnych norm – powiedziała w środę (21.04.21) w Brukseli komisarz UE ds. cyfryzacji Marghrete Vestager.

Regulacje mają na celu wspieranie innowacji, jak wykorzystywanie AI do usprawnienia produkcji czy prognozowania zmian klimatycznych. Zakazane lub obłożone restrykcjami ma być natomiast wykorzystanie technologii szkodliwych dla obywateli UE, w tym naruszających ich prawo do prywatności. – Nie zamierzamy zakazywać samej technologii, ale uregulować jej wykorzystanie – podkreślił komisarz UE ds. rynku wewnętrznego Thierry Breton.

Piramida ryzyka

Zastosowanie technologii sztucznej inteligencji zostało podzielone na cztery kategorie ryzyka. Można je przedstawić w formie piramidy, na której szczycie znajdują się technologie niebezpieczne, stanowiące najwęższą grupę, a u jej podstawy technologie stanowiące minimalne ryzyko. Do ostatniej kategorii zaliczane są np. filtry wyłapujące spam w poczcie elektronicznej. Systemy te nie stanowią zagrożenia dla praw ani bezpieczeństwa obywateli lub ryzyko to jest minimalne, więc nie potrzebują dodatkowych obostrzeń.

Kolejną kategorię stanowią technologie stanowiące ograniczone ryzyko jak chatboty, czyli programy komputerowe, które są w stanie „rozmawiać” z internautą i pomagać mu np. w zakupie biletów online. Na nie zostaną teraz nałożone wymogi przejrzystości. Oznacza to, że firma korzystająca z oprogramowania będzie musiała poinformować o tym użytkownika tak, żeby miał świadomość, że rozmawia z maszyną, a nie człowiekiem i mógł sam zadecydować, czy mu to odpowiada. W kategorii „ograniczonego ryzyka” znalazła się także technologia deepfake, umożliwiająca manipulację zdjęciami lub nagraniami wideo. To sytuacje, gdy np. twarze aktorów w filmach zastępowane są np. twarzami znanych polityków. Według unijnych prawodawców jest to dopuszczalne tak długo, jak długo użytkownik ma świadomość, że to tylko kreacja.

Trzecią kategorią są technologie AI, których stosowanie obarczone jest wysokim ryzykiem, ponieważ mają one negatywny wpływ na bezpieczeństwo ludzi i mogą naruszać ich prawa podstawowe. I to głównie na nich koncentrują się zaproponowane przez Komisję przepisy.

AI wysokiego ryzyka

Mowa tu o algorytmach wykorzystywanych np. do przeglądu aplikacji o pracę, podań na studia, oceniania zdolności kredytowej, wniosków o zasiłek społeczny, azyl polityczny lub wizę. Systemy te stosowane są także w medycynie, m.in. w diagnostyce i sądownictwie, gdzie mogą służyć do oceny wiarygodności dowodów.

To program decyduje o tym, czy danej osobie zostanie przyznany kredyt mieszkaniowy, zasiłek dla bezrobotnych, czy zostanie ona przyjęta na studia, zatrudniona w danej firmie lub z niej zwolniona. Ma to bezpośredni wpływ na życie obywateli, dlatego unijni prawodawcy chcą większej kontroli nad stosowaniem tych technologii. Przede wszystkim, mają podlegać ostatecznemu nadzorowi człowieka. Oznacza to, że od decyzji wydanych przez system, np. o odmowie przyznania kredytu, będzie można się odwołać i będą one musiały zostać poddane weryfikacji przez człowieka. Przed dopuszczeniem do obrotu w UE, technologia będzie musiała spełnić rygorystyczne wymogi, dotyczące m.in. bezpieczeństwa i jakości tak, żeby uniknąć dyskryminacji obywateli.

Ostatnią kategorię stanowią systemy sztucznej inteligencji stanowiące niedopuszczalne ryzyko dla ludzi. To technologie w szkodliwy sposób manipulujące zachowaniem człowieka, jego opiniami i decyzjami, np. zabawki interaktywne, które zachęcają dzieci do nieodpowiednich zachowań; systemy wykorzystujące informacje o użytkowniku, żeby przewidywać jego zachowania i określać słabe strony; wykorzystywane w Chinach, systemy oceny punktowej obywateli przez władze rządowe. Ich stosowanie będzie w UE zakazane.

Technologie biometryczne zakazane, ale…

Wszystkie rodzaje identyfikacji biometrycznej, jak np. technologia rozpoznawania twarzy, zostały uznane z technologie wysokiego ryzyka. Z zasady ich stosowanie w miejscach publicznych, takich jak parki, centra miast, urzędy, będzie w UE zakazane. Będą jednak wyjątki. Z systemów będzie można korzystać w celu walki z przestępczością np. w sytuacji zagrożenia atakiem terrorystycznym, a także przy poszukiwaniach osób zaginionych, np. dzieci. W takim wypadku decyzję o zastosowaniu technologii będzie musiał wydać sąd lub organy ścigania i będzie ona mogła być wykorzystywana tylko przez określony czas i w określonym miejscu oraz wobec przestępstw zagrożonych karą minimum 5 lat pozbawienia wolności.

Nowe przepisy mają być stosowane w ten sam sposób we wszystkich państwach członkowskich. Firmy, także zagraniczne, ale operujące w UE, będą musiały się do nich dostosować, w przeciwnym wypadku grożą im kary w wysokości od 20 mln euro do nawet 4 proc. rocznych obrotów. Jeżeli chodzi o zarządzanie, Komisja proponuje, aby nadzór nad nowymi przepisami sprawowały wyznaczone przez państwa członkowskie krajowe organy nadzoru rynku. Wdrożenia przepisów pilnować ma specjalnie powołana Europejska Rada ds. Sztucznej Inteligencji.

Chcesz skomentować ten artykuł? Zrób to na Facebooku! >>