Pierwsze na świecie kompleksowe przepisy regulujące AI będą w Unii Europejskiej

UE pracuje obecnie nad pierwszym na świecie zestawem kompleksowych przepisów regulujących szanse i zagrożenia związane ze sztuczną inteligencją zwanym aktem o sztucznej inteligencji. Celem jest, aby sztuczna inteligencja w UE była godna zaufania. (1)

14 czerwca 2023 r. Parlament Europejski przyjął stanowisko negocjacyjne w sprawie aktu o sztucznej inteligencji. Priorytetem Parlamentu jest dopilnowanie, aby systemy wykorzystujące sztuczną inteligencję stosowane w UE były bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska.

9 grudnia 2023 r. Parlament osiągnął wstępne porozumienie z Radą w sprawie aktu o sztucznej inteligencji. Uzgodniony tekst będzie teraz musiał zostać formalnie przyjęty zarówno przez Parlament, jak i Radę, aby stał się prawem UE.

Akt o sztucznej inteligencji określa różne zasady dla różnych poziomów ryzyka związanych z AI. Chociaż wiele systemów sztucznej inteligencji stwarza minimalne ryzyko, należy je ocenić.

Systemy AI niedopuszczalnego ryzyka

Systemy sztucznej inteligencji stwarzające niedopuszczalne ryzyko, czyli uważane za zagrożenie dla ludzi, zostaną zakazane. To m.in.:

  • Poznawczo-behawioralna manipulacja ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań.
  • Identyfikacja biometryczna i kategoryzacja osób fizycznych.
  • Scoring (klasyfikacja punktowa) obywateli: klasyfikacja ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych.
  • Systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, takie jak rozpoznawanie twarzy.

Pewne wyjątki mogą być dopuszczalne do celów egzekwowania prawa. Systemy zdalnej identyfikacji biometrycznej działające w czasie rzeczywistym będą dozwolone w ograniczonej liczbie poważnych przypadków, natomiast systemy identyfikujące ze znacznym opóźnieniem będą mogły być używane do ścigania poważnych przestępstw, ale wyłącznie po zgodzie sądu.

Systemy AI wysokiego ryzyka

Systemy sztucznej inteligencji negatywnie wpływające na bezpieczeństwo lub prawa podstawowe będą uznane za systemy wysokiego ryzyka.

Zostaną podzielone na dwie kategorie:

1) Systemy sztucznej inteligencji stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów. To np. zabawki, lotnictwo, samochody, urządzenia medyczne i windy.

2) Systemy sztucznej inteligencji należące do ośmiu konkretnych obszarów, które będą musiały zostać zarejestrowane w unijnej bazie danych:

  • Zarządzanie i eksploatacja infrastruktury krytycznej.
  • Edukacja i szkolenie zawodowe.
  • Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia.
  • Dostęp do i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych.
  • Ściganie przestępstw.
  • Zarządzanie migracją, azylem i kontrolą granic.
  • Pomoc w interpretacji prawnej i stosowaniu prawa.

Wszystkie systemy AI wysokiego ryzyka będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich życia. (2)

System AI ogólnego przeznaczenia i generatywne

Systemy sztucznej inteligencji tworzące nowe treści (np. audio, obrazy, tekst, filmy, etc.) to tzw. generatywna sztuczna inteligencja. Przykładem jest ChatGPT. Takie narzędzia będą musiały spełnić wymogi dotyczące przejrzystości, takie jak:

  • Ujawnienie, że treść została wygenerowana przez sztuczną inteligencję.
  • Zaprojektowanie modelu tak, aby nie generował on nielegalnych treści.
  • Publikowanie streszczeń chronionych prawem autorskim danych wykorzystywanych do szkoleń.

Modele sztucznej inteligencji ogólnego przeznaczenia o dużym oddziaływaniu, które mogą stwarzać ryzyko systemowe, takie jak bardziej zaawansowany model sztucznej inteligencji GPT-4, musiałyby zostać poddane szczegółowej ocenie i zgłaszać Komisji Europejskie wszelkie poważne incydenty.(2)

Ograniczone ryzyko

Systemy sztucznej inteligencji reprezentujące ograniczone ryzyko powinny spełniać minimalne wymogi jeśli chodzi o przejrzystość, które umożliwiłyby użytkownikom podejmowanie świadomych decyzji. Po interakcji z tymi aplikacjami użytkownik będzie mógł następnie zdecydować, czy chce z nich dalej korzystać. Użytkownicy powinni być świadomi, że interakcja odbywa się ze sztuczną inteligencją. Obejmuje to systemy sztucznej inteligencji, które generują obrazy, treści audio lub wideo lub nimi manipulują, czyli np. wideo typu deepfake (łudząco realistyczne ruchome obrazy). (2)

Źródło: