Unia Europejska podejmuje znaczące kroki w celu uregulowania sztucznej inteligencji (AI) w ramach swojej strategii cyfrowej, dążąc do stworzenia bezpieczniejszego środowiska dla rozwoju i wykorzystania tej transformacyjnej technologii.
Już w kwietniu 2021 r. Komisja Europejska zaproponowała pracę pierwsze unijne prawo dotyczące sztucznej inteligencji, które obejmuje oparty na ryzyku system klasyfikacji aplikacji AI. System ten kategoryzuje technologie AI w oparciu o poziom ryzyka, jakie stwarzają dla użytkowników, określając w ten sposób wymogi zgodności dla każdej kategorii.
Parlament Europejski podkreślił, że systemy AI stosowane w UE muszą być bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska. Kluczowym celem jest stworzenie jednolitej, neutralnej technologicznie definicji sztucznej inteligencji, którą można zastosować do przyszłych innowacji.
Niedopuszczalne ryzyko
Rozporządzenie określa różne zasady w oparciu o klasyfikację ryzyka systemów sztucznej inteligencji. Niektóre aplikacje uznane za stwarzające „niedopuszczalne ryzyko” są całkowicie zakazane. Obejmują one kognitywną manipulację behawioralną wrażliwymi grupami, systemy punktacji społecznej, które klasyfikują osoby na podstawie cech osobistych, oraz identyfikację biometryczną w czasie rzeczywistym w przestrzeni publicznej, chociaż pewne wyjątki mogą mieć zastosowanie do celów egzekwowania prawa.
Modele wysokiego ryzyka
Systemy AI wysokiego ryzyka, które mogą mieć negatywny wpływ na bezpieczeństwo lub prawa podstawowe, są dalej podzielone na dwie kategorie. Pierwsza z nich obejmuje systemy sztucznej inteligencji wykorzystywane w produktach podlegających unijnym przepisom bezpieczeństwa, takich jak zabawki i wyroby medyczne. Druga kategoria obejmuje określone obszary, które wymagają rejestracji w bazie danych UE, w tym zarządzanie infrastrukturą krytyczną, egzekwowanie prawa i dostęp do podstawowych usług. Wszystkie systemy AI wysokiego ryzyka muszą zostać poddane ocenie przed wejściem na rynek i być monitorowane przez cały cykl życia, a użytkownicy mają prawo składać skargi do wyznaczonych organów.
Modele o dużym wpływie
Przejrzystość jest kolejnym kluczowym aspektem rozporządzenia. Modele generatywnej sztucznej inteligencji, takie jak ChatGPT, nie są klasyfikowane jako modele wysokiego ryzyka, ale muszą spełniać wymogi przejrzystości, takie jak ujawnianie treści generowanych przez sztuczną inteligencję i przestrzeganie praw autorskich. Modele AI o dużym wpływie, które mogą stwarzać ryzyko systemowe, zostaną poddane szczegółowej ocenie, a wszelkie poważne incydenty muszą zostać zgłoszone Komisji Europejskiej. Ponadto treści generowane lub modyfikowane przez sztuczną inteligencję, takie jak deepfakes, muszą być wyraźnie oznaczone w celu poinformowania użytkowników.
Ustawa zacznie w pełni obowiązywać 24 miesiące po jej wejściu w życie w czerwcu 2024 roku. Kluczowe kamienie milowe obejmują zakaz stosowania systemów sztucznej inteligencji o niedopuszczalnym ryzyku już od 2 lutego 2025 r., wprowadzenie kodeksów postępowania dziewięć miesięcy po wejściu w życie oraz wdrożenie zasad przejrzystości dla sztucznej inteligencji ogólnego przeznaczenia 12 miesięcy po wejściu w życie. Systemy wysokiego ryzyka będą miały dłuższy okres zgodności, a obowiązki zaczną obowiązywać 36 miesięcy po wejściu w życie ustawy.
Modele AI dla ecommerce takie jak Smart Search, czy personalizowane rekomendacje dostarczane przez Quarticon, takie jak są modelami niskiego ryzyka i tym samym nie objęte tym rozporządzeniem.