W dniu 13 czerwca 2024 roku Parlament Europejski i Rada UE przyjęły Rozporządzenie w sprawie sztucznej inteligencji, znane jako AI Act. To przełomowy dokument regulacyjny, który ma na celu wprowadzenie zasad stosowania sztucznej inteligencji w całej Unii Europejskiej.
Rozporządzenie weszło w życie 2 sierpnia 2024 roku, a na realizację pierwszych obowiązków dostawcy dystrybutorzy importerzy i korzystający z narzędzi opartych o sztuczną inteligencję mają 6 miesięcy. Wszystkie obowiązki, obejmujące m.in. powołanie krajowych organów nadzoru, prowadzenie rejestrów zdarzeń, czy regularne audyty będą wchodziły w życie przez następne 36 miesięcy.
Rozporządzenie ma na celu stworzenie jednego, spójnego zestawu zasad regulujących rozwój, wdrażanie i używanie technologii sztucznej inteligencji w Unii Europejskiej. Priorytetem jest zapewnienie, że systemy wykorzystujące sztuczną inteligencję są rozwijane i stosowane w sposób, który nie tylko sprzyja innowacjom, ale także chroni prawa podstawowe i bezpieczeństwo obywateli. Rozporządzenie wprowadza ramy prawne, które różnicują regulacje w zależności od poziomu ryzyka związanego z danym systemem sztucznej inteligencji. To podejście umożliwia zróżnicowane podejście do nadzoru, dostosowane do specyfiki i potencjalnych zagrożeń wynikających z konkretnej technologii. AI Act określa również zakres odpowiedzialności twórców modeli ogólnego zastosowania (najbardziej obecnie znanym modelem jest ChatGPT).
Klasyfikacja systemów sztucznej inteligencji
Jednym z kluczowych elementów Rozporządzenia jest rozróżnienie systemów sztucznej inteligencji ze względu na ryzyko wynikające z zakresu przetwarzanych danych, wpływu na prawa podstawowe, sposobu pozyskiwania danych treningowych czy wreszcie rodzaju wnioskowania końcowego.
Za najmniej ryzykowne uznane zostały te narzędzia, które mają minimalny wpływ na prawa podstawowe. Zaliczymy do nich popularne chatboty, w których rozmowę prowadzi się przy wykorzystaniu wcześniej zamodelowanego skryptu, a w przypadku tematu spoza uprzednio przygotowanej listy użytkownik zostaje połączony z pracownikiem danej firmy.
Systemy niosące ograniczone ryzyko, takie jak niektóre aplikacje edukacyjne, muszą spełniać wymogi przejrzystości i informacji dla użytkowników. Oznacza to, że każdy musi być poinformowany o zastosowaniu sztucznej inteligencji oraz o tym, w jaki sposób pozyskane zostały dane treningowe. W tym celu dopuszczono publikację regulaminu, z którym użytkownik może w każdej chwili się zapoznać.
Systemy wysokiego ryzyka to systemy, które mogą mieć znaczący wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe. AI Act określa różne kategorie zastosowań sztucznej inteligencji, które są automatycznie klasyfikowane jako wysokiego ryzyka, na przykład systemy używane w infrastrukturze krytycznej (np. transport), edukacji, zatrudnieniu, wymiarze sprawiedliwości, ochronie zdrowia, czy zarządzaniu migracją. Systemy te muszą spełniać rygorystyczne wymogi dotyczące przejrzystości, odpowiedzialności oraz zarządzania danymi. Konieczne jest przeprowadzenie oceny zgodności przed wprowadzeniem systemu na rynek, w tym analiza potencjalnych zagrożeń i środków zapobiegawczych. Zarówno dostawcy jak i dystrybutorzy, czy organizacje korzystające jako użytkownicy końcowi muszą przestrzegać rygorystycznych wymogów regulacyjnych, w tym przeprowadzania audytów i dokumentacji. Producenci systemów klasyfikowanych jako wysokiego ryzyka będą musieli dokumentować cały proces projektowania i wdrażania, zapewniając odpowiednią dokumentację techniczną. Użytkownicy takich systemów muszą być odpowiednio przeszkoleni i świadomi potencjalnych zagrożeń związanych z ich używaniem.
Osobną kategorią są systemy wykorzystujące praktyki uznane w rozporządzeniu za niedopuszczalne. Do praktyk niedozwolonych zaliczone zostały techniki manipulacyjne, śledzenie w czasie rzeczywistym (z wyłączeniem sytuacji bezpośredniego zagrożenia życia, zagrożenia terrorystycznego lub sytuacji ratowania życia), techniki służące do analizy emocji (z nielicznymi wyjątkami) czy scoring społeczny stosowany obecnie w Chinach, polegający na przyznawaniu lub odejmowaniu punktów za określone zachowania. Rozporządzenie nakazuje wyeliminowane w okresie 6 miesięcy od dnia wejścia w życie wszystkich praktyk poprzez wyłączenie funkcji lub likwidację narzędzia.
Dla organizacji i podmiotów biznesowych kluczowe będzie zrozumienie nowych obowiązków nałożonych na podmioty rozwijające i wprowadzające systemy sztucznej inteligencji. Firmy będą musiały dostosować swoje praktyki do nowych wymogów, takich jak:
–
Dokumentacja i raportowanie: Wymogi dotyczące szczegółowej dokumentacji oraz raportowania, aby zapewnić zgodność z regulacjami i monitorować wpływ systemów sztucznej inteligencji na prawa i bezpieczeństwo.
–
Ocena ryzyka: Obowiązek przeprowadzania regularnych ocen ryzyka oraz implementowania mechanizmów zarządzania ryzykiem w kontekście wykorzystania sztucznej inteligencji.
- Przejrzystość: Zapewnienie, że użytkownicy systemów sztucznej inteligencji są świadomi, z jakimi technologiami mają do czynienia, i jakie mogą być potencjalne skutki ich działania.
- Mechanizmy odwoławcze: Wdrożenie odpowiednich mechanizmów odwoławczych, umożliwiających użytkownikom kwestionowanie decyzji podejmowanych przez systemy sztucznej inteligencji.
Rozporządzenie przewiduje ustanowienie krajowych organów nadzorczych, które będą odpowiedzialne za monitorowanie przestrzegania przepisów i egzekwowanie wymogów regulacyjnych. W każdym państwie członkowskim UE będą funkcjonować organy nadzoru, które będą współpracować z Europejskim Forum ds. Sztucznej Inteligencji, odpowiedzialnym za koordynację działań na poziomie unijnym.
Organy nadzoru będą miały uprawnienia do przeprowadzania audytów, nakładania kar oraz wydawania nakazów usunięcia niezgodnych systemów sztucznej inteligencji z rynku. Takie mechanizmy mają zapewnić skuteczną egzekucję przepisów i promować przestrzeganie regulacji w całej Unii Europejskiej. W styczniu powołana została przy Ministerstwie Cyfryzacji Grupa Robocza ds. Sztucznej Inteligencji (GRAI). W ramach zespołów skupiających się na poszczególnych obszarach (krajowa certyfikacja, organy nadzoru, wprowadzenie AI Act na poziomie krajowym, edukacja) przygotowywane są projekty ustaw i rozporządzeń, które będą następnie przedmiotem prac komisji sejmowej.
Rozporządzenie AI Act stanowi istotny krok w kierunku uregulowania stosowania sztucznej inteligencji w Unii Europejskiej, oferując ramy prawne, które mają na celu zapewnienie bezpieczeństwa i ochrony praw obywateli. Dla adwokatów i kancelarii prawnych oznacza to konieczność dostosowania praktyk do nowych regulacji. Ścisłe śledzenie zmian w przepisach i interpretacji organów nadzorczych będzie kluczowe dla skutecznego świadczenia usług prawnych w tej dynamicznie rozwijającej się dziedzinie.
Rozporządzenie ma potencjał, aby znacząco wpłynąć na przemysł technologiczny i społeczeństwo. Z jednej strony, wprowadza ono przejrzyste zasady i wymogi, które mogą zwiększyć zaufanie do technologii sztucznej inteligencji i promować innowacje, jednocześnie zapewniając, że są one wykorzystywane w sposób odpowiedzialny i etyczny. Przemysł technologiczny będzie musiał dostosować swoje praktyki do nowych regulacji, co może wiązać się z dodatkowymi kosztami, ale również z korzyściami związanymi z większym zaufaniem i akceptacją społeczną.
Z drugiej strony, regulacje te mogą wpłynąć na tempo innowacji i wprowadzenie nowych technologii na rynek. Firmy będą musiały zainwestować w zgodność z przepisami i przeprowadzać dodatkowe audyty i kontrole, co może wpłynąć na koszty rozwoju i wdrażania technologii. Jednak długofalowo, rozporządzenie ma na celu stworzenie bardziej stabilnego i przewidywalnego środowiska regulacyjnego, które może sprzyjać zrównoważonemu rozwojowi technologii sztucznej inteligencji.