Ustawa o systemach sztucznej inteligencji. Znamy projekt przepisów

Ustawa o systemach sztucznej inteligencji implementuje AI Act (Akt o sztucznej inteligencji) do polskiego systemu prawnego. Co znajdziemy w jej zapisach?
Ustawa o systemach sztucznej inteligencji wdraża AI Act w Polsce / Fot. Igor Omilaev / Unsplash
Ustawa o systemach sztucznej inteligencji wdraża AI Act w Polsce / Fot. Igor Omilaev / Unsplash

Ustawa o systemach sztucznej inteligencji implementuje AI Act (Akt o sztucznej inteligencji) do polskiego systemu prawnego. Co znajdziemy w jej zapisach?

W środę na stronach Rządowego Centrum Legislacji pojawił się projekt nowych przepisów wdrażających do polskiego systemu Akt o sztucznej inteligencji.

Ustawa o systemach sztucznej inteligencji nie tylko implementuje unijne rozporządzenie 2024/1689, ale też reguluje rynek AI w Polsce, jak i w założeniu swoich twórców ma tworzyć ramy dla bezpieczeństwa i ochrony praw podstawowych obywateli w kontekście użycia systemów sztucznej inteligencji.

Ustawa o systemach sztucznej inteligencji – co zawiera?

Przede wszystkim precyzyjnie definiiuje kluczowe pojęcia, takie jak „system sztucznej inteligencji”, „ryzyko”, określa, kto jest dostawcą systemów, a kto – operatorem.

Pojęcia te są niezbędne dla prawidłowej interpretacji przepisów i dotyczą szerokiego zakresu podmiotów – od twórców oprogramowania AI, po użytkowników końcowych usług i produktów wyposażonych w algorytmy.

Ustawa ma też szerok zakres stosowania – obejmuje zarówno dostawców i operatorów, ale także importerów i dystrybutorów systemów.

Nadzór i kontrola

Za nadzór nad rynkiem AI w Polsce odpowiada Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (Art. 6). Komisja będzie monitorować zgodność systemów AI z wymogami bezpieczeństwa i etyki, a także współpracować z innymi organami administracji publicznej.

W projekcie przepisów wprowadzono obowiązek zgłaszania Komisji poważnych incydentów związanych z wykorzystaniem AI (Art. 61), co pozwoli na szybką reakcję i minimalizowanie negatywnych skutków. Ocenę zgodności systemów AI przeprowadzać będą jednostki notyfikowane (Art. 64), co ma zapewnić obiektywizm i profesjonalizm procesu.

Szeroki wpływ ustawy

Przepisy zawarte w projekcie ustawy będą wywierać szeroki wpływ na biznes, obywateli, ale i instytucje publiczne.

Kluczowe są tu organizacja nadzoru nad systemami sztucznej inteligencji (Art. 1 i Art. 6). Ustawa wprowadza bowiem nadzór nad rynkiem systemów sztucznej inteligencji, co oznacza, że przedsiębiorstwa korzystające z takich systemów, jak i je dostarczające, będą musiały spełnić określone standardy i podlegać kontroli.

Jako organ nadzoru będzie działać wspomniane już Biuro Komisji ds. Sztucznej Inteligencji. Jej organem opiniodawczo-doradczym ma być Społeczna Rada ds. Sztucznej Inteligencji, której opinie jednak nie będą dla Komisji wiażące. W jej skład mają wchodzić eksperci z dziedziny AI.

Komisja ma być odpowiedzialna za kontrolowanie zgodności systemów z przepisami prawa. Kontrole zgodności mogą być przeprowadzane przez specjalistów wyznaczonych przez Komisję, a podmioty te będą zobowiązane do dostarczania informacji i dokumentacji.

Firmy będą musiały zapewnić zgodność swoich systemów z AI Act, w tym w zakresie m.in. takich czynności jak przechowywanie danych, zgłaszanie incydentów i zapewnianie odpowiednich procedur w zakresie cyberbezpieczeństwa.

Dostawcy i operatorzy systemów sztucznej inteligencji będą odpowiedzialni za ich zgodność z przepisami. W przypadku naruszeń grożą im administracyjne kary pieniężne. To bardzo wprost wskazana odpowiedzialność – nie zaniedbano więc kwestii, którą „przeoczono” w przypadku regulowania funkcjonowania platform internetowych.

Ustawa przewiduje administracyjne kary pieniężne za naruszenie przepisów dotyczących stosowania AI. Kary mają być motywatorem do przestrzegania standardów prawnych, jak i norm technologicznych.

Zgodność z regulacjami ma być wspomagana przez piaskownice regulacyjne dla systemów AI, w których będą mogły uczestniczyć podmioty rozwijające usługi oparte na sztucznej inteligencji.

Wpływ ustawy na obywateli

Ustawa ma na celu ochronę praw podstawowych obywateli, takich jak prawo do prywatności, niedyskryminacji i bezpieczeństwa, w kontekście stosowania AI.

W tym celu Komisja będzie współpracować z odpowiednimi organami, takimi jak Urząd Ochrony Danych Osobowych, w zakresie zapewnienia, że systemy AI nie naruszają podstawowych praw obywateli.

W projekcie przepisów opisano kwestię zgłaszania poważnych incydentów – na mocy przepisów muszą one być raportowane, a następnie odpowiednio zarządzane przez Komisję, co ma przekładać się na gwarancje bezpieczeństwa dla obywateli.

Ustawa przewiduje też obowiązki informacyjne – publikację interpretacji i informacji dotyczących dobrych praktyk w zakresie wdrażania systemów AI, które mają być dostępne dla obywateli tym samym przekładać się na wzrost świadomości nt. tego, jak sztuczna inteligencja jest wykorzystywana w różnych sektorach.

Kary za nieprzestrzeganie przepisów

Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji może nakładać administracyjne kary pieniężne na podmiot naruszający przepisy AI Actu.

Wysokość kar jest ustalana na podstawie Art. 99 Aktu o sztucznej inteligencji i może wynieść do 30 mln euro lub w przypadku przedsiębiorstwa, do 6 proc. jego całkowitego globalnego rocznego obrotu liczonego za poprzedni rok podatkowy, w zależności od tego, która kwota jest wyższa.

Komisja może odstąpić od nałożenia kary, jeśli podmiot zastosował się do rekomendacji zawartych w przekazanym mu wcześniej ostrzeżeniu, a naruszenie przepisów nie spowodowało szkody dla interesu społecznego.

Możliwe są też kary ograniczenia lub pozbawienia wolności – te mają być stosowane w razie udaremniania lub utrudniania kontroli (grzywna do 500 tys. zł lub kara ograniczenia / pozbawienia wolności do lat dwóch), a także za utrudnianie lub udaremnianie czynności w postępowaniu w sprawie nałożenia administracyjnej kary pieniężnej (grzywna do 500 tys. zł lub kara ograniczenia wolności lub pozbawienia jej w wymiarze do lat dwóch).

Komisja może też wydać decyzje nakazujące zaprzestania naruszeń i usunięcia ich skutków, jak i w przypadku, gdy system AI stwarza ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych – decyzję nakazującą operatorowi podjęcie działań naprawczych lub wycofanie systemu z rynku lub użytku (Art. 55).

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share