Koncern Meta nie podpisał unijnego Kodeksu dobrych praktyk dotyczących sztucznej inteligencji (AI), który stanowi zbiór wytycznych dla wdrożenia Aktu o sztucznej inteligencji (AI Act).
Koncern Meta odmówił podpisania unijnego Kodeksu dobrych praktyk dotyczących zastosowania sztucznej inteligencji (AI), który stanowi zbiór wytycznych dla wdrożenia Aktu o sztucznej inteligencji (AI Act) w kontekście zastosowań modeli ogólnego użytku.
Sprzeciw Mety wobec dobrych praktyk
Serwis Tech Crunch cytuje stanowisko koncernu, w którym napisano, iż „Europa idzie złą ścieżką, gdy mowa o AI”. Autorem tych słów jest dyrektor do spraw globalnej polityki koncernu Joel Kaplan, jeden z najwierniejszych żołnierzy prezesa Mety Marka Zuckerberga.
„Przyjrzeliśmy się uważnie Kodeksowi dobrych praktyk Komisji Europejskiej i Meta nie podpisze go. Ten Kodeks wprowadza szereg zapisów powodujących niepewność prawną dla twórców modeli, jak i ograniczenia, które wykraczają daleko poza zapisy Aktu o sztucznej inteligencji” – twierdzi Kaplan.
Jego zdaniem, wdrożenie unijnej regulacji „zadusi rozwój i wdrożenie kluczowych modeli AI w Europie i zastopuje unijne firmy chcące rozwijać w oparciu o nie swój biznes”.
Czym jest unijny Kodeks dobrych praktyk?
To zbiór wytycznych, którego sygnowanie przez firmy i organizacje oferujące usługi AI jest dobrowolne. Opublikowany został w lipcu, a jego rolą jest wsparcie procesu wdrażania regulacji zawartych w Akcie o sztucznej inteligencji.
Kodeks dobrych praktyk, o ile zostanie sygnowany, zobowiązuje podmioty m.in. do regularnego informowania odpowiednich organów o zmianach w dokumentacji rozwijanych przez nie narzędzi i usług sztucznej inteligencji, a także zabrania szkolenia AI na treściach pozyskanych z naruszeniem praw ochrony własności intelektualnej. Ponadto, sygnatariusze Kodeksu muszą postępować zgodnie z wolą właścicieli praw – jeśli ci nie życzą sobie, aby ich praca była częścią zbiorów danych do szkolenia algorytmów, firmy trenujące AI muszą te treści ze zbiorów usunąć.
Warto w tym punkcie wspomnieć, że Meta jest oskarżana o szkolenie swojej sztucznej inteligencji na pozyskanych niezgodnie z prawem treściach – zresztą, nie tylko ten koncern boryka się obecnie z tego rodzaju zarzutami. Podobne oskarżenia padają pod adresem firm takich jak OpenAI, czy Midjourney.
AI Act nie tak straszny, jak go malują
Akt o sztucznej inteligencji to regulacja oparta na analizie ryzyka, która ma być stosowana względem systemów sztucznej inteligencji w zastosowaniach pozwalających na ich użycie do manipulacji kognitywnych bądź tworzenia systemu „kredytu społecznego” na wzór chiński – takie przypadki użycia AI mają być przez AI Act zakazane.
Systemy wysokiego ryzyka to według AI Actu m.in. te obejmujące narzędzia analizy biometrycznej lub rozpoznawania twarzy, a także wszystkie systemy AI stosowane w branżach takich jak edukacja czy kadry.
Oprócz tego, AI Act reguluje m.in. kwestie konieczności informowania przez dostawców platform i usług AI o tym, że mamy do czynienia z treściami syntetycznymi przez ich wyraźne i komunikatywne oznaczanie, jak i wyznacza standardy odpowiedzialności za działanie AI.
Akt o sztucznej inteligencji od długiego czasu spotyka się z ostrą krytyką ze strony Big Techu. Firmy rozwijające AI walczą z unijną regulacją, próbując m.in. wpływać na Komisję Europejską, aby ta opóźniła wdrożenie przepisów (ma ono nastąpić 2 sierpnia, a zgodność z regulacjami ma być osiągnięta przez firmy najpóźniej dwa lata po wdrożeniu AI Actu).