Włochy zablokowały ChatGPT, jednak to nie jest dobra metoda na regulację AI

Włochy zablokowały dostęp do modelu ChatGPT powołując się na podejrzenie naruszenia ochrony danych osobowych. Inne kraje przyglądają się takiej możliwości, jednak to nie jest dobry sposób na uregulowanie kwestii generatywnej sztucznej inteligencji.
Fot. Jonathan Kemper / Unsplash

Włochy zablokowały dostęp do modelu ChatGPT powołując się na podejrzenie naruszenia ochrony danych osobowych. Inne kraje przyglądają się takiej możliwości, jednak to nie jest dobry sposób na uregulowanie kwestii generatywnej sztucznej inteligencji.

Wiadomość o blokadzie, jaką na ChatGPT nałożył włoski organ ochrony danych Garante, spadła w końcu ub. tygodnia jak grom z jasnego nieba. Regulatorzy, wydając swoje orzeczenie jako powód wskazali wyciek tytułów konwersacji prowadzonych przez użytkowników słynnego czatbota, któremu winne było zaniedbanie po stronie firmy OpenAI, która wyprodukowała i wypuściła na rynek ChatGPT.

Dlaczego Włochy zablokowały ChatGPT?

Garante jednocześnie wskazało, że w przypadku OpenAI i modelu ChatGPT nie ma podstawy prawnej dla gromadzenia tak ogromnych ilości danych, w tym – danych osobowych, jakie niezbędne są do trenowania algorytmów, na których opiera się działanie usługi.

Włoski organ podkreślił również, że w przypadku ChatGPT problematyczny jest brak restrykcji wiekowych w usłudze, który może prowadzić do tego, iż nieletnim użytkownikom będą bez żadnej kontroli wyświetlały się nie przeznaczone dla nich treści.

Garante chce, aby firma OpenAI wprowadziła stosowne rozwiązania techniczne oddalające wątpliwości organu. Jeśli tego nie zrobi, może zostać ukarana grzywną w wysokości 20 mln euro za naruszenia obowiązującego w Europie RODO, lub też grzywną w wysokości do 4 proc. globalnego przychodu firmy za ostatni rok podatkowy. Na reakcję na orzeczenie włoskiego organu wspierana przez Microsoft spółka ma 20 dni.

Problemy regulacyjne

Wprowadzenie podobnej blokady obecnie rozważają również Niemcy, którzy również powołują się na wątpliwości dotyczące ochrony danych osobowych w przypadku modelu ChatGPT. Niemieckie organy kontaktowały się z włoskimi po wydaniu przez Garante piątkowego orzeczenia, ale podobnych konsultacji miały także zasięgać instytucje z Irlandii i Francji.

To jednak nie jest adekwatne rozwiązanie – i właściwym przekonaniem będzie zapewne teza, że wszystkie wyżej wymienione kraje zdają sobie z tego sprawę. Jednakowoż, pojawienie się generatywnej sztucznej inteligencji w produktach konsumenckich wypuszczanych na rynek tak szybko i bez żadnych regulacji, bardzo skomplikowało sprawę prac nad tymi ostatnimi.

Dlaczego? O tym można przeczytać na łamach TECHSPRESSO w tej analizie.

Co planują inne kraje?

Problemy związane z uregulowaniem sztucznej inteligencji w chwili pojawienia się algorytmów generatywnych, takich jak ChatGPT, Midjourney czy DALL-E-2 sprowadzają się przede wszystkim do tego, że planowane przepisy nie uwzględniają ich obecności w przestrzeni publicznej na tak masową skalę.

Generatywna sztuczna inteligencja jest o wiele bardziej zaawansowana, niż technologie uwzględniane wcześniej przez regulatorów, ma też inne problemy, wśród których wyróżniają się te związane z ochroną danych, prywatnością użytkowników, dezinformacją i prawami autorskimi do treści, które są wykorzystywane przez algorytmy do uczenia się.

W Wielkiej Brytanii, która w ubiegłym tygodniu ogłosiła kompleksowe plany uregulowania sztucznej inteligencji, rozmawia się przede wszystkim o bezpieczeństwie, przejrzystości, uczciwości, odpowiedzialności i możliwości kwestionowania rezultatów pracy algorytmów. Zjednoczone Królestwo chce, aby to twórcy rozwiązań opartych o sztuczną inteligencję byli odpowiedzialni za etykę ich produktów, a także informowali społeczeństwo o możliwych zagrożeniach związanych z ich użyciem. Nie są to przy tym regulacje restrykcyjne, które mogłyby ograniczyć rozwój biznesu – co Wielka Brytania wyraźnie zaznacza, ale co jest też cechą ogólną stanowionego w tym kraju prawa.

Dużo bardziej restrykcyjne podejście ma Europa – o tym, jak wygląda Akt o sztucznej inteligencji, można przeczytać w linkowanym wcześniej tekście. W skrócie – planowane na poziomie UE regulacje znacznie ograniczą możliwość korzystania ze sztucznej inteligencji w sektorach kluczowych dla bezpieczeństwa i funkcjonowania państw, takich jak np. infrastruktura krytyczna, organy ścigania czy sądownictwo, ale także edukacja czy medycyna. ChatGPT ma być uznany za jeden z systemów wysokiego ryzyka, którym w europejskich planach regulacyjnych poświęcono szczególnie dużo miejsca.

Obecnie żadnego podejścia do regulacji sztucznej inteligencji nie ma w Stanach Zjednoczonych, co nie budzi wcale zdziwienia – to właśnie tam trwa gorączka złota w tej branży, w której wielu upatruje rozwiązania kryzysu, jaki ujawnił się również w sektorze nowych technologii i zaczął mocno oddziaływać na firmy „starego porządku” takie, jak np. Facebook czy Google.

W USA mamy do czynienia więc jedynie z wytycznymi NIST (National Institute of Science and Technology), które mają stwarzać ramy dla wykorzystania, projektowania i oddawania w ręce użytkowników systemów opartych o AI, jak i mapowania potencjalnych rodzajów ryzyka z nimi związanych. Wytyczne te jednak nie są wiążące, a firmy mają korzystać z nich dobrowolnie.

Total
0
Shares
2 komentarzy
    1. Dlatego, że argument z ochrony danych osobowych – choć ważny – nie rozwiązuje problemów etycznych. Załóżmy, że twórcy systemów takich, jak ChatGPT dostosują się np. do wymogów RODO – ale nadal ich systemy będą nas oszukiwać, będą wykorzystywane do dezinformowania, będą zabierały w przyszłości pracę. Regulacje muszą obejmować jednocześnie wiele aspektów, a nie skupiać się na jednym – i właśnie dlatego blokowanie jest krótkowzroczne. Trzeba dobrze przemyśleć zapisy w regulacjach i ustanowić je tak, aby odpowiadały na szereg problemów. Argument z ochrony danych odpowiada tylko na jeden – i okej. Na dłuższą metę jednak nie wystarczy, a może narobić jeszcze więcej problemów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

GPT-4 doskonalszy niż ChatGPT, ale wciąż wadliwy

Firma OpenAI zaprezentowała nową wersję dużego modelu językowego, na którym opiera się działanie jej budzących fascynację czatbotów. ChatGPT zadziwił świat zaledwie kilka miesięcy temu – jego następca GPT-4 obiecuje jednak bardziej ludzkie zachowanie i większą dokładność odpowiedzi. Wciąż również popełnia sporo błędów.
Total
0
Share