Po ChatGPT, Unia Europejska ma problem z uregulowaniem AI

ChatGPT udowodnił, że projektowane w Unii Europejskiej regulacje sztucznej inteligencji są nieadekwatne względem technologii, które już teraz trafiają w ręce konsumentów i zasilają produkty wielu firm. To problem, który będzie trzeba rozwiązać.
Fot. Maria Teneva / Unsplash

ChatGPT udowodnił, że projektowane w Unii Europejskiej regulacje sztucznej inteligencji są nieadekwatne względem technologii, które już teraz trafiają w ręce konsumentów i zasilają produkty wielu firm. To problem, który będzie trzeba rozwiązać.

ChatGPT wdarł się przebojem na rynek w końcu ubiegłego roku i sprawił, że zaczęliśmy dużo inaczej postrzegać rolę algorytmów w naszym życiu. Choć generatywna sztuczna inteligencja nie ma jeszcze zbyt wiele wspólnego z „prawdziwą” AI, to jednak jej możliwości zaskakują poznawczo i sprawiają, że można poczuć się niekomfortowo – szczególnie, gdy jest się człowiekiem pióra lub artystą.

Serwis Politico przypomina, że ChatGPT pojawił się nawet w polityce – tworząc teksty przemówień polityków i polityczek w Parlamencie Europejskim, którzy w ramach happeningu chcieli w ten sposób wskazać konieczność uregulowania nowej technologii.

Przepisy Aktu o sztucznej inteligencji (Artificial Intelligence Act) z 2021 r. mogą okazać się do tego celu całkowicie nieadekwatne.

Zdążyć z regulacjami

Akt o sztucznej inteligencji został zaproponowany przez Komisję Europejską w 2021 r., a jego głównym celem jest zapewnienie obywatelom i obywatelkom UE ochrony przed szkodliwym wykorzystaniem algorytmów (np. rozpoznawania twarzy) i ich złośliwym użyciem.

Ustawa ma m.in. gwarantować, że w UE nie powstanie system zbliżony do chińskiego systemu oceny społecznej (o którym więcej można przeczytać w tej analizie), a sztuczna inteligencja nie będzie wykorzystywana do manipulacji, profilowania lub podejmowania decyzji w sposób zautomatyzowany w sprawach dotyczących kwestii społecznych lub politycznych.

W ramach ustawy nakreślona została cała kategoria systemów „wysokiego ryzyka” obejmującego zastosowania sztucznej inteligencji wymagające od twórców zwiększonej transparentności i nadzoru.

W AI Act wyróżniono cztery kategorie ryzyka, na które podzielono systemy sztucznej inteligencji: to ryzyko nieakceptowalne, wysokie, ograniczone, a także minimalne. W myśl nowej ustawy, zakazane ma być wykorzystanie systemów, w przypadku których ryzyko zostanie ocenione jako nieakceptowalne.

Ograniczenia dla sztucznej inteligencji

Projektowany Akt o sztucznej inteligencji wyróżnia szereg zakazanych praktyk, które mają służyć kontroli nad sztuczną inteligencją i jej zastosowaniami. Są to:

  • Wykorzystanie systemów (…) w celu manipulacji zachowaniem danej osoby w sposób, który może prowadzić do szkód fizycznych lub psychicznych
  • Udostępnianie systemów, które wykorzystują wrażliwość danej grupy społecznej (takie jak np. ich wiek, niepełnosprawność lub inna podatność) w celu wywarcia wpływu na ich zachowanie, który może powodować szkodę fizyczną lub psychiczną
  • Udostępnianie i użytkowanie przez organy publiczne systemów takich, jak system zaufania społecznego w Chinach
  • Wykorzystanie systemów rozpoznawania twarzy w czasie rzeczywistym do celów egzekwowania zasad prawa – z wyjątkami na przeciwdziałanie poważnym zagrożeniom lub poszukiwanie ofiar przestępstw oraz ich sprawców

Odpowiedzialność

W myśl projektowanych regulacji, za system odpowiada jego twórca. To dostawcy oprogramowania opartego na sztucznej inteligencji są zobowiązani do dostarczenia mechanizmów zarządzania ryzykiem w ich produktach i ich stosowania w praktyce. Twórcy systemów są również odpowiedzialni za jakość i uczciwość zbiorów danych, które są wykorzystywane do trenowania sztucznej inteligencji.

Jak to wygląda w kwestii ChatGPT? Niezbyt dobrze – o tym, że w kwestii jakości i uczciwości zbiorów danych pojawia się sporo wątpliwości, wiadomo nie od dziś – zgłaszali je m.in. ludzie, których wyniki medyczne dostępne w wyniku naruszeń w otwartym internecie znalazły się w zbiorze danych szkoleniowych ChatGPT. To oczywiste nadużycie wobec ich prywatności i ochrony danych medycznych; ChatGPT był również wskazywany jako narzędzie naruszające prawa własności intelektualnej, a na łamach TECHSPRESSO można przeczytać o ryzyku, jakie wiąże się ze szkoleniem algorytmów w oparciu o otwarte zasoby z mediów w kontekście ich dalszego losu.

Odcinek audycji TECHSPRESSO o generatywnej sztucznej inteligencji

Jak uregulować generatywną AI?

Twórcy dużego modelu językowego ChatGPT sami zwracają uwagę, że ich technologia może być wykorzystana zarówno w dobrych, jak i w złych celach i wymaga uregulowania.

To prawda – z produktów OpenAI można korzystać do „pisania” śmiesznych wierszy, poprawiania kodu w oprogramowaniu, podsumowywania nudnych spotkań w pracy lub długich tekstów z internetu, ale także po to, aby rozsiewać dezinformację, generować fałszywe treści w sieci i uprawiać propagandę na nigdy wcześniej nie widzianą skalę.

Algorytmy generatywnej sztucznej inteligencji w modelach takich, jak np. Midjourney, z użyciem których można generować obraz, mogą z kolei zostać wykorzystane do tworzenia deepfake’ów przedstawiających np. polityków czy inne osoby publiczne w sytuacjach, które nigdy nie miały miejsca – i tym samym również przyczyniać się do dezinformacji, wprowadzania opinii publicznej w błąd i wzmacniania polaryzacji politycznej.

Systemy wyposażone w moduły sztucznej inteligencji są tak etyczne, jak osoby, które z nich korzystają. Same w sobie nie mają poczucia niestosowności, braku etyki, nie mówią prawdy, bo nie po to zostały zaprojektowane. To regulacje mogą stworzyć ramy, aby etyka pojawiła się w użyciu sztucznej inteligencji – niestety, przede wszystkim przez zakazy.

Obecnie politycy, którzy są głównymi promotorami Aktu o sztucznej inteligencji uważają, że generatywna sztuczna inteligencja taka, jak ChatGPT, GPT-4 czy Midjourney powinna zostać wpisana na listę systemów wysokiego ryzyka. To może pomóc w walce z zastosowaniem dużych modeli językowych do dezinformowania – ale z drugiej strony wprowadzi ograniczenia dla wykorzystania ChatGPT i innych modeli, które mogą dla wielu podmiotów być nie do przyjęcia nie tylko na poziomie biznesowym, ale już politycznym. Ponadto, takie rozciągnięcie kategorii wysokiego ryzyka spowoduje, że stanie się ona bardzo pojemna i będą musiały się w niej znaleźć również inne systemy, które obecnie tej klasyfikacji się wymykają. Pytanie, czy zostaną do kategorii wysokiego ryzyka dopisane właściwie i zasłużenie? Jeśli nie, to ziści się scenariusz, przed którym przestrzega wiele osób z kręgów libertariańskich – unijna regulacja może doprowadzić do skrępowania innowacyjności i postępu technologicznego (cui bono?).

Gdzie wprowadzać ograniczenia?

Politico pisze, że zagrożeń wynikających z możliwych nadużyć przy korzystaniu z generatywnej sztucznej inteligencji powinni być świadomi przede wszystkim przedstawiciele takich sektorów, jak edukacja, kadry, bankowość i organy ścigania. Wykorzystanie dużych modeli językowych w tych segmentach może, ale nie musi, prowadzić niekiedy do naruszeń praw podstawowych.

Obecnie tkwimy regulacyjnie w martwym punkcie; kolejna runda rozmów wokół kształtu AI Act powinna ruszyć w kwietniu. Miejmy nadzieję, że wówczas tematem dyskusji stanie się również rola generatywnej sztucznej inteligencji – pytanie, czy nie jest już za późno i czy aby technologia kolejny raz nie wyprzedza regulacji?

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share