ONZ wzywa do regulacji AI i ostrzega przed Big Techami

Rada Bezpieczeństwa ONZ wzywa do regulacji sztucznej inteligencji i ostrzega przed oddaniem monopolu w branży w ręce wielkich firm technologicznych, które zysk przekładają nad bezpieczeństwo i nie zatroszczą się o dobrostan społeczeństwa.
Fot. Mathias Reding / Unsplash

Rada Bezpieczeństwa ONZ wzywa do regulacji sztucznej inteligencji i ostrzega przed oddaniem monopolu w branży w ręce wielkich firm technologicznych, które zysk przekładają nad bezpieczeństwo i nie zatroszczą się o dobrostan społeczeństwa.

We wtorek mieliśmy do czynienia z wydarzeniem historyczym – zebrało się pierwsze posiedzenie Rady Bezpieczeństwa ONZ poświęcone zagrożeniom niesionym przez szybki rozwój sztucznej inteligencji.

Sekretarz Generalny Antonio Guterres wezwał do stworzenia globalnego organu nadzorczego, którego zadaniem miałoby być czuwanie nad standardami rozwoju nowej technologii i jej wdrożeń – na wzór Międzynarodowej Agencji Atomowej funkcjonującej w ramach Narodów Zjednoczonych. Jak wskazał – AI to narzędzie, które może być sprawnie wykorzystywane przez cyberprzestępców, terrorystów, jak i inne podmioty zainteresowane sianiem „śmierci, destrukcji, powodowaniem traumy i głębokich szkód psychologicznych na niewyobrażalną skalę” – podaje dziennik „New York Times”.

W spotkaniu uczestniczyli nie tylko przedstawiciele ONZ, ale także dyplomaci, wiodący eksperci z branży oraz naukowcy.

Ostrzeżenie przed Big Techami

Wydaje się, że na spotkaniu osiągnięto konsensus względem zagrożenia, jakie dziesięć lat temu jeszcze nie było oczywiste w kwestiach zarządzania sferą cyfrową. Kontrola nad branżą sztucznej inteligencji nie powinna spoczywać wyłącznie w rękach Big Techów, bo firmy, które rozwijają produkty AI, zainteresowane są przede wszystkim generowaniem zysków, nie zaś dobrostanem użytkowników i skutkami społecznymi.

Pytanie, czy agencja ONZ-owska na wzór Międzynarodowej Agencji Atomowej się sprawdzi?Za rozwiązaniem takim lobbował m.in. Samuel Altman – szef firmy OpenAI, która stworzyła słynny ChatGPT. Organ, który w założeniu ma nadzorować przestrzeganie regulacji i etyki, jak i być swego rodzaju strażnikiem branży, może w praktyce – poddany lobbingowi – zupełnie nie spełniać swojej roli i działać w interesie firm, nie zaś obywateli i obywatelek cyfrowego świata.

Aby uniknąć czarnowidztwa warto jednak spojrzeć na jego ewentualne powstanie również od innej strony – organ taki może być wsparciem dla rządów poszczególnych państw, które niekoniecznie mają w składzie osoby wykwalifikowane do rozumienia i pracy z technologicznymi wyzwaniami. Pytanie, czy administracja będzie sobie brała zalecenia organu do serca – bo nie ma on właściwie żadnej mocy wykonawczej.

Większość członków Rady Bezpieczeństwa ONZ poparła utworzenie takiego ciała – i to jest dobra konstatacja po spotkaniu.

Rosja pozostaje sceptyczna

Krajem, który wyłamał się z konsensusu, jest Rosja. Jej przedstawiciel zadeklarował, że kraj pozostaje sceptyczny wobec zagrożeń niesionych przez rozwój sztucznej inteligencji i nie postrzega ich jako zagrożenia dla globalnej stabilności.

Stworzeniu specjalnej agencji nadzorującej AI sprzeciwiły się również Chiny; ambasador ChRL przy ONZ stwierdził, że nie jest to potrzebne argumentując, iż międzynarodowe ciała doradcze powinny zachować elastyczność i pozostawić swobodę poszczególnym krajom w zakresie rozwoju ich własnych zasad dotyczących regulacji AI.

Co istotne w wypowiedzi przedstawiciela Chin – to fakt, że sprzeciwił się on wykorzystaniu sztucznej inteligencji jako „środka do powstania militarnej hegemonii i narzędzia wpływu na suwerenność krajów”.

Broń autonomiczna

W kontekście rozwoju sztucznej inteligencji ONZ za szczególne zagrożenie postrzega broń autonomiczną i wykorzystanie AI przez wojsko.

Systemy oparte o sztuczną inteligencję do wyznaczania celów dla ataków z powietrza wykorzystuje od niemal dekady potajemnie Izrael, a w ostatnich dniach kwestie te ujrzały więcej światła dziennego.

Jak deklarują siły obronne Izraela, każdorazowo nad wyborem celu czuwa człowiek, jednak społeczność ekspercka obawia się, że podążamy tym samym w kierunku coraz więcej autonomii śmiercionośnych broni, a ludzki nadzór na końcowym etapie procesu to za mało – zwłaszcza, gdy brakuje przejrzystości działania algorytmu, który może przecież popełniać błędy.

W kwestii broni autonomicznych opartych o AI, wiążące decyzje prawne ONZ planuje podjąć do 2026 r.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share