Izrael w operacjach ofensywnych w Gazie wykorzystuje narzędzia sztucznej inteligencji. Organizacje działające na rzecz praw człowieka chcą rozliczenia Sił Obronnych Izraela z użycia AI oraz ujawnienia, jakie bezpieczniki mają te systemy.
Izrael podczas swoich działań ofensywnych w Gazie wykorzystuje zaawansowane narzędzia sztucznej inteligencji. Ze względu na rosnącą liczbę zabitych przez IDF (Siły Obronne Izraela – red.) cywili, organizacje zajmujące się prawami człowieka chcą rozliczenia tego, w jaki sposób Izrael korzysta z tego rodzaju technologii. W szczególności chodzi o zabezpieczenia systemów AI przed możliwymi nadużyciami – pisze serwis Politico.
Jego zdaniem, nacisk na Izrael może przełożyć się na konieczność udzielenia odpowiedzi na pewne pytania przez Waszyngton. Przypomnijmy: USA natychmiast po ataku Hamasu na Izrael z dnia 7 października ub. roku zadeklarowały pełne wsparcie Tel Awiwu.
Ewangelia
Gospel – Ewangelia – to system, który wykorzystywany jest przez IDF w Gazie m.in. do wskazywania celów dla bombardowań. Wśród nich znalazły się szkoły, biura organizacji pomocowych, miejsca modlitwy i placówki medyczne – czytamy w Politico. Według oficjalnych danych Hamasu, w wojnie z Izraelem życie straciło ponad 30 tys. Palestyńczyków.
Serwis zaznacza, że nie jest jasne, czy zabici cywile ponieśli śmierć w bezpośrednim wyniku stosowania przez Izrael narzędzi sztucznej inteligencji. Przejrzystości w tej kwestii domagają się aktywiści. Główny powód? Błędy, które popełniają systemy sztucznej inteligencji, zwłaszcza te pozbawione odpowiedniego nadzoru ze strony człowieka.
Broń autonomiczna i automatyczna
Jedną z organizacji, które wzywają do zwiększenia przejrzystości działań Izraela, jest palestyńska grupa zajmująca się prawami cyfrowymi – 7amleh. Politico przytacza jej opinię, według której użycie przez IDF broni zautomatyzowanych to największe zagrożenie dla Palestyńczyków.
O ujawnienie szczegółów zastosowania AI w wojnie z Hamasem do IDF zwróciła się również najstarsza izraelska organizacja zajmująca się prawami człowieka – Association for Civil Rights in Israel. Przesłała ona żądanie dostępu do informacji publicznej, domagając się wyjaśnienia kwestii wokół autonomicznego wyznaczania celów przez systemy sztucznej inteligencji.
Izrael: nadzór jest na miejscu
Izrael twierdzi, że system Gospel, stosowany do wyznaczania celów w wyniku analizy ogromnych ilości danych, podlega właściwemu nadzorowi ze strony człowieka – bo to człowiek ma być odpowiedzialny ostatecznie za podjęcie końcowej decyzji na temat przeprowadzenia ostrzału / innego rodzaju ataku.
Politico zwraca uwagę, że sprawa wykorzystania AI na polu bitwy przez Izrael może przełożyć się na kontrowersje w USA.
Niektórzy eksperci z dziedziny prawa i polityki dotyczącej sektora obronnego z uwagą przyglądają się temu, co dzieje się w Gazie i twierdzą, że Izrael wykracza poza uzgodnione przeznaczenie systemów sztucznej inteligencji, stosując ją ofensywnie – nie zaś do obrony osób cywilnych. Może się to skończyć scysją na poziomie dyplomacji.
Serwis zauważa jednak, że rewizja działań Izraela w Gazie nie jest ideą szczególnie ciekawą dla Waszyngtonu, który zajmuje się innymi sprawami niż to, w jaki sposób sojusznik prowadzi wojnę z Hamasem.
W szczególności, według Politico, amerykańscy urzędnicy mają unikać tematu wykorzystania przez IDF narzędzi sztucznej inteligencji.