Claude Gov to usługa generatywnej sztucznej inteligencji firmy Anthropic, która ma być przeznaczona do użytku dla wojska i służb Stanów Zjednoczonych. Użyte w niej modele są lepiej dostosowane do analizy i mają mniej ograniczeń.
Firma Anthropic poinformowała o udostępnieniu amerykańskiemu wojsku i służbom usługi Claude Gov. To generatywna sztuczna inteligencja, która ma być szczególnie dostosowana do osiągania lepszych wyników w analizie danych (w tym tych ze źródeł niejawnych) jak i ma mieć znacznie mniej ograniczeń użycia, niż Claude w wersji komercyjnej.
O tym, jak ważną rolę w analizie danych przez służby może odgrywać AI, na łamach TECHSPRESSO.CAFE można przeczytać np. w tym tekście.
Odpowiedź na potrzeby rządu
Według Anthropic, modele, o których udostępnieniu spółka poinformowała publicznie, już od pewnego czasu wykorzystywane są przez rządowe agencje odpowiedzialne za „najwyższy poziom bezpieczeństwa narodowego USA”. Dostęp do modeli Claude Gov ma być ograniczony wyłącznie dla tych podmiotów, które zajmują się przetwarzaniem danych i analizą ze źródeł niejawnych. Firma nie podała przy tym, jak długo modele są już wykorzystywane – odnotowuje serwis Verge.
Według twórców narzędzia, Claude Gov ma być zaprojektowany tak, aby odpowiadać na potrzeby rzadu, takie jak np. analiza danych celem oceny zagrożenia lub analizy wywiadowcze. Claude Gov ma też rozumieć więcej języków i dialektów, co także przekłada się na zwiększenie sprawności w wykonywaniu zadań dla bezpieczeństwa – twierdzi firma.
Jakkolwiek modele są poddawane rygorystycznym testom, w czasie użytkowania mogą znacznie rzadziej odmawiać osobom z nich korzystającym wykonywania konkretnych zadań, jak to ma miejsce np. podczas przetwarzania informacji przez Claude w wersji komercyjnej.
Jeśli chodzi o publicznie dostępne modele, są one ograniczane przez Anthropic tak, aby nie mogły wykonywać określonych poleceń, lub też nie pozwalały na nadużycia względem ich bezpieczeństwa ze strony użytkowników.
Obawy o etykę
Wykorzystanie AI przez instytucje państwa budzi kontrowersje od wielu lat. Jednym z problemów jest np. brak obiektywności algorytmów, które wielokrotnie już udowodniły, że potrafią dyskryminować i jeśli wykorzystywane są przez organy ścigania, może to np. przekładać się na fałszywe oskarżenia o dokonanie przestępstwa lub dyskryminację konkretnej grupy etnicznej i np. flagowanie osób o innym niż biały kolorze skóry jako potencjalne zagrożenie dla bezpieczeństwa w przestrzeniach publicznych.
Znane są także przypadki dyskryminacji osób ubiegających się o świadczenia z zakresu pomocy społecznej przez algorytmy, które były źle ustawione i przenosiły na analizowane dane uprzedzenia zakodowane w nich przez twórców.
Ograniczenia dla wykorzystania Claude Gov
Firma Anthropic deklaruje, że narzędzie zostało zaprojektowane tak, aby korzystano z niego etycznie. Jakkolwiek twórcy narzędzia nie są w stanie tego zagwarantować, to w Claude Gov istnieją pewne ograniczenia, które nie pozwolą na jego użycie np. do celów propagandowych, dezinformacji, projektowania broni, projektowania systemów cenzury informacyjnej lub prowadzenia ofensywnych, złośliwych cyberoperacji.