Firma Anthropic udostępnia czatbota Claude Gov w wersji dla wojska i służb

Claude Gov to usługa generatywnej sztucznej inteligencji firmy Anthropic, która ma być przeznaczona do użytku dla wojska i służb Stanów Zjednoczonych. Użyte w niej modele są lepiej dostosowane do analizy i mają mniej ograniczeń.
Anthropic udostępnia Claude Gov / Fot. Conny Schneider / Unsplash
Anthropic udostępnia Claude Gov / Fot. Conny Schneider / Unsplash

Claude Gov to usługa generatywnej sztucznej inteligencji firmy Anthropic, która ma być przeznaczona do użytku dla wojska i służb Stanów Zjednoczonych. Użyte w niej modele są lepiej dostosowane do analizy i mają mniej ograniczeń.

Firma Anthropic poinformowała o udostępnieniu amerykańskiemu wojsku i służbom usługi Claude Gov. To generatywna sztuczna inteligencja, która ma być szczególnie dostosowana do osiągania lepszych wyników w analizie danych (w tym tych ze źródeł niejawnych) jak i ma mieć znacznie mniej ograniczeń użycia, niż Claude w wersji komercyjnej.

O tym, jak ważną rolę w analizie danych przez służby może odgrywać AI, na łamach TECHSPRESSO.CAFE można przeczytać np. w tym tekście

Odpowiedź na potrzeby rządu 

Według Anthropic, modele, o których udostępnieniu spółka poinformowała publicznie, już od pewnego czasu wykorzystywane są przez rządowe agencje odpowiedzialne za „najwyższy poziom bezpieczeństwa narodowego USA”. Dostęp do modeli Claude Gov ma być ograniczony wyłącznie dla tych podmiotów, które zajmują się przetwarzaniem danych i analizą ze źródeł niejawnych. Firma nie podała przy tym, jak długo modele są już wykorzystywane – odnotowuje serwis Verge.

Według twórców narzędzia, Claude Gov ma być zaprojektowany tak, aby odpowiadać na potrzeby rzadu, takie jak np. analiza danych celem oceny zagrożenia lub analizy wywiadowcze. Claude Gov ma też rozumieć więcej języków i dialektów, co także przekłada się na zwiększenie sprawności w wykonywaniu zadań dla bezpieczeństwa – twierdzi firma.

Jakkolwiek modele są poddawane rygorystycznym testom, w czasie użytkowania mogą znacznie rzadziej odmawiać osobom z nich korzystającym wykonywania konkretnych zadań, jak to ma miejsce np. podczas przetwarzania informacji przez Claude w wersji komercyjnej.

Jeśli chodzi o publicznie dostępne modele, są one ograniczane przez Anthropic tak, aby nie mogły wykonywać określonych poleceń, lub też nie pozwalały na nadużycia względem ich bezpieczeństwa ze strony użytkowników.

Obawy o etykę

Wykorzystanie AI przez instytucje państwa budzi kontrowersje od wielu lat. Jednym z problemów jest np. brak obiektywności algorytmów, które wielokrotnie już udowodniły, że potrafią dyskryminować i jeśli wykorzystywane są przez organy ścigania, może to np. przekładać się na fałszywe oskarżenia o dokonanie przestępstwa lub dyskryminację konkretnej grupy etnicznej i np. flagowanie osób o innym niż biały kolorze skóry jako potencjalne zagrożenie dla bezpieczeństwa w przestrzeniach publicznych. 

Znane są także przypadki dyskryminacji osób ubiegających się o świadczenia z zakresu pomocy społecznej przez algorytmy, które były źle ustawione i przenosiły na analizowane dane uprzedzenia zakodowane w nich przez twórców.

Ograniczenia dla wykorzystania Claude Gov

Firma Anthropic deklaruje, że narzędzie zostało zaprojektowane tak, aby korzystano z niego etycznie. Jakkolwiek twórcy narzędzia nie są w stanie tego zagwarantować, to w Claude Gov istnieją pewne ograniczenia, które nie pozwolą na jego użycie np. do celów propagandowych, dezinformacji, projektowania broni, projektowania systemów cenzury informacyjnej lub prowadzenia ofensywnych, złośliwych cyberoperacji. 

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share