ChatGPT może być wykorzystywany do celów wojskowych i wojennych. OpenAI zmienia zasady

Firma OpenAI po cichu zmieniła regulamin korzystania ze swoich dużych modeli językowych GPT, w tym – słynnego czatbota ChatGPT. Od teraz może on być wykorzystywany do celów wojskowych i wojennych. To bardzo złe informacje.
Czy ChatGPT stanie się narzędziem Pentagonu?
Czy ChatGPT stanie się narzędziem Pentagonu?

Firma OpenAI po cichu zmieniła regulamin korzystania ze swoich dużych modeli językowych GPT, w tym – słynnego czatbota ChatGPT. Od teraz może on być wykorzystywany do celów wojskowych i wojennych. To bardzo złe informacje.

Zmianę w regulaminie korzystania z dużych modeli językowych OpenAI jako pierwszy wychwycił serwis Intercept. Jak podaje, do 10 stycznia regulamin OpenAI zakazywał wykorzystania dużych modeli językowych firmy do „aktywności, które obciążone są dużym ryzykiem wyrządzenia fizycznej szkody, w tym rozwoju broni oraz zastosowań wojskowych i wojennych”.

Serwis wskazuje, że takie zapisy obecne do tej pory w regulaminie korzystania z dużych modeli językowych OpenAI wprost zabraniały użycia ich przez Pentagon, który bardzo uważnie przygląda się firmie Samuela Altmana.

Nowe brzmienie regulaminu zostało skrócone do zakazu wykorzystania usług firmy „celem wywoływania szkody u użytkownika lub innych osób”, a jako przykład wskazano np. „rozwój lub wykorzystanie broni”. Nie zmienia to jednak faktu, że zakaz korzystania z modeli w celach wojskowych i wojennych zniknął – podkreśla Intercept.

Przejrzystość jako pretekst

OpenAI przepisała swój regulamin korzystania z usług, tłumacząc to potrzebą zapewnienia większej przejrzystości i czytelności reguł.

Istotnie jednak w zasadach firmy tym samym wprowadzono wiele ważnych zmian leksykalnych, które mogą prowadzić do dowolności w ich interpretowaniu. Pojemne słowo takie jak „szkoda” lub „krzywda” może być rozumiane wielorako – i niekoniecznie interpretowane jako nakaz powstrzymania się od korzystania z dużych modeli językowych dla zastosowań wojskowych, bo te tłumaczone są przez instytucje za nie odpowiedzialne jako działania na rzecz zapewnienia bezpieczeństwa publicznego.

Jakie mogą być konsekwencje zmian?

Intercept pisze, że obecnie nie wiadomo, jakie mogą być skutki zmian w regulaminie OpenAI, jeśli weźmiemy pod uwagę ich przełożenie na rzeczywistość.

Warto jednak spojrzeć na temat nowych zapisów w zasadach korzystania z dużych modeli językowych szerzej. Wykreślenie wprost sformułowanego zakazu ich użycia dla celów wojskowych uwalnia szereg możliwości legalnego wykorzystania ich do np. operacji informacyjnych – prowadzą je również państwa Zachodu. Duże modele językowe mogą służyć także do generowania kodu dla oprogramowania lub przetwarzania informacji związanych z działaniami militarnymi – celem wsparcia osób pracujących np. w działach analitycznych resortów takich jak ministerstwo obrony USA, które żywo interesuje się firmą Altmana.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

GPT-4 doskonalszy niż ChatGPT, ale wciąż wadliwy

Firma OpenAI zaprezentowała nową wersję dużego modelu językowego, na którym opiera się działanie jej budzących fascynację czatbotów. ChatGPT zadziwił świat zaledwie kilka miesięcy temu – jego następca GPT-4 obiecuje jednak bardziej ludzkie zachowanie i większą dokładność odpowiedzi. Wciąż również popełnia sporo błędów.
Total
0
Share