Firma OpenAI po cichu zmieniła regulamin korzystania ze swoich dużych modeli językowych GPT, w tym – słynnego czatbota ChatGPT. Od teraz może on być wykorzystywany do celów wojskowych i wojennych. To bardzo złe informacje.
Zmianę w regulaminie korzystania z dużych modeli językowych OpenAI jako pierwszy wychwycił serwis Intercept. Jak podaje, do 10 stycznia regulamin OpenAI zakazywał wykorzystania dużych modeli językowych firmy do „aktywności, które obciążone są dużym ryzykiem wyrządzenia fizycznej szkody, w tym rozwoju broni oraz zastosowań wojskowych i wojennych”.
Serwis wskazuje, że takie zapisy obecne do tej pory w regulaminie korzystania z dużych modeli językowych OpenAI wprost zabraniały użycia ich przez Pentagon, który bardzo uważnie przygląda się firmie Samuela Altmana.
Nowe brzmienie regulaminu zostało skrócone do zakazu wykorzystania usług firmy „celem wywoływania szkody u użytkownika lub innych osób”, a jako przykład wskazano np. „rozwój lub wykorzystanie broni”. Nie zmienia to jednak faktu, że zakaz korzystania z modeli w celach wojskowych i wojennych zniknął – podkreśla Intercept.
Przejrzystość jako pretekst
OpenAI przepisała swój regulamin korzystania z usług, tłumacząc to potrzebą zapewnienia większej przejrzystości i czytelności reguł.
Istotnie jednak w zasadach firmy tym samym wprowadzono wiele ważnych zmian leksykalnych, które mogą prowadzić do dowolności w ich interpretowaniu. Pojemne słowo takie jak „szkoda” lub „krzywda” może być rozumiane wielorako – i niekoniecznie interpretowane jako nakaz powstrzymania się od korzystania z dużych modeli językowych dla zastosowań wojskowych, bo te tłumaczone są przez instytucje za nie odpowiedzialne jako działania na rzecz zapewnienia bezpieczeństwa publicznego.
Jakie mogą być konsekwencje zmian?
Intercept pisze, że obecnie nie wiadomo, jakie mogą być skutki zmian w regulaminie OpenAI, jeśli weźmiemy pod uwagę ich przełożenie na rzeczywistość.
Warto jednak spojrzeć na temat nowych zapisów w zasadach korzystania z dużych modeli językowych szerzej. Wykreślenie wprost sformułowanego zakazu ich użycia dla celów wojskowych uwalnia szereg możliwości legalnego wykorzystania ich do np. operacji informacyjnych – prowadzą je również państwa Zachodu. Duże modele językowe mogą służyć także do generowania kodu dla oprogramowania lub przetwarzania informacji związanych z działaniami militarnymi – celem wsparcia osób pracujących np. w działach analitycznych resortów takich jak ministerstwo obrony USA, które żywo interesuje się firmą Altmana.