OpenAI robi PR i pokazuje jak będzie walczyć z użyciem GPT do dezinformacji

Firma OpenAI ogłosiła szereg działań, które ma zamiar przedsięwziąć aby zapobiegać wykorzystaniu jej dużych modeli językowych do dezinformacji. To inicjatywa przede wszystkim wizerunkowa – w tym roku w USA odbędą się wybory prezydenckie.
Na ile obietnice OpenAI znajdą odbicie w realnych działaniach?
Na ile obietnice OpenAI znajdą odbicie w realnych działaniach?

Firma OpenAI ogłosiła szereg działań, które ma zamiar przedsięwziąć aby zapobiegać wykorzystaniu jej dużych modeli językowych do dezinformacji. To inicjatywa przede wszystkim wizerunkowa – w tym roku w USA odbędą się wybory prezydenckie.

Firma OpenAI – twórcy słynnego czatbota ChatGPT – ogłosiła szereg działań, które ma zamiar realizować przed wyborami prezydenckimi w USA, które mają się odbyć w tym roku. Ich celem ma być zapobieganie wykorzystywaniu jej produktów do dezinformacji, która wskazywana jest jako jeden z najpoważniejszych rodzajów ryzyka w kontekście szybkiego rozwoju generatywnej sztucznej inteligencji. Więcej na ten temat pisaliśmy w tym tekście.

Wiele obietnic i strach przed złym PR-em

Na swoim blogu firmowym OpenAI zadeklarowała, że chce stworzyć gwarancje tego, aby jej technologie nie były wykorzystywane w sposób, który może przełożyć się na zagrożenia dla integralności wyborów. Jednocześnie, spółka podkreśliła, iż ochrona integralności wymaga współpracy od wszystkich stron demokratycznych procesów.

„Chcemy stworzyć gwarancję tego, że nasze systemy AI są budowane, wdrażane i wykorzystywane bezpiecznie. Jak każda nowa technologia, narzędzia te stwarzają zarówno wiele możliwości, jak i rzucają wyzwania. Są także czymś niespodziewanym, bezprecedensowym – i będziemy dalej pracować nad naszym podejściem (do ryzyka – red.) w miarę dowiadywania się o tym, jak te narzędzia są wykorzystywane” – czytamy.

Spółka Samuela Altmana stwierdziła, że przygotowując się do wyborów, które w 2024 r. odbędą się w „największych demokracjach świata”, ma zamiar m.in. zwiększyć widoczność rzetelnych informacji na temat wyborów, egzekwować zapisy regulaminów korzystania z usług, a także pogłębić przejrzystość swoich działań.

Główne zagrożenie – deep fakes

OpenAI zadeklarowała, że chce przeciwdziałać nadużyciom, na pierwszym miejscu wyróżniając tworzenie z wykorzystaniem jej usług deep fake’ów – tj. materiałów, które mają oszukiwać odbiorców podszywając się np. pod osoby publiczne i wkładając im w usta wypowiedzi, które nigdy nie padły, bądź też – w przypadku materiałów graficznych – przedstawiając je w sytuacjach, które nie miały miejsca.

W kontekście czatbotów, deep fakes mogą być tworzone z wykorzystaniem dużych modeli językowych, które będą podszywać się pod polityka – i np. odpowiadać na pytania wyborców w zmanipulowany sposób.

Innym możliwym ofensywnym wykorzystaniem generatywnej sztucznej inteligencji są operacje wpływu – realizowane np. z użyciem tekstów generowanych przez ChatGPT w mediach społecznościowych, z ukierunkowaniem na manipulację elektoratami. Również o tego typu zagrożeniu w swoim wpisie na blogu wspomina firma OpenAI.

Perswazja, lobbing, manipulacje

Ciekawie brzmi komunikat informujący, iż OpenAI wciąż pracuje nad lepszym zrozumieniem skutecznego wykorzystania jej narzędzi do spersonalizowanej perswazji. Firma zadeklarowała, że dopóki nie opracuje wiedzy na ten temat w wyższym stopniu, nie będzie pozwalała użytkownikom na budowanie w oparciu o jej duże modele językowe czatbotów mających znaleźć zastosowanie w kampaniach politycznych lub lobbingu.

Rozpoznany został też problem zaufania i tego, że jedną z kluczowych kwestii w jego budowie jest świadomość osoby wchodzącej w interakcję z AI, że tak właśnie jest. OpenAI zadeklarowała, że nie pozwoli użytkownikom budować czatbotów, które będą udawały realnie istniejące osoby – np. polityków – lub instytucje.

Podobnie, zakazane ma być tworzenie takich aplikacji, które bedą zniechęcały wyborców do udziału w demokracji poprzez np. podawanie fałszywych informacji nt. przebiegu procesów wyborczych lub rozpowszechnianie twierdzeń, że wybory nie mają znaczenia, a głos oddawany przez indywidualnego wyborcę się nie liczy.

W nowych wersjach modeli ponadto ma być udostępniona możliwość zgłaszania firmie OpenAI nadużyć wprost z poziomu użytkownika.

Większa przejrzystość

Bardzo ważną deklaracją ze strony firmy jest ta dotycząca pracy nad rozwiązaniami, które mają pomóc odbiorcom treści rozróżniać obrazy generowane przez sztuczną inteligencję. To szczególnie istotne w kontekście deep fake’ów, o których była już w tym tekście mowa wyżej.

OpenAI twierdzi, że pracuje obecnie nad narzędziem, które może wykrywać obrazy generowane przez algorytm DALL-E. „Nasze wewnętrzne testy wykazały pomyślne pierwsze rezultaty, nawet, jeśli obraz był poddany powszechnym modyfikacjom” – twierdzi spółka. Wkrótce narzędzie ma trafić do testów, w których udział wezmą m.in. dziennikarze, badacze i platformy internetowe.

Przejrzystość dotyczy też działania ChatuGPT, który ma podawać coraz więcej źródeł informacji. Jego użytkownicy mają też wkrótce mieć w ramach usługi dostęp do informacji ze świata z linkami do mediów i wskazaniem źródła. O tym, dlaczego firma decyduje się na taki krok, warto pomyśleć w kontekście konfliktu prawnego z dziennikiem „New York Times”.

Realne działania czy PR?

Niewątpliwie, działania ze strony OpenAI przed wyborami – zwłaszcza tymi, które odbędą się w tym roku w USA – są niezbędne.

Warto jednak spojrzeć szerzej na deklaracje firmy, która poza kręgami technoentuzjastów jest raczej odbierana przez pryzmat zagrożeń, które stwarzają jej produkty i technologie. Deklaracje działań przed wyborami i zamiar przyczyniania się do ochrony demokracji, który firma Samuela Altmana tak głośno komunikuje, mają podbudować jej wizerunek i sprawić, że zyska lepszą prasę.

Ile z tego wszystkiego okaże się prawdą? Niestety – będziemy musieli przekonać się w praktyce.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share