Big Techy obiecują walkę z dezinformacją i deep fake’ami

Google, Meta, Microsoft i OpenAI podczas Monachijskiej Konferencji Bezpieczeństwa obiecały walkę z dezinformacją i deep fake’ami tworzonymi przy użyciu generatywnej sztucznej inteligencji. Chodzi o wybory – nie tylko w USA.
Monachijska Konferencja Bezpieczeństwa 2024

Google, Meta, Microsoft i OpenAI podczas Monachijskiej Konferencji Bezpieczeństwa obiecały walkę z dezinformacją i deep fake’ami tworzonymi przy użyciu generatywnej sztucznej inteligencji. Chodzi o wybory – nie tylko w USA.

Monachijska Konferencja Bezpieczeństwa to niewątpliwie jedno z najważniejszych wydarzeń w tegorocznym kalendarzu – przede wszystkim ze względu na zmieniającą się sytuację geopolityczną.

Uczestnicy dyskusji podeszli do niej ze świadomością, że rok 2024 to rok wyborczy na całym świecie – o czym można przeczytać na naszych łamach w tym tekście – a w związku z tym to również rok oddziaływania na sferę polityczną ryzyka, z którym nigdy wcześniej nie mieliśmy do czynienia w tym wymiarze.

Chodzi o sztuczną inteligencję generatywną i zagrożenie związane z oddziaływaniem tworzonych z jej użyciem fałszywych treści na sferę procesów demokratycznych.

Deklaracje wspólnej walki

Dziennik „Financial Times” informuje, że podczas zakończonych w niedzielę obrad największe firmy technologiczne świata – m.in. Google, Microsoft, Meta, Amazon, TikTok i OpenAI wspólnie zadeklarowały walkę z zagrożeniem ze strony fałszywych materiałów tworzonych przy użyciu generatywnej sztucznej inteligencji (m.in. deep fake’ów) w związku z wyborami i rosnącymi obawami dotyczącymi wpływu dezinformacji na demokrację.

Łącznie 20 firm sygnowało deklarację, w ramach której zapowiedziano współpracę w walce z tworzeniem zagrażających demokracji treści, jak i ich rozprzestrzenianiem się. Zdaniem firm „szybki rozwój sztucznej inteligencji tworzy nowe możliwości i wyzwania dla procesów demokratycznych”, a rozpowszechnianie wprowadzających w błąd treści może „zaszkodzić integralności procesów wyborczych”.

Wiceprezes Microsoftu Brad Smith cytowany przez „FT” ocenił, że firmy „są odpowiedzialne za zagwarantowanie, aby te narzędzia (generatywnej AI – red.) nie stały się bronią w wyborach”.

Deep fakes – rosnące zagrożenie

Obawy o to, jak mogą zostać wykorzystane algorytmy generatywnej AI, w kontekście wyborów rosną na całym świecie. Uwaga skupia się jednak głównie na USA, gdzie w listopadzie odbędą się wybory prezydenckie, w których Joe Biden będzie walczył o reelekcję na drugą kadencję, a Donald Trump – o powrót do Białego Domu.

Skutków wykorzystania generatywnej AI do nieuczciwej walki przed wyborami obawiają się także Indie, Wielka Brytania i Irlandia, jak i Unia Europejska – w czerwcu wybierać będziemy Parlament Europejski.

Firmy technologiczne, które są operatorami platform społecznościowych, od 2016 r. i pamiętnych wyborów w USA, w których zwyciężył Trump (i o których wiemy, że podlegały rosyjskiej ingerencji – wektorem manipulacji stały się media społecznościowe) są krytykowane za brak działań adekwatnych względem zagrożenia wypływającego z dezinformacji.

Algorytmy moderacji nie działają, a platformy monetyzują skrajne emocje użytkowników – dolewając oliwy do ognia, który nie zawsze rozniecają podmioty zainteresowane poprawą jakości demokracji w danym kraju.

Jakie działania ze strony firm?

Firmy, które podczas Monachijskiej Konferencji Bezpieczeństwa sygnowały wspólną deklarację, zapowiedziały, iż działania, które będą podejmować, obejmą m.in. dodawanie znaków wodnych do wszystkich materiałów graficznych generowanych przy użyciu A, a także modyfikowanych w ten sposób.

Spółki obiecały także większą przejrzystość działań w zakresie praktyk dotyczących moderacji, jak i przegląd modeli generatywnej sztucznej inteligencji, którymi operują – aby lepiej zrozumieć ryzyko związane z ich użyciem przeciwko wyborom.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Cognizant nie będzie już moderował “kontrowersyjnych” treści dla Facebooka

Firma Cognizant oferująca wielkim koncernom technologicznym pracowników, którzy jako zewnętrzni kontrahenci zatrudniani są przy moderacji treści, nie będzie już świadczyła usług dla Facebooka w zakresie moderacji materiałów “kontrowersyjnych”. To pokłosie głośnego reportażu serwisu The Verge, który wiosną tego roku zwrócił uwagę na trudne warunki pracy osób zatrudnianych w Cognizancie i wynikające z natury wykonywanych obowiązków problemy dla zdrowia psychicznego – ocenia brytyjski publiczny nadawca BBC.
Total
0
Share