Deep Fakes – nowe narzędzie dezinformacji

Jeśli kiedykolwiek zobaczysz nagranie polityka mówiącego słowa, których nigdy nie wypowiedział lub hollywoodzką gwiazdę w podrzędnym filmie dla dorosłych – nie nastrajaj swojego telewizora. Być może oglądasz właśnie deep fakes, zmanipulowane materiały wideo.

Jeśli kiedykolwiek zobaczysz nagranie polityka mówiącego słowa, których nigdy nie wypowiedział lub hollywoodzką gwiazdę w podrzędnym filmie dla dorosłych – nie nastrajaj swojego telewizora. Być może oglądasz właśnie deep fakes, zmanipulowane materiały wideo.

Czym jest technologia Deep fake?

Filmy powstałe przy użyciu technologii deep fake, które manipulują rzeczywistością stają się coraz bardziej realistyczne ze względu na rozwój w dziedzinie sztucznej inteligencji. Niosą ze sobą potencjał tworzenia nowych rodzajów dezinformacji o trudnych do przewidzenia konsekwencjach. Sam termin deep fake powstał zresztą z połączenia słów “deep learning” (głębokie uczenie) oraz “fake” (coś fałszywego).

Wraz z postępem technologicznym narastają obawy o to, jak zmanipulowane materiały wideo mogą być wykorzystywane do różnych celów, zarówno przez hakerów jak i innych aktorów, na przykład ze sceny geopolitycznej.

wywiadzie udzielonym agencji AFP Paul Scharre, ekspert amerykańskiego think tanku Center for a New American Security (CNAS), specjalizującego się w tematyce sztucznej inteligencji i bezpieczeństwa ocenił, że niemal nieunikniona jest sytuacja, w której fałszywe materiały wideo będą wykorzystane w wyborach powszechnych.

Zmanipulowane wideo mogą wykorzystane do oczernienia konkretnego kandydata lub do tworzenia pewnego rodzaju alternatywnej rzeczywistości, która zaprzeczy rzeczywistym wydarzeniom uchwyconym przez wiarygodne źródła.

Nie jesteśmy obecnie na etapie, w którym tego typu filmy mogą zostać wykorzystane jako broń, ale ten moment już nadchodzi – uważa profesor Uniwersytetu Teksańskiego Robert Chesney.

Jak odróżnić prawdę od fałszu?

Naukowcy od pewnego czasu pracują nad lepszymi metodami wykrywania fałszywych wiadomości wideo. Wspierają je w tym prywatne firmy, takie jak Google i agencje rządowe, jak Amerykańska Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności (DARPA), która od 2015 roku zajmuje się analizą mediów.

Jednym z badaczy zajmujących się technologią deep fake jest profesor informatyki Siwei Lyu na University of Albany w Nowym Jorku. Badania Lyu skupiają się na wykrywaniu fałszywych wideo częściowo poprzez analizę szybkości mrugania.

Szacuje się, że normalny, zdrowy człowiek mruga przeciętnie od 15 do 20 razy na minutę. Algorytmy stosowane w większości fałszywych wideo są jednak – jeszcze – niedoskonałe i nie odzwierciedlają tej naturalnej cechy człowieka. Na poniższych dwóch filmach można porównać prawdziwe nagranie (góra) i fałszywe (dół)

Jednak sami naukowcy przyznają, że nawet wykrycie podrobionego materiału wideo może nie wystarczyć, jeśli stał się już on filmem wirusowym i powoduje chaos, niepokój społeczny.

Ważniejsze jest, aby przerwać ten proces niż analizować filmy – dodaje Lyu.

Fałszywe wideo jako narzędzie dezinformacji

Popularyzacja aplikacji, za pomocą których można stworzyć realistycznie wyglądające fałszywe materiały filmowe grozi podważeniem pojęcie prawdy zarówno w mediach, jak i może stanowić kłopot podczas rozpraw sądowych. Wystarczy się tylko zastanowić nad sytuacją, kiedy ktoś wpadnie na pomysł, aby jako swoje alibi przedstawić fałszywy film, który następnie musi być analizowany przez zespół biegłych sądowych. Brzmi przerażająco, prawda?

Zmanipulowane materiały wideo nie są nowością w przestrzeni internetowej; ewoluowały przez wiele lat. W centrum uwagi jednak znalazły się w kwietniu zeszłego roku, kiedy to serwis BuzzFeed umieścił celowo spreparowane wideo, w którym to rzekomo były prezydent USA Barack Obama miał obrażać jego następcę Donalda Trumpa.

Na poniższym filmie możecie zobaczyć jakie rezultaty udało się osiągnąć redakcji BuzzFeed.

Wprawne oko dostrzeże, że “coś tutaj nie gra” i twarz Baracka Obamy wydaje się nienaturalna. Jednak przede wszystkim czytając ten artykuł zostaliście już uczuleni przeze mnie, że takie zjawisko istnieje. Wyobraźmy sobie jednak sytuację, w której podobny film wyświetlany jest np. w komunikacji miejskiej, na kiepskim ekranie. Większość ludzi zobaczy go “w biegu” nie przywiązując uwagi do detali, zapamiętają jedynie zmanipulowany przekaz jaki będzie płynął z tego filmu.

W 2018 roku popularne stały się również filmy pornograficzne, w których dzięki technologii zamiany twarzy (“face swap” – znanej chociażby ze Snapchata), umieszczano znane aktorki takie jak Emma Watson czy Scarlett Johansson. Skłoniło to m.in. Twittera, Reddita i serwis Pornhub do zakazu umieszczania zmanipulowanych filmów wideo. Nie jest jednak jasne, czy tego typu zakaz może w całości wyeliminować to zjawisko.

Według Scharre’a obecnie mamy do czynienia z wyścigiem zbrojeń pomiędzy tymi, którzy tworzą te filmy i badaczami bezpieczeństwa, którzy starają się stworzyć skuteczne narzędzia do wykrywania tego typu filmów wideo.

Wydaje się, że jednym ze sposobów walki ze zmanipulowanymi filmami wideo jest zwiększanie świadomości społecznej; edukowanie ludzi, aby stali się bardziej sceptyczni wobec treści w internecie, które wielu uznaje bardzo często za niepodważalny dowód.

Kiedy już wideo zacznie krążyć w sieci, może być za późno, aby naprawić wszystkie powstałe szkody.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Cognizant nie będzie już moderował “kontrowersyjnych” treści dla Facebooka

Firma Cognizant oferująca wielkim koncernom technologicznym pracowników, którzy jako zewnętrzni kontrahenci zatrudniani są przy moderacji treści, nie będzie już świadczyła usług dla Facebooka w zakresie moderacji materiałów “kontrowersyjnych”. To pokłosie głośnego reportażu serwisu The Verge, który wiosną tego roku zwrócił uwagę na trudne warunki pracy osób zatrudnianych w Cognizancie i wynikające z natury wykonywanych obowiązków problemy dla zdrowia psychicznego – ocenia brytyjski publiczny nadawca BBC.
Total
0
Share