Należąca do Google’a platforma YouTube wymusi na użytkownikach oznaczanie materiałów modyfikowanych lub generowanych przez sztuczną inteligencję. Wymóg ma dotyczyć obrazów uznanych za „realistyczne” lub sfabrykowanych materiałów audio.
YouTube wymusi na twórcach korzystających z platformy oznaczanie materiałów tworzonych lub manipulowanych przy użyciu sztucznej inteligencji.
Wkrótce w interfejsie wgrywania materiałów na platformę pojawi się nowe okienko, w którym znajdzie się pole do deklaracji, czy zamieszczany przez twórcę materiał zawiera treści generowane przy użyciu AI.
Z perspektywy widza, filmy, w których znajdą się tego typu materiały, będą w widoczny sposób oznaczane jako „treści modyfikowane”.
Próba walki z dezinformacją?
Według serwisu Ars Technica, który informuje o sprawie, wprowadzenie tego rodzaju wymogów ma na celu ograniczenie dezinformacji rozpowszechnianej z wykorzystaniem generowanych algorytmicznie materiałów.
YouTube skupia się w swojej nowej polityce przede wszystkim na treściach, które mogą być klasyfikowane jako deep fakes – podszywających się pod wizerunek realnie istniejących osób, lub też powielających komputerowo ich głos.
O tym, czym są deep fakes i jak mogą być wykorzystywane do politycznych manipulacji, można przeczytać na łamach TECHSPRESSO.CAFE w tym tekście.
Tu z kolei można zapoznać się z analizą ryzyka, jakie treści tego rodzaju stwarzają w kontekście roku 2024, najbardziej intensywnego od lat pod kątem wyborów demokratycznych odbywających się w licznych krajach świata.
Wyłącznie treści realistyczne
Co ciekawe, polityka YouTube dotycząca oznaczania treści generowanych przez sztuczną inteligencję lub modyfikowanych z jej użyciem jak zwykle zostawia bardzo dużo przestrzeni do interpretacji.
Okazuje się bowiem, że YouTube będzie zobowiązywało twórców tylko do deklarowania tych algorytmicznie tworzonych materiałów, które są realistyczne. Te, które mają charakter ewidentnie fantastyczny, fikcyjny i w żaden sposób nie naśladują rzeczywistości – deklarowane nie będą musiały być.
Będziemy musieli zatem zadeklarować, jeśli w naszym nagraniu pojawi się np. generowana komputerowo postać papieża Franciszka, jednak – jeśli będziemy generować postać w stroju papieża na księżycu, bez uwzględnienia realistycznego odwzorowania konkretnej twarzy – oznaczenie już nie będzie konieczne.
Deklarowane będą też musiały być przeróbki rzeczywistych lokalizacji wprowadzające w błąd np. poprzez sugestię, że w zabytkowym zamku wybuchł pożar (dla przykładu – wideo przedstawiające płonący zamek Książ, z komputerowo generowanym pożarem), lub generowana algorytmicznie powódź w istniejącym realnie mieście.