YouTube wymusi oznaczanie materiałów manipulowanych przy użyciu AI

Należąca do Google’a platforma YouTube wymusi na użytkownikach oznaczanie materiałów generowanych przez sztuczną inteligencję. Wymóg ma dotyczyć obrazów uznanych za „realistyczne” lub sfabrykowanych materiałów audio.
YouTube wprowadza nową politykę względem AI
YouTube wprowadza nową politykę względem AI

Należąca do Google’a platforma YouTube wymusi na użytkownikach oznaczanie materiałów modyfikowanych lub generowanych przez sztuczną inteligencję. Wymóg ma dotyczyć obrazów uznanych za „realistyczne” lub sfabrykowanych materiałów audio.

YouTube wymusi na twórcach korzystających z platformy oznaczanie materiałów tworzonych lub manipulowanych przy użyciu sztucznej inteligencji.

Wkrótce w interfejsie wgrywania materiałów na platformę pojawi się nowe okienko, w którym znajdzie się pole do deklaracji, czy zamieszczany przez twórcę materiał zawiera treści generowane przy użyciu AI.

Z perspektywy widza, filmy, w których znajdą się tego typu materiały, będą w widoczny sposób oznaczane jako „treści modyfikowane”.

Próba walki z dezinformacją?

Według serwisu Ars Technica, który informuje o sprawie, wprowadzenie tego rodzaju wymogów ma na celu ograniczenie dezinformacji rozpowszechnianej z wykorzystaniem generowanych algorytmicznie materiałów.

YouTube skupia się w swojej nowej polityce przede wszystkim na treściach, które mogą być klasyfikowane jako deep fakes – podszywających się pod wizerunek realnie istniejących osób, lub też powielających komputerowo ich głos.

O tym, czym są deep fakes i jak mogą być wykorzystywane do politycznych manipulacji, można przeczytać na łamach TECHSPRESSO.CAFE w tym tekście.

Tu z kolei można zapoznać się z analizą ryzyka, jakie treści tego rodzaju stwarzają w kontekście roku 2024, najbardziej intensywnego od lat pod kątem wyborów demokratycznych odbywających się w licznych krajach świata.

Wyłącznie treści realistyczne

Co ciekawe, polityka YouTube dotycząca oznaczania treści generowanych przez sztuczną inteligencję lub modyfikowanych z jej użyciem jak zwykle zostawia bardzo dużo przestrzeni do interpretacji.

Okazuje się bowiem, że YouTube będzie zobowiązywało twórców tylko do deklarowania tych algorytmicznie tworzonych materiałów, które są realistyczne. Te, które mają charakter ewidentnie fantastyczny, fikcyjny i w żaden sposób nie naśladują rzeczywistości – deklarowane nie będą musiały być.

Będziemy musieli zatem zadeklarować, jeśli w naszym nagraniu pojawi się np. generowana komputerowo postać papieża Franciszka, jednak – jeśli będziemy generować postać w stroju papieża na księżycu, bez uwzględnienia realistycznego odwzorowania konkretnej twarzy – oznaczenie już nie będzie konieczne.

Deklarowane będą też musiały być przeróbki rzeczywistych lokalizacji wprowadzające w błąd np. poprzez sugestię, że w zabytkowym zamku wybuchł pożar (dla przykładu – wideo przedstawiające płonący zamek Książ, z komputerowo generowanym pożarem), lub generowana algorytmicznie powódź w istniejącym realnie mieście.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Fact-checking dla każdego – jak nie dać się oszukać w sieci?

2 kwietnia obchodzimy trzeci już Międzynarodowy Dzień Fact-Checkingu, czyli weryfikacji informacji w mediach (również w internecie). Fact-checking to przede wszystkim odpowiedzialność dziennikarzy i wydawców, żyjemy jednak w czasach, w których wiele podmiotów celowo dezinformuje bądź wykorzystuje media do manipulacji odbiorcami na wiele różnych sposobów. Weryfikowanie informacji, które konsumujemy, to zatem powinność każdego z nas. Jak się do niego zabrać? Prezentujemy krótki poradnik.
Total
0
Share