Algorytmy Twittera promują nienawiść – jednak to nic dziwnego

Algorytmy Twittera rekomendują użytkownikom treści zawierające mowę nienawiści, jak i np. przejawy rasizmu, które pojawiają się w zakładce „Dla Ciebie”. To efekt uboczny wdrożenia mechanizmów rekomendacji treści na podstawie zainteresowań.
Fot. Andre Hunter / Unsplash

Algorytmy Twittera rekomendują użytkownikom treści zawierające mowę nienawiści, jak i np. przejawy rasizmu, które pojawiają się w zakładce „Dla Ciebie”. To efekt uboczny wdrożenia mechanizmów rekomendacji treści na podstawie zainteresowań.

Wnioski takie wysnuł dziennik „Washington Post”, którego redakcja przeanalizowała algorytm rekomendacji Twittera i wykryła, że konta, które obserwują osoby o skrajnych, niekiedy wręcz ekstremistycznych poglądach, dostają w rekomendacjach sekcji „Dla Ciebie” mieszankę treści z innych profili o podobnym kierunku, w tym – propozycje wpisów z konta samozwańczego neonazisty, który o swojej afiliacji politycznej mówi wprost. Wiele z tych kont zostało wcześniej zawieszonych za naruszanie regulaminu Twittera, jednak po przejęciu platformy przez Elona Muska przywrócono je do serwisu mimo zapowiedzi nowego właściciela, że nie będzie promował mowy nienawiści.

Odkrywanie Ameryki

Wszystko to brzmi jak odkrywanie Ameryki – redakcja „WaPo” Urbi et Orbi ogłasza, że wie, jak działa algorytm rekomendacji treści, który od zawsze zaprojektowany był tak, aby wzmacniać efekt bańki informacyjnej i proponować użytkownikom o określonym profilu światopoglądowym więcej tego samego.

To właśnie ten mechanizm był ogromnie krytykowany po 2016 roku, kiedy w wyborach prezydenckich w USA wygrał Donald Trump i okazało się, że nie bez pomocy Rosjan, manipulujących opinią publiczną m.in. na Twitterze i Facebooku, gdzie łatwo wpaść w komnaty pogłosowe i nieustannie nakręcać emocje coraz bardziej polaryzującymi komunikatami.

Szukanie dziury w całym?

Sekcja „Dla Ciebie” pojawiła się na Twitterze w styczniu tego roku po tym, jak Elon Musk zabrał się za modernizację platformy. Domyślnie na tej stronie mają znajdować się sugerowane przez algorytm treści, który ma kierować się wieloma czynnikami, np. popularnością danego wpisu i tego, w jaki sposób wchodzą z nim w interakcje osoby z naszej sieci kontaktów.

To zwięzłe wytłumaczenie tego, jak działa (i jak od dawna działał) algorytm rekomendowania treści na Twitterze i w wielu innych sieciach społecznościowych – w skrócie, bierze on pod uwagę nasze zaangażowanie, ale także przygląda się uważnie temu, w jakiej społeczności uczestniczymy i co jest popularne wśród obserwowanych przez nas osób.

Zdziwienie tym faktem przez dziennikarzy „Washington Post” samo w sobie jest zdumiewające – bo przecież media społecznościowe nie istnieją od wczoraj. Nie ma też absolutnie żadnej kontrowersji w tym, że konta o ekstremistycznych poglądach są sugerowane w sekcji „Dla Ciebie” profilom… obserwującym ekstremistyczne poglądy.

Posłuchaj odcinka audycji TECHSPRESSO o Elonie Musku

To, co może natomiast zastanawiać, to kwestia moderacji w serwisie – Musk określa samego siebie jako „absolutystę wolności słowa” i w ramach redukcji 75 proc. etatów oraz współprac po przejęciu Twittera, zlikwidował niemalże m.in. zespół odpowiedzialny za moderację treści na platformie.

Moderacja o dyskusyjnej skuteczności nie jest wcale lepsza, niż brak moderacji – pół żartem, pół serio – może przypadek Twittera udowadnia właśnie, że zamiast liczyć na to, że ktoś za nas „ogarnie” to, co oglądamy w internecie, sami powinniśmy zdobyć na tyle orientacji w świecie, aby móc odróżniać treści, z którymi warto podejmować interakcje od tych, które można jedynie ignorować?

Total
0
Shares
1 komentarze
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share