Algorytmy traumy. Nowe case study Fundacji Panoptykon

Przycisk eliminowania z naszego strumienia aktualności na Facebooku treści, których nie chcemy widzieć, nie działa – to tylko jeden z niepokojących wniosków, które wypływają z najnowszego case study Fundacji Panoptykon zatytułowanego “Algorytmy traumy 2”.
Barefoot Communications / Unsplash

Przycisk eliminowania z naszego strumienia aktualności na Facebooku treści, których nie chcemy widzieć, nie działa – to tylko jeden z niepokojących wniosków, które wypływają z najnowszego case study Fundacji Panoptykon zatytułowanego “Algorytmy traumy 2”.

Zapewne nie ma wśród nas osoby, która kiedyś nie próbowałaby podczas przebywania na Facebooku skorzystać z przycisku “Ukryj post”. Robimy to z różnych powodów – coś nas wkurza, martwi, przeraża, smuci. Nie chcemy tego widzieć – postanawiamy zatem “wyklikać post” w nadziei, że więcej go już nie zobaczymy, a sam Facebook będzie źle na nas działających treści proponował mniej, niż do tej pory.

Jak działają “treści proponowane”?

Działanie strumienia aktualności Facebooka, który podsuwa nam treści do obejrzenia podczas korzystania z tego portalu, opiera się na algorytmach. Mechanizmy rekomendacji treści, to najlepiej strzeżona tajemnica mediów społecznościowych – nie tylko tych należących do koncernu Marka Zuckerberga, ale i innych – takich, jak np. TikTok czy YouTube.

To, w jaki sposób działają te algorytmy, jest nieprzejrzyste – nie mamy dostępu do całej wiedzy na temat sposobu, w jaki podejmowane są decyzje o tym, jakie treści nam zaserwować. Wiemy jedynie, że platformy mediów społecznościowych robią to na podstawie wcześniejszej analizy naszych preferencji – zarówno tych, które wynikają z aktywności w danym serwisie, jak i poza nią – np. na wszystkich stronach internetowych, na których znajduje się przycisk “Lubię to!” Facebooka, pozwalający mu gromadzić dane na temat naszych interakcji z treściami poza tą platformą.

Liczy się nasza uwaga

Dla Facebooka, a także dla innych platform, kluczowe z biznesowego punktu widzenia jest zaangażowanie użytkowników. Max Fischer w swojej książce “W trybach chaosu”, której krótką recenzję znajdziecie w tym poście na moim koncie na Instagramie, pisze iż Facebook szybko zrozumiał, że zaangażowanie użytkowników jest zależne od emocji. Dlatego właśnie najsilniej wartościowane przez Metę są te reakcje, które wyrażają gniew, smutek, a dopiero potem szczęście czy współczucie.

To one – silne emocje – przykuwają nas do usług cyfrowych najdłużej i prowokują nas do przeglądania kolejnych treści, jak i podejmowania dyskusji. Badanie Panoptykonu potwierdza – emocje to czynnik, który na trwałe może odmienić to, w jaki sposób działają mechanizmy platform, z których korzystamy. Zwłaszcza, jeśli “zorientują się” one, czego się boimy i co najsilniej oddziałuje na naszą psychikę.

Spirala niepokoju

Ze studium przypadku Panoptykonu wynika, że użytkowniczka Joanna, która jest bohaterką opracowania, skorzystała z udostępnianych przez Metę narzędzi, aby wyeliminować ze swojego strumienia aktualności te treści, które na nią źle oddziaływały.

Jak się jednak szybko okazało, wraz z “wyklikiwaniem” niechcianych postów, zaczęło ich przybywać. To dość nieoczekiwany rezultat działania narzędzia, które miało pomóc nam pozbyć się treści, których sobie nie życzymy, prawda? W badaniu padają liczby – po dwóch miesiącach aktywnego działania użytkowniczki, proponowane przez algorytmy treści na Facebooku stanowiły 22 proc. wszystkich postów. Z tej grupy 56 proc. stanowiły posty, których Joanna sobie na swojej tablicy nie życzyła.

Co więcej – pod wpływem kontaktu z toksycznymi treściami, jej stan psychiczny zaczął się pogarszać. Nic dziwnego – to naturalne w przypadku każdego i każdej z nas.

Ukrywanie postów nie działa

Z opracowania Panoptykonu wynika wprost – jako użytkownicy i użytkowniczki Facebooka nie mamy żadnego wpływu na to, co serwuje nam strumień aktualności. “Przycisk ukryj post nie działa” – pisze na swojej stronie Fundacja.

Oznacza to jasno – Meta nie honoruje naszej odmowy. Nie szanuje naszego komunikatu, że nie chcemy czegoś oglądać. Będzie nam to serwować – bo prawdopodobieństwo, że klikniemy w post o groźnej chorobie, której się boimy, czując podskórny lęk o siebie i swoich bliskich, jest dużo większe. I można na nim zarobić – przecież to zaangażowanie.

Kiedy uczestniczyłam w spotkaniu organizowanym przez Panoptykon wokół tego studium przypadku, przedstawiciele firmy Meta nie pojawili się na nim – choć dostali zaproszenie. To również dużo mówi o naszej roli i o tym, jak traktują nas królowie mediów społecznościowych. Zwolennicy szybkiego rozwoju nowych technologii i integracji różnych usług cyfrowych z naszym życiem powiedzą, że przecież zawsze możemy przestać korzystać z Facebooka, jeśli nie podoba nam się, jak on działa.

Ja jednak powiem, że jako użytkownicy i użytkowniczki mamy prawo czuć się bezpiecznie – bo prywatne firmy technologiczne swoimi narzędziami zdominowały cyfrową agorę, fałszywie stawiając się w miejscu symbolu wolnych i cywilizowanych dyskusji, przestrzeni dla każdego. To nieprawda.

Jesteśmy dla nich tylko biomasą.

Cała nadzieja w implementacji Aktu o usługach cyfrowych.


Kup nam kawę na BuyCoffeeTo:

Postaw mi kawę na buycoffee.to
Total
0
Shares
1 komentarz
  1. Nie case study tylko studium przypadku.

    „każdego i każdej z nas„ – dziwny zwrot.

    Materiał i sprawa bardzo ciekawe. Media społecznościowe szkodzą użytkownikom i każdy miałby lepiej bez nich.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Asystenci głosowi: szansa czy zagrożenie dla prasy?

Urządzenia z funkcją asystenta głosowego zaczęły być w ostatnim czasie postrzegane przez koncerny medialne jako szansa na odbudowę pozycji prasy tradycyjnej. Pojawiają się jednak obawy, że mogą jeszcze bardziej uzależnić ludzi od algorytmów kontrolowanych przez wielkie firmy technologiczne i w przyszłości mogą stać się zagrożeniem dla pluralizmu informacyjnego.
Total
0
Share