Prawdziwy internet umarł, prawdziwa przestrzeń informacyjna się skończyła, bo przejęła ją technologia sterowana przez amerykański rząd – ile prawdy tkwi w popularnej teorii spiskowej?
Internet umarł – tak głosi jedna ze współczesnych teorii spiskowych, której pochodzenie przypisuje się środowiskom związanym z forami 4chan i Wizardchan.
Gdy siadałam do pisania tego tekstu przeszło przez mi myśl, że robię właśnie to, na co żartownisie z takich forów mają nadzieję – czyli daję się wciągnąć w prowokację robiąc jeszcze więcej szumu wokół jakiegoś ich wpisu. Nie zamierzam się więc rozwodzić nad tym, kiedy i gdzie dokładnie powstała koncepcja, jakie były jej pierwotne założenia, czy była „na serio” i kto jest jej autorem. Zwłaszcza, że wspomniane wpisy miały pochodzić z 2020 czy 2021 r. i donosić, że internet umarł w okolicach 2016 czy 2017 r., podczas gdy o śmierci sieci (wtedy w trochę innym, ale podobnym kontekście) rozpisywano się już wiele lat wcześniej.
Można z grubsza przyjąć, że sama teoria, inspirowana wcześniejszymi tekstami, narodziła się gdzieś na forach spiskowych teoretyków, a następnie została rozpropagowana przez media i platformy internetowe. Dużo ważniejsze wydaje się jednak, czym ta koncepcja stała się obecnie.
Czym jest Dead Internet Theory?
To z jednej strony klasyczna teoria spiskowa, ze „złym rządem” (tutaj: amerykańskim), który za pośrednictwem „złych korporacji” próbuje przejąć władzę nad światem, a przynajmniej nad ludzkością. Używa w tym celu botów, algorytmów i sztucznej inteligencji.
W efekcie takich działań większość internetu jest już nieprawdziwa, bo treści wytwarzają nie ludzie, lecz technologia – a przeczucie, że jest inaczej, to tylko gaslighting uprawiany przez przedstawicieli firm technologicznych i amerykańskiego rządu.
Jako dowód zwolennicy tej idei przytaczają raport Imperva (Bot Traffic Report 2016), wedle którego za 51,8 proc. ruchu w internecie miały w 2016 r. odpowiadać boty.
Strony poświęcone temu pomysłowi są nieraz ilustrowane grafikami przedstawiającymi rzeszę groźnie wyglądających humanoidalnych robotów.
Ziarno prawdy?
Z drugiej strony jednak, każda dezinformacja powinna składać się częściowo z prawdy i Dead Internet Theory wypełnia te znamiona znakomicie.
Internet zdecydowanie nie jest już tym miejscem, którym był kiedyś. Zdominowały go wielkie firmy technologiczne. Rzeczywiście za znaczną część ruchu w internecie odpowiadają algorytmy, boty i sztuczna inteligencja.
Firma Cyara, której Elon Musk zlecił analizę w związku z planami przejęcia Twittera orzekła, że boty stanowią 11 proc. całkowitej bazy użytkowników platformy. Przedstawiciele Google mówią o wzroście treści wytworzonych przez AI stworzonych tak, by „ograć” rankingi wyszukiwarki i wypozycjonować spam czy inne strony kiepskiej jakości. Google walczy z tym za pomocą „ukierunkowanych działań” – czyli własnych algorytmów.
Firmy technologiczne z jednej strony często donoszą o walce ze szkodliwymi treściami i zagrożeniami związanymi z AI – a z drugiej same inwestują w sztuczną inteligencję, przy ponoszeniu prawie zerowych kosztów na moderację.
Jeśli dołożymy do tego brak przejrzystości – trudno jednoznacznie ocenić, kiedy za cenzurę danych treści odpowiada „błąd algorytmu”, a kiedy świadome działanie ludzi, którzy kazali ten algorytm zaprogramować.
Coraz trudniej jest rozróżnić, kiedy mamy do czynienia z wytworem technologii, a kiedy z dziełem człowieka. Obustronnie – bo podczas, gdy niektóre firmy zatrudniają nisko opłacanych pracowników w Indiach, by ci udawali pracę algorytmów, niektórzy ludzie generują swoją pracę za pomocą LLM-ów udając, że sami są jej autorami.
Sztuczna inteligencja pomaga w szerzeniu dezinformacji – od przestępstw popełnianych z prywatnych czy ekonomicznych motywacji, przez fałszywe informacje w okresie klęsk żywiołowych, po manipulacje polityczne w okresie wyborczym czy w czasie konfliktów zbrojnych.
W social mediach powstają fałszywe konta z fałszywymi znajomymi i obserwującymi – oraz firmy oferujące sprzedaż lajków i wyświetleń. Efektem tego są profile automatycznie promowane i podrzucane zwykłym ludziom. Platformy wykorzystują algorytmy, aby negatywnie wpływać na użytkowników – i wbrew Dead Internet Theory, nie dotyczy to tylko amerykańskich korporacji. Wystarczy przyjrzeć się TikTokowi.
Teksty z 2022 r. straszyły, że gdy ChatGPT-3 się uwolni, do 2025-2030 roku ponad 99 proc. treści w internecie będzie wytwarzana za pomocą AI.
Chociaż szacunki te wydają się przesadzone, to nie można ignorować problemu. Przemiany, jakich doświadczamy w ostatnim czasie w związku z upowszechnieniem się sztucznej inteligencji, porównuje się – nie bez powodu – do rewolucji przemysłowej, wprowadzenia elektryczności czy pojawienia się internetu.
Jeden problem to algorytmy wyszukiwarek czy social mediów, które wykorzystują dane o użytkownikach by ich profilować, monetyzować i podsyłać reklamę behawioralną. Jednak powód, dla którego w mediach ponownie pojawiają się doniesienia o Dead Internet Theory, to wzrost roli generatywnej sztucznej inteligencji.
Czatboty udające ludzi i generujące treści przez długi czas były dość prymitywne i łatwe do rozpoznania. W dobie generatywnej AI się to zmienia. LLM-y uczą się na wytworach ludzkiej pracy i są coraz doskonalsze. Coraz trudniej rozpoznać, co jest tworem człowieka, a co technologii. Rozmowa bota z botem już nikogo nie dziwi.
AI – wszechobecna i promowana
Sztuczna inteligencja jest nie tylko wszechobecna, ale także wszędzie promowana. Szeroko zachęca się do jej używania, z jednej strony podkreślając wygodę, oszczędność czasu i inne możliwości, a z drugiej strasząc, że jeśli nie zaczniemy z niej nałogowo korzystać – pozostaniemy w tyle. Inni przecież masowo wdrażają technologiczne rozwiązania i korzystają z ich dobrodziejstw.
AI ma wspomagać lub zastępować lekarzy, programistów, nauczycieli, prawników, pisarzy, dziennikarzy czy artystów. Technologia ma napisać uchwałę, zdiagnozować powód płaczu niemowlaka i rozpoznać nastrój pracownika. Mamy algorytmy do rozpoznawania twarzy, aplikacje do walki z depresją, inteligentne odkurzacze mapujące nasze mieszkania i czatboty do tego stopnia przypominające ludzi, że niektórzy próbują z nimi wchodzić w romantyczne relacje.
Niedawno media rozpisywały się o nastolatku, który pod wpływem takiej relacji popełnił samobójstwo. Jedne redakcje zwalniają współpracowników, by w ramach „eksperymentu” zastąpić ich sztucznie wygenerowanymi „dziennikarzami”, inne wyjątkowo namolnie zachęcają, by artykuł o szkodliwym wpływie AI przeczytała redakcyjna sztuczna inteligencja.
Ludzie zajmujący się weryfikowaniem, czy dana treść została sztucznie wygenerowana, z ewangelickim zacięciem zachęcają do stosowania narzędzi AI do weryfikowania, czy dana treść została wytworzona przez AI.
Czynnik ludzki
Na pierwszy rzut oka boty wydają się stawać „coraz mądrzejsze” – za to ludzie już niekoniecznie. Czasami rozmawiając z człowiekiem można odnieść wrażenie, że to rozmowa z botem – bo niektórych przerasta komunikacja w rodzimym języku.
Przesadny technoentuzjazm, połączony z pogardą do nauk humanistycznych, jako tych „przestarzałych i niepotrzebnych”, zbiera swoje żniwo. I chociaż to duże uproszczenie (czy w ogóle można mówić o „mądrości” w przypadku kodu komputerowego?) – to i tak budzi niepokój, nie tylko w kontekście „ogłupiających” algorytmów platform.
Niejednokrotnie powtarza się, że na końcu stoi człowiek: to on ma sprawdzać, czy technologia się nie pomyliła. W praktyce ten czynnik ludzki bywa zawodny. Niejeden pracownik taką weryfikację odpuści – czasami z lenistwa, często jednak ze zmęczenia i nadmiaru obowiązków.
Jeśli ktoś oczekuje, że lekarz czy naukowiec w krótkim czasie przejrzy setki czy tysiące dokumentów za pomocą narzędzia, a następnie skutecznie zweryfikuje, czy to narzędzie się nie pomyliło – to zwyczajnie oczekuje cudu.
Teoria o rządowym spisku z definicji budzi uśmiechy politowania i skojarzenia z ludźmi w foliowych czapeczkach, ale gdy pomyśli się o realnych związkach służb i polityków z firmami technologicznymi – już przestaje być zabawnie.
Nie chodzi tutaj tylko o FBI współpracujące z Big Techami (vide newsletterowa prasówka TECHSPRESSO.CAFE z 29. 10. 2024) – zjawisko ma charakter globalny. Problem dotyczy zarówno chińskiej dyktatury, jak i krajów Unii Europejskiej (np. opisywane przeze mnie projekt kontroli czatu czy niemiecki Sicherheitspaket). Tak działają biznes i polityka, nie trzeba tutaj dorabiać żadnych teorii spiskowych.
Sporym nadużyciem byłoby jednak zwalenie całej winy na polityków czy korporacje. Decydowanie się na skorzystanie z rozwiązań technologicznych, mniej lub bardziej zaawansowanych, to nieraz kwestia mody i wygody użytkowników. Jedni nie wyobrażają sobie życia bez pełnej cyfryzacji każdego jego aspektu – mają aplikacje do wszystkiego, „inteligentne” domy z kamerami, lodówkę z WiF i robota kuchennego, który dyktuje im najmniejszy krok procesu gotowania zupy. Inni korzystają z papierowej mapy, czytają papierowe książki, nie uznają zakupów przez internet i jakoś od tego nie umierają. Większość użytkowników znajdzie się gdzieś pomiędzy – częściowo samodzielnie tworząc treści do internetu, częściowo zlecając to algorytmom, a częściowo stykając się z nimi wbrew własnej woli.
Teorię spiskową i jej zwolenników z zasady łatwo jest wyśmiać. Takie rozwiązanie ma dodatkowy aspekt praktyczny: marginalizuje się „garstkę oszołomów”, utrudniając im przeniknięcie do mainstreamu. Są jednak minusy takiego podejścia. Po pierwsze wyśmiewani jeszcze bardziej zamykają się w swoich bańkach. Po drugie: dana koncepcja może przyciągać całe spektrum różnych ludzi: od szczerych wyznawców kosmitów, poprzez zwykłych trolli i żartownisiów, po osoby, które mają wątpliwości w konkretnej kwestii, a o pozostałych aspektach nigdy nie słyszeli.
Osoby sceptycznie nastawione do AI czy Big Techów już teraz mają łatkę zacofanych dziwaków. W technoentuzjastycznym społeczeństwie łatwiej będzie je zdyskredytować, zrównując z wyznawcami płaskiej Ziemi. Dlatego warto na Dead Internet Theory spojrzeć z dystansem i skupić się na realnych problemach. A do nich należy wzrost roli algorytmów, sztucznej inteligencji i ich wpływu na infosferę i ludzi.
To, czy tymi kwestiami interesują się też fani teorii spiskowych, jest tutaj kwestią drugorzędną. Warto zamieszanie wokół tej koncepcji wykorzystać jako pretekst do dyskusji czy refleksji nie tylko nad tym, ile jest botów i sztucznej inteligencji w internecie, ale także nad tym, czy i w jaki sposób my sami się do tego przyczyniamy i zastanowić się, czy aby na pewno musimy podbić sensacyjne doniesienia, które właśnie wyświetliły nam się w socialmediach albo użyć w pracy narzędzia AI, które zachwalała miła pani na szkoleniu sponsorowanym przez Big Techy. Zwłaszcza, jeśli do tej pory obywaliśmy się w pracy bez niego.
Źródła
Benji Edwards, “Dead Internet theory” comes to life with new AI-powered social media app – arstechnica.com, 19 września 2024
Kaitlyn Tiffany, Maybe You Missed It, but the Internet ‘Died’ Five Years Ago – The Atlantic, 31 sierpnia 2021
Chris Anderson, Michael Wolf, The Web Is Dead. Long Live the Internet – Wired, 17 sierpnia 2010
James Ball, Is anyone out there? – prospectmagazine.co.uk, 14 września 2024
What is AI code generation? – github.com
Sofie Hvitved, What if 99% of the metaverse is made by AI? – cifs.dk, 24 lutego 2022
Jody Serrano, Google Says It’s Purging All the AI Trash Littering Its Search Results – gizmodo.com, 5 marca 2024 r.
Rotem Baruchin, Musk v. Twitter: Read CNN’s Article on Cyabra’s Analysis – cyabra.com, 11 października 2022
Alex Hern, TechScape: On the internet, where does the line between person end and bot begin? – theguardian.com, 30 kwietnia 2024
Michael K. Keller, The Flourishing Business of Fake YouTube Views – nytimes.com, 11 sierpnia 2018