Dlaczego jesteśmy skłonni zaufać sztucznej inteligencji i wierzyć we wszystko, co czytamy w rozmowach z czatbotami? Okazuje się, że to wina tego, jak działa nasz mózg.
Czatboty zasilane przez duże modele językowe projektowane są tak, by brzmieć dla nas przekonująco i skutecznie wywierać na nas wpływ. Nasza skłonność do zaufania technologiom ma jednak znacznie dłuższą tradycję, niż powszechnie dostępne usługi takie jak ChatGPT czy Gemini – a dobrym przykładem może być wiara, którą pokładamy choćby w dokładności Map Google, o których powstaje mnóstwo żartów, gdy wyprowadzają użytkowników na manowce.
Chociaż czatboty, gdy rozpoczynamy konwersację, informują nas że mogą popełniać błędy i podawać nieprawdziwe informacje (robią to nie w trosce o użytkownika, ale o to, aby firma nie musiała borykać się z kłopotami prawnymi, np. od osób, które uznają, że nieprawdziwe informacje na ich temat wypluwane przez popularnego bota stanowią szkodę dla ich wizerunku lub pracy), to w „magiczny” sposób im ulegamy. Nie zauważamy, gdy wierzymy w nieprawdziwe dane, albo przyjmujemy za pewnik logicznie brzmiące, choć nie mające nic wspólnego z rzeczywistością wyjaśnienia różnych problemów.
Co to jest Automation Bias?
Naukowcy już wiele lat temu opisali naszą skłonność do nadmiernego polegania na zautomatyzowanych systemach i rozwiązaniach, która przekłada się na popełnianie szeregu błędów poznawczych. W języku angielskim zjawisko to nazywa się automation bias. Sformułowanie to nie ma ustalonego, polskojęzycznego tłumaczenia – ale polega w skrócie na tym, że jako użytkownicy np. oprogramowania takiego jak czatboty, mamy skłonność do wiary w rezultaty ich pracy, nawet jeśli zaprzecza to posiadanej przez nas wiedzy lub nawet zdrowemu rozsądkowi.
Zdaniem cytowanej przez dziennik „Washington Post” profesor z Uniwersytetu Południowej Kalifornii Kate Crawford, systemy generatywnej AI jeszcze wzmagają już wcześniej obserwowane tendencje.
Jak podkreśla ekspertka, „systemy generatywnej sztucznej inteligencji posługują się zarówno autorytatywnym tonem (w udzielanych odpowiedziach – red.), jak i otacza je aura nieskończonych kompetencji, które mogą sugerować użytkownikom, że każda ich odpowiedź jest poprawna – bez konieczności weryfikowania jej”.
Być jak Dr House
Postać dr House’a, którego dewizą było „wszyscy kłamią”, może być dobrym wzorcem roli na dzisiejsze czasy – bo jeśli zdamy sobie sprawę z tego, że nasz mózg domyślnie kieruje nas w stronę zaufania do dużych modeli językowych, które zdecydowanie zbyt często mijają się z prawdą, to jednym ze środków zaradczych może być rozwinięcie w sobie naturalnej nieufności.
Pamięć o tym, że oparte o duże modele językowe czatboty zostały specjalnie zaprojektowane tak, by nas przekonywać i byśmy obdarzali je zaufaniem, również pomoże – przede wszystkim w dystansowaniu się do odpowiedzi udzielanych przez AI i sprawdzaniu ich.
Nieufność i przekonanie o tym, że warto sprawdzać informacje, które uzyskujemy z „magicznych pudełek”, którymi są dla większości z nas narzędzia sztucznej inteligencji, może pomóc także ocalić krytyczne myślenie i zdolności analityczne, najbardziej zagrożone przez rozwój „ułatwiających nam życie” usług.
Chciałam tylko skomplementować język, jakim się posługujesz. Bardzo komunikatywny. Odświeżające, po wszystkich genwrowanych tekstach! Widać, że autorka czyta książki 🙂