Dlaczego ufamy czatbotom? Działają proste mechanizmy w mózgu

Dlaczego jesteśmy skłonni zaufać sztucznej inteligencji i wierzyć we wszystko, co czytamy w rozmowach z czatbotami? Okazuje się, że to wina tego, jak działa nasz mózg.
Dlaczego ufamy AI? / Fot. Agence Olloweb / Unsplash
Dlaczego ufamy AI? / Fot. Agence Olloweb / Unsplash

Dlaczego jesteśmy skłonni zaufać sztucznej inteligencji i wierzyć we wszystko, co czytamy w rozmowach z czatbotami? Okazuje się, że to wina tego, jak działa nasz mózg.

Czatboty zasilane przez duże modele językowe projektowane są tak, by brzmieć dla nas przekonująco i skutecznie wywierać na nas wpływ. Nasza skłonność do zaufania technologiom ma jednak znacznie dłuższą tradycję, niż powszechnie dostępne usługi takie jak ChatGPT czy Gemini – a dobrym przykładem może być wiara, którą pokładamy choćby w dokładności Map Google, o których powstaje mnóstwo żartów, gdy wyprowadzają użytkowników na manowce.

Chociaż czatboty, gdy rozpoczynamy konwersację, informują nas że mogą popełniać błędy i podawać nieprawdziwe informacje (robią to nie w trosce o użytkownika, ale o to, aby firma nie musiała borykać się z kłopotami prawnymi, np. od osób, które uznają, że nieprawdziwe informacje na ich temat wypluwane przez popularnego bota stanowią szkodę dla ich wizerunku lub pracy), to w „magiczny” sposób im ulegamy. Nie zauważamy, gdy wierzymy w nieprawdziwe dane, albo przyjmujemy za pewnik logicznie brzmiące, choć nie mające nic wspólnego z rzeczywistością wyjaśnienia różnych problemów.

Co to jest Automation Bias?

Naukowcy już wiele lat temu opisali naszą skłonność do nadmiernego polegania na zautomatyzowanych systemach i rozwiązaniach, która przekłada się na popełnianie szeregu błędów poznawczych. W języku angielskim zjawisko to nazywa się automation bias. Sformułowanie to nie ma ustalonego, polskojęzycznego tłumaczenia – ale polega w skrócie na tym, że jako użytkownicy np. oprogramowania takiego jak czatboty, mamy skłonność do wiary w rezultaty ich pracy, nawet jeśli zaprzecza to posiadanej przez nas wiedzy lub nawet zdrowemu rozsądkowi.

Zdaniem cytowanej przez dziennik „Washington Post” profesor z Uniwersytetu Południowej Kalifornii Kate Crawford, systemy generatywnej AI jeszcze wzmagają już wcześniej obserwowane tendencje.

Jak podkreśla ekspertka, „systemy generatywnej sztucznej inteligencji posługują się zarówno autorytatywnym tonem (w udzielanych odpowiedziach – red.), jak i otacza je aura nieskończonych kompetencji, które mogą sugerować użytkownikom, że każda ich odpowiedź jest poprawna – bez konieczności weryfikowania jej”.

Być jak Dr House

Postać dr House’a, którego dewizą było „wszyscy kłamią”, może być dobrym wzorcem roli na dzisiejsze czasy – bo jeśli zdamy sobie sprawę z tego, że nasz mózg domyślnie kieruje nas w stronę zaufania do dużych modeli językowych, które zdecydowanie zbyt często mijają się z prawdą, to jednym ze środków zaradczych może być rozwinięcie w sobie naturalnej nieufności. 

Pamięć o tym, że oparte o duże modele językowe czatboty zostały specjalnie zaprojektowane tak, by nas przekonywać i byśmy obdarzali je zaufaniem, również pomoże – przede wszystkim w dystansowaniu się do odpowiedzi udzielanych przez AI i sprawdzaniu ich.

Nieufność i przekonanie o tym, że warto sprawdzać informacje, które uzyskujemy z „magicznych pudełek”, którymi są dla większości z nas narzędzia sztucznej inteligencji, może pomóc także ocalić krytyczne myślenie i zdolności analityczne, najbardziej zagrożone przez rozwój „ułatwiających nam życie” usług.

Total
0
Shares
1 komentarze
  1. Chciałam tylko skomplementować język, jakim się posługujesz. Bardzo komunikatywny. Odświeżające, po wszystkich genwrowanych tekstach! Widać, że autorka czyta książki 🙂

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Fact-checking dla każdego – jak nie dać się oszukać w sieci?

2 kwietnia obchodzimy trzeci już Międzynarodowy Dzień Fact-Checkingu, czyli weryfikacji informacji w mediach (również w internecie). Fact-checking to przede wszystkim odpowiedzialność dziennikarzy i wydawców, żyjemy jednak w czasach, w których wiele podmiotów celowo dezinformuje bądź wykorzystuje media do manipulacji odbiorcami na wiele różnych sposobów. Weryfikowanie informacji, które konsumujemy, to zatem powinność każdego z nas. Jak się do niego zabrać? Prezentujemy krótki poradnik.
Czytaj dalej

Zamieszki na Kapitolu były streamowane w sieci i ktoś na nich zarobił

Twitter, Facebook i YouTube w ostatnich dniach na potęgę banują użytkowników powiązanych z ekstremistycznymi ruchami, które uczestniczyły w zamieszkach na Kapitolu, do których doszło w środę 6 stycznia. Na sytuacji korzysta platforma Dlive, o której najpewniej nikt z Was nie słyszał, a która pozwoliła streamować uczestnikom zamieszek całość zajść na żywo i jeszcze na tym zarobić.
Total
0
Share