Jak sztuczna inteligencja wpływa na nasze zdolności poznawcze?

Sztuczna inteligencja, która przebojem wdarła się w nasze życie pod postacią popularnych czatbotów, nie pozostaje bez wpływu na zdolności poznawcze. Jak to wpływa na nasze możliwości uczenia się i rozwoju?
Fot. Paweł Czerwiński / Unsplash
Fot. Paweł Czerwiński / Unsplash

Sztuczna inteligencja, która przebojem wdarła się w nasze życie pod postacią popularnych czatbotów, nie pozostaje bez wpływu na zdolności poznawcze. Jak to wpływa na nasze możliwości uczenia się i rozwoju?

Badania cytowane przez serwis Psychology Today wskazują, że rozwój sztucznej inteligencji nie pozostaje bez wpływu na nasze zdolności kognitywne. AI może wzmacniać nasze uprzedzenia, upośledzać zdolność do krytycznego myślenia, a ostatecznie – formatować sposób rozumowania na kształt tego, którym „posługują się” algorytmy dużych modeli językowych.

Serwis opisuje przypadek 17-letniej Mayi, którą niepokoją kwestie związane ze zmianami klimatycznymi. Nastolatka bardzo często rozmawia o tym ze swoim asystentem AI, który podczas konwersacji uczy się jej wzorców rozumowania, a także charakterystyki emocjonalnej. Odpowiedzi, które oferuje 17-latce AI, mogą być dla niej uspokajające i kojące, ale z drugiej strony – ze względu na materiał źródłowy, który przyswoił sobie czatbot – umacniać ją w przekonaniu, że z katastrofą klimatyczną nic nie da się już zrobić, a ludzkość jest zgubiona. 

Według naukowców, negatywny wpływ AI w tej sytuacji to nie tylko fałszywe przekonanie, w którym sztuczna inteligencja może utrzymywać swoją użytkowniczkę, ale także powolne i bardzo subtelne zniekształcanie połączeń neuronowych, które prowadzi do wzmożenia poczucia beznadziei i desperacji przy jednoczesnym tymczasowym oddziaływaniu uspokajającym oferowanych przez czatbota słów pocieszenia.

Cykliczne wzmacnianie przekonań

Według badaczy, systemy zaprojektowane tak, aby uczyć się na podstawie rozmów z nami i również w oparciu o nie przewidywać to, czego od nich oczekujemy, mogą wzmacniać nasze uprzedzenia i przekonania, jeśli z nich długotrwale korzystamy.

Wzmacnianie przekonań następuje przez personalizację, która dla twórców sztucznej inteligencji reklamujących nam swoje produkty jest ich zaletą. Personalizacja ta jednak przekłada się na wzajemne utwierdzanie użytkownika i algorytmu w konkretnych przekonaniach, tym silniejsze, im więcej razy powtórzony zostanie cały proces.

Mózg to nie duży model językowy

Psychology Today podkreśla, że działanie dużych modeli językowych różni się całkowicie od tego, w jaki sposób funkcjonuje ludzkie rozumowanie – choć oczywiście firmy oferujące LLM-y chcą, abyśmy uważali, że ich usługi rzeczywiście „myślą”.

Duże modele językowe generują odpowiedzi w formie tekstowej poprzez przewidywanie (na podstawie rachunku prawdopodobieństwa) sekwencji słów oczekiwanych przez użytkownika. Tymczasem, jak wskazano w tekście, ludzki proces myślenia to łączenie z sobą kontekstów, niuansów, emocji, a także czerpanie ze wcześniejszych doświadczeń.

Uzasadnioną wydaje się być zatem obawa, że jeśli za dużo będziemy przebywali w towarzystwie modeli językowych, to nasze rozumowanie zacznie upraszczać się do tego, którym „posługują się” algorytmy i w rezultacie nasze procesy intelektualne zaczną przypominać działanie LLM-ów.

Oddziaływanie tego rodzaju mechanizmów zaobserwowano już w kontekście mediów społecznościowych – ich szerokie upowszechnienie i silne oddziaływanie na zawsze zmieniło sposób, w jaki nawiązujemy relacje i jak podchodzimy do kwestii emocji w kontaktach międzyludzkich.

Rozleniwienie wśród uczniów?

Opisywane w artykule badania podkreślają, że sztuczna inteligencja może mieć dużo pozytywnych zastosowań np. w ramach edukacji, ale też jej wykorzystanie niesie z sobą ryzyko takie jak rezygnacja z podejmowania decyzji przez jej użytkowników, rozleniwienie intelektualne oraz skłonność do lekkomyślnego zarządzania własną prywatnością, wynikająca z nieświadomości zagrożeń związanych np. z udostępnianiem danych wrażliwych czatbotom.

Uczniowie, którzy częściej korzystają z czatbotów, mają według serwisu chętniej sięgać po „bezpieczne” narracje i style wypowiedzi, które tak lubi sztuczna inteligencja, znana nam wszystkim z formułowania okrągłych zdań, które nie wyrażają żadnych poglądów. Pisane przez takich uczniów wypracowania mają charakterystyczną strukturę – zazwyczaj pięć akapitów, które są bardzo uporządkowane, a także w pełni wpisują się w schemat wnioskowania – zupełnie tak, jak robią to odpowiedzi dużych modeli językowych.

Spłaszczają się też przemyślenia uczniów korzystających z AI –  według badaczy, interpretacje lektur takich jak „Zbrodnia i kara” Dostojewskiego w wykonaniu uczniów często posługujących się sztuczną inteligencją są bardziej banalne i obejmują najbardziej oczywiste zagadnienia. 

Modele nie służą nam, tylko samym sobie

„Duże modele językowe optymalizowane są pod kątem zaangażowania użytkownika, a nie polepszania naszych zdolności poznawczych” – czytamy w materiale. Czatboty priorytetowo traktują udzielanie odpowiedzi, które wpisują się w przekonania użytkownika, a złożoność argumentacji jak i zdolność kreatywnego myślenia to wartości, których nie uzyskamy w interakcji z LLM-ami – twierdzą eksperci stojący za badaniami. 

Użytkownicy, którzy częściej korzystają z czatbotów w procesie edukacji, będą bardziej skłonni do tego, aby myśleć tak, jak algorytmy – a wzorce charakterystyczne dla odpowiedzi udzielanych przez AI będą widoczne np. w sposobie robienia przez nich notatek. Zmieni się także ich rozumowanie – na przykład, osoby takie będą częściej poszukiwać wzorców statystycznych w różnych zjawiskach, a także szukać potwierdzenia danej tezy, zamiast zastanawiać się i kwestionować swoje własne uprzedzenia. 

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share