GPT-4 doskonalszy niż ChatGPT, ale wciąż wadliwy

Firma OpenAI zaprezentowała nową wersję dużego modelu językowego, na którym opiera się działanie jej budzących fascynację czatbotów. ChatGPT zadziwił świat zaledwie kilka miesięcy temu – jego następca GPT-4 obiecuje jednak bardziej ludzkie zachowanie i większą dokładność odpowiedzi. Wciąż również popełnia sporo błędów.
Fot. Jonathan Kemper / Unsplash

Firma OpenAI zaprezentowała nową wersję dużego modelu językowego, na którym opiera się działanie jej budzących fascynację czatbotów. ChatGPT zadziwił świat zaledwie kilka miesięcy temu – jego następca GPT-4 obiecuje jednak bardziej ludzkie zachowanie i większą dokładność odpowiedzi. Wciąż również popełnia sporo błędów.

GPT-4 to doskonalsza wersja modelu ChatGPT, który wywołał globalny boom na produkty oferujące możliwość korzystania z czatbotów opartych o duże modele językowe i algorytmy generatywnej sztucznej inteligencji.

Nowy model oczywiście uczy się na błędach starego, a jak obiecują jego twórcy – o wiele lepiej radzi sobie z podawaniem prawdziwych odpowiedzi na pytania, jak i oferuje szereg nowych możliwości. Potrafi np. rozpoznawać pismo odręczne, opisywać „widziane” obrazy, a także próbuje opowiadać dowcipy, co ma przekonać nas, że oto algorytmy stały się o krok bliżej ludzkiej wrażliwości.

Nadal daleko mu jednak do naszej inteligencji, choć świetnie radzi sobie z rozwiązywaniem testów, organizacją informacji i ich uszeregowanym prezentowaniem.

Dokładnie, ale bez polotu

GPT-4 z pewnością podaje więcej faktów, informacji zgodnych z klasyczną definicją prawdy, a także robi to w sposób bardziej precyzyjny, nie generalizuje i nie kluczy w odpowiedziach.

Nowy model pochłonął o wiele więcej informacji – również o błędach swojego poprzednika – i właśnie dlatego mamy wrażenie obcowania z czymś o wiele doskonalszym, niż to miało miejsce w przypadku ChatGPT. Liczą się subtelności: gdy poprzednia wersja modelu potrafiła wskazać, że dwie osoby publiczne są ze sobą spokrewnione, GPT-4 jest w stanie wskazać już dokładny stosunek pokrewieństwa lub powinowactwa.

Czasem jednak GPT-4 nie nadąża – jego szkolenie zakończyło się w sierpniu ub. roku, w niektórych przypadkach może więc mieć „przedatowane” informacje, np. nie wiedzieć, że zmieniło się piastowane przez kogoś stanowisko. Jak to mówią twórcy dużych modeli językowych: one mają nam pomagać, nie zaś odwalać robotę za nas – ostateczna weryfikacja podawanych przez czatbota informacji to nadal nasz obowiązek.

Czatbot sprawdza się jednak dobrze w poszukiwaniu logicznych braków lub nonsensów zawartych w podanej mu wypowiedzi – co może przydać się np. przy sprawdzaniu prac pisemnych lub egzaminowaniu osób ubiegających się np. o pracę w mediach.

Rozpoznawanie obrazów

Twórcy GPT-4 chwalą się, że nowa wersja modelu potrafi z dużą precyzją rozpoznawać przedstawiane jej obrazy, jak np. zdjęcie zrobione przez Teleskop Hubble’a i opisać je w dużej objętości tekstu z ogromną dokładnością. Dziennikarze „New York Times” postanowili przeprowadzić inny eksperyment – pokazali modelowi GPT-4 zdjęcie zawartości lodówki i zapytali, co można przyrządzić ze znajdujących się w środku składników. Odpowiedź może nie była fascynująca, ale była dostatecznie przypominająca ludzką, aby „zdać test”.

Rozpoznawanie obrazów w takiej wersji nie zostało jeszcze udostępnione wszystkim użytkownikom, jednak można spodziewać się, że w przyszłości to właśnie w tym kierunku będzie podążać OpenAI i jej epigoni.

Garbage in, garbage out

Śmietnik na wejściu daje śmietnik na wyjściu to stara maksyma wszystkich twórców oprogramowania, o której warto pamiętać w kontekście korzystania z GPT-4 jak i innych czatbotów opartych na dużych modelach językowych.

Ich działanie bazuje przede wszystkim na danych, na których były szkolone – i jak w przypadku wielu algorytmów, które są już wykorzystywane np. do predyktywnej polityki przeciwdziałania przestępczości, dane te są stronnicze. W przypadku modeli takich jak GPT-4 czy ChatGPT prawidłowość ta również zachodzi – dlatego wszystko, co mówi nam czatbot, powinniśmy traktować z dużą ostrożnością.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share