ChatGPT będzie pamiętał, co mówią jego użytkownicy – po to, aby móc z tych informacji korzystać w przyszłości i lepiej odpowiadać na potrzeby konkretnych osób. To bardzo zła informacja dla naszej prywatności.
ChatGPT zyska pamięć. To informacja, która na technoentuzjastach z pewnością zrobi bardzo pozytywne wrażenie, choć zdecydowanie powinna nas martwić. Nie, nie ze względu na krzykliwe nagłówki o tym, że sztuczna inteligencja zastąpi człowieka (bo ChatGPT to ostatecznie tylko duży model językowy), ale z powodu strat, jakie z tego tytułu poniesie nasza prywatność.
Nowa wersja czatbota ChatGPT ma według firmy OpenAI zapamiętywać informacje o użytkownikach zawarte w ich wypowiedziach – po to, aby wykorzystywać je w kolejnych „rozmowach” i lepiej dopasowywać się do potrzeb osób korzystających z tego narzędzia.
Wszystkożerny wirtualny asystent życia
OpenAI chce, aby ChatGPT stał się wirtualnym asystentem naszego życia, wspierającym nas w codziennych czynnościach. Jeśli zatem powiemy czatbotowi, że lubimy wyjeżdżać na aktywne fizycznie wakacje, nasz ulubiony region świata to Ameryka Południowa, a w dodatku cieszymy się z możliwości poznawania lokalnej kuchni, to informacje te zostaną zapamiętane przez ChatGPT i wykorzystane w chwili, kiedy np. poprosimy narzędzie o zaproponowanie nam możliwości na spędzenie kolejnego urlopu.
Produkt firmy Samuela Altmana ma w ten sposób konkurować z wirtualnymi asystentami głosowymi, które jakiś czas temu spopularyzowały koncerny takie jak Google i Amazon, wtłaczając nam wszystkim do domów „inteligentne głośniki”.
Nie jest wcale różowo
Wygląda niewinnie? Być może.
Wystarczy zamienić informacje dotyczące naszych wakacyjnych preferencji na te związane z poglądami politycznymi – i przemyśleć, jak sprofilowane informacje będzie podawał nam ChatGPT, domykając nas w światopoglądowej bańce jeszcze szczelniej, niż robi to Facebook czy jakakolwiek inna platforma społecznościowa.
Inną kwestią jest przetwarzanie przez OpenAI coraz większej ilości naszych prywatnych danych. Mogą to być informacje nie tylko na temat naszych preferencji konsumenckich, ale także dane takie jak np. wysokość zarobków, charakter wykonywanej pracy, czy informacje o tym, na jakie choroby cierpimy.
Inwazja w prywatność
Do tej pory ChatGPT zachowywał wszystkie konwersacje domyślnie – po to, by duży model językowy mógł dalej się na nich uczyć. Firma OpenAI odpowiadając na wątpliwości wokół tej kwestii twierdziła, że z pamięci algorytmu usuwane były wszystkie dane osobowe – wiemy jednak, że tak nie było – czego dowodem są opisane przez nas na TECHSPRESSO.CAFE wpadki.
Przyciśnięta do ściany firma – jak cytuje jej przedstawicieli dziennik „New York Times” – deklaruje, że to, co robi, nie różni się wcale od praktyk stosowanych przez wyszukiwarki takie jak Google, lub inne platformy internetowe zapamiętujące nasze preferencje.
Różni się – i to bardzo. Jednak, jeśli mamy pozostać na tym poziomie retorycznym, warto oświadczenia OpenAI potraktować jako sygnał alarmowy komunikujący nam, jak bardzo obniżyliśmy standardy własnej ochrony i jak pozwoliliśmy firmom technologicznym na pełnoskalową inwazję do naszego prywatnego świata.