ChatGPT ujawnia prywatne dane innych użytkowników, w tym – hasła, tytuły niepublikowanych dotąd badań naukowych, prezentacji biznesowych, a także fragmenty kodu. Zgłaszane przez czytelnika jednego z amerykańskich serwisów incydenty są naprawdę alarmujące.
Czytelnik serwisu Ars Technica poinformował redakcję o serii dziwnych zdarzeń z udziałem czatbota ChatGPT, który podczas rozmowy nieoczekiwanie zaczął… ujawniać prywatne dane innych, przypadkowych osób. Wśród „niezamawianych informacji” znalazły się m.in. dane do logowania w usługach cyfrowych, a także np. tytuły niepublikowanych dotąd prac naukowych lub prezentacji biznesowych, jak i fragmenty kodu.
Zwykły błąd, a może poważne zagrożenie?
Redakcja Ars otrzymała siedem zrzutów ekranu, spośród których dwa wydały jej się szczególnie martwiące. Zawierały one dane do logowania – nazwy użytkownika oraz hasła – kont najwyraźniej powiązanych z systemem wspierającym pracę osób zatrudnionych w farmacji i obsługujących wydawanie leków na receptę.
ChatGPT został w tym przypadku najpewniej wykorzystany do rozwiązywania jednego z problemów technicznych, które pojawiły się podczas korzystania z portalu, a potem – „nauczył się” wpisanych do niego przez pracownika danych.
Najciekawsze w tym wypadku jest to, że ChatGPT ewidentnie przyswoił sobie całą konwersację dotyczącą problemów z obsługą portalu, począwszy od danych pracownika i firmy, skończywszy na danych dwóch kont, które korzystają z systemu.
Więcej wycieków
Problemy z systemem dla farmacji to nie jedyna poufna treść, która wyciekła w przypadkowej konwersacji z ChatemGPT. Inne, zgłoszone przez tego samego czytelnika, objęły tytuły niepublikowanych badań naukowych, prezentacji biznesowych oraz cały skrypt napisany w języku PHP.
Każda ujawniona przypadkowo treść dotyczyła innej przypadkowej osoby, a poszczególne fragmenty konwersacji nie miały ze sobą związku.
Ars Technica przypomina, że to nie pierwszy przypadek, kiedy ChatGPT ma problemy z ochroną danych osobowych i prywatnością – w ub. roku w marcu firma OpenAI wyłączyła go na pewien czas po tym, jak usługa zaczęła pokazywać tytuły konwersacji innych osób przypadkowym użytkownikom, naruszając w ten sposób prywatność „rozmów” z czatbotem.
Na łamach TECHSPRESSO.CAFE można przeczytać tekst, w którym przytaczamy historię pracowników koncernu Samsung oraz problemów z ujawnianiem poufnych danych związanych z nieodpowiedzialnym korzystaniem z czatbota. Generatywna sztuczna inteligencja może ułatwić pracę – warto sobie jednak zadać pytanie, jaki będzie tego koszt.