Z czatbota ChatGPT wyciekają hasła i prywatne dane. Co się dzieje?

ChatGPT ujawnia prywatne dane innych użytkowników, w tym – hasła, tytuły niepublikowanych dotąd badań naukowych, prezentacji biznesowych, a także fragmenty kodu
ChatGPT błędnie uznawany jest za bezpieczne narzędzie wspomagania pracy
ChatGPT błędnie uznawany jest za bezpieczne narzędzie wspomagania pracy

ChatGPT ujawnia prywatne dane innych użytkowników, w tym – hasła, tytuły niepublikowanych dotąd badań naukowych, prezentacji biznesowych, a także fragmenty kodu. Zgłaszane przez czytelnika jednego z amerykańskich serwisów incydenty są naprawdę alarmujące.

Czytelnik serwisu Ars Technica poinformował redakcję o serii dziwnych zdarzeń z udziałem czatbota ChatGPT, który podczas rozmowy nieoczekiwanie zaczął… ujawniać prywatne dane innych, przypadkowych osób. Wśród “niezamawianych informacji” znalazły się m.in. dane do logowania w usługach cyfrowych, a także np. tytuły niepublikowanych dotąd prac naukowych lub prezentacji biznesowych, jak i fragmenty kodu.

Zwykły błąd, a może poważne zagrożenie?

Redakcja Ars otrzymała siedem zrzutów ekranu, spośród których dwa wydały jej się szczególnie martwiące. Zawierały one dane do logowania – nazwy użytkownika oraz hasła – kont najwyraźniej powiązanych z systemem wspierającym pracę osób zatrudnionych w farmacji i obsługujących wydawanie leków na receptę.

ChatGPT został w tym przypadku najpewniej wykorzystany do rozwiązywania jednego z problemów technicznych, które pojawiły się podczas korzystania z portalu, a potem – “nauczył się” wpisanych do niego przez pracownika danych.

Najciekawsze w tym wypadku jest to, że ChatGPT ewidentnie przyswoił sobie całą konwersację dotyczącą problemów z obsługą portalu, począwszy od danych pracownika i firmy, skończywszy na danych dwóch kont, które korzystają z systemu.

Więcej wycieków

Problemy z systemem dla farmacji to nie jedyna poufna treść, która wyciekła w przypadkowej konwersacji z ChatemGPT. Inne, zgłoszone przez tego samego czytelnika, objęły tytuły niepublikowanych badań naukowych, prezentacji biznesowych oraz cały skrypt napisany w języku PHP.

Każda ujawniona przypadkowo treść dotyczyła innej przypadkowej osoby, a poszczególne fragmenty konwersacji nie miały ze sobą związku.

Ars Technica przypomina, że to nie pierwszy przypadek, kiedy ChatGPT ma problemy z ochroną danych osobowych i prywatnością – w ub. roku w marcu firma OpenAI wyłączyła go na pewien czas po tym, jak usługa zaczęła pokazywać tytuły konwersacji innych osób przypadkowym użytkownikom, naruszając w ten sposób prywatność “rozmów” z czatbotem.

Na łamach TECHSPRESSO.CAFE można przeczytać tekst, w którym przytaczamy historię pracowników koncernu Samsung oraz problemów z ujawnianiem poufnych danych związanych z nieodpowiedzialnym korzystaniem z czatbota. Generatywna sztuczna inteligencja może ułatwić pracę – warto sobie jednak zadać pytanie, jaki będzie tego koszt.


Kup nam kawę na BuyCoffeeTo:

Postaw mi kawę na buycoffee.to
Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share