Z czatbota ChatGPT wyciekają hasła i prywatne dane. Co się dzieje?

ChatGPT ujawnia prywatne dane innych użytkowników, w tym – hasła, tytuły niepublikowanych dotąd badań naukowych, prezentacji biznesowych, a także fragmenty kodu
ChatGPT błędnie uznawany jest za bezpieczne narzędzie wspomagania pracy
ChatGPT błędnie uznawany jest za bezpieczne narzędzie wspomagania pracy

ChatGPT ujawnia prywatne dane innych użytkowników, w tym – hasła, tytuły niepublikowanych dotąd badań naukowych, prezentacji biznesowych, a także fragmenty kodu. Zgłaszane przez czytelnika jednego z amerykańskich serwisów incydenty są naprawdę alarmujące.

Czytelnik serwisu Ars Technica poinformował redakcję o serii dziwnych zdarzeń z udziałem czatbota ChatGPT, który podczas rozmowy nieoczekiwanie zaczął… ujawniać prywatne dane innych, przypadkowych osób. Wśród “niezamawianych informacji” znalazły się m.in. dane do logowania w usługach cyfrowych, a także np. tytuły niepublikowanych dotąd prac naukowych lub prezentacji biznesowych, jak i fragmenty kodu.

Zwykły błąd, a może poważne zagrożenie?

Redakcja Ars otrzymała siedem zrzutów ekranu, spośród których dwa wydały jej się szczególnie martwiące. Zawierały one dane do logowania – nazwy użytkownika oraz hasła – kont najwyraźniej powiązanych z systemem wspierającym pracę osób zatrudnionych w farmacji i obsługujących wydawanie leków na receptę.

ChatGPT został w tym przypadku najpewniej wykorzystany do rozwiązywania jednego z problemów technicznych, które pojawiły się podczas korzystania z portalu, a potem – “nauczył się” wpisanych do niego przez pracownika danych.

Najciekawsze w tym wypadku jest to, że ChatGPT ewidentnie przyswoił sobie całą konwersację dotyczącą problemów z obsługą portalu, począwszy od danych pracownika i firmy, skończywszy na danych dwóch kont, które korzystają z systemu.

Więcej wycieków

Problemy z systemem dla farmacji to nie jedyna poufna treść, która wyciekła w przypadkowej konwersacji z ChatemGPT. Inne, zgłoszone przez tego samego czytelnika, objęły tytuły niepublikowanych badań naukowych, prezentacji biznesowych oraz cały skrypt napisany w języku PHP.

Każda ujawniona przypadkowo treść dotyczyła innej przypadkowej osoby, a poszczególne fragmenty konwersacji nie miały ze sobą związku.

Ars Technica przypomina, że to nie pierwszy przypadek, kiedy ChatGPT ma problemy z ochroną danych osobowych i prywatnością – w ub. roku w marcu firma OpenAI wyłączyła go na pewien czas po tym, jak usługa zaczęła pokazywać tytuły konwersacji innych osób przypadkowym użytkownikom, naruszając w ten sposób prywatność “rozmów” z czatbotem.

Na łamach TECHSPRESSO.CAFE można przeczytać tekst, w którym przytaczamy historię pracowników koncernu Samsung oraz problemów z ujawnianiem poufnych danych związanych z nieodpowiedzialnym korzystaniem z czatbota. Generatywna sztuczna inteligencja może ułatwić pracę – warto sobie jednak zadać pytanie, jaki będzie tego koszt.


Kup nam kawę na BuyCoffeeTo:

Postaw mi kawę na buycoffee.to
Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Rosyjscy cyberprzestępcy próbują wykraść dane o szczepionce przeciw SARS-CoV-2

Rosyjscy cyberprzestępcy działający w ramach grupy hakerskiej APT29 (Cozy Bear) aktywnie próbują wykraść dane dotyczące prac nad szczepionką przeciwko koronawirusowi SARS-CoV-2 wywołującemu chorobę COVID-19 – twierdzą przedstawiciele rządów USA, Wielkiej Brytanii i Kanady. Kraje te wydały oficjalne ostrzeżenie dotyczące prób nielegalnego pozyskiwania danych przez działających na zlecenie Kremla cyberszpiegów już 16 lipca.
Czytaj dalej

Chiny wykorzystują systemy rozpoznawania twarzy do kontroli zachowania obywateli

Zwolennicy szerokiego wykorzystania technologii rozpoznawania twarzy na Zachodznie, np. w Wielkiej Brytanii czy USA, często argumentują, że technologia ta pozwala bardzo sprawnie i na dużą skalę zarządzać ryzykiem, z jakim wcześniej służby porządkowe i organy ścigania sobie nie radziły. Chodzi tu m.in. o brutalne przestępstwa, działalność terrorystów i handel ludźmi.
Total
0
Share