ChatGPT pozyskał wrażliwe dane Samsunga od szukających ułatwień pracowników

Pracownicy Samsunga stwierdzili, że ułatwią sobie pracę – jak bardzo wielu innych, korzystających dziś ze słynnego modelu ChatGPT użytkowników sieci. Popełnili błąd – bo właśnie w ten sposób wyciekły wrażliwe dane południowo-koreańskiego koncernu.
Fot. Focal Foto / Flickr

Pracownicy Samsunga stwierdzili, że ułatwią sobie pracę – jak bardzo wielu innych, korzystających dziś ze słynnego modelu ChatGPT użytkowników sieci. Popełnili błąd – bo właśnie w ten sposób wyciekły wrażliwe dane południowo-koreańskiego koncernu.

Południowo-koreański serwis Economist opisał przypadek trzech programistów Samsunga, którzy chcieli ułatwić sobie pracę „karmiąc” ChatGPT wrażliwymi danymi koncernu.

W jednym przypadku był to kod źródłowy, w którym słynny model OpenAI miał znaleźć błędy i go zoptymalizować, w drugim – zapis wewnętrznego spotkania zespołu, który miał zostać przez ChatGPT zamieniony w prezentację.

Nie przeczytali reguł korzystania z bijącego od końca ub. roku rekordy popularności narzędzia – ChatGPT ostrzega bowiem jasno, że dane, które w niego wpisujemy, mogą być wykorzystywane do dalszego szkolenia algorytmów. Mimo tego, do okienka na zapytania czatbota wciąż trafiają prywatne dane wielu użytkowników, jak i – co pokazuje przypadek z Korei Południowej – poufne dane korporacyjne.

Jakie dane stracił Samsung?

Wśród informacji, które z inicjatywy pracowników koncernu trafiły do modelu ChatGPT, był kod źródłowy, nad którym pracowano w dziale półprzewodników i zapis wewnętrznego spotkania.

W przypadku obu tych danych, ważne jest nawet nie to, ile informacji trafiło do czatbota pod względem objętościowym, ale co zawierało się w danych, które tam wpisano. Czy na spotkaniu omawiano ważne rzeczy? Czy kod zawierał elementy kluczowe np. dla działania nieopatentowanej jeszcze technologii? Tego nie wiemy.

Opowieść z Korei Południowej uczy jednak, aby bardzo uważnie dobierać informacje, którymi chcemy podzielić się z generatywną sztuczną inteligencją. Nie zadba ona o naszą prywatność, tak samo, jak i o bezpieczeństwo naszych poufnych danych biznesowych.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Asystenci głosowi: szansa czy zagrożenie dla prasy?

Urządzenia z funkcją asystenta głosowego zaczęły być w ostatnim czasie postrzegane przez koncerny medialne jako szansa na odbudowę pozycji prasy tradycyjnej. Pojawiają się jednak obawy, że mogą jeszcze bardziej uzależnić ludzi od algorytmów kontrolowanych przez wielkie firmy technologiczne i w przyszłości mogą stać się zagrożeniem dla pluralizmu informacyjnego.
Total
0
Share