Pracownicy Samsunga stwierdzili, że ułatwią sobie pracę – jak bardzo wielu innych, korzystających dziś ze słynnego modelu ChatGPT użytkowników sieci. Popełnili błąd – bo właśnie w ten sposób wyciekły wrażliwe dane południowo-koreańskiego koncernu.
Południowo-koreański serwis Economist opisał przypadek trzech programistów Samsunga, którzy chcieli ułatwić sobie pracę „karmiąc” ChatGPT wrażliwymi danymi koncernu.
W jednym przypadku był to kod źródłowy, w którym słynny model OpenAI miał znaleźć błędy i go zoptymalizować, w drugim – zapis wewnętrznego spotkania zespołu, który miał zostać przez ChatGPT zamieniony w prezentację.
Nie przeczytali reguł korzystania z bijącego od końca ub. roku rekordy popularności narzędzia – ChatGPT ostrzega bowiem jasno, że dane, które w niego wpisujemy, mogą być wykorzystywane do dalszego szkolenia algorytmów. Mimo tego, do okienka na zapytania czatbota wciąż trafiają prywatne dane wielu użytkowników, jak i – co pokazuje przypadek z Korei Południowej – poufne dane korporacyjne.
Jakie dane stracił Samsung?
Wśród informacji, które z inicjatywy pracowników koncernu trafiły do modelu ChatGPT, był kod źródłowy, nad którym pracowano w dziale półprzewodników i zapis wewnętrznego spotkania.
W przypadku obu tych danych, ważne jest nawet nie to, ile informacji trafiło do czatbota pod względem objętościowym, ale co zawierało się w danych, które tam wpisano. Czy na spotkaniu omawiano ważne rzeczy? Czy kod zawierał elementy kluczowe np. dla działania nieopatentowanej jeszcze technologii? Tego nie wiemy.
Opowieść z Korei Południowej uczy jednak, aby bardzo uważnie dobierać informacje, którymi chcemy podzielić się z generatywną sztuczną inteligencją. Nie zadba ona o naszą prywatność, tak samo, jak i o bezpieczeństwo naszych poufnych danych biznesowych.