Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

ChatGPT pozyskał wrażliwe dane Samsunga od szukających ułatwień pracowników

Pracownicy Samsunga stwierdzili, że ułatwią sobie pracę – jak bardzo wielu innych, korzystających dziś ze słynnego modelu ChatGPT użytkowników sieci. Popełnili błąd – bo właśnie w ten sposób wyciekły wrażliwe dane południowo-koreańskiego koncernu.
Fot. Focal Foto / Flickr

Pracownicy Samsunga stwierdzili, że ułatwią sobie pracę – jak bardzo wielu innych, korzystających dziś ze słynnego modelu ChatGPT użytkowników sieci. Popełnili błąd – bo właśnie w ten sposób wyciekły wrażliwe dane południowo-koreańskiego koncernu.

Południowo-koreański serwis Economist opisał przypadek trzech programistów Samsunga, którzy chcieli ułatwić sobie pracę „karmiąc” ChatGPT wrażliwymi danymi koncernu.

W jednym przypadku był to kod źródłowy, w którym słynny model OpenAI miał znaleźć błędy i go zoptymalizować, w drugim – zapis wewnętrznego spotkania zespołu, który miał zostać przez ChatGPT zamieniony w prezentację.

Nie przeczytali reguł korzystania z bijącego od końca ub. roku rekordy popularności narzędzia – ChatGPT ostrzega bowiem jasno, że dane, które w niego wpisujemy, mogą być wykorzystywane do dalszego szkolenia algorytmów. Mimo tego, do okienka na zapytania czatbota wciąż trafiają prywatne dane wielu użytkowników, jak i – co pokazuje przypadek z Korei Południowej – poufne dane korporacyjne.

Jakie dane stracił Samsung?

Wśród informacji, które z inicjatywy pracowników koncernu trafiły do modelu ChatGPT, był kod źródłowy, nad którym pracowano w dziale półprzewodników i zapis wewnętrznego spotkania.

W przypadku obu tych danych, ważne jest nawet nie to, ile informacji trafiło do czatbota pod względem objętościowym, ale co zawierało się w danych, które tam wpisano. Czy na spotkaniu omawiano ważne rzeczy? Czy kod zawierał elementy kluczowe np. dla działania nieopatentowanej jeszcze technologii? Tego nie wiemy.

Opowieść z Korei Południowej uczy jednak, aby bardzo uważnie dobierać informacje, którymi chcemy podzielić się z generatywną sztuczną inteligencją. Nie zadba ona o naszą prywatność, tak samo, jak i o bezpieczeństwo naszych poufnych danych biznesowych.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share