Obrona przed zagrożeniami niesionymi przez sztuczną inteligencję to zadanie bardzo trudne ze względu na brak kompetencji w szeroko rozumianym społeczeństwie. Nie jest jednak tak, że jesteśmy całkowicie bezradni – o ryzyku związanym z rozwojem AI rozmawiamy z Jakubem Dębskim, specjalistą branży cyberbezpieczeństwa i dyrektorem ds. produktu w firmie ESET.
Małgorzata Fraser (TECHSPRESSO.CAFE): W ubiegłym roku jeszcze przed świętami Bożego Narodzenia generatywna sztuczna inteligencja stała się hitem. Wszyscy niemal zaczęli prześcigać się obrazami generowanymi przez Midjourney, przez Stable Diffusion, bardzo chętnie wszyscy instalowali aplikacje Lensa, która pożerała zdjęcia użytkowników i przetwarzała je, karmiąc algorytm danymi szkoleniowymi, a następnie produkowała fantastycznie wyglądające awatary. Zacznijmy od Lensy. Czego sobie nie uświadamiamy, instalując aplikacje które są chwilowo modne? Jakie są główne płaszczyzny ryzyka?
Jakub Dębski, (ESET): Musimy sobie uświadomić, że wszystkie dane, które wysyłamy do chmury, potem będą kolekcjonowane, przetwarzane przez większość firm. Jeśli firma nie oferuje rozwiązania płatnego, potrzebuje w inny sposób zarabiać. W “warunkach korzystania z usługi” przeczytamy na przykład możliwość współdzielenia danych z innymi podmiotami. Z tego powodu warto zwrócić uwagę, w jaki sposób dane są wykorzystywane.
Musimy też brać pod uwagę, że wszystko, na co się zgadzamy, aby to udostępnić do internetu, w tym także swój wizerunek, potem może być wykorzystywane w jakiś niecny sposób, albo do profilowania, albo w taki sposób, w jaki użytkownik by sobie nie życzył, albo też w taki, o którym w ogóle użytkownik nie ma pojęcia.
MF: Od ponad 6 lat uczę o prywatności w internecie i cyberbezpieczeństwie. Jednym z największych problemów, które napotykam, jest to, że przychodzą do mnie użytkownicy, którzy mówią: “Ale i tak wszyscy mają moje dane! To, że kolejna firma będzie je miała, absolutnie niczego nie zmieni. To jest fajna zabawka i dlaczego miałbym z niej nie skorzystać?”. Co twoim zdaniem jest tutaj najważniejszym argumentem, który miałby przekonać użytkowników, żeby tego nie robili? Dzisiaj – jak sądzę – największym problemem z perspektywy prywatności jest to, że firmy wmówiły nam, że nasze dane nie mają znaczenia.
JD: To dobre pytanie i jednocześnie trudne. Większość platform, z których obecnie korzystamy, przetrzymuje nasze dane. Dotyczy to zarówno social mediów, jak i innych darmowych aplikacji na naszych telefonach, zbierających informacje na przykład o lokalizacji, o preferencjach, a nawet o tym, co użytkownik pisze na klawiaturze.
Platformy przetrzymują dane z pomocą różnych firm. Niestety, te dane często udostępniają innym, albo je sprzedają i użytkownik, jeśli korzysta z rozwiązań technologicznych typu smartfon lub social media, bardzo często nie ma możliwości ich chronić. Jeżeli ktoś chce korzystać z technologii w taki sposób, jak ona współcześnie działa i wykorzystywać np. możliwości oferowane przez chmurę, to ma bardzo małe szanse, aby to zmienić, chyba że przejdzie na rozwiązania typu Linux, gdzie śledzenie jest wyłączone.
Często jest tak, jak było w przypadku DuckDuckGo. Wielu użytkowników, którzy chcieli przestać korzystać z Google lub Bing przeszła tam, a mimo obietnicy prywatności były przypadki, gdzie dane i tak były z kimś współdzielone. To samo dotyczy VPN. Wielu użytkowników z tego korzysta, a nie ma bladego pojęcia, kim są podmioty oferujące im usługi.
Jeśli to jest firma z centralą na Cyprze, albo na różnych dziwnych wyspach, nikt nie wie, kto z nimi stoi – Chiny, Stany Zjednoczone, Izrael – i czy to rzeczywiście jest podmiot, który stara się dbać o bezpieczeństwo i prywatność. Jeśli jakaś usługa działa na terenie kraju, to firmy nie mają wyboru i muszą współpracować, albo z rządem, albo ze służbami. Oczywiście podlega to regulacjom, ale w tych warunkach trudno utrzymywać prywatność. Uważam, że w obecnych warunkach to prawie niemożliwe.
MF: Wielu moich odbiorców to kobiety. Często nie sprawdzają firmy, która dostarczyła daną usługę. Stawiają na popularność i to, że aplikacja cieszy się wzięciem na Instagramie. Spotykam się także z tym, że ich dzieci chcą używać tych aplikacji. Jaki jest główny argument na „nie”, skoro użytkownicy mówią podobnie jak ty, że niemożliwe jest utrzymanie prywatności, a firmy takie jak Google, Meta, Microsoft mają nasze dane? „Co to zmieni, że kolejna firma będzie je miała?” – pytają mnie w wiadomościach. Z drugiej strony nie zwracają uwagi na to, że Lensa miała serwery w Rosji.
JD: Myślę, że główne zagrożenie jest zapośredniczone. Użytkownik się tym nie przejmuje, dopóki do danych nie dostaną się cyberprzestępcy, co jest możliwe, nawet gdyby ktoś dysponował własnym serwerem pocztowym trzymanym u siebie w domu.
Problemem są cyberataki. Jeśli ktoś udostępnia informacje stronie trzeciej, udostępnia pewien zakres możliwości, z których mogą skorzystać cyberprzestępcy. To jest jeden z najważniejszych argumentów, dlaczego z wielu systemów nie korzystać. Niestety postęp technologiczny zmusza użytkowników do tego, by korzystali. Wiele firm, działając w chmurze, wymaga, aby dane do niej trafiały. Jeśli cyberprzestępcy dostaną się do danych w tej chmurze, potrafią je wykorzystać do ataków.
Jeśli jednak mówimy o usłudze, która współpracuje z rządem, to dopóki nie chodzi o rząd chiński czy totalitarny, jest bardzo mała szansa, że człowiek będzie tym zagrożony. Z drugiej strony, trzeba sobie zdawać sprawę z tego, że to, co trafia do sieci, już tam zostaje i to często na całe życie. Jeśli ktoś robi coś kompromitującego, albo trzyma konwersacje, które być może dzisiaj nie budzą wątpliwości, w przyszłości mogą się okazać czymś obciążającym. Kto wie, co będzie z tymi danymi robione za 10 czy 20 lat. Być może czyjeś dziecko będzie kiedyś znanym politykiem i warto zadać sobie pytanie, jaki wpływ będą miały na jego przyszłą karierę pozostawione przez nas dane.
MF: Generatywna sztuczna inteligencja rozwija się w różnych postaciach, zarówno tekstu, jak i obrazu. Obrazy często rozpatrujemy jako zagrożenia dla demokracji – mam na myśli deep fake, okoliczności wyborów, niebawem w Polsce i USA. Jakie są twoim zdaniem największe zagrożenia i ryzyko, które SI stworzy w społeczeństwie?
JD: Należy wyjść od tego, że wokół SI jest hype. Już sam ten hype jest wykorzystywany przez cyberprzestępców i na przykład wspomniane aplikacje, które użytkownicy instalują na swoich telefonach, rozszerzenia do przeglądarek internetowych albo strony, mogą być przez nich użyte do tego, by dostarczyć niebezpieczne oprogramowanie. Zwykle te rozszerzenia mają pełny dostęp do tego, co robi użytkownik. Jest to poważne zagrożenie. Bardzo trudno użytkownikom stwierdzić, czy to, co uruchamiają jest dobre, czy nie.
Jeśli chodzi o wykorzystanie sztucznej inteligencji przez cyberprzestępców, jest wiele możliwości.
Przede wszystkim musimy sobie zdawać sprawę, że generowany tekst wciąż nie jest na poziomie inteligencji człowieka. Postęp jest niesamowity – to, co było nie do pomyślenia kilka lat temu, już się dzieje, ale to cały czas nie jest na poziomie eksperta zajmującego się daną dziedziną.
W przypadku generatywnych systemów do tekstu, zagrożenie wynika z ilości, a nie jakości. Pomyślmy o dezinformacji. Wiemy, że istniały farmy trolli tworzące fake’owe profile w sieciach społecznościowych. Teraz to może być automatyzowane do takiego poziomu, że nie potrafimy rozróżnić, czy mamy do czynienia z człowiekiem, czy sztucznym bytem.
Przez systemy typu Auto GPT, gdzie można automatyzować zachowania sztucznej inteligencji i przyuczyć ją do korzystania z różnych narzędzi, można oczekiwać powodzi fałszywych profili internetowych, na Facebooku, Twitterze, Instagramie i oczekiwać, że za jakiś czas wiele z tych profilów przejdzie na poziom influencerów. Będą mieli tylu followersów, że udostępniane przez nich informacje będą istotnie wpływać na różne zachowania.
Teraz farmy trolli są stosunkowe łatwe do skontrolowania. Przykładowo, zwykle lajkują te same posty, łączą się w klastry później zdejmowane masowo przez operatorów sieci, albo są identyfikowane przez strony trzecie. Nietrudno znaleźć ich wzorce zachowań. Jeśli wszystkie takie profile będą działały niezależnie i zarządzane przez wirtualnie stworzone osobowości, w zależności od sieci socjalnej wykorzystujące zróżnicowane rodzaje treści – teksty, grafikę, albo jak na Tik Toku, gdzie generowane są już materiały wideo – za jakiś czas możemy spodziewać się powodzi fałszywych tożsamości i wtedy będzie bardzo trudno stwierdzić, która zawartość jest prawdziwa, a która nie.
MF: Czy firma ESET zajmuje się rozwijaniem metodologii lub narzędzi radzenia sobie z takimi zagrożeniami? Jak na nie odpowiadać? To kwestia miesięcy, gdy będziemy musieli się z tym skonfrontować.
JD: Przede wszystkim chodzi o zawartość, która jest dostarczana użytkownikom końcowym. Ona jest dostarczana głównie przez sieci społecznościowe. Z puntu widzenia firmy takiej jak nasza, współpracować możemy z firmami, które te platformy obsługują. Nasza firma współpracuje z Facebookiem czy Googlem, gdzie dostarczamy narzędzia, które te firmy wykorzystują do identyfikacji różnych zagrożeń.Użytkownik nie musi więc instalować naszego oprogramowania, aby być chroniony.
Jak sami użytkownicy mają się chronić przed takimi zjawiskami? To trudne, ponieważ zawodzi sposób identyfikacji. Do niedawna to było proste – na obrazkach była np. niewłaściwa liczba palców, w tekstach kulała gramatyka, składnia. Ale jeśli zobaczymy, jak GPT-4 i radzi sobie z angielskim, to możemy się spodziewać, że wkrótce taka jakość będzie także w innych językach. I wtedy to będzie nie do odróżnienia. Podobnie będzie ze zdjęciami, wideo i grafikami. Za 4-5 lat nie będzie innego sposobu rozróżnienia, czy te treści stworzył człowiek czy SI, niż na przykład sama SI. Jeśli chodzi o systemy SI do wykrywania SI, to jeszcze jest dalekie od ideału i były śmieszne przypadki, gdzie taki detektor otrzymał Konstytucję USA i stwierdził, że jest to twór SI.
MF: Systemy wykorzystywane w dużych firmach jak Google czy Facebook nie działają idealnie, mają luki. Wiadomo, że wiele fałszywych kont nie jest wykrywanych, siatki mapowane są z dużym opóźnieniem. W Polsce mamy ogromny problem z fałszywymi kontami. Język komentarzy politycznych jest łatwy do naśladowania maszynowo. Jak użytkownik może sam siebie ochronić? Na co powinniśmy zwracać uwagę, by nie wpaść w pułapkę; bez pomocy wielkich firm? Czy branża rozpoznaje problem na poziomie konsumenckim?
JD: Większość użytkowników nie będzie w stanie się przed tym chronić. Jest to trudne z punktu widzenia analizy treści.
Były analizy, które mówiły, że fake newsy są udostępniane 6 razy częściej niż inne wiadomości. Są one tworzone w taki sposób, aby zachęcały do udostępniania. Druga kwestia to szukanie źródła informacji. Jeśli źródłem jest znajomy, który coś udostępnia lub komentuje, automatycznie algorytm zwiększa ich widoczność.
Często zachowanie użytkowników działa przeciwko nim samym. Weźmy na przykład kontrowersyjną treść wygenerowaną przez rosyjskich trolli, która jest udostępniana przez jedną osobę w ramach mediów społecznościowych. To niemal od razu trafi do jego znajomych.
Nawet, jeśli odpowiadamy na coś w sposób negatywny, algorytmy pokażą to jako coś, co budzi emocje, wywołuje komentarze i zwiększy zasięg takiej treści. Zatem najlepiej nie angażować się w dyskusje, pomijać tego rodzaju treści i jest szansa, że algorytmy nas oszczędzą. Wystarczy raz się zaangażować, a od razu trafimy do bańki informacyjnej narastającej wokół takich treści.
MF: W Chinach mamy pierwszy przypadek aresztowania za fake newsy wyprodukowane przez Chat GPT, który jest tam zakazany. Jeden z użytkowników wykorzystał go, aby wygenerować fałszywą informację o katastrofie pociągu, w której straciło życie 9 osób. Był krótki pokazowy proces za szerzenie nieprawdziwych informacji i wykorzystanie materiałów nieoznaczonych jako stworzone przez SI. Co myślisz o tym przypadku i o uchwalaniu prawa, które nakazuje takie treści oznaczać?
JD: To była pokazówka. W Chinach powstała regulacja odnośnie wykorzystania SI. Ta regulacja była jedna z pierwszych na świecie, które regulowały zarówno tworzenie, jak i wykorzystywanie SI. Musimy pamiętać, że w Chinach można karać na różne sposoby i za różne rzeczy.
Generalnie uważam, że takie regulacje są potrzebne właśnie po to, by konkretne osoby, które wykorzystują rozwiązania SI w niecnych celach albo tworzących zagrożenie mogły zostać osądzone i skazane. Bez rozwiązań prawnych policja i sądownictwo nie mają w rękach narzędzi potrzebnych, aby zareagować.
Pytanie oczywiście, o co użytkownik ma być oskarżony. W Chinach to może być coś błahego z punktu widzenia Europy. Jeśli mówimy o krajach totalitarnych, można się spodziewać, że będzie to kolejne prawo, które będzie wykorzystywane do kontroli społeczeństwa.
Z punktu widzenia USA czy UE, regulacje są tworzone wciąż po to, by chronić użytkowników. Mówimy o systemach np. wykorzystywanych w infrastrukturze krytycznej, czy na platformach społecznościowych, aby nie prowadziły do dyskryminacji, były wykorzystywane w sposób moralnie i etycznie zgodny. To jest dobre. Bez takich regulacji wielkie koncerny nie miałyby powodu, aby się w jakikolwiek sposób ograniczać. Z drugiej strony, te regulacje nie rozwiązują podstawowych problemów. Oprogramowanie powstające na zasadzie open-source, a tak było w przypadku StableDiffusion, często jest lepsze niż rozwiązania projektowane przez wielkie firmy.
MF: Do danych, które karmią SI dostają się np. nasze dane medyczne albo inne prywatne informacje zescrapowane z internetu i nagle Chat GPT zwraca wynik z naszymi danymi pochodzącymi z wycieku. Co możemy zrobić w takiej sytuacji? Jak duże zagrożenie dla prywatności niesie zasysanie informacji przez te modele?
JD: To zależy od tego, z czego korzystaliśmy w sieci. Czy człowiek, który ich używa, zdaje sobie sprawę, gdzie dane będą wykorzystywane i czy zgadza się na to wykorzystanie? Wiele osób nie czyta umów licencyjnych ani zasad korzystania z usług, co znaczy, że z prawnego punktu widzenia nie da się zrobić nic.
Nawet jeśli z moralnego punktu widzenia to jest niesłuszne. Jeśli firmy korzystają z danych w internecie i pomijają kwestie prawne, a tak było w przypadku pierwszych wersji StableDiffusion, gdzie program uczył się na obrazach znanych artystów z internetu, którzy nigdy nie wyrazili zgody, aby je wykorzystać w ten sposób.
Z wersją 1.5 StableDiffusion to poprawił i próbował przejść na obrazy oznaczone jako możliwe do wykorzystania. Nie jest to idealne rozwiązanie, ponieważ nie każda grafika ma atrybucję, ale z biegiem czasu, w związku z regulacjami, pojawi się wymóg, aby szczególnie duże firmy, które tworzą modele SI korzystały z danych, które są przeznaczone do uczenia maszynowego.
Myślę, że to zmierza w dobrym kierunku. Jeśli chodzi o portale, w których użytkownik jest produktem, bo korzysta z nich „za darmo”, nie będzie w stanie czegokolwiek zrobić, aby jego wizerunek nie został użyty.
MF: Był taki przypadek, że pracownicy koncernu produkującego telefony chcieli posłużyć się SI, aby znalazła im błędy w kodzie i wprowadzone dane wyciekły. To oczywiste zagrożenie dla biznesu. Ale coraz więcej osób będzie z tych narzędzi korzystało w pracy. Jak ma się zabezpieczyć na przykład programista, aby nie popełnić głupiego błędu?
JD: Istotna kwestia. Systemy SI bardzo ułatwiają pracę programistom i nie tylko, także wszystkim twórcom.
Jest kilka możliwości. Możemy zacząć korzystać z wersji płatnej, jeśli zakłada, że wówczas dane pozostają prywatne i nie będą wykorzystywane do dalszego uczenia się narzędzia. Możemy korzystać jako programiści z rozwiązań przeznaczonych dla programistów, czyli narzędzi jak Copilot, które wspierają pracę programisty bez wykorzystania danych.
Możemy korzystać z różnego API, które udostępniają duże firmy i na tym postawić narzędzie dla własnej działalności. Jeśli są dobrze zdefiniowane warunki użytkowania, myślę, że problem będzie rozwiązany w niedalekiej przyszłości.
MF: Jeśli uświadomimy sobie, że takich incydentów mogło być całkiem dużo, tylko o większości nie wiemy, to jakie jest prawdopodobieństwo, że ci, którzy ściągają dane, będą mają dostęp do pokaźnych ilości zastrzeżonych informacji, co umożliwi nowe ataki?
JD: Szansa jest relatywnie mała. Dochodziło do tego, że systemy GPT nauczone na GitHubie generowały istotne fragment kodu z licencją GPR. To była kwestia prawna – LLM (duży model językowy – red.) było nauczone na kodach nie mających poprawnej licencji.
Z drugiej strony jeśli spojrzymy na to, jak działają systemy uczenia maszynowego, zwykle przy uczeniu te modele są na tyle duże że potrzebują dużej liczby sampli, aby nauczyły się konkretnej rzeczy.
W przypadku GPL, jeśli dany kod był współdzielony przez wiele różnych repozytoriów, te system nauczy się replikować kod 1:1. Jeżeli to jest jeden mały kawałek kodu, jest relatywnie mała szansa, że system na tyle się nauczy, aby atakujący, korzystający z takiego systemu był w stanie go wygenerować. Tym bardziej, że człowiek musiałby zacząć pisać dokładnie ten sam fragment kodu, który był w tym systemie, aby system dopełnił kolejne fragmenty.
MF: A co z socjotechniką? Z przestępstwami typu phishing, podrabianie głosu, wykorzystanie danych w celu wyciągania informacji od konkretnych osób? Czego tu możemy się spodziewać?
JD: Tu możemy się spodziewać poważnych problemów. Kopiowanie głosu jest poważnym problemem. Nie tylko głosu, ale i obrazu, dźwięku, wideo.
Spójrzmy na bankowość elektroniczną. Wiele banków wprowadzało autoryzację głosem. Nie mam dokładnych informacji, jakim problemem jest dla nich podszywanie się przez kopiowanie głosu, ale zakładam, że nie jest to problem do zbagatelizowania.
Kolejny problem to generowanie obrazków z czyimś wizerunkiem. To było możliwe już teraz, bo każdy ma dostęp do Photoshopa, ale jakość tego generowania z biegiem czasu będzie tak wysoka, że nie będzie dało się odróżnić fikcji od rzeczywistości.
Obrazki Trumpa z Putinem miały setki tysięcy, a nawet miliony wyświetleń. W tym sensie SI może wpływać na dezinformację. Jeśli chodzi o wykorzystywanie głosu i wideo – były przypadki, w których w wyrafinowany sposób przestępcy potrafili wykorzystać SI do przeprowadzania ataku.
Wykorzystano głos dyrektora jednej firmy, aby przekonać pracownika do przelania pieniędzy. Dużym problemem był przypadek osoby porwanej. Wyobraźmy sobie, że czyjaś bliska osoba udaje się w podróż do innego kraju, ma przy sobie telefon jako główne narzędzie komunikacji z domem. Telefon zostaje skradziony. Atakujący ma dostęp do wszystkich wiadomości głosowych, jeśli użytkownik je nagrywał np. przez WhatsApp. Ma dostęp do sieci społecznościowych tej osoby. Może przez Facebooka czy Instagram podszywać się pod taką osobę.
Atakujący może wysłać wiadomość do kogoś bliskiego, że osoba została uprowadzona. Reakcją bliskiego będzie wykonanie telefonu – w słuchawce usłyszy głos np. swojej córki i przekonany zostanie do przesłania jakiejś sumy pieniędzy na konto, bo inaczej dojdzie do nieszczęścia.
Nie ma żadnej innej możliwości, aby stwierdzić, że z tą córką jest wszystko w porządku. Taka sytuacja miała miejsce i przestępcy próbowali przekonać matkę, że córka została uprowadzona. Myślę, że wszystko, co zakłada tworzenie deep fake, zmieni sposób przeprowadzania ataków. Celem będą także osoby starsze, które nie nadążają za postępem SI.
MF: Już ludzie naszego pokolenia nie są w stanie za tym nadążyć. Mieliśmy przecież papieża Franciszka ubranego w kurtkę Balenciagi. Obrazek powielali dziennikarze, którzy teoretycznie zajmują się na bieżąco tą tematyką. Mieliśmy w Polsce wiele osób, które dały się na to nabrać. Przeciętny człowiek odbierający taki telefon, o którym opowiadasz, nie będzie wiedział, jak ma się zachować, bo w grę wchodzą emocje. Policja oraz inne organy nie są najlepiej przygotowane do radzenia sobie z takimi przypadkami. Co z tym zrobić? Jak się bronić?
JD: Obrona jest trudna – zarówno informatycznie, jak i fizycznie większość społeczeństwa tego nie potrafi ze względu na posiadane umiejętności. Są zbyt małe, aby byli w stanie się obronić.
Jedynym rozwiązaniem z punktu widzenia obywatela, który nie jest ekspertem w dziedzinie cyberbezpieczeństwa, jest wykorzystanie otwartych lub komercyjnych rozwiązań zapewniających bezpieczeństwo.
Jeśli chodzi o rozwiązania, wiele z nich nie nadąża za szybkością ataków. Weźmy np. wykrywanie deep fake’ów – problemem jest to, że np. nasza firma dostarczy rozwiązania, ale czasami jesteśmy ograniczani platformą. Abyśmy mogli analizować głos atakującego i stwierdzić, czy pochodzi od SI, nie mamy możliwości zainstalować się na czyimś telefonie jako narzędzie analizujące głos.
Technologicznie nie jesteśmy w stanie dostarczyć takich rozwiązań. Kolejnym problemem jest integracja z infrastrukturą, w której mamy to bezpieczeństwo zapewnić. Co więcej, większość producentów platform takich jak systemy operacyjne, telefony, albo systemy cloudowe czy społecznościowe, coraz bardziej odcina dostęp dla producentów bezpieczeństwa poprzez różne API, ponieważ uważają, że sami są w stanie zabezpieczyć użytkowników, więc powoduje to coraz więcej problemów z punktu widzenia takich firm, jak nasza. Jest rzeczywista potrzeba, ale jednocześnie firmy nie chcą im tego zapewnić.
MF: Dużo rozmawia się o regulacjach. Jestem zdania, że wiele regulacji projektowanych jest za późno i tak jak było w przypadku AI Act, debata na temat SI, deep fake’ów przyszła po czasie i wpisanie generatywnej SI na listę wysokiego ryzyka również było spóźnione. Dwa lata temu nie zdawano sobie sprawy z tego, co dzieje się dzisiaj. Organy ścigania są często bezradne. Co może zrobić państwo, struktury UE, aby tę ochronę wzmocnić? Czy jest szansa, że na poziomie UE może powstać komórka, która będzie zajmowała się koordynacją działań obronnych, tak jak mamy koordynację w zakresie militarnej obrony przed cyberatakami?
JD: Nie jest tak, że kraje czy organy ze sobą nie współpracują. Jest wiele grup skupiających się wokół tematu cyberbezpieczeństwa w strukturach unijnych, podobnie jest w USA. Policja również zajmuje się tym tematem. Z ich punktu widzenia problem polega na zasobach – nie są w stanie zajmować się każdym zgłoszeniem, które otrzymują.
MF: Istotnie, dopiero od niedawna mamy komórkę w policji zajmującą się cyberprzestępczością. Braki kadrowe są wyraźnie odczuwalne.
JD: Musimy rozumieć, że liczba ataków i incydentów z internetu jest olbrzymia, gdy wszystko to zbierzemy – ataki personalne, przekroczenia norm społecznych itp.
Policja też musi priorytetyzować. Zajmuje się poważnymi rzeczami, które często nie dotyczą bezpośrednio użytkowników indywidualnych, ale w sytuacji, jeżeli to jest atak przeprowadzony na dużą grupę użytkowników lub atakiem zagrażającym całemu społeczeństwu, angażowany jest CERT, różne grupy specjalne.
Wiem o tym, ponieważ nasza firma czasem pomaga organom ściągania w zakresie dostarczania informacji. ESET zajmuje się analizą różnych przypadków pod kątem śledzenia grup przestępczych. Jest to coraz bardziej formalizowane i rozwijane, zarówno na poziomie konkretnych krajów, regionów, jak i współpracy w UE.
Dużo dzieje się w zakresie tworzenia wspólnych systemów wykrywania i reagowania na zagrożenia. Oczywiście jest to wolniej niż być powinno, ale musimy pamiętać, że cyberbezpieczeństwo to tylko jeden z obszarów zainteresowania takich organów.
MF: dziękuję Ci bardzo za rozmowę.