Sztuczna inteligencja utrudnia obronę przed cyberatakami innych państw

Sztuczna inteligencja już teraz pozwala na tworzenie złośliwego oprogramowania, które może być niemożliwe albo bardzo trudne do wykrycia. To szczególne zagrożenie w kontekście cyberataków ze strony wrogich państw.
Generatywna sztuczna inteligencja pozwoli na usprawnienie socjotechniki
Generatywna sztuczna inteligencja pozwoli na usprawnienie socjotechniki

Sztuczna inteligencja już teraz pozwala na tworzenie złośliwego oprogramowania, które może być niemożliwe albo bardzo trudne do wykrycia. To szczególne zagrożenie w kontekście cyberataków ze strony wrogich państw.

Przed wykorzystaniem sztucznej inteligencji w cyberatakach ze strony wrogich państw ostrzega brytyjskie Narodowe Centrum Cyberbezpieczeństwa (National Cyber Security Centre, NCSC).

Jak wskazuje instytucja, sztuczna inteligencja może być obecnie wykorzystywana do tworzenia złośliwego oprogramowania, które jest albo niemożliwe, albo bardzo trudne do wykrycia. Modele AI używane do pisania takiego malware trenowane są na “jakościowych danych o lukach w zabezpieczeniach”, a rezultatem ich pracy według NCSC może być całkowicie nowy kod, który zaprojektowany jest tak, aby omijać obecnie stosowane zabezpieczenia.

Zagrożenie ze strony wrogich państw

“Istnieje realne prawdopodobieństwo, że państwa dysponujące dużymi możliwościami już teraz mają repozytoria złośliwego oprogramowania na tyle duże, iż pozwolą na efektywne trenowanie modeli sztucznej inteligencji dla tego właśnie celu” – ostrzega w swojej analizie brytyjskie NCSC.

Zdaniem instytucji, sztuczna inteligencja znacząco wpłynie na krajobraz cyberbezpieczeństwa już w tym roku, m.in. przyczyniając się do wzrostu zagrożenia cyberatakami z wykorzystaniem oprogramowania szyfrującego ransomware, a także pozwalając cyberprzestępcom sprawniej docierać do ofiar, ostatecznie zmniejszając “barierę wejścia” do świata przestępczego i obniżając koszty prowadzenia ofensywnych działań.

Zagrożenie AI dla cyberbezpieczeństwa w praktyce

Wpływ sztucznej inteligencji na wzrost cyberzagrożeń może być kwestią niejasną – szczególnie, jeśli skupiamy się na myśleniu o złośliwym oprogramowaniu. Warto jednak popatrzeć na cyberbezpieczeństwo szerzej – to sprawa, która dotyczy każdego i każdej z nas.

Dlaczego? Zdecydowana większość cyberataków wykorzystuje nasze słabości – a sprawcy, aby zdobyć dostęp do sieci atakowanych firm i organizacji, używają do tego socjotechniki. To m.in. techniki takie jak phishing, spoofing, smishing.

Generatywna sztuczna inteligencja pomaga cyberprzestępcom znacznie usprawnić działania z zakresu socjotechniki – np. poprzez pisanie przekonujących z punktu widzenia ofiary tekstów, lub tworzenie fałszywych dokumentów podszywających się pod prawdziwe.


Kup nam kawę na BuyCoffeeTo:

Postaw mi kawę na buycoffee.to
Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Chiny wykorzystują systemy rozpoznawania twarzy do kontroli zachowania obywateli

Zwolennicy szerokiego wykorzystania technologii rozpoznawania twarzy na Zachodznie, np. w Wielkiej Brytanii czy USA, często argumentują, że technologia ta pozwala bardzo sprawnie i na dużą skalę zarządzać ryzykiem, z jakim wcześniej służby porządkowe i organy ścigania sobie nie radziły. Chodzi tu m.in. o brutalne przestępstwa, działalność terrorystów i handel ludźmi.
Total
0
Share