Sztuczna inteligencja – największe ryzyko w 2024 r. Przez wybory

Światowe Forum Ekonomiczne uznało, że sztuczna inteligencja to największe ryzyko w 2024 r. ze względu na zaplanowane w licznych krajach świata wybory i możliwość wykorzystania jej w ramach operacji wpływu, jak i do dezinformacji.
Sztuczna inteligencja w kontekście wyborczym to największe ryzyko na 2024 r.
Sztuczna inteligencja w kontekście wyborczym to największe ryzyko na 2024 r.

Światowe Forum Ekonomiczne uznało, że sztuczna inteligencja to największe ryzyko w 2024 r. ze względu na zaplanowane w licznych krajach świata wybory i możliwość wykorzystania jej w ramach operacji wpływu, jak i do dezinformacji.

Oddziaływanie sztucznej inteligencji na wybory i demokrację to największe ryzyko w 2024 r. – ocenia Światowe Forum Ekonomiczne w swoim najnowszym raporcie poświęconym analizie zagrożeń na nadchodzące 12 miesięcy.

Sztuczna inteligencja jest ryzykiem przede wszystkim ze względu na możliwość wykorzystania jej do celów rozpowszechniania dezinformacji i propagandy. Ryzyko zaś jest tym większe ze względu na globalną sytuację związaną z występowaniem licznych konfliktów zbrojnych, przyspieszenie zmian klimatycznych oraz niekorzystnej sytuacji gospodarczej – oceniają eksperci z Davos.

„Możliwości adaptacyjne świata rozciągnięte będą do maksimum” – prognozują, wskazując na to, że wszystkie te czynniki łączą się i będą oddziaływać w skali globalnej. Wobec takiego krajobrazu ryzyka, liderzy poszczególnych krajów powinni skupić się na współpracy i tworzeniu mechanizmów zabezpieczających przed jego oddziaływaniem – twierdzi Światowe Forum Ekonomiczne.

Rok 2024 – rok wyborów na całym świecie

W 2024 r. świat idzie do urn. W ciągu kolejnych 12 miesięcy w różnych krajach świata wybory odbędą się co najmniej 83 razy. Najbardziej intensywnym miesiącem wyborczym będzie czerwiec – ze względu na wybory do Parlamentu Europejskiego. Najważniejsze w oczach świata Zachodu są jednak wybory w USA. Tymczasem pierwsza istotna elekcja już 13 stycznia odbędzie się na Tajwanie.

Właśnie dlatego sztuczna inteligencja budzi szczególne obawy ekspertów. Chodzi o wykorzystanie tej technologii do generowania fałszywych informacji, jej potencjał w operacjach wpływu oraz manipulacji opinią publiczną.

Ryzyko generatywnej sztucznej inteligencji w kontekście wyborów – na czym polega?

Duże modele językowe takie jak GPT od OpenAI, mogą służyć nie tylko do szybkiej produkcji propagandowych artykułów i wpisów w mediach społecznościowych, a także do znacznego zwiększenia zasięgu tego rodzaju treści – dzięki automatyzacji.

Tekst produkowany przez czatboty takie jak ChatGPT może być na pierwszy rzut oka nie do odróżnienia od tekstu tworzonego przez człowieka. Wykorzystanie czatbotów do celów propagandowych lub dezinformacji łatwo sobie zatem wyobrazić np. w postaci szybkiego tworzenia materiałów do mediów społecznościowych, które sprofilowane będą pod konkretne grupy odbiorców, lub nawet „pisania” artykułów do serwisów podszywających się pod media spoza głównego nurtu – czyli takie, które „ujawniają nieznane fakty” i „prowokują do myślenia”, w rzeczywistości rozsiewając teorie spiskowe i polaryzując.

Obecnie firmy AI udostępniają swoje modele językowe pozwalając na tworzenie na ich podstawie własnych usług opartych o rozwiązania takie, jak czatboty. Możliwości w kontekście operacji wpływu czy manipulacji przedwyborczych w takiej sytuacji znów mamy wiele – jak np. w przypadku potencjalnie budowanych politycznych czatbotów, które będą angażować się w ramach „zabawy” w rozmowy z internautami, manipulując nimi i suflując nieprawdziwy, skrajnie zideologizowany przekaz ubogacony fałszywymi informacjami.

Wykorzystanie sztucznej inteligencji w operacjach wpływu przed wyborami ma jeszcze jeden wielki plus (z perspektywy podmiotów zainteresowanych realizacją tego typu działań): jest tanie. Zamiast konieczności zatrudniania osób zadaniowanych do redagowania wpisów w mediach społecznościowych czy materiałów do internetu, korzystamy z bota – nasze koszty znacznie kurczą się, a skuteczność rośnie.

Jak poradzić sobie z ryzykiem?

Na regulacje, które pozwolą lepiej zarządzać ryzykiem związanym z wykorzystaniem sztucznej inteligencji do tworzenia treści, przyjdzie nam jeszcze poczekać – Akt o sztucznej inteligencji, czyli sztandarowy pakiet przepisów unijnych, które mają brać AI w karby, wdrożony zostanie najpewniej około 2025 roku. To o rok za późno w stosunku do wniosków płynących z opracowania Światowego Forum Ekonomicznego.

Część odpowiedzi na pytania w sprawie walki z dezinformacją daje Akt o usługach cyfrowych – DSA. Więcej na jego temat dowiesz się z 26 odcinka podcastu TECHSPRESSO.CAFE, którego posłuchasz tutaj.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Czytaj dalej

Fact-checking dla każdego – jak nie dać się oszukać w sieci?

2 kwietnia obchodzimy trzeci już Międzynarodowy Dzień Fact-Checkingu, czyli weryfikacji informacji w mediach (również w internecie). Fact-checking to przede wszystkim odpowiedzialność dziennikarzy i wydawców, żyjemy jednak w czasach, w których wiele podmiotów celowo dezinformuje bądź wykorzystuje media do manipulacji odbiorcami na wiele różnych sposobów. Weryfikowanie informacji, które konsumujemy, to zatem powinność każdego z nas. Jak się do niego zabrać? Prezentujemy krótki poradnik.
Czytaj dalej

Gdy pianistę zastępuje robot

Robot, który gra na fortepianie i dzięki sztucznej inteligencji potrafi reagować na emocje publiczności, zaprezentowany został w Chinach. W jednej z restauracji w Hangczou na wschodzie kraju prawdopodobnie zastąpił dotychczas grającego tam pianistę. Nie jest to pierwszy przypadek łączenia maszyny z fortepianem.
Total
0
Share