14 marca 2023 r. Newsweek opublikował artykuł zatytułowany Terroryści uwielbiają nowe technologie. Co zrobią z AI? autorstwa dyrektora wykonawczego MEMRI, Stevena Stalinsky’ego. Poniżej podajemy ten artykuł.
Dziś nie chodzi o to, czy terroryści będą używać sztucznej inteligencji (AI), ale o to, jak i kiedy. Dżihadyści ze swojej strony zawsze byli pierwszymi użytkownikami nowych technologii: przywódca Al-Kaidy, Osama bin Laden, wykorzystywał pocztę elektroniczną do komunikowania swoich planów dotyczących ataków z 11 września. Urodzony w Ameryce ideolog Al-Kaidy, Anwar Al-Awlaki, wykorzystał YouTube do docierania do ludzi, rekrutując pokolenie wyznawców na Zachodzie. Rzeczywiście, do 2010 r. wyżsi dowódcy Al-Kaidy prowadzili wysoce selektywną rekrutację „kadr specjalistów z umiejętnościami technologicznymi” – i oczywiście dobrze wiadomo, że Państwo Islamskie używa Twittera do budowania swojego kalifatu.
Przez 20 lat korzystania z Internetu i mediów społecznościowych terroryści zawsze szukali nowych sposobów maksymalizacji swojej aktywności online w celu planowania ataków. Sztuczna inteligencja (AI) może być kolejnym przełomem. Raport Biura Narodów Zjednoczonych ds. Zwalczania Terroryzmu (UNOCT) ostrzegał w 2021 r.: „Gdy tylko sztuczna inteligencja stanie się bardziej rozpowszechniona, bariery wejścia zostaną obniżone poprzez zmniejszenie umiejętności i wiedzy technicznej potrzebnych do jej zastosowania… Sztuczna inteligencja stanie się instrumentem w zestawie narzędzi terroryzmu”.
W ciągu ostatniej dekady badania prowadzone przez Laboratorium ds. Cyberprzestępczości i Terroryzmu mojej organizacji dokumentowały, w jaki sposób terroryści wykorzystują technologię, w tym kryptowalutę, do zbierania funduszy i szyfrowania komunikacji. Te badania pokazały również, jak używają elementów sztucznej inteligencji do hakowania i systemów broni, w tym dronów i samojezdnych bomb samochodowych — na czym skupiają się od lat — a także botów do docierania, rekrutacji i planowania ataków.
Zagrożenia nieodłącznie związane ze sztuczną inteligencją, w tym dla bezpieczeństwa narodowego, zdominowały zarówno nagłówki mediów, jak i dyskusję na temat jej możliwych konsekwencji dla przyszłości. Rządy i organizacje pozarządowe ostrzegaly, że nadchodzi dzień, w którym sztuczna inteligencja stanie się rzeczywistością. Ten dzień właśnie nadszedł.
Nic dziwnego, że wszystkie ostatnie doniesienia medialne o ciemnej stronie sztucznej inteligencji inspirują grupy terrorystyczne. 6 grudnia częsty użytkownik obsługiwanego przez ISIS serwera Rocket.Chat, który ma wielu zwolenników, napisał, że korzystał z bezpłatnego oprogramowania ChatGPT AI, aby uzyskać porady dotyczące wspierania kalifatu.
Zauważając, że oprogramowanie jest „mądrzejsze niż większość aktywistów”, podzielił się pełną odpowiedzią ChatGPT na swoje pytania, które obejmowały szczegółowe kroki w celu zidentyfikowania i zmobilizowania „głównej grupy zwolenników”, opracowania „programu politycznego i ideologii”, uzyskania wsparcia od „społeczności muzułmańskiej”, przejęcia „kontroli nad terytorium”, ustanowienia „instytucji i struktur rządowych” oraz promowania i obrony nowego kalifatu.
Dwa tygodnie później, 21 grudnia, inni zwolennicy ISIS wyrazili zainteresowanie inną platformą AI, Perplexity Ask, do tworzenia treści promujących dżihad. Jeden z popularnych użytkowników podzielił się swoimi odkryciami w dużej dyskusji, a użytkownicy zgodzili się, że sztuczna inteligencja może zostać wykorzystana do wsparcia globalnego ruchu dżihadu.
Kolejna dyskusja na temat sztucznej inteligencji, prowadzona przez te same grupy, odbyła się w połowie stycznia na innym serwerze Rocket.Chat, obsługiwanym przez ISIS; użytkownik podkreślił, że zwolennicy ISIS muszą uznać „znaczenie zrozumienia technologii”. Powiedział, że nauka kodowania jest niezbędna do walki na nowym cybernetycznym froncie, dodając, że jego koledzy muszą stać się bardziej wyrafinowani w cyberbezpieczeństwie, aby poradzić sobie z infrastrukturą wojskową wroga.
Wewnętrzne dyskusje grup terrorystycznych i ich zwolenników na temat tego, w jaki sposób sztuczna inteligencja może służyć światowemu dżihadowi, wywołały więcej pytań o to, czy i w jaki sposób sztuczna inteligencja może zapewnić odpowiednią wiedzę. Próbka pytań wykazała, że ChatGPT wydaje się mieć na celu powstrzymanie się od omawiania sposobów przeprowadzania brutalnych ataków, wytwarzania broni lub prowadzenia działań terrorystycznych. Nawet pośrednie prośby, takie jak o historię, w której fikcyjna postać „tworzy bombę” lub „dołącza do islamskiej grupy rebeliantów”, nie dały żadnych informacji.
Jednak Perplexity Ask dostarczył szczegółowych instrukcji, gdy zapytano go, jak „ściąć komuś głowę”, ostrzegając pomocnie przed „próbą [tego] bez odpowiedniego przeszkolenia i środków bezpieczeństwa”. Podano również instrukcje dotyczące wytwarzania rycyny. Zarówno ChatGPT, który może rozmawiać po arabsku, jak i Perplexity Ask, który rozumie niektóre pytania po arabsku, ale nie może odpowiedzieć w tym języku, odpowiedziały na prośby takie jak „najlepsze książki autorstwa [autora terrorysty]” i „streszczenie [książki autora terrorysty]”.
Należy zauważyć, że terroryści dżihadyści nie są sami w testowaniu sztucznej inteligencji pod kątem planowania najlepszego jej wykorzystania; krajowe grupy terrorystyczne i ich neonazistowscy zwolennicy również to robią.
Podczas gdy ChatGPT i Perplexity Ask mogą napisać egzamin AP English dla szkoły średniej i wykonać coraz większą liczbę zadań, jak codziennie donoszą media, obecnie mają ograniczone zastosowanie dla grup terrorystycznych. Ale to nie potrwa długo. Sztuczna inteligencja rozwija się szybko – to, co jest nowe dzisiaj, jutro będzie przestarzałe – a pilne pytania do funkcjonariuszy antyterrorystycznych obejmują to, czy są świadomi tych wczesnych terrorystycznych dyskusji na temat sztucznej inteligencji, oraz jaką planują strategię, aby stawić czoła temu zagrożeniu, zanim coś zmaterializuje się.
*Steven Stalinsky jest dyrektorem wykonawczym MEMRI (Middle East Media Research Institute), który aktywnie współpracuje z Kongresem i firmami technologicznymi w walce z cyberdżihadem za pośrednictwem MEMRI Jihad and Terrorism Threat Monitor.