Neo-naziści, zwolennicy białej supremacji i grupy antyrządowe – brutalni ekstremiści motywowani rasowo/etnicznie – dyskutują i publikują posty na głównych platformach społecznościowych na temat wykorzystania sztucznej inteligencji. Prywatnie i otwarcie rozmawiają o sztucznej inteligencji, testują ją i wykorzystują, a także opracowują własne wersje i rekrutują inżynierów oraz zespoły do specjalnych projektów, w tym do włamań do banków.
Najbardziej niepokojące przykłady znalezione przez zespół badawczy MEMRI Domestic Terrorism Threat Monitor (DTTM) w pracy badającej ten temat dotyczą ekstremistów faktycznie omawiających wykorzystanie sztucznej inteligencji do planowania ataków terrorystycznych, w tym produkcji broni masowego rażenia. Jedna z akceleracjonistycznych grup, której celem jest doprowadzenie do całkowitego upadku społeczeństwa, przeprowadziła ostatnio w grupie na Facebooku rozmowę o próbie skłonienia bota czatu AI, aby dostarczył szczegółów dotyczących wytwarzania gazu musztardowego i napalmu. Te i inne przykłady są wyszczególnione w nowym raporcie MEMRI DTTM, który zostanie opublikowany jeszcze w tym miesiącu.
W raporcie jest również przywódca wyznaczonej organizacji terrorystycznej – były kontrahent rządu USA, który często nawołuje do ataków na terenie USA ze swojej bezpiecznej przystani w Rosji – który opublikował porady generowane przez ChatGPT dotyczące angażowania się w wojnę partyzancką i dotyczące infrastruktury krytycznej w USA, które byłyby najbardziej narażone na atak. ChatGPT powiedział, że najbardziej wrażliwą infrastrukturą w USA jest „sieć elektryczna”.
Inni mówią o wykorzystaniu sztucznej inteligencji do planowania zbrojnych powstań w celu obalenia obecnego systemu rządów USA i udostępnianiu stworzonych przez sztuczną inteligencję wersji amerykańskich flag, mundurów wojskowych i projektów graficznych Białego Domu. Omawiają również wykorzystanie sztucznej inteligencji do rekrutacji oraz szerzenia swojej ideologii i propagandy w Internecie, w tym za pomocą tworzonych przez siebie filmów. Filmy Deepfake, na których Hitler wygłasza przemówienie po angielsku, a Emma Watson, aktorka z Harry’ego Pottera, czyta na głos Mein Kampf Hitlera, rozprzestrzeniły się błyskawicznie na ich platformach.
Badania MEMRI wykazały już, że terroryści dżihadyści rozmawiają o wykorzystaniu sztucznej inteligencji do opracowywania systemów broni, w tym dronów i samojezdnych bomb samochodowych. Jak pisałem w Newsweeku w marcu, popularny użytkownik obsługiwanego przez ISIS serwera Rocket. Chat ujawnił w grudniu 2021 r., że poprosił ChatGPT o radę w sprawie wspierania kalifatu i podzielił się wynikami. Pod koniec marca zwolennicy ISIS dyskutowali o wykorzystaniu ChatGPT do kodowania i tworzenia oprogramowania do hakowania i szyfrowania, dochodząc do wniosku, że „2023 będzie bardzo szczególnym rokiem dla hakerów dzięki chatbotom i programom sztucznej inteligencji”.
Już w marcu 2016 r. Microsoft wypuścił chatbota AI Tay, ale zamknął go w ciągu 24 godzin po tym, jak został zmanipulowany do tweetowania wiadomości pro-hitlerowskich. Niemniej, siedem lat później, niebezpieczeństwo stwarzane przez używanie sztucznej inteligencji przez neonazistów i zwolenników białej supremacji tylko wzrosło. W aplikacji czatu Hello History, wydanej na początku stycznia 2023 r. i pobranej ponad 10 000 razy w samym tylko Google Play, użytkownicy mogą czatować z symulowanymi wersjami postaci historycznych, w tym z Adolfem Hitlerem i nazistowskim propagandystą Josephem Goebbelsem.
Podczas gdy technologia AI rozwija się lawinowo – łączne globalne inwestycje przedsiębiorstw w sztuczną inteligencję osiągnęły prawie 94 miliardy dolarów w 2021 r. – wiele firm zaangażowanych w jej rozwój zwalnia swoich etyków, którzy badają algorytmy zapobiegające ekstremizmowi na platformach cytowanych w tym artykule.
Wiadomość o tych zwolnieniach pojawiła się, gdy ponad 2000 liderów technologii i badaczy zażądało protokołów bezpieczeństwa i wezwało branżę do „natychmiastowego wstrzymania na co najmniej sześć miesięcy” szkolenia coraz bardziej zaawansowanych systemów sztucznej inteligencji, powołując się na „głębokie zagrożenia dla społeczeństwa i ludzkości”. Na domiar złego, 1 maja pionier sztucznej inteligencji i jej „ojciec chrzestny”, Geoffrey Hinton, odszedł z Google, gdzie stał się jednym z najbardziej szanowanych głosów w tej dziedzinie, dzięki czemu mógł swobodnie mówić o zagrożeniach związanych ze sztuczną inteligencją.
W reakcji na trwający sprzeciw Sam Altman, dyrektor generalny OpenAI, twórcy ChatGPT, wyjaśnił w wywiadzie, że „potrzebny jest czas”, aby „zobaczyć, jak [technologia] jest używana”, że „monitorujemy [to] bardzo uważnie, ” i że „możemy to cofnąć” i „wyłączyć pewne rzeczy”. Twierdzenia Altmana służą branży sztucznej inteligencji.
Niemniej, w dzisiejszym zeznaniu przed podkomisją senacką na przesłuchaniu w sprawie nadzoru nad sztuczną inteligencją, Altman podkreślił potrzebę regulacji i powiedział, że branża chce współpracować z rządem – ale nie było jasne, jak dokładnie to się stanie. Przed przesłuchaniem Altman odbył prywatne spotkania z kluczowymi prawodawcami po uruchomieniu ChatGPT w listopadzie 2022 r., a dziś wieczorem ma wziąć udział w kolacji z członkami Kongresu.
Skupienie się neonazistów i zwolenników białej supremacji na sztucznej inteligencji, tutaj w Stanach Zjednoczonych i na całym świecie, jest zagrożeniem dla bezpieczeństwa narodowego, o którym nawet nie wspomina się w ostatnich ostrzeżeniach dotyczących sztucznej inteligencji. Podczas gdy ekstremiści mają nadzieję, że sztuczna inteligencja pomoże „siać spustoszenie” – zgodnie z niedawnym postem na czacie akceleracjonistycznym – nie wiadomo, czy amerykańskie i zachodnie agencje antyterrorystyczne w ogóle zaczęły zajmować się tym zagrożeniem.
Najbliższe potwierdzenie rozpoznania niebezpieczeństwa nastąpiło w pierwszym tygodniu maja, kiedy prezydent Biden zgromadził liderów technologicznych zaangażowanych w rozwój sztucznej inteligencji, którzy ostrzegali przed potencjalnym „ogromnym niebezpieczeństwem”, jakie stwarza, obiecując jednocześnie zainwestować miliony w postęp badań na ten temat.
Wcześniej, w kwietniu, dyrektor Agencji ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury, Jen Easterly ostrzegła w dyskusji panelowej przed zagrożeniami związanymi z tą technologią i dostępem do niej: „Pędzimy naprzód w sposób, który moim zdaniem nie jest właściwym poziomem odpowiedzialności, wdrażając możliwości AI w produkcji, bez żadnych barier prawnych, bez żadnych regulacji.” A senator Chris Murphy niedawno ostrzegł przed sztuczną inteligencją: „Popełniliśmy błąd, powierzając branży technologicznej samokontrolę mediów społecznościowych… Po prostu nie mogę uwierzyć, że jesteśmy o krok od popełnienia tego samego błędu”.
To, czy wezwanie do zatrzymania rozwoju sztucznej inteligencji pojawiło się na czas, dopiero się okaże. Ale niezależnie od tego, ten prywatny przemysł nie powinien działać bez nadzoru rządu. Oczywiste jest, że branża musi przestrzegać standardów i tworzyć wytyczne w celu zbadania takich kwestii – posunięć, które wciąż nie zostały podjęte w sprawie wykorzystania mediów społecznościowych przez terrorystów. Chociaż Narodowy Instytut Standardów i Technologii podobno opracował ramy odpowiedzialności za korzystanie z AI, wydaje się, że nikt o nich nie wie.
*Dr Steven Stalinsky jest dyrektorem wykonawczym MEMRI.