Grupos neonazis, supremacistas blancos y antigubernamentales (extremistas violentos por motivos raciales/étnicos, también conocidos como REMVE) están discutiendo y publicando sobre el uso de la IA en las principales plataformas de redes sociales que prefieren. En privado y abiertamente, están hablando, probando y usando la IA, además de desarrollar sus propias versiones y reclutar ingenieros y equipos para proyectos especiales, incluso para irrumpir en bancos.

Los ejemplos más preocupantes encontrados por el equipo de investigación del Monitor de Amenazas de Terrorismo Doméstico (DTTM, por sus siglas en inglés) de MEMRI en su trabajo de estudio de este tema involucran a extremistas que en realidad discuten el uso de la IA para planificar ataques terroristas, incluida la fabricación de armas de destrucción masiva. Un grupo aceleracionista que busca provocar el colapso total de la sociedad llevó a cabo recientemente, en un grupo de Facebook, una conversación sobre cómo intentar engañar a un chatbot de IA para que proporcione detalles para fabricar gas mostaza y napalm. Estos y otros ejemplos se detallan en un nuevo informe de MEMRI DTTM que se publicará más adelante este mes.

En el reporte también se encuentra el líder de una entidad designada como terrorista, un ex contratista del gobierno de Estados Unidos que con frecuencia llama a realizar ataques en Estados Unidos desde su refugio seguro en Rusia. Este ex contratista publicó sugerencias generadas por ChatGPT para participar en guerra de guerrillas y sobre infraestructura crítica norteamericana que sería más vulnerable a ataqued. ChatGPT dijo que la infraestructura estadounidense más vulnerable es «la red eléctrica».

Otros hablan sobre el uso de IA para planificar levantamientos armados con el objeto de derrocar al sistema gubernamental actual de Estados Unidos y comparten sus versiones creadas por IA de banderas, uniformes militares y diseños gráficos de la Casa Blanca. También discuten el uso de IA para el reclutamiento y para difundir su ideología y propaganda en línea, incluso con videos que crean. Los videos falsos que muestran a Hitler pronunciando un discurso en inglés y a la actriz de Harry Potter Emma Watson leyendo en voz alta Mein Kampf de Hitler se han vuelto virales en sus plataformas.

La investigación de MEMRI ya encontró a terroristas yihadistas hablando sobre el uso de IA para desarrollar sistemas de armas, incluidos drones y coches bomba autónomos. Como escribí en Newsweek en marzo, un usuario popular en un servidor Rocket.Chat operado por ISIS reveló en diciembre de 2021 que le había pedido consejo a ChatGPT sobre cómo apoyar al califato y compartió los resultados. A fines de marzo, los partidarios de ISIS discutieron el uso de ChatGPT para codificar y crear software para piratear y cifrar, y concluyeron que «2023 será un año muy especial para los piratas informáticos, gracias a los chatbots y los programas de IA».

Ya en marzo de 2016, Microsoft lanzó el chatbot de inteligencia artificial Tay, pero lo cerró dentro de las 24 horas después de que fue manipulado para tuitear mensajes pro-Hitler. Sin embargo, siete años después, el peligro que representa el uso de la IA por parte de neonazis y supremacistas blancos no ha hecho más que aumentar. En la aplicación de chat Hello History, lanzada a principios de enero de 2023 y descargada más de 10.000 veces solo en Google Play, los usuarios pueden chatear con versiones simuladas de personajes históricos, incluidos Adolf Hitler y el propagandista nazi Joseph Goebbels.

A medida que avanza la tecnología de IA (las inversiones corporativas globales totales en IA alcanzaron casi $ 94 mil millones en 2021), muchas empresas involucradas en su desarrollo están despidiendo a sus especialistas en ética, quienes examinan algoritmos para prevenir el tipo de extremismo en las plataformas que se citan en este artículo.

La noticia de estos despidos se produce cuando más de 2.000 líderes tecnológicos e investigadores exigieron protocolos de seguridad y pidieron a la industria que «detuviera inmediatamente durante al menos seis meses» el entrenamiento de sistemas de IA cada vez más avanzados, argumentando «riesgos profundos para la sociedad y la humanidad». Para colmo, el 1 de mayo, el pionero de la inteligencia artificial y «padrino» Geoffrey Hinton dejó Google, donde se había convertido en una de las voces más respetadas en el campo, para poder hablar libremente sobre los peligros de la IA.

En respuesta a la reacción negativa en curso, Sam Altman, director ejecutivo del creador de ChatGPT, OpenAI, explicó en una entrevista que se necesita «tiempo» «para ver cómo se usa [la tecnología]», que «la estamos monitoreando muy de cerca, y que «podemos retrotraerlo» y «apagar cosas». Las afirmaciones de Altman sirven a la industria de la IA.

Sin embargo, en su testimonio de hoy ante la audiencia del subcomité del Senado sobre la supervisión de la IA, Altman enfatizó la necesidad de regulación y dijo que la industria quiere trabajar con los gobiernos, pero no estaba claro cómo sucedería exactamente. Antes de la audiencia, Altman se reunió en privado con legisladores clave luego del lanzamiento de ChatGPT en noviembre de 2022, y esta noche asistirá a una cena con miembros del Congreso.

El enfoque neonazi y supremacista blanco en la IA, aquí en Estados Unidos y en todo el mundo, es una amenaza a la seguridad nacional que ni siquiera se menciona en las advertencias recientes sobre la IA. Si bien los extremistas esperan que la IA ayude a «causar estragos», según una publicación reciente en un chat aceleracionista, no se sabe si las agencias antiterroristas estadounidenses y occidentales han comenzado a abordar esta amenaza.

El reconocimiento más cercano a la admisión del peligro se produjo en la primera semana de mayo, cuando el presidente Biden reunió a los líderes tecnológicos involucrados en la IA que advirtieron sobre el potencial «enorme peligro» que representa, al tiempo que prometieron invertir millones en el avance de la investigación al respecto.

Anteriormente, en abril, la directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad, Jen Easterly, advirtió, en un panel de discusión, sobre los peligros de esta tecnología y del acceso a ella: «Estamos avanzando a toda velocidad de una manera que creo que no es el nivel correcto de responsabilidad, implementando capacidades de IA en producción, sin barreras legales, sin ninguna regulación». Y el senador Chris Murphy advirtió recientemente sobre la IA: «Cometimos un error al confiar en la industria de la tecnología para que auto-controlara las redes sociales… Simplemente no puedo creer que estemos al borde de cometer el mismo error».

Queda por ver si la llamada para detener el desarrollo de la IA ha llegado a tiempo. Pero independientemente, esta industria privada no debería operar sin la supervisión del gobierno. Está claro que la industria debe seguir los estándares y crear pautas para examinar problemas como este, movimientos que aún no se han hecho para el uso terrorista de las redes sociales. Si bien, según se informa, el Instituto Nacional de Estándares y Tecnología ha desarrollado marcos para la responsabilidad en el uso de la IA, nadie parece conocerlos.

 

*Steven Stalinsky, Ph.D., es director ejecutivo de MEMRI.