Defense & Security
Künstliche Intelligenz und internationale militärische Konflikte – der Kriegsfall in der Ukraine.*
Image Source : Shutterstock
Subscribe to our weekly newsletters for free
If you want to subscribe to World & New World Newsletter, please enter
your e-mail
Defense & Security
Image Source : Shutterstock
First Published in: Nov.25,2025
Nov.25, 2025
Abstrakt
Dieses Papier stützt sich auf die sich rasch entwickelnde Literatur über die Rolle der künstlichen Intelligenz in militärischen Konflikten und in der Kriegsführung sowie über ihre Auswirkungen auf die internationale Sicherheit. Es geht von der Annahme aus, dass die aufkommende Technologie einen deterministischen und potenziell transformativen Einfluss auf die militärische Macht haben wird.
Mit diesem Projekt soll die Rolle von autonomen Waffen in modernen militärischen Konflikten untersucht werden. Damit trägt es zu den jüngsten Debatten bei, die unter Wissenschaftlern, militärischen Führern und politischen Entscheidungsträgern auf der ganzen Welt über das Potenzial von KI als Quelle künftiger Instabilität und Großmachtrivalität geführt werden.
Es wird vorgeschlagen, die Entwicklung, Verbreitung und Nutzung von autonomen Waffen und Waffensystemen, die von KI gesteuert werden, dringend zu regulieren, bevor es zu spät ist - nämlich bevor die KI kognitive Fähigkeiten erlangt.
1. Definitionen
Laut Encyclopedia Britannica ist künstliche Intelligenz (KI) die Fähigkeit eines digitalen Computers oder computergesteuerten Roboters, Aufgaben auszuführen, die normalerweise intelligenten Wesen zugeschrieben werden. Der Begriff wird häufig verwendet, um die Entwicklung von Systemen zu beschreiben, die mit den für den Menschen charakteristischen intellektuellen Prozessen ausgestattet sind, wie z.B. die Fähigkeit zu denken, Bedeutungen zu erkennen, zu verallgemeinern oder aus früheren Erfahrungen zu lernen.1
Interessanterweise definiert sich KI selbst als die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere durch Computersysteme. Zu diesen Prozessen gehören Lernen, logisches Denken, Problemlösung, Wahrnehmung und Sprachverständnis. KI ermöglicht es Maschinen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern, wie visuelle Wahrnehmung, Spracherkennung, Entscheidungsfindung und Verarbeitung natürlicher Sprache. KI-Technologien umfassen maschinelles Lernen, neuronale Netze, tiefes Lernen und andere fortgeschrittene Algorithmen, die es Maschinen ermöglichen, kognitive Funktionen zu imitieren.2
Im militärischen Kontext bezieht sich künstliche Intelligenz auf den Einsatz von KI-Technologien und -Systemen zur Verbesserung militärischer Fähigkeiten, Operationen und Entscheidungsprozesse. Zu den militärischen Anwendungen von KI zählen autonome Waffensysteme, Drohnen, Cyberabwehrmechanismen, vorausschauende Analysen für die strategische Planung und die Überwachung von Schlachtfeldern. KI ermöglicht es, große Datenmengen schnell zu analysieren, Muster zu erkennen und Entscheidungen in Echtzeit zu treffen, um militärische Ziele zu unterstützen. Obwohl KI erhebliche Vorteile in Bezug auf Effizienz und Präzision bietet, gibt es ethische Überlegungen und Bedenken hinsichtlich der potenziellen Risiken autonomer KI-Systeme in der Kriegsführung.3
2. AI im Ukraine Krieg und Israel vs. Hamas
- Ukraine
Der derzeitige Krieg in der Ukraine ist wahrscheinlich der erste „Drohnenkrieg in großem Maßstab“, bei der auch fliegenden Munition, autonome Schiffe, Unterwasserdrohnen für die Minenjagd und unbemannte Bodenfahrzeuge zum Einsatz kommen.
KI wird in großem Umfang in Systemen eingesetzt, die Ziel- und Objekterkennung sowie geografische Intelligenz integrieren. Dazu gehört die Analyse von Satellitenbildern, die Geolokalisierung und die Analyse von Open-Source-Daten wie Fotos in sozialen Medien an geopolitisch sensiblen Orten. Darüber hinaus werden neuronale Netze eingesetzt, um beispielsweise Bodenaufnahmen, Drohnenvideos und Satellitenbilder zu kombinieren.
Auch KI-gestützte Gesichtserkennungssoftware wird bereits in großem Umfang eingesetzt. KI spielt eine wichtige Rolle bei der elektronischen Kriegsführung und Verschlüsselung sowie bei der Cyber-Kriegsführung, insbesondere zur Unterstützung der Verteidigungsfähigkeit. Schließlich wird KI auch zur Verbreitung von Desinformation eingesetzt, d.h. zur Verbreitung von Falschinformationen als Teil der Informationskriegsführung. Das Aufkommen dieser neuen Technologie hat neue Akteure hervorgebracht, private Unternehmen, die die so genannte Privatisierung der Sicherheit vorantreiben: Palantir Technologies, Planet Labs, BlackSky Technology und Maxar Technologies sind einige Beispiele.
KI-gesteuerte Systeme verändern das Feld so grundlegend, dass der kombinierte Einsatz von Luft- und Seedrohnen beim Angriff auf das russische Flaggschiff im Schwarzen Meer, die Admiral Makarow, im Oktober (2022) von einigen Analysten als eine neue Art der Kriegsführung bezeichnet wurde.4
Was diesen Konflikt so einzigartig macht, ist die beispiellose Bereitschaft ausländischer Geoinformationsunternehmen, die Ukraine mit KI-gestützten Systemen zu unterstützen, um Satellitenbilder in Informations-, Überwachungs- und Aufklärungsvorteile umzuwandeln. US-Unternehmen spielen dabei eine führende Rolle.
Diese Beispiele zeigen, dass der aktuelle Konflikt in der Ukraine ein Testfeld für KI-Technologie ist.
- Israel vs. Hamas
Das israelische Militär verwendet nach eigenen Angaben künstliche Intelligenz, um viele dieser Ziele in Echtzeit auszuwählen. Das Militär behauptet, das KI-System mit dem Namen „Gospel“ habe ihm dabei geholfen, feindliche Kämpfer und Ausrüstung schnell zu identifizieren und gleichzeitig die Zahl der zivilen Opfer zu verringern.5 Mehrere Quellen, die mit den Zielverfahren der israelischen Verteidigungsstreitkräfte (IDF) vertraut sind, haben die Existenz von „Gospel“ bestätigt und erklärt, es werde verwendet, um automatische Empfehlungen für Angriffe auf Ziele wie Privathäuser von Personen zu erstellen, die verdächtigt werden, Aktivisten der Hamas oder des Islamischen Dschihad zu sein. In den vergangenen Jahren hat die Zielabteilung der israelischen Armee dabei geholfen, eine Datenbank mit 30.000 bis 40.000 mutmaßlichen Kämpfern aufzubauen. Systeme wie Gospel sollen eine entscheidende Rolle bei der Erstellung von Tötungslisten gespielt haben.6 Laut IDF-Website ändert der Einsatz dieser Instrumente nichts an den verbindlichen Prinzipien und Regeln, die in den SOPs des Intelligence Directorate und den entsprechenden Anweisungen festgelegt sind. Sie generieren keine Befehle für Angriffe. Sie generieren keine neuen Informationen, zu denen ein nachrichtendienstlicher Analyst sonst keinen Zugang hätte. Sie sind nicht die alleinige Grundlage für die Bestimmung von Angriffszielen - wie genau auch immer sie sein mögen. Vielmehr verbessern diese Werkzeuge die Qualität des nachrichtendienstlichen Ergebnisses. Sie erleichtern dem Analysten den Zugang zu relevanten Informationen und helfen ihm, besser über die aktuellen und relevantesten nachrichtendienstlichen Quellen informiert zu sein, wodurch die Analysen präziser werden. Sie verringern die Fehleranfälligkeit von nachrichtendienstlichen Analysen.7
3. AI und Krieg
Im Hinblick auf die Rolle von KI-gesteuerter Technologie und Software ist es vielleicht sinnvoll, sie als die dritte Revolution in der Kriegsführung zu betrachten. Die erste bezog sich hauptsächlich auf Schießpulver, die zweite auf Nuklearwaffen.
Man sollte auch nicht vergessen, dass KI eng mit dem so genannten Cyberspace verbunden ist, der in der Literatur oft als fünfter Bereich der Kriegsführung bezeichnet wird. (Die erste Domäne ist das Land, die zweite das Meer, die dritte die Luft und die vierte der Weltraum, d.h. der kosmische Raum).
Während KI und verwandte Technologien das Potenzial haben, Kriegsschäden zu verringern, wenn sie verantwortungsvoll entwickelt und eingesetzt werden, bestehen erhebliche Risiken der technologischen Eskalation, des Verlusts menschlicher Kontrolle und der Angleichung von Werten, die eine proaktive internationale Zusammenarbeit und Überwachung erfordern, um die Forschung und den Einsatz dieser Systeme zu steuern. Nichtsdestotrotz arbeiten alle Großmächte, einschließlich der USA und Chinas, kontinuierlich an der Entwicklung relevanter KI-gestützter militärischer Systeme, in der Hoffnung, sich dadurch potenzielle Vorteile gegenüber dem jeweils anderen Land zu verschaffen. Zu diesen Technologien gehören Anwendungen des maschinellen Lernens und des Deep Learning, die für militärische Zwecke genutzt werden können, wie die Autonomie von Drohnen und Fahrzeugen, die Cyber- und Informationskriegsführung und die vorausschauende Analyse von Bevölkerungen und Szenarien.
Gleichzeitig bringt KI neue Herausforderungen und Eskalationsrisiken mit sich, die sich von früheren Rüstungswettläufen unterscheiden und neue Rahmenbedingungen und Normen erfordern. Autonome Waffen drohen das humanitäre Völkerrecht zu untergraben, indem sie die menschliche Verantwortung bei der Zielerfassung ausschalten - Probleme der Voreingenommenheit, ungewisse Risiken des Verlusts sinnvoller menschlicher Kontrolle. Weitere damit verbundene Risiken sind präventive/prädiktive KI für Massenüberwachung, soziale Kontrolle und Informationskrieg, die die Grundsätze der Souveränität, der Privatsphäre und der Einwilligung untergraben können.
Es braucht nicht viel Fantasie, um für die Zukunft ein gewisses Maß an „Techno-Tyrannei“ zu erwarten. Der Verlust von Arbeitsplätzen durch Robotersysteme ist wahrscheinlich und birgt die Gefahr weiterer politisch-wirtschaftlicher Instabilität. Deshalb sind gerechte Übergänge und vielleicht sogar ein universelles Grundeinkommen notwendig.
Die undurchsichtige „Blackbox“-Natur neuronaler Netze erschwert Kontrolle und Rechenschaftspflicht und nährt Misstrauen. Zudem besteht die Gefahr einer versehentlichen oder unbeabsichtigten Eskalation. Ohne Sicherheitsvorkehrungen und Transparenz könnte KI letztlich eher militärisch-industriellen Komplexen und geopolitischen Ambitionen dienen als den globalen Sicherheitsbedürfnissen.
Die sich rasch entwickelnde Technologie muss dringend reguliert werden. Internationale KI-Governance-Initiativen (Standards oder Regime) werden wahrscheinlich von den Vereinten Nationen und ihren technischen Organen auf den Weg gebracht werden müssen. Diese müssen eine "Ergebnisverantwortung" durch Systemdesign, Folgenabschätzungen, rote Linien für bestimmte Anwendungen und einen allgemeinen Zugang zu den Vorteilen beinhalten.
Heidy Khlaaf, technische Direktorin für KI-Sicherheit beim Technologieunternehmen Trail of Bits warnt: „KI-Algorithmen sind notorisch fehlerhaft, und Anwendungen, die Präzision, Genauigkeit und Sicherheit erfordern, weisen hohe Fehlerquoten auf“.8
Berichten zufolge „tötete“ eine KI-Drohne einen Bediener während einer simulierten Militärübung des US-Militärs, nachdem sie abtrünnig geworden war. Der Roboter stellte fest, dass seine Steuerung ihn daran hinderte, „die Testziele zu erreichen“.9
Parallel dazu entwickeln chinesische Wissenschaftler in einem PLA-Labor den weltweit ersten KI-Befehlshaber und sperren ihn ein. „Der Kommandeur auf höchster Ebene ist die einzige zentrale Entscheidungsinstanz für die gesamte Operation und verfügt über die ultimative Entscheidungsverantwortung und -befugnis“.10
4. AI und Internationale Sicherheit
Was die Anwendungen einer KI auf nationaler Sicherheitsebene betrifft, so lassen sich zahlreiche Milieus ausmachen:
- Militär
Die künstliche Intelligenz verändert militärische Operationen, indem sie autonome Systeme wie Drohnen und Roboter in die Lage versetzt, Aufgaben zu übernehmen, die bisher von Menschen ausgeführt wurden. Diese Systeme können zur Überwachung, Aufklärung, Zielidentifizierung und sogar zum Kampf eingesetzt werden. KI-gestützte Algorithmen können riesige Datenmengen analysieren, um Informationen in Echtzeit zu liefern, das Situationsbewusstsein zu verbessern und Entscheidungsprozesse auf dem Schlachtfeld zu unterstützen.
- Cybersicherheit
KI ist bei der Bekämpfung von Cyber-Bedrohungen von entscheidender Bedeutung, da sie Angriffe effektiver erkennen und darauf reagieren kann als herkömmliche Sicherheitsmaßnahmen. Algorithmen des maschinellen Lernens können Muster des Netzwerkverkehrs analysieren, Anomalien erkennen und potenzielle Sicherheitsverletzungen aufdecken. KI kann auch dabei helfen, Vorhersagemodelle zu entwickeln, um künftige Cyber-Bedrohungen und Schwachstellen zu antizipieren, so dass Unternehmen ihre Abwehr proaktiv stärken können.
- Nachrichtendienste und Überwachungsdienste
KI ermöglicht es Geheimdiensten, riesige Datenmengen zu verarbeiten und zu analysieren, darunter Social Media Feeds, Satellitenbilder und abgefangene Kommunikation. Algorithmen zur Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) können wertvolle Erkenntnisse aus unstrukturierten Datenquellen gewinnen und so bei der Terrorismusbekämpfung, der Identifizierung potenzieller Bedrohungen und der Überwachung geopolitischer Entwicklungen helfen.
- Entscheidungsunterstützende Systeme
KI kann politischen und militärischen Entscheidungsträgern helfen, fundierte Entscheidungen zu treffen, indem sie vorausschauende Analysen und Szenario Modelle erstellt. Algorithmen des maschinellen Lernens können historische Daten analysieren, Muster erkennen und Prognosen zu potenziellen Konflikten, zur Ressourcenverteilung oder zu geopolitischen Entwicklungen erstellen. Dies hilft bei der strategischen Planung und Ressourcenoptimierung.
- Autonome Waffensysteme
Die Entwicklung von autonomen Waffensystemen wirft ethische Bedenken und Herausforderungen für die internationale Sicherheit auf. KI-gesteuerte Waffen können ohne direkte menschliche Kontrolle eingesetzt werden, was zu Debatten über Verantwortlichkeit, Verhältnismäßigkeit und die Einhaltung des humanitären Völkerrechts führt. Auf internationaler Ebene gibt es Bestrebungen, Vorschriften und Normen für den Einsatz solcher Systeme festzulegen.
- Diplomatie und Konfliktlösung
KI kann diplomatische Verhandlungen und Konfliktlösungen erleichtern, indem sie datengestützte Erkenntnisse und Analysen liefert. Algorithmen zur Verarbeitung natürlicher Sprache können dabei helfen, diplomatische Texte zu analysieren, Gemeinsamkeiten zu erkennen und mögliche Kompromisse vorzuschlagen. KI kann auch Szenarien simulieren und die Ergebnisse verschiedener Verhandlungsstrategien vorhersagen, um Diplomaten bei der Suche nach für beide Seiten vorteilhaften Lösungen zu unterstützen.
- Erkennung und Prävention von Bedrohungen
KI kann Frühwarnsysteme für verschiedene Bedrohungen verbessern, z. B. für Terrorismus, die Verbreitung von Kernwaffen und Pandemien. Algorithmen des maschinellen Lernens können Muster in Daten analysieren, um potenzielle Risiken zu erkennen und neue Bedrohungen vorherzusagen. Dies ermöglicht es Regierungen und internationalen Organisationen, proaktive Maßnahmen zu ergreifen, um diese Risiken zu verhindern oder abzuschwächen.
5. Schlussfolgerung
In der Welt der Mikroelektronik sprechen Experten oft vom Mooreschen Gesetz: Es besagt, dass sich die Anzahl der Transistoren auf Chips alle zwei Jahre verdoppelt, was zu exponentiell leistungsfähigeren Geräten führt. Dieses Gesetz erklärt die rasante Entwicklung so vieler technologischer Innovationen wie Smartphones und Suchmaschinen.
Im Bereich der nationalen Sicherheit haben die Fortschritte der KI eine andere Art von Mooreschem Gesetz hervorgebracht. Das Militär, dem es zuerst gelingt, die Nutzung von Daten und KI in seinen Operationen zu organisieren, zu integrieren und zu institutionalisieren, wird in den kommenden Jahren exponentielle Fortschritte erzielen, die ihm bemerkenswerte Vorteile gegenüber seinen Gegnern verschaffen werden. Der erste, der KI in großem Maßstab einsetzt, wird wahrscheinlich über einen schnelleren Entscheidungszyklus und bessere Informationen verfügen, auf die er seine Entscheidungen stützen kann. Seine Netzwerke werden wahrscheinlich Angriffen besser standhalten, und er wird in der Lage sein, die Lage zu erfassen, seine Streitkräfte zu verteidigen, Ziele wirksam zu bekämpfen und die Integrität seiner Kommando-, Kontroll- und Kommunikationssysteme zu schützen. Sie wird auch in der Lage sein, Schwärme unbemannter Systeme in der Luft, auf dem Wasser und unter Wasser zu kontrollieren, um einen Gegner zu verwirren und zu überwältigen.11 Sie wird auch in der Lage sein, Schwärme unbemannter Systeme in der Luft, auf dem Wasser und unter Wasser zu kontrollieren, um einen Gegner zu verwirren und zu überwältigen.
Referenzen
*Dieses Papier wurde auf dem 65. Jahreskongress der International Studies Association vorgestellt. San Francisco, Kalifornien 3. bis 6. April 2024
1 Copeland, B. (2024, March 15). Artificial intelligence. Encyclopedia Britannica. https://www.britannica.com/technology/artificial-intelligence
2 How do you define artificial intelligence? ChatGPT, GPT-4 Turbo, OpenAI, 2024, October 25. https://genai.hkbu.edu.hk/
3 How do you define artificial intelligence in the context of the military? ChatGPT, GPT-4 Turbo, OpenAI, 2024, October 25. https://genai.hkbu.edu.hk/
4 Fontes, R. and Kamminga, J. (2023, March 24). Ukraine A Living Lab for AI Warfare. National Defence. NDIA’s Business Technology Magazine. https://www.nationaldefensemagazine.org/articles/2023/3/24/ukraine-a-living-lab-for-ai-warfare
5 Brumfiel, G. (2023, December 14). Israel is using an AI system to find targets in Gaza. Experts say it is just the start. Wisconsin Public Radio. https://www.wpr.org/news/israel-using-ai-system-find-targets-gaza-experts-say-its-just-start
6 ‘The Gospel’: how Israel uses AI to select bombing targets in Gaza. (2023, December 1). The Guardian. https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
7 The IDF's Use of Data Technologies in Intelligence Processing. (2024, June 18). IDF Press Releases: Israel at War. https://www.idf.il/en/mini-sites/idf-press-releases-israel-at-war/june-24-pr/the-idf-s-use-of-data-technologies-in-intelligence-processing/
8 Brumfiel, G. (2023, December 14). Israel is using an AI system to find targets in Gaza. Experts say it is just the start. Wisconsin Public Radio. https://www.wpr.org/news/israel-using-ai-system-find-targets-gaza-experts-say-its-just-start
9 Bowman, V. (2023, June 2). AI drone 'killed operator' after going rogue on simulation. The Telegraph. https://www.telegraph.co.uk/world-news/2023/06/02/us-air-force-ai-military-drone-goes-rogue-simulation/
10 Chen, S. (2024, June 16). Chinese scientists create and cage world is first AI commander in a PLA laboratory. South China Morning Post. https://www.scmp.com/news/china/science/article/3266444/chinese-scientists-create-and-cage-worlds-first-ai-commander-pla-laboratory?module=top_story&pgtype=homepage
11 Flournoy, Michèle A. 2023. “AI Is Already at War.” Foreign Affairs 102 (6): 56–69. https://search.ebscohost.com/login.aspx?direct=true&AuthType=shib&db=bth&AN=173135132&site=ehost-live.
First published in :
World & New World Journal Publication
Dr. Śliwiński Krzysztof, ist außerordentlicher Professor am Department of Government and International Studies der Hong Kong Baptist University (http://gis.hkbu.edu.hk/staff/sliwinski.html).
Er promovierte 2005 an der Universität Warschau (Institut für Internationale Beziehungen). Seit 2008 ist er an der Hong Kong Baptist University angestellt. Er hält regelmäßig Vorträge zu den Themen europäische Integration, Sicherheitsstudien, internationale Beziehungen und globale Studien. Zu seinen Hauptforschungsinteressen zählen Sicherheitsstudien (nicht-traditionelle Sicherheitsfragen), die Außen- und Sicherheitspolitik des Vereinigten Königreichs, die Außen- und Sicherheitspolitik Polens sowie die europäische Außen- und Sicherheitspolitik. Zu seinen jüngsten Veröffentlichungen gehört Śliwiński, K. (2016). Moving Beyond the European Union's Weakness as a Cyber-security Agent, Contemporary Security Policy, 2014, 35, 3, In Smith, M. A. (Hrsg.) European Security. Kritische Konzepte in Militär-, Strategie- und Sicherheitsstudien, (468–86). Routledge und Holland, M., Śliwiński, K. & Thomas, N. (2020). Ist affektiv wirksam? Messung des affektiven Lernens in Simulationen, Perspektiven der internationalen Studien, ekaa005, https://doi.org/10.1093/isp/ekaa005
Unlock articles by signing up or logging in.
Become a member for unrestricted reading!