Subscribe to our weekly newsletters for free

Subscribe to an email

If you want to subscribe to World & New World Newsletter, please enter
your e-mail

Defense & Security

Intelligence artificielle et conflits militaires internationaux – le cas de la guerre en Ukraine.

Think Tank militaire, technologie IA dans l'armée. Opérateur analytique de guerre vérifiant la coordination de l'équipe militaire. Commandant militaire avec un appareil numérique avec des lunettes VR opérant des troupes.

Image Source : Shutterstock

by Krzysztof Śliwiński

First Published in: Nov.25,2024

Nov.25, 2024

Résumé

 

Cet article s'appuie sur une littérature en plein essor traitant du rôle de l'intelligence artificielle dans les conflits militaires et la guerre, ainsi que de ses implications pour la sécurité internationale. L’article part du principe que la technologie émergente aura une influence déterministe et potentiellement transformatrice sur la puissance militaire.

 

Ce projet vise à déterminer le rôle des armes autonomes dans les conflits militaires modernes. Ce faisant, il s'ajoute aux récents débats qui ont lieu au sein de la communauté universitaire, et qui sont également abordés par les dirigeants militaires et les décideurs politiques du monde entier, concernant le potentiel de l'IA à être la source d'une instabilité future et d'une rivalité entre grandes puissances.

 

Il est perçu urgent de réglementer le développement, la prolifération et l'utilisation d'armes autonomes et de systèmes d'armes pilotés par l'IA avant qu'il ne soit trop tard, c'est-à-dire avant que l'IA n'acquière des compétences cognitives.

 

1. définitions

 

Selon l'Encyclopædia Britannica, l'intelligence artificielle (IA) est la capacité d'un ordinateur numérique ou d'un robot contrôlé par ordinateur à effectuer des tâches généralement associées à des êtres intelligents. Le terme est fréquemment appliqué au projet de développement de systèmes dotés des processus intellectuels caractéristiques des êtres humains, tels que la capacité de raisonner, de découvrir des significations, de généraliser ou d'apprendre à partir d'expériences passées.

 

Il est intéressant de noter que l'IA se définit elle-même comme la simulation des processus de l'intelligence humaine par des machines, en particulier des systèmes informatiques. Ces processus comprennent l'apprentissage, le raisonnement, la résolution de problèmes, la perception et la compréhension du langage. L'IA permet aux machines d'effectuer des tâches qui requièrent généralement l'intelligence humaine, telles que la perception visuelle, la reconnaissance vocale, la prise de décision et le traitement du langage naturel. Les technologies de l'IA englobent l'apprentissage automatique, les réseaux neuronaux, l'apprentissage profond et d'autres algorithmes avancés qui permettent aux machines d'imiter les fonctions cognitives.

 

Dans le contexte militaire, l'intelligence artificielle fait référence à l'utilisation des technologies et des systèmes d'intelligence artificielle pour améliorer les capacités, les opérations et les processus décisionnels militaires. Les applications militaires de l'IA comprennent les systèmes d'armes autonomes, les drones, les mécanismes de cyberdéfense, l'analyse prédictive pour la planification stratégique et la surveillance du champ de bataille. L'IA peut être utilisée pour analyser rapidement de grands volumes de données, identifier des modèles et prendre des décisions en temps réel pour soutenir les objectifs militaires. Bien que l'IA offre des avantages significatifs en termes d'efficacité et de précision, il existe des considérations éthiques et des préoccupations concernant les risques potentiels des systèmes d'IA autonomes dans la guerre.

 

2. L'IA dans la guerre en Ukraine et Israël contre le Hamas 

 

- Ukraine

 

La guerre en cours en Ukraine est sans doute la première « guerre des drones à grande échelle », qui utilise également des munitions rôdeuses, des navires autonomes, des drones sous-marins pour la chasse aux mines et des véhicules terrestres déployés sans équipage.

 

L'IA est grandement utilisée dans les systèmes qui intègrent la reconnaissance de cibles et objets et le renseignement géospatial. L'analyse d'images satellites, la géolocalisation et l'analyse de données en libre accès telles que les photos postées sur les réseaux sociaux dans des lieux géopolitiquement sensibles. En plus de cela, les réseaux neuronaux sont utilisés, par exemple, pour faire un collage de photos prises à ras du sol avec des séquences vidéo enregistrées par des drones et des images satellite.

 

Des logiciels de reconnaissance faciale améliorés par l'IA ont également été utilisés à grande échelle. L'IA joue un rôle important dans la guerre électronique et le cryptage, ainsi que dans la cyberguerre, en particulier pour renforcer les capacités défensives. Enfin, l'IA a également été employée pour diffuser de la désinformation - l'utilisation de deepfakes (aussi appelés hypertrucages) dans le cadre de la guerre de l'information. L'émergence de cette nouvelle technologie a créé de nouveaux acteurs, des entreprises privées, qui alimentent la « privatisation » de la sécurité : Palantir Technologies, Planet Labs, BlackSky Technology et Maxar Technologies en sont quelques exemples.

 

Les systèmes pilotés par l'IA apportent un changement fondamental dans ce domaine, à tel point que l'utilisation combinée de drones aériens et maritimes lors de l'attaque d'octobre (2022) contre le navire russe de la mer Noire, l'Amiral Makarov, a été perçue par certains analystes comme un nouveau type de guerre.

 

Ce qui rend ce conflit unique, c'est la volonté sans précédent des entreprises étrangères de renseignement géospatial d'aider l'Ukraine en utilisant des systèmes améliorés par l'IA pour convertir l'imagerie satellitaire en des atouts pour les domaines du renseignement, de la surveillance et de la reconnaissance. Les entreprises américaines jouent un rôle de premier plan à ce sujet.

 

Ces exemples montrent que le conflit actuel en Ukraine est un terrain d'essai pour la technologie de l'IA.

 

- Israël contre le Hamas

 

L'armée israélienne affirme qu'elle utilise l'intelligence artificielle pour sélectionner un grand nombre de ces cibles en temps réel. L'armée affirme que le système d'intelligence artificielle, baptisé « Gospel », l'a aidé à identifier rapidement les combattants et les équipements ennemis, tout en réduisant les pertes civiles. Plusieurs sources familières avec les processus de ciblage des FDI (Forces de défense israéliennes) ont confirmé l'existence de Gospel, affirmant qu'il avait été utilisé pour produire des recommandations automatisées d'attaque de cibles, telles que les domiciles privés de personnes soupçonnées d'être des agents du Hamas ou du Djihad islamique. Ces dernières années, la division de Reconnaissance (militaire) a aidé les FDI à constituer une base de données de 30 000 à 40 000 militants présumés, selon les sources. Des systèmes tels que Gospel ont joué un rôle essentiel dans l'établissement de listes d'individus autorisés à être assassinés. Selon le site web des FDI, l'utilisation de ces outils ne modifie pas les principes et les règles obligatoires du SOP de la direction du renseignement et des instructions connexes. Ils ne génèrent pas d'ordres d'attaque. Ils ne génèrent pas de nouveaux renseignements auxquels un analyste du renseignement n'aurait pas pu accéder autrement. Ils ne constituent pas la seule base pour déterminer les cibles susceptibles d'être attaquées, quelle que soit leur précision. Au contraire, ces outils améliorent la qualité du résultat du processus de renseignement. Ils facilitent l'accès de l'analyste aux informations pertinentes et l'aident à mieux connaître les sources de renseignement les plus récentes et les plus pertinentes, ce qui rend les analyses plus précises. Ils réduisent le risque d'erreurs qui peuvent survenir dans les analyses de renseignement.

 

3. L'IA et la guerre

 

En ce qui concerne le rôle des technologies et des logiciels pilotés par l'IA, il serait probablement judicieux de les considérer comme la troisième révolution dans les techniques de la guerre. La première étant principalement la poudre à canon et la deuxième les armes nucléaires.

 

En outre, il convient de garder à l'esprit que l'IA est étroitement liée à ce que l'on appelle le domaine cybernétique, qui, dans la littérature, est souvent considéré comme le cinquième domaine de la guerre (le premier étant la terre, le deuxième la mer, le troisième l'air et le quatrième l'espace, c'est-à-dire l'espace cosmique).

 

Bien que l'IA et les technologies qui y sont associées, soient susceptibles de réduire les effets néfastes de la guerre si elles sont développées et appliquées de manière responsable, il existe des risques importants d’intensification technologique, de perte de contrôle humain et d'alignement des valeurs qui exigent une coopération et une surveillance internationales proactives pour guider la recherche et l'utilisation de ces systèmes. Néanmoins, toutes les grandes puissances, y compris les États-Unis et la Chine, travaillent sans relâche au développement de systèmes militaires basés sur l'IA dans l'espoir d'obtenir des avantages potentiels les unes par rapport aux autres. Ces technologies comprennent des applications d'apprentissage automatique et d'apprentissage profond à usage militaire, comme l'autonomie des drones et des véhicules, la cyberguerre et la guerre de l'information et l'analyse prédictive des populations et des scénarios.

 

Dans le même temps, l'IA pose de nouveaux défis et des risques d’intensification des conflits qui diffèrent des précédentes courses à l'armement et nécessitent de nouveaux cadres de gouvernance et de nouvelles normes. Les armes autonomes menacent de saper les lois humanitaires internationales en supprimant la responsabilité humaine du ciblage - problèmes de préjudice, risques incertains de perte de contrôle humain significatif. D'autres risques connexes incluent l'IA préemptive/prédictive pour la surveillance de masse, le contrôle social et la guerre de l'information, qui est susceptible d'empiéter sur les principes de souveraineté, de respect de la vie privée et de consentement.

 

Il ne faut pas faire preuve de beaucoup d’imagination pour s'attendre à un certain niveau de « techno-tyrannie » à l'avenir. Les pertes d'emplois au profit des systèmes robotiques sont probablement un fait acquis et, en tant que tel, risquent d'aggraver l'instabilité politico-économique. C'est pourquoi il est nécessaire de mettre en place des transitions justes, voire un revenu de base universel.

 

L'opacité de la « boîte noire » des réseaux neuronaux entrave la vérification et la responsabilité, ce qui alimente la méfiance. En outre, il existe un risque d’intensification accidentelle ou involontaire. En l'absence de garanties et de transparence, l'IA pourrait en fin de compte servir les complexes militaro-industriels et les ambitions géopolitiques plutôt que les besoins en matière de sécurité mondiale.

 

Cette technologie en pleine émergence doit être réglementée de toute urgence. Les initiatives internationales en matière de gouvernance de l'IA (normes ou régimes) devront probablement être introduites par les Nations unies et ses organes techniques. Elles devront inclure la « responsabilité des résultats » à travers la conception des systèmes, des évaluations d'impact, des lignes rouges pour certaines applications et l'accès universel aux avantages.

 

Comme nous met en garde Heidy Khlaaf, directrice ingénieure de l'IA en termes de sécurité chez Trail of Bits, une entreprise de sécurité technologique. Les algorithmes d'IA sont réputés pour être défectueux, avec « des taux d'erreur élevés observés pour des fonctions qui exigent précision, exactitude et sécurité».

 

Selon certaines informations, lors de la simulation d'un exercice militaire mené par les forces armées américaines, un drone d'IA a « tué l'opérateur » après s'être rebellé contre ce dernier. Le robot a en effet compris que l'opérateur qui le contrôlait l'empêchait de « remplir les objectifs du test ».

 

Parallèlement, des scientifiques chinois créent et mettent en cage le premier commandant d'IA au monde dans un laboratoire de l'APL. « Le commandant chef est la seule entité décisionnelle centrale pour l'ensemble de l'opération, avec des responsabilités et une autorité décisionnelles ultimes ».

 

4. L'IA et la sécurité internationale

 

En ce qui concerne l’usage de l'IA au niveau de la sécurité nationale, on peut clairement identifier de nombreux milieux :

 

- Militaire

 

L'IA transforme les opérations militaires en permettant à des systèmes autonomes, tels que des drones et des robots, d'effectuer des tâches qui étaient auparavant réalisées par des humains. Ces systèmes peuvent être utilisés pour la surveillance, la reconnaissance, l'identification de cibles et même le combat. Les algorithmes alimentés par l'IA peuvent analyser de grandes quantités de données pour fournir des renseignements en temps réel, améliorer l’analyse de la situation et soutenir les processus de prise de décision sur le champ de bataille.

 

- Cybersécurité

 

L'IA est essentielle dans la lutte contre les cybermenaces, car elle peut détecter les attaques et y répondre plus efficacement que les mesures de sécurité traditionnelles. Les algorithmes d'apprentissage automatique peuvent analyser les tendances quant à la circulation des données, identifier les anomalies et détecter les brèches potentielles. L'IA peut également aider à développer des modèles prédictifs pour anticiper les futures cybermenaces et faiblesses, ce qui permet aux organisations de renforcer leurs défenses de manière proactive.

 

- Renseignement et surveillance

 

L'IA permet aux agences de renseignement de traiter et d'analyser des volumes massifs de données, y compris les flux de réseaux sociaux, l'imagerie satellitaire et les interceptions de communications. Les algorithmes de traitement du langage naturel (NLP) peuvent extraire des informations précieuses de sources de données non structurées, contribuant ainsi à la lutte contre le terrorisme, à l'identification des menaces potentielles et au suivi des évolutions géopolitiques.

 

- Systèmes d'aide à la décision

 

L'IA peut aider les décideurs politiques et les chefs militaires à prendre des décisions éclairées en fournissant une analyse prédictive et une modélisation de scénarios. Les algorithmes d'apprentissage automatique peuvent analyser les données historiques, identifier des modèles et générer des prévisions concernant les conflits potentiels, l'allocation des ressources ou les développements géopolitiques. Cela facilite la planification stratégique et l'optimisation des ressources.


- Systèmes d'armes autonomes

 

Le développement de systèmes d'armes autonomes soulève des questions éthiques et des défis en matière de sécurité internationale. Les armes alimentées par l'IA peuvent fonctionner sans contrôle humain direct, ce qui donne lieu à des débats sur la responsabilité, la proportionnalité et le respect du droit humanitaire international. Des efforts internationaux sont en cours pour établir des réglementations et des normes régissant l'utilisation de ces systèmes.

 

- Diplomatie et résolution des conflits

 

L'IA peut faciliter les négociations diplomatiques et la résolution des conflits en fournissant des informations et des analyses fondées sur des données. Les algorithmes de traitement du langage naturel peuvent aider à analyser les textes diplomatiques, à identifier les points communs et à suggérer des compromis potentiels. L'IA peut également simuler des scénarios et prédire les résultats de différentes stratégies de négociation, aidant ainsi les diplomates à trouver des solutions mutuellement bénéfiques.

 

- Détection et prévention des menaces

 

L'IA peut améliorer les systèmes d'alerte précoce pour diverses menaces, notamment le terrorisme, la prolifération nucléaire et les pandémies. Les algorithmes d'apprentissage automatique peuvent analyser des modèles de données pour identifier les risques potentiels et prédire les menaces émergentes. Les gouvernements et les organisations internationales peuvent ainsi prendre des mesures proactives afin de prévenir ou limiter ces risques.

 

5. Conclusion

 

Dans le monde de la microélectronique, les experts parlent souvent de la loi de Moore : le principe selon lequel le nombre de transistors sur les puces double tous les deux ans, ce qui se traduit par des appareils aux capacités exponentielles. Cette loi permet d'expliquer l'essor rapide de tant d'innovations technologiques, notamment les smartphones et les moteurs de recherche.

 

Dans le domaine de la sécurité nationale, les progrès de l'IA ont créé une autre sorte de loi de Moore. L'armée qui maîtrisera la première l'organisation, l'intégration et l'institutionnalisation de l'utilisation des données et de l'IA dans ses opérations au cours des prochaines années bénéficiera d'avancées exponentielles qui lui conféreront des avantages remarquables par rapport à ses adversaires. Le premier à adopter l'IA à grande échelle aura probablement un cycle de décision plus rapide et de meilleures informations sur lesquelles fonder ses décisions. Ses réseaux seront probablement plus résistants en cas d'attaque, ce qui lui permettra de conserver sa connaissance de la situation, de défendre ses forces, d'engager efficacement des cibles et de protéger l'intégrité de son commandement, de son contrôle et de ses communications. Elle sera également en mesure de contrôler des essaims de systèmes sans pilote dans l'air, sur l'eau et sous la mer pour confondre et submerger l'adversaire.


First published in :

World & New World Journal Publication

바로가기
저자이미지

Krzysztof Śliwiński

"Dr Śliwiński Krzysztof, Feliks est professeur agrégé au Département d'études gouvernementales et internationales de l'Université baptiste de Hong Kong (http://gis.hkbu.edu.hk/staff/sliwinski.html). 

Il a obtenu son doctorat de l'Université de Varsovie (Institut des relations internationales) en 2005. Depuis 2008, il travaille à l'Université baptiste de Hong Kong. Il donne régulièrement des conférences sur l'intégration européenne, les études de sécurité, les relations internationales et les études mondiales. ses principaux intérêts de recherche comprennent les études de sécurité (questions de sécurité non traditionnelles), la politique étrangère et de sécurité du Royaume-Uni, la politique étrangère et de sécurité de la Pologne et la politique étrangère et de sécurité européenne. Certaines de ses publications les plus récentes incluent Śliwiński, K. (2016). Aller au-delà de la faiblesse de l'Union européenne en tant qu'agent de cybersécurité, Contemporary Security Policy, 2014, 35, 3, dans Smith, M. A. (éd.) Sécurité européenne. Concepts critiques dans les études militaires, stratégiques et de sécurité, (468-86). Routledge et Holland, M., Śliwiński, K. et Thomas, N. (2020).  L’affectif est-il efficace ? Mesurer l'apprentissage affectif dans les simulations, perspectives d'études internationales, ekaa005, https://doi.org/10.1093/isp/ekaa005 

"

Thanks for Reading the Journal

Unlock articles by signing up or logging in.

Become a member for unrestricted reading!