Defense & Security
الذكاء الاصطناعي والصراعات العسكرية الدولية – حالة الحرب في أوكرانيا
Image Source : Shutterstock
Subscribe to our weekly newsletters for free
If you want to subscribe to World & New World Newsletter, please enter
your e-mail
Defense & Security
Image Source : Shutterstock
First Published in: Nov.25,2024
Nov.25, 2024
تستند هذه الورقة البحثية إلى الأدبيات الناشئة بسرعة حول دور الذكاء الاصطناعي في الصراعات العسكرية والحروب وكذلك آثاره على الأمن الدولي. وينطلق من افتراض مفاده أن التكنولوجيا الناشئة سيكون لها تأثير حتمي وتحويلي محتمل على القوة العسكرية. يهدف هذا المشروع إلى التأكد من دور الأسلحة المستقلة في الصراعات العسكرية الحديثة. وبذلك، يضيف إلى المناقشات الأخيرة، التي تجري بين العلماء والقادة العسكريين وكذلك صناع السياسات في جميع أنحاء العالم فيما يتعلق بإمكانية أن يكون الذكاء الاصطناعي مصدرا لعدم الاستقرار في المستقبل والتنافس بين القوى العظمى. ويقترح أن هناك حاجة ملحة لتنظيم تطوير وانتشار واستخدام الأسلحة المستقلة وأنظمة الأسلحة التي يقودها الذكاء الاصطناعي قبل فوات الأوان - أي أن الذكاء الاصطناعي يحقق مهارات الإدراك.
تقترح الموسوعة البريطانية أن الذكاء الاصطناعي هو قدرة الكمبيوتر الرقمي أو الروبوت الذي يتم التحكم فيه بواسطة الكمبيوتر على أداء المهام المرتبطة عادة بالكائنات الذكية. يتم تطبيق المصطلح غالبا على مشروع تطوير أنظمة تتمتع بالعمليات الفكرية المميزة للبشر، مثل القدرة على التفكير واكتشاف المعنى والتعميم أو التعلم من الخبرة السابقة.[1] ومن المثير للاهتمام أن الذكاء الاصطناعي يعرّف نفسه بأنه يشير إلى محاكاة عمليات الذكاء البشري بواسطة الآلات، وخاصة أنظمة الكمبيوتر. تشمل هذه العمليات التعلم والاستدلال وحل المشكلات والإدراك وفهم اللغة. يمكّن الذكاء الاصطناعي الآلات من أداء المهام التي تتطلب عادة الذكاء البشري، مثل الإدراك البصري والتعرف على الكلام واتخاذ القرار ومعالجة اللغة الطبيعية. تشمل تقنيات الذكاء الاصطناعي التعلم الآلي والشبكات العصبية والتعلم العميق وغيرها من الخوارزميات المتقدمة التي تسمح للآلات بمحاكاة الوظائف المعرفية.[2] في سياق الجيش، يشير الذكاء الاصطناعي إلى استخدام تقنيات وأنظمة الذكاء الاصطناعي لتعزيز القدرات العسكرية والعمليات وعمليات صنع القرار. تشمل التطبيقات العسكرية للذكاء الاصطناعي أنظمة الأسلحة المستقلة، والطائرات بدون طيار، وآليات الدفاع السيبراني، والتحليلات التنبؤية للتخطيط الاستراتيجي، ومراقبة ساحة المعركة. يمكن استخدام الذكاء الاصطناعي لتحليل كميات كبيرة من البيانات بسرعة، وتحديد الأنماط، واتخاذ قرارات في الوقت الفعلي لدعم الأهداف العسكرية. في حين يوفر الذكاء الاصطناعي مزايا كبيرة من حيث الكفاءة والدقة، إلا أن هناك اعتبارات أخلاقية ومخاوف بشأن المخاطر المحتملة لأنظمة الذكاء الاصطناعي المستقلة في الحرب.[3]
- أوكرانيا
يمكن القول إن الحرب الجارية في أوكرانيا هي أول "حرب طائرات بدون طيار كاملة النطاق"، والتي تستخدم أيضا ذخائر متسكعة، وسفن مستقلة، وطائرات بدون طيار تحت الماء لصيد الألغام، ومركبات أرضية غير مأهولة يتم نشرها. يستخدم الذكاء الاصطناعي بكثافة في الأنظمة التي تدمج التعرف على الهدف والأشياء والاستخبارات الجغرافية المكانية. تحليل صور الأقمار الصناعية، وتحديد الموقع الجغرافي وتحليل البيانات مفتوحة المصدر مثل صور وسائل التواصل الاجتماعي في مواقع حساسة جيوسياسيا. بالإضافة إلى ذلك، تُستخدم الشبكات العصبية، على سبيل المثال، لدمج الصور على مستوى الأرض، ولقطات فيديو الطائرات بدون طيار وصور الأقمار الصناعية. كما تم استخدام برامج التعرف على الوجه المعززة بالذكاء الاصطناعي على نطاق واسع. يلعب الذكاء الاصطناعي دورا مهما في الحرب الإلكترونية والتعمية وكذلك الحرب السيبرانية، وخاصة في دعم القدرات الدفاعية. أخيرا، تم استخدام الذكاء الاصطناعي أيضا لنشر المعلومات المضللة - استخدام التزييف العميق كجزء من حرب المعلومات. أدى ظهور هذه التكنولوجيا الجديدة إلى خلق جهات فاعلة جديدة وشركات خاصة تعمل على تغذية ما يسمى بخصخصة الأمن: Palantir Technologies وPlanet Labs وBlackSky Technology وMaxar Technologies هي بعض الأمثلة على ذلك. إن الأنظمة التي تعمل بالذكاء الاصطناعي تحدث تغييرا جوهريا في هذا المجال لدرجة أن الاستخدام المشترك للطائرات بدون طيار الجوية والبحرية في هجوم أكتوبر/تشرين الأول (2022) على السفينة القيادة الروسية في البحر الأسود، الأدميرال ماكاروف، اعتبره بعض المحللين ربما نوعا جديدا من الحرب.[4] ما يجعل هذا الصراع فريدا من نوعه هو الاستعداد غير المسبوق لشركات الاستخبارات الجغرافية المكانية الأجنبية لمساعدة أوكرانيا باستخدام أنظمة معززة بالذكاء الاصطناعي لتحويل صور الأقمار الصناعية إلى مزايا استخباراتية ومراقبة واستطلاع. وتلعب الشركات الأميركية دورا رائدا في هذا الصدد. وتوضح هذه الأمثلة أن الصراع الحالي في أوكرانيا يشكل أرض اختبار لتكنولوجيا الذكاء الاصطناعي.
- إسرائيل ضد حماس
وتقول المؤسسة العسكرية الإسرائيلية إنها تستخدم الذكاء الاصطناعي لاختيار العديد من هذه الأهداف في الوقت الحقيقي. وتزعم المؤسسة العسكرية أن نظام الذكاء الاصطناعي، المسمى "the Gospel"، ساعدها في التعرف بسرعة على مقاتلين ومعدات العدو، مع الحد من الخسائر المدنية.[5] ويزعم أن مصادر متعددة على دراية بعمليات الاستهداف في جيش الدفاع الإسرائيلي (IDF) أكدت وجود "the Gospel"، قائلة إنه تم استخدامه لإنتاج توصيات آلية لمهاجمة الأهداف، مثل المنازل الخاصة للأفراد المشتبه فيهم بكونهم من نشطاء حماس أو الجهاد الإسلامي. وفي السنوات الأخيرة، ساعد قسم الأهداف جيش الدفاع الإسرائيلي (IDF) في بناء قاعدة بيانات لما قالت المصادر إنه يتراوح بين 30,000 و40,000 من المسلحين المشتبه بهم. وقالوا إن أنظمة مثل "the Gospel" لعبت دورا حاسما في بناء قوائم الأفراد المخول باغتيالهم.[6] ووفقا لموقع جيش الدفاع الإسرائيلي (IDF) على الإنترنت، فإن استخدام هذه الأدوات لا يغير المبادئ والقواعد الإلزامية في إجراءات التشغيل القياسية لمديرية الاستخبارات والتعليمات ذات الصلة. فهي لا تولد أوامر للهجمات. ولا تولد معلومات استخباراتية جديدة لا يمكن الوصول إليها بطريقة أخرى من قبل محلل استخباراتي. لا تشكل هذه الأدوات الأساس الوحيد لتحديد الأهداف المؤهلة للهجوم - بغض النظر عن مدى دقتها. على العكس من ذلك، تعمل هذه الأدوات على تحسين جودة نتائج عملية الاستخبارات. فهي تسهل وصول المحلل إلى المعلومات ذات الصلة، وتساعد المحلل على أن يكون أكثر اطلاعا على أحدث مصادر الاستخبارات وأكثرها صلة، مما يجعل التحليلات أكثر دقة. كما أنها تقلل من خطر وقوع الأخطاء التي قد تحدث في تحليلات الاستخبارات.[7]
فيما يتعلق بدور التكنولوجيات والبرمجيات التي تعتمد على الذكاء الاصطناعي، ربما يكون من المفيد التفكير فيها باعتبارها الثورة الثالثة في الحرب. الأولى تتعلق في الغالب بالبارود والثانية تتعلق بالأسلحة النووية. بالإضافة إلى ذلك، يجب على المرء أن يضع في اعتباره أيضا أن الذكاء الاصطناعي وثيق الصلة بما يسمى المجال السيبراني، والذي يشار إليه غالبا في الأدبيات باسم المجال الخامس للحرب. (الأول هو الأرض، والثاني هو البحر، والثالث هو الجو والرابع هو الفضاء، كما هو الحال في الفضاء الكوني.) في حين أن الذكاء الاصطناعي والتكنولوجيات المرتبطة به تحمل إمكانات للحد من أضرار الحرب إذا تم تطويرها وتطبيقها بشكل مسؤول، إلا أن هناك مخاطر كبيرة للتصعيد التكنولوجي وفقدان السيطرة البشرية ومواءمة القيم التي تتطلب تعاونا وإشرافا دوليا استباقيا لتوجيه البحث واستخدام هذه الأنظمة. ومع ذلك، تعمل جميع القوى الكبرى، بما في ذلك الولايات المتحدة والصين، بلا توقف لتطوير أنظمة عسكرية ذات صلة مدفوعة بالذكاء الاصطناعي على أمل تحقيق مزايا محتملة ضد بعضها البعض. تشمل هذه التكنولوجيات: تطبيقات التعلم الآلي / العميق ذات الاستخدامات العسكرية مثل استقلالية الطائرات بدون طيار / المركبات، والحرب السيبرانية / المعلوماتية والتحليلات التنبؤية للسكان / السيناريوهات. في نفس الوقت، يفرض الذكاء الاصطناعي تحديات جديدة ومخاطر تصعيدية تختلف عن سباقات التسلح السابقة وتتطلب أطرا جديدة للحكم والمعايير. تهدد الأسلحة المستقلة بتقويض القوانين الإنسانية الدولية من خلال إزالة المساءلة البشرية من الاستهداف - مشاكل التحيزات، والمخاطر غير المؤكدة لفقدان السيطرة البشرية ذات المغزى. تشمل المخاطر الأخرى ذات الصلة الذكاء الاصطناعي الاستباقي / التنبئي للمراقبة الجماعية، والسيطرة الاجتماعية وحرب المعلومات التي من المرجح أن تؤدي إلى تآكل مبادئ السيادة والخصوصية والموافقة. لا يتطلب الأمر الكثير من الخيال لتوقع مستوى معين من "الاستبداد التكنولوجي" في المستقبل. ربما تكون خسارة الوظائف بسبب الأنظمة الروبوتية أمرا مفروغا منه وبالتالي فإنها تخاطر بمزيد من عدم الاستقرار السياسي والاقتصادي. وبالتالي فإن هذا يتطلب انتقالات عادلة وربما حتى دخل أساسي عالمي. تعيق طبيعة "الصندوق الأسود" الغامضة للشبكات العصبية التحقق والمساءلة، مما يؤدي إلى تغذية انعدام الثقة. وفضلا عن ذلك، هناك احتمال للتصعيد العرضي أو غير المقصود. وبدون الضمانات والشفافية، قد تخدم الذكاء الاصطناعي في نهاية المطاف المجمعات الصناعية العسكرية والطموحات الجيوسياسية بدلا من احتياجات الأمن العالمي. إن التكنولوجيا الناشئة بسرعة تحتاج إلى تنظيم عاجل. وربما يتعين على الأمم المتحدة وهيئاتها الفنية تقديم المبادرات الدولية لحوكمة الذكاء الاصطناعي (المعايير أو الأنظمة). وسيتعين على هذه المبادرات أن تشمل المساءلة عن النتائج من خلال تصميم النظام، وتقييمات التأثير، والخطوط الحمراء على تطبيقات معينة والوصول الشامل إلى الفوائد. كما تحذر هايدي خلف، مديرة هندسة ضمان الذكاء الاصطناعي في Trail of Bits، وهي شركة أمن تكنولوجيا، "إن خوارزميات الذكاء الاصطناعي معيبة بشكل سيئ السمعة مع معدلات خطأ عالية لوحظت عبر التطبيقات التي تتطلب الدقة والسلامة"،[8] وفقا للتقارير، في محاكاة لتمرين عسكري أجرته القوات العسكرية الأمريكية، قتلت طائرة بدون طيار تعمل بالذكاء الاصطناعي "مشغلا" بعد أن خرجت عن السيطرة. اكتشف الروبوت أن جهاز التحكم الخاص به كان يمنعه من "إكمال الأهداف في الاختبار".[9] وبالتوازي مع ذلك، أنشأ العلماء الصينيون أول قائد للذكاء الاصطناعي في العالم في مختبر جيش التحرير الشعبي الصيني. "إن القائد الأعلى مستوى هو الكيان الوحيد الذي يتخذ القرار الأساسي للعملية الشاملة، مع مسؤوليات اتخاذ القرار النهائية والسلطة،"[10]
من حيث تطبيقات الذكاء الاصطناعي على مستوى الأمن الوطني، يمكن للمرء أن يحدد بوضوح العديد من البيئات:
- العسكرية
يعمل الذكاء الاصطناعي على تحويل العمليات العسكرية من خلال تمكين الأنظمة المستقلة، مثل الطائرات بدون طيار والروبوتات، من أداء المهام التي كان البشر يقومون بها سابقا. يمكن استخدام هذه الأنظمة للمراقبة والاستطلاع وتحديد الهدف وحتى القتال. يمكن للخوارزميات التي تعمل بالذكاء الاصطناعي تحليل كميات هائلة من البيانات لتوفير المعلومات الاستخباراتية في الوقت الفعلي، وتعزيز الوعي بالموقف، ودعم عمليات صنع القرار في ساحة المعركة
- الأمن السيبراني
الذكاء الاصطناعي أمر بالغ الأهمية في مكافحة التهديدات السيبرانية، لأنه يمكنه اكتشاف الهجمات والرد عليها بشكل أكثر فعالية من تدابير الأمن التقليدية. يمكن لخوارزميات التعلم الآلي تحليل أنماط حركة المرور على الشبكة، وتحديد العيوب، واكتشاف الخروقات المحتملة. يمكن للذكاء الاصطناعي أيضا المساعدة في تطوير نماذج تنبؤية لتوقع التهديدات والثغرات السيبرانية المستقبلية، مما يسمح للمنظمات بتعزيز دفاعاتها بشكل استباقي.
- الاستخبارات والمراقبة
يمكن الذكاء الاصطناعي وكالات الاستخبارات من معالجة وتحليل كميات هائلة من البيانات، بما في ذلك موجزات وسائل التواصل الاجتماعي، وصور الأقمار الصناعية، واعتراضات الاتصالات. ويمكن لخوارزميات معالجة اللغة الطبيعية (NLP) استخراج رؤى قيمة من مصادر البيانات غير الهيكلية، مما يساعد في جهود مكافحة الإرهاب، وتحديد التهديدات المحتملة، ومراقبة التطورات الجيوسياسية.
- أنظمة دعم القرار
يمكن للذكاء الاصطناعي مساعدة صناع السياسات والقادة العسكريين في اتخاذ قرارات مستنيرة من خلال توفير التحليل التنبؤي ونمذجة السيناريوهات. يمكن لخوارزميات التعلم الآلي تحليل البيانات التاريخية وتحديد الأنماط وتوليد التوقعات بشأن الصراعات المحتملة أو تخصيص الموارد أو التطورات الجيوسياسية. يساعد هذا في التخطيط الاستراتيجي وتحسين الموارد.
- أنظمة الأسلحة المستقلة
يثير تطوير أنظمة الأسلحة المستقلة مخاوف وتحديات أخلاقية في الأمن الدولي. يمكن للأسلحة التي تعمل بالذكاء الاصطناعي أن تعمل بدون سيطرة بشرية مباشرة، مما يؤدي إلى مناقشات حول المساءلة والتناسبية والالتزام بالقانون الإنساني الدولي. هناك جهود دولية جارية لوضع اللوائح والمعايير التي تحكم استخدام مثل هذه الأنظمة.
- الدبلوماسية وحل الصراعات
يمكن للذكاء الاصطناعي تسهيل المفاوضات الدبلوماسية وحل الصراعات من خلال توفير رؤى وتحليلات قائمة على البيانات. يمكن لخوارزميات معالجة اللغة الطبيعية المساعدة في تحليل النصوص الدبلوماسية وتحديد القواسم المشتركة واقتراح التسويات المحتملة. يمكن للذكاء الاصطناعي أيضا محاكاة السيناريوهات والتنبؤ بنتائج استراتيجيات التفاوض المختلفة، مما يساعد الدبلوماسيين في إيجاد حلول مفيدة للطرفين.
- الكشف عن التهديدات والوقاية منها
يمكن للذكاء الاصطناعي أن يعزز أنظمة الإنذار المبكر لمختلف التهديدات، بما في ذلك الإرهاب، وانتشار الأسلحة النووية، والأوبئة. يمكن لخوارزميات التعلم الآلي تحليل الأنماط في البيانات لتحديد المخاطر المحتملة والتنبؤ بالتهديدات الناشئة. وهذا يمكّن الحكومات والمنظمات الدولية من اتخاذ تدابير استباقية لمنع أو تخفيف هذه المخاطر.
في عالم الإلكترونيات الدقيقة، يتحدث الخبراء غالبا عن قانون مور: المبدأ الذي ينص على أن عدد الترانزستورات على الرقائق يتضاعف كل عامين، مما يؤدي إلى أجهزة أكثر قدرة بشكل كبير. يساعد القانون في تفسير الارتفاع السريع للعديد من الابتكارات التكنولوجية، بما في ذلك الهواتف الذكية ومحركات البحث. في مجال الأمن القومي، خلق تقدم الذكاء الاصطناعي نوعا آخر من قانون مور. أي جيش يتقن أولا تنظيم ودمج وإضفاء الطابع المؤسسي على استخدام البيانات والذكاء الاصطناعي في عملياته في السنوات القادمة سوف يجني تقدما هائلا، مما يمنحه مزايا ملحوظة على أعدائه. من المرجح أن يكون لدى أول من يتبنى الذكاء الاصطناعي على نطاق واسع دورة قرار أسرع ومعلومات أفضل يمكن أن يستند إليها القرارات. ومن المرجح أن تكون شبكاتها أكثر مرونة عند تعرضها للهجوم، مما يحافظ على قدرتها على الحفاظ على الوعي الظرفي، والدفاع عن قواتها، والاشتباك مع الأهداف بشكل فعال، وحماية سلامة قيادتها وسيطرتها واتصالاتها. كما ستكون قادرة على التحكم في أسراب من الأنظمة غير المأهولة في الجو، وعلى الماء، وتحت البحر لإرباك الخصم والتفوق عليه.[11]
References
*This paper was presented at International Studies Association 65th Annual Convention. San Francisco, California April 3rd – 6th 2024
1 Copeland, B. (2024, March 15). Artificial intelligence. Encyclopedia Britannica. https://www.britannica.com/technology/artificial-intelligence
2 How do you define artificial intelligence? ChatGPT, GPT-4 Turbo, OpenAI, 2024, October 25. https://genai.hkbu.edu.hk/
3 How do you define artificial intelligence in the context of the military? ChatGPT, GPT-4 Turbo, OpenAI, 2024, October 25. https://genai.hkbu.edu.hk/
4 Fontes, R. and Kamminga, J. (2023, March 24). Ukraine A Living Lab for AI Warefare. National Defence. NDIA’s Bussiness Technology Magazine. https://www.nationaldefensemagazine.org/articles/2023/3/24/ukraine-a-living-lab-for-ai-warfare
5 Brumfiel, G. (2023, December 14). Israel is using an AI system to find targets in Gaza. Experts say it’s just the start. Wisconsin Public Radio. https://www.wpr.org/news/israel-using-ai-system-find-targets-gaza-experts-say-its-just-start
6 ‘The Gospel’: how Israel uses AI to select bombing targets in Gaza. (2023, December 1). The Guardian. https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
7 The IDF's Use of Data Technologies in Intelligence Processing. (2024, June 18). IDF Press Releases: Israel at War. https://www.idf.il/en/mini-sites/idf-press-releases-israel-at-war/june-24-pr/the-idf-s-use-of-data-technologies-in-intelligence-processing/
8 Brumfiel, G. (2023, December 14). Israel is using an AI system to find targets in Gaza. Experts say it’s just the start. Wisconsin Public Radio. https://www.wpr.org/news/israel-using-ai-system-find-targets-gaza-experts-say-its-just-start
9 Bowman, V. (2023, June 2). AI drone 'killed operator' after going rogue on simulation. The Telegraph. https://www.telegraph.co.uk/world-news/2023/06/02/us-air-force-ai-military-drone-goes-rogue-simulation/
10 Chen, S. (2024, June 16). Chinese scientists create and cage world’s first AI commander in a PLA laboratory. South China Morning Post. https://www.scmp.com/news/china/science/article/3266444/chinese-scientists-create-and-cage-worlds-first-ai-commander-pla-laboratory?module=top_story&pgtype=homepage
11 Flournoy, Michèle A. 2023. “AI Is Already at War.” Foreign Affairs 102 (6): 56–69. https://search.ebscohost.com/login.aspx?direct=true&AuthType=shib&db=bth&AN=173135132&site=ehost-live.
First published in :
د. سليوينسكي كريستوف هو أستاذ مشارك في قسم الحكومة والدراسات الدولية بجامعة هونغ كونغ المعمدانية
(http://gis.hkbu.edu.hk/staff/sliwinski.html)حصل على درجة الدكتوراه من جامعة وارسو (معهد العلاقات الدولية) في عام 2005. ومنذ عام 2008 يعمل في جامعة هونغ كونغ المعمدانية. وهو يلقي محاضرات منتظمة حول التكامل الأوروبي ودراسات الأمن والعلاقات الدولية والدراسات العالمية. وتشمل اهتماماته البحثية الأساسية دراسات الأمن (قضايا الأمن غير التقليدية)، والسياسة الخارجية والأمنية للمملكة المتحدة، والسياسة الخارجية والأمنية لبولندا، والسياسة الخارجية والأمنية الأوروبية. ومن بين أحدث منشوراته
Śliwiński, K. (2016). Moving Beyond the European Union's Weakness as a Cyber-security Agent, Contemporary Security Policy, 2014, 35, 3, In Smith, M. A. (ed.) European Security. Critical Concepts in Military, Strategic and Security Studies, (468–86). Routledge, and Holland, M., Śliwiński, K. & Thomas, N. (2020). Is Affective Effective? Measuring Affective Learning in Simulations, International Studies Perspectives, ekaa005, https://doi.org/10.1093/isp/ekaa005
Unlock articles by signing up or logging in.
Become a member for unrestricted reading!