تحدي قابل للتحقق… إضفاء الطابع الإنساني على الأسلحة الذاتية التشغيل

قانون الحرب

تحدي قابل للتحقق… إضفاء الطابع الإنساني على الأسلحة الذاتية التشغيل

ينظم القانون الدولي الإنساني استخدام القوة أثناء النزاعات المسلحة. وبطبيعة الحال يوفر الحماية لضحايا النزاعات المسلحة بإضفاء الطابع الإنساني، إلى حد ما، على بعض من أكثر أعمال البشر وحشية. وعليه، تعمل مبادئ القانون الدولي الإنساني مثل التمييز، والإنسانية، والمعاناة التي لا ضرورة لها، والتناسب على تسهيل تطبيق مبدأ الضرورة العسكرية.

في عصر التكنولوجيات الناشئة، يتعمق المجتمع الدولي في مناقشة كيفية تطبيق هذه المبادئ، لا سيما أنظمة الأسلحة التي تتخذ قرارات ذاتية تتعلق بمسألة الحياة والموت من خلال نظام التعلم الآلي وتطوير الذكاء الاصطناعي. وتدفعنا مثل هذه المناقشات إلى التفكير بمسألة أساسية تخص تطبيق القانون الدولي الإنساني وهي – هل وُضع القانون الذي ينظم النزاع المسلح ليوفر «أفضل حماية ممكنة» لضحايا النزاع المسلح أو «أفضل حماية إنسانية ممكنة؟». بعبارة أخرى، غالبًا ما توصف معايير الامتثال للقانون الدولي الإنساني الحالية طبقًا لعملية اتخاذ القرار البشري، أي يجب على القائد أن يتخذ قرارًا قانونيًّا محددًا كما هي الحال بالنسبة لمبدأ التناسب والموضح أدناه.

هل هذا يعني أن المعيار القانوني الفعلي مرتبط بعملية اتخاذ القرار البشري؟ إذا كان المعيار هو «أفضل حماية إنسانية ممكنة»، يجب أن تخضع أي تكنولوجيا ناشئة لتصميم البشرية على تطبيق القانون الدولي الإنساني، بما في ذلك الإقرار باستمرارية خضوع هذه القرارات للرقابة البشرية والأخطاء البشرية المحتملة. لاحظ أن اللجنة الدولية قدمت بيانين ذوي صلة بهذه المسألة وينطبقان عليها [1].

وعلى أية حال، إذا كان المطلوب هو الوصول إلى «أفضل» تطبيق للقانون الدولي الإنساني، ونعتقد أنه بإمكان الأسلحة الذاتية التشغيل – أو أسلحة الذكاء الاصطناعي أو التعلم الآلي – استخدام القوة بطريقة تؤدي، في بعض الظروف على الأقل، إلى حمايةٍ أفضل للبشر، عندها نصل إلى نتيجة مختلفة. ففي هذه الحالة، يجب على المجتمع الدولي تشجيع تطوير الأسلحة الذاتية التشغيل التي تعمل بنظام التعلم الآلي أو الذكاء الاصطناعي في ساحة المعركة لأنها (أو من المحتمل أنها) قادرة على تطبيق المتطلبات القانونية الخاصة بالقانون الدولي الإنساني بطريقة تؤدي إلى توفير المزيد من الحماية لضحايا النزاع المسلح.

وتجدر الإشارة في هذه المرحلة إلى أن جميع أنظمة الأسلحة، بما في ذلك أية أسلحة ذاتية التشغيل تعمل بنظام التعلم الآلي أو الذكاء الاصطناعي، يجب أن تخضع وتمتثل لمتطلبات استعراض الأسلحة. لا توجد احتمالية قانونية لاستخدام أسلحة لا تمتثل لجميع متطلبات الاستعراض القانوني. تكمن أهمية تحديد دور العامل البشري في قرار الاستهداف المميت في توفير الأساس المنطقي لهذا الاستعراض. ومن أجل استخدام سلاح ذاتي التشغيل، يجب فحصه بدقة وإثبات أنه يمكن تطبيق القانون الدولي الإنساني عليه بشكل صحيح في ساحة المعركة.

والسؤال الأهم الذي قد يُطرح هنا هو معيار استعراض الأسلحة هذا. فإذا كان هذا المعيار هو أن يكون نظام الأسلحة قادرًا على تطبيق القانون تطبيقًا يوفر أفضل حماية إنسانية ممكنة، فعندئذ لا توجد حاجة إلى البحث عن أنواع معينة من القدرات الذاتية وتطويرها. ومع ذلك، إذا كان المعيار هو تطبيق القانون الدولي الإنساني تطبيقًا نحصل منه على أفضل حماية ممكنة لضحايا يُحتمل سقوطهم في النزاع المسلح، فربما تكون مجموعة واسعة من الأسلحة الذاتية التشغيل، التي تعمل بنظام التعلم الآلي والذكاء الاصطناعي بدون مشاركة بشرية آنية، قادرة على التطور والنشر في الوقت الحالي.

مبدأ التمييز


لتوضيح الفرق بين «أفضل حماية ممكنة» و«أفضل حماية إنسانية ممكنة»، ضع في اعتبارك مبدأ التمييز (على سبيل المثال، هنا وهنا). طبقًا للقانون الدولي الإنساني، يلتزم كل فرد مشارك في هجوم [مسلح] بتطبيق مبدأ التمييز. وعلى وجه الخصوص، لا يجوز استهداف المدنيين مطلقًا، كما أنه من غير القانوني عدم اتخاذ الاحتياطات الممكنة لحماية المدنيين الذين قد يتعرضون للإصابة أو القتل عرضيًّا جراء هجوم شرعي. إذ يُعد الفشل في الامتثال لهذه المتطلبات القانونية انتهاكًا لقانون الحرب ويعتبر أفراد القوات المسلحة مسؤولين جنائيًّا بشكل فردي عن الفشل في تطبيق مبدأ التمييز بالشكل الصحيح، ويتم الإدلاء بالتصريحات عن مثل هذه الانتهاكات بشكل روتيني. [2]

وفي الوقت ذاته، ستقول أقلية ممن شاركوا في النزاع المسلح إن الأخطاء لا تحدث على الإطلاق وأن المدنيين لا يستهدفون بشكل خاطئ أبدًا. وغالبًا ما تحدث حالات الوفاة غير المقصودة من خلال سوء تطبيق مبدأ التمييز وذلك بسبب فشل جهاز الاستخبارات أو في بعض الأحيان بسبب خطأ بشري لا غير. في مثل هذه القرارات، فإن القدرة على جمع وتحليل جميع البيانات المتوفرة عن هدفٍ ما وبسرعة، عادةً ما تحدث فرقًا بالنسبة للقائد العسكري الذي يتخذ قرار الاستهداف.

أفضل حماية ممكنة

في الوقت الحالي، من الجدير بالملاحظة أنه بإمكان نظام السلاح الذاتي التشغيل أن يرتبط بمجموعة واسعة من أجهزة الاستشعار وهو مصمم للعمل بنظام التعلم الآلي الذي يمكنه جمع وتحليل كميات هائلة من البيانات بسرعة أكبر بكثير من الدماغ البشري. قد تكون هذه الأسلحة قادرة على القيام بذلك، مثلًا، من خلال امتلاك قدرة أكبر على تمييز الفرق بين مقاتل معادٍ ومدني غير معادٍ في حشد من الناس، وذلك من خلال أجهزة الاستشعار المنتشرة في أنحاء المنطقة التي توفر بيانات عن الأفراد التي لا يمكن رصدها في تجمعٍ ما. ومن الجدير بالملاحظة أن الأنظمة الذاتية التشغيل، التي تعمل بنظام التعلم الآلي، قد أثبتت بالفعل تفوقها على البشر عند إجراء تحليلات معقدة ومبهمة للغاية، مثل التشخيص الصحيح للحالات الطبية ولعب ألعاب الذكاء.

إذا زُود هذا النظام بفرصة إحصائية أفضل للتوصل إلى نتيجة تمييز صحيحة تعتمد على القدرة على جمع وتحليل مجموعة أكبر من البيانات وبشكلٍ أسرع، من المحتمل أن يؤدي ذلك إلى انخفاض نسبة وفيات الناس الأبرياء. ومن وجهة نظر القانون الدولي الإنساني، إذ إن عملية اتخاذ القرار البشري لا تُعد جزءًا لا يتجزأ من الامتثال القانوني، فمن غير المهم أن يطبق الإنسان مبدأ التمييز فقط، ولكن ما يهم هو تطبيق هذا المبدأ بصورة صحيحة في الغالب أو أن تكون نسبة الوفيات والإصابة التي تلحق بالمدنيين أقل من تلك الناتجة عن عملية اتخاذ القرار البشري.

مبدأ التناسب

وبالمثل، اطلع على موضوع تطبيق مبدأ التناسب. يجب على القادة الامتناع عن شن الهجمات التي تسبب خسارة في أرواح المدنيين أو إصابة بهم و/أو أضرارًا بالأعيان المدنية، أو أن تحدث خلطًا من هذه الخسائر والأضرار، يفرط في تجاوز ما ينتظر أن يسفر عنه ذلك الهجوم من ميزة عسكرية ملموسة ومباشرة (البروتوكول الإضافي الأول، المادة 51). ولعل أكثر الجوانب «الإنسانية» في هذا القرار هي الموازنة بين الميزة العسكرية الملموسة والأضرار الجانبية المحتملة. وبالنسبة لأولئك الذين يعتقدون أن القانون الدولي الإنساني يتطلب اتخاذ أفضل قرار «إنساني»، فإن الجانب الإنساني في ذلك القرار يُعدُّ جانبًا مهمًّا للغاية، حتى لو لاقت نتائج بعض قرارات التناسب انتقادًا شديدًا.

في ظل هذا الرأي، حيث ليس هنالك قرار تنتج عنه خسارة في الأرواح دون تدخل بشري ويمتثل للقانون الدولي الإنساني، يجب أن يكون الحديث عن الابتكار التكنولوجي مرتبطًا بإيجاد أفضل الطرق لدعم البشر في قراراتهم الإنسانية المتأصلة. لا تجعل وجهة النظر هذه البحث في مجال الذكاء الاصطناعي والتعلم الآلي والتطوير أمرًا عقيمًا، لكنها يجب أن توسع نطاق مثل هذا البحث والتطوير بطريقة تدعم عملية اتخاذ القرار البشري ولا تدعم عملية اتخاذ قرار مستقل. 

أفضل حماية ممكنة
بالنسبة لأولئك الذين يعتقدون أن «أفضل» تطبيق للقانون الدولي الإنساني، مثل مبدأ التناسب، هو التطبيق الذي ينتج عنه أقل ضرر جانبي أثناء تأدية المهام العسكرية، فإن القرار الذاتي أو القرار الذي يعتمد على نظام التعلم الآلي أو الذكاء الاصطناعي قد يؤدي إلى «أفضل» تطبيق للمبدأ لأنه قد ينتج عنه عدد أقل من الضحايا المدنيين.

المتفائلون بالتكنولوجيا
يعتقد المتفائلون بالتكنولوجيا أن قدرة الأسلحة الذاتية التشغيل على التوصل إلى استنتاجات «أفضل» من تلك التي يتوصل إليها الإنسان أمر ممكن تمامًا، وفي الواقع، من المحتمل أن تؤدي نفس الدور في حالات معينة بعد توفير ما يكفي من الأبحاث والتطوير. يُحتمل أن تكون أنظمة الأسلحة الذاتية التشغيل التي لا تتأثر بالعواطف (مثل الغضب والخوف والعداء) أو لا تخضع لقيود مادية (مثل الحواس المحدودة أو الانهاك أو العجز على معالجة جميع البيانات الفعلية المتاحة بسرعة في مرحلة اتخاذ القرار) قادرةً على تطبيق هذه المبادئ بطريقة أكثر امتثالًا للقانون. وبقدر ما تكون النظرة المتفائلة للتكنولوجيا دقيقة، ينبغي على المجتمع الدولي أن يشجع بقوة البحث عن الأسلحة الذاتية التشغيل التي تتسم بهذه القدرات وتطويرها لتمكين البشر من تطبيق مبادئ القانون الدولي الإنساني بشكل أكثر دقة. فإذا طورت الأسلحة الذاتية التشغيل التي تعمل بنظام التعلم الآلي أو الذكاء الاصطناعي، بالإمكان إنقاذ الكثير من أرواح المدنيين، وإن البعض سيقول على الدول الالتزام بتطوير مثل هذه الأسلحة. 

المشككون في التكنولوجيا
على عكس المتفائلين، سيجادل المشككون في التكنولوجيا بأنها ليست موجودة في الوقت الحالي، ولا توجد احتمالية لتطويرها على الإطلاق. لذلك، لا ينبغي البحث عن هذه التقنيات وتطويرها لكي تستخدم مع الأسلحة أو على الأقل يجب علينا المضي قدمًا بحذر شديد. ويزعم المشككون أن هناك شكًّا كبيرًا في أن مثل هذا البحث والتطوير سيؤدي إلى تطبيق نظام التعلم الآلي أو الذكاء الاصطناعي الذي سيظهر القدرة على تطبيق مبادئ القانون الدولي الإنساني بطريقة تؤدي إلى الحصول على نتائج «أفضل» من تلك التي يحصل عليها البشر.

دور القرار البشري في القانون الدولي الإنساني

على الرغم من حقيقة احتمالية وجود سبب لتوخي الحذر الشديد من مسار التكنولوجيا فيما يخص قدراتها على اتخاذ القرار، غالبًا ما لا يعالج المشككون في التكنولوجيا المسألة الأساسية المتمثلة بدور القرار البشري في القانون الدولي الإنساني. وسواء أكان البحث والتطوير قد يصل إلى نتيجة ناجحة أم لا، فلا يعد أمرًا محسومًا عما إذا كان بإمكان/ يجب على الدول، التي تتبنى وجهة نظر أكثر تفاؤلًا، أن تشارك في البحث والتطوير لهذا الغرض. إن السؤال الأساسي هو إذا حال القانون الدولي الإنساني دون عملية اتخاذ القرارات غير البشرية المتعلقة بتطبيق القوة المميتة، فذلك يمنع الدول من متابعة هذه التطورات التكنولوجية.
ومع استمرار تطور التكنولوجيا، فإن المسائل المتعلقة بتطور الذكاء الاصطناعي والتعلم الآلي كجزء من أنظمة الأسلحة الذاتية التشغيل ستعيدنا إلى السؤال الأساسي حول ما إذا كان القانون الدولي الإنساني يتطلب أفضل تطبيق «إنساني» للقانون أو ببساطة أفضل تطبيق «ممكن» للقانون. في الحقيقة من الممكن، في وقت ما في المستقبل، تطبيق القانون الدولي الإنساني بطريقة تقلل من خسائر الأرواح والإصابات التي يتعرض لها المدنيون بسبب القرارات اللاإنسانية، وهذا ما يشجعنا على النظر في هذا السؤال والإجابة عليه الآن.
الهوامش
[1] بيان اللجنة الدولية في 18 نيسان/ أبريل 2018 في مؤتمر فريق الخبراء الحكوميين المعنيين باتفاقية حظر أو تقييد استعمال أسلحة تقليدية معينة حول أنظمة الأسلحة الفتاكة الذاتية التشغيل بعنوان: نحو تقييد التحكم الذاتي في أنظمة الأسلحة؛ وبيان اللجنة الدولية للصليب الأحمر في 15 تشرين الثاني/ نوفمبر 2017 في مؤتمر فريق الخبراء الحكوميين المعنيين باتفاقية حظر أو تقييد استعمال أسلحة تقليدية معينة حول أنظمة الأسلحة الفتاكة الذاتية التشغيل بعنوان: اجتماع الخبراء حول أنظمة الأسلحة الفتاكة الذاتية التشغيل.
[2] المحكمة الجنائية الدولية ليوغوسلافيا السابقة، المدعون العامون آنتي غوتوفينا وإيفان شيرماك وملادن ماركايتش، الحكم رقم IT-06-90-T، الدائرة الابتدائية الأولى، 15 نيسان/ أبريل 2011 (حكم محكمة غوتوفينا)؛ المحكمة الجنائية الدولية ليوغوسلافيا السابقة، المدعيان العامان أنتي غوتوفينا وملادن ماركايتش، الحكم رقم IT-06-90-A، دائرة الاستئناف، 16 تشرين الثاني/ نوفمبر 2012 (حكم محكمة الاستئناف في غوتوفينا).

نُشر هذا المقال بالإنجليزية في مدونة «القانون الإنساني والسياسات»، وهي إصدار تابع لـ«المجلة الدولية للصليب الأحمر»، وقد نقلت أنسام محمد موسى النص إلى اللغة العربية.

ملحوظة: لا يجوز أن تُحمل المنشورات والنقاشات في مدونة «القانون الإنساني والسياسات» على أنها تعبر عن مواقف اللجنة الدولية للصليب الأحمر بأيِّ حال، ولا يبلغ محتوى المدونة مستوى السياسات الرسمية أو المبدأ ما لم يشر إلى ذلك صراحةً على وجه الخصوص.

اقرأ أيضا:

انظر أيضًا المقالات التي نشرناها عن القضايا المرتبطة باستخدام الأسلحة الذاتية التشغيل:

العشعاش إسحاق، الآلة عندما تشن الحرب..الروبوتات القاتلة والحاجة إلى سيطرة بشرية هادفة

تيم مكفارلاند، الأسلحة ذاتية التشغيل والتحكم البشري

اطلع غيرك على هذا المقال

تعليقات

لا توجد تعليقات الآن.

اكتب تعليقا