قبل سبعين عامًا، لم يدر بخلد المجتمعين في المؤتمر الدبلوماسي في جنيف من أجل إقرار اتفاقيات تضمن وضع قواعد واضحة لحماية المدنيين وقت النزاعات المسلحة أنه سيأتي وقت تظهر فيه أسلحة توجه ضرباتها القاتلة من دون أي تحكم بشري. الآن يُعد هذا واحدًا من أكبر التحديات التي تواجه تطبيق اتفاقيات جنيف؛ أي تلك الأسلحة التي تتميز بدرجة كبيرة جدًّا من الاستقلالية في إتمام وظائفها الحاسمة من اختيار الأهداف ومهاجمتها. يناقش هذا المقال طبيعة الحدود القانونية التي يمكن أن تُفرض على مثل هذا النوع من الأسلحة.

في ليلة السادس والعشرين من شهر أيلول/ سبتمبر سنة 1983، وفي الوقت الذي بلغت فيه الحرب الباردة ذروة ضارية من التوتُر، حدث أن أطلقت فجأة إحدى منظومات الإنذار المبكِّر المعروفة بــ«أوكــو» التابعة لواحدة من القواعد الصاروخية الروسية المنتشرة بضواحي موسكو، والتي تعمل عبر الأقمار الصناعية على رصد واستشعار الهجمات الأميركية المضادة، تحذيرات المنبهات مُنذرة بقدوم خمسة صواريخ باليستية مصدرها الغواصات الأميركية. وعلى إثر ذلك تم تفعيل إجراءات الردِّ بالصواريخ النووية.

آنذاك، كان الضابط المسؤول هو ستانيسلاف بيتروف (Stanislav Petrov) وكان مُخولًا لاتخاذ قرار الردع النهائي حيث كانت المنظومة تعمل على وضع شبه مُستقل. ولحُسن الحظ قرَّر هذا الأخير إرجاء الهجوم وعدم المخاطرة بالرد. تبيَّن لاحقًا أن مصدر الخطر لم يكن هجومًا حقيقيًّا، إنَّـما كان إنذارًا كـاذبًا نتيجة انعكاس أشعة الشمس في المدى، إذ أخطأ نظام التحكم في تقييم المدخلات، ولم يكن يعلم «بيتروف» حينها أنه قد أنقذ العالم من حرب عالمية نووية. لـــكن ماذا كانت لتُقرِّر الآلة مكان «بيتروف»؟ من الواضح أنها ستنفِّذ ما قد تمت برمجتها عليه دون الاعتبار لعواقب تصرُّفها.

صادف تاريخ تلك الواقعة مرور ست سنوات على تاريخ دخول البروتوكولين الإضافيين لاتفاقيات جنيف حيِّز النفاذ، ولم تُـثِر انتباه المجتمع الدولي آنذاك تلك الشواغل المتعلقة بعلاقة الإنسان بالآلة أو درجة استقلاليتها في اتخاذ قرارات إطباق القوة المُميتة.

بيد أن اليوم وبعد مرور سبعين عامًا على اعتماد اتفاقيات جنيف، أضحت تلك المسائل مثار قلق دولي متزايد نتيجة الطفرة التقنية الهائلة واستفحال تطور أنظمة الذكاء الاصطناعي وعلم الروبوتات والحوسبة وغيرها، حيث يطَّردُ توظيفها في منظومات الأسلحة بشكل منقطع النظير إيذانًا بظهور جيل جديد من وسائل وأساليب الحرب التي لا يقتصر خطرها على خرق قواعد القانون الدولي الإنساني فقط، بل يمتد لاحتمال تغيير وضع مُنتهكها وخفض أو إزالة تامة لتحكم الإنسان بمنظومات الأسلحة خاصة في وظائفها الحرجة التي تُعنى باختيار الأهداف ومشاركتها من خلال تعويض البشر بالآلة وأتمتة الحرب، وبذلك لم يخيل للمجتمع الإنساني وخبراء القانون خصوصًا أن يواجهوا مثل هذا الموقف القانوني المُحرج تجاه الآلات الصمَّاء كما هي الحال في منظومات الأسلحة ذاتية التشغيل.

استقلال ولكن..

ذكرت اللجنة الدولية للصليب الأحمر أنها تفهم مصطلح منظومات الأسلحة ذاتية التشغيل على أنـــه: «مصطلح شامل من شأنه أن يشمل أي نوع من أنواع الأسلحة سواء كانت تعمل في الجوِّ أو على البرِّ أو في البحر بتلقائية في وظائفها الحسَّاسة، وهذا يعني سلاحًا يمكنه أن يختار (أي يبحث ويكتشف ويحدِّد ويتعقَّب) ويُهاجم (أي يستخدم القوة ضد العدوِّ أو يُعطِّل أو يضُرُّ أو يُدمِّر) أهدافًا دون تدخُّل بشري (أي بعد التشغيل الأولي، تقوم منظومة السلاح بنفسها – باستخدام أجهزة الاستشعار والبرمجة والقوة – بعمليات الاستهداف والأعمال التي عادة ما يتحكَّم فيها البشر.

وأكدت اللجنة الدولية أن هذا التعريف يشمل أي سلاح يمكنه اختيار الأهداف ومهاجمتها بشكل مستقل، سواء جرى وصفه بأنه يتمتع «باستقلالية عالية» أو «بالحكم الذاتي الكامل». وبالرغم من أن هذا التعريف يحوز مقبولية واسعة لدى أغلب المناقشين ضمن فريق الخبراء الحكوميين المعني بالنقاشات حول هذه التكنولوجيا الناشئة في إطار اتفاقية الأسلحة التقليدية، فإن اصطلاح عبارتي «باستقلالية عالية» أو «بالحكم الذاتي الكامل» تطرح تنافُرًا بين المفهومين تختلف آثاره القانونية، لذا من الواجب إبرازه:

يمكن وصف منظومات الأسلحة التي تحوز استقلالية عالية في أداء وظائفها على أنها منظومات تحكُّم تشتغل بنــاءً على الاحتمالات النموذجية التي تكون نتيجة البرمجة المسبقة من قبل المشغل أو المُبرمج كإحدى صور التحكم البشري، ولا تُفهم على أن ثمة عنصرًا بشريًّا يُشرف على عملية التشغيل بصفة «آنية» إنما تستجيب الآلة وفق توليفة من القرارات والتعليمات المُبرمجة مُسبقًا والتي يحددها البشر في نهاية المطاف في مرحلة زمنية سابقة (بمنطق إذا حدث هذا.. افعل هذا)، فإذا حدث أن أخفقت في الامتثال لقواعد الحرب فمردُّ ذلك إلى الخلل والعطل التقني.

فيما تنصرف منظومات الأسلحة المتمتعة بالحكم الذاتي الكامل إلى الاشتغال الطبيعي للمنظومة القائم على المُفاضلة بين السيناريوهات والمواقف والأفكار التي لم تكن بالضرورة نتيجة البرمجة البشرية المسبقة، إنـــما التصوُّرات التي تبتكرها الآلة وفق سياق الهجوم بصفة منطقية ذاتية، لا سيما وظيفة التعرُّف التلقائي على الأهداف. وبالتالي ترتقي المنظومة الذكية إلى مصاف كيانات صُنع القرار التي تتطوَّر وتتعلم وتحتكم لأنماط الذكاء الاصطناعي والشبكات العصبونية، فتعطي أوامر بتنفيذ مهام محددة بناء على خوارزميات الحلِّ وبرامج المحاكاة والتجربة عند تغيُّر المحيط أو الحالات المعقَّدة الأخرى، وهــي أعلى درجات الاستقلالية.

وقد تُتيح هذه الاستقلالية تحسين أداء مسارات اتخاذ القرارات والحدِّ من الأضرار وتنفيذ العمليات العسكرية وفقًا للقانون، ومع ذلك، فإنَّ الفوائد المتوخاة نفسها قد تنعكس سلبًا لتُمرِّرَ قرارات خاطئة لا يُمكن تداركها أو إلغاؤها لغياب إمكانية التدخُّل والتنبؤ وعدم اليقين بآثارها، وعلى الأغلب ستتأثَّر بشكل عميق قواعد المُساءلة عن الانتهاكات التي قد تُحدثها هذه «الأسلحة».

آلات جامدة أم مقاتلات آلية؟

تُثير مشروعية استخدام منظومات الأسلحة ذاتية التشغيل شواغل قانونية مُعقَّدة، ومن المتوقَّع أن تُصادف الدول وفريق الخبراء الحكوميين مواقف غامضة بخصوص تصنيف هذه «الأسلحة» كوسيلة أو طريقة حرب، وأيَّتهما تخضع للمُراجعة القانونية للأسلحة الحديثة وفق متطلبات المادة 36 من البروتوكول الإضافي الأول لسنة 1977، ومن الواضح أن اتفاقيات جنيف لم تُحدِّد بصفة دقيقة تعريف «السلاح» ولم تفرِّق بين «وسائل» و«أساليب» الحرب بل أشارت إليها بالمعنى الواسع كأدوات وطُرق تُستخدم للهجوم والدفاع بغرض إضرار العدوِّ، ومع تطوُّر وسائل وأساليب الحرب لم تعد تلك المفاهيم قادرة على استيعاب آثار التكنولوجيات الناشئة، ومرَّة أخرى يجد القانونيون أنفسهم أمام مآزق قانونية شديدة التعقيد، ليس أقلها إشكالية تكييف منظومات الأسلحة كوسائل حرب مثلها مثل الذخائر والمسدَّسات والرشاشات.

ومع ذلك، فمن الصعب بمكان اعتبار المنظومات ذاتية التشغيل بالكامل مجرَّد وسائل حرب، مثل أي منصة لتوصيل الذخائر والمقذوفات، بغض النظر عن مشروعية هذه الأخيرة، وخاصة أن مُعظم الإشارات «للسلاح» الواردة في الاتفاقيات تستخدم مصطلحات من قَبيل «تُستخدم» أو يتم «استخدامها»، ما يُفهم على أن اقتصار استخدامها يعود إلى البشر وحدهم كشرط ضمني على عكس طبيعة منظومات الأسلحة ذاتية التشغيل.

وكنتيجة حتمية من الصعب تكييف هذه الأخيرة كمُجرَّد وسائل أو أساليب حرب تخضع للاستعراض القانوني، وفق معاييره الحالية التي ترتكز على تقييمات موضوعية مثل عشوائية أثر السلاح والأضرار والآلام الزائدة، فضلًا عن مبادئ القانون كالتمييز والتناسب والتحوُّط. وبـالمقابل، يصعب تقبُّل فكرة تصنيف هذه الآلات نفس تصنيف المقاتلين والقادة في قانون الحرب لاعتبارات أخلاقية وقانونية، لما يحوزه التفكير البشري من حصافة ذهنية لا يمكن ترميزها في الآلات، خاصة في المواقف المعقدة في الحرب على اعتبار طبيعة النزاعات المسلحة المعاصرة التي تقع في مناطق رمادية بامتياز، مع العلم أن المقاتلين أنفسهم لا يخضعون للمراجعة القانونية، ومع ذلك، يخضع هؤلاء لمعايير نفسية وذهنية للمنطق السليم، فمن غير المعقول تجنيد الأطفال الذين لم تنضج قواهم العقلية. ولهذه المناقشة غاية مفيدة تكمن في لفت النظر وتحديد معايير الاستعراض القانوني للأسلحة الجديدة بما يشمل منظومات الأسلحة ذاتية التشغيل.

 أثر قانوني

وفق ما ينص القانون الدولي الإنساني، يتعيَّن على الأفراد الذين يتولون تخطيط الهجمات إصدار أحكام محددة السياق بحيث يكون توقيت اتخاذ قرار الهجوم أقرب بشكل مناسب ومستمر الصلاحية إلى حين حدوث تماس مع العدوِّ، إذ من الواجب أن تُبذل عناية متواصلة أثناء إدارة العمليات العدائية لرصد التحركات المحتملة أو النزوح المحتمل للمدنيين وقدرة البُنى التحتية للدعم الإنساني على التحمل ومُوازنة الأضرار العرضية مقابل القيمة العسكرية، في حين من الواجب أن يخضع القرار المُتَّخذ لشروط قانونية احترازية تشمل تقييم المحيط والتحقق بما لا يسع الشكَّ من أن المُستهدف ليس مدنيًّا أو غير مشمول بحماية خاصة، وضرورة اختيار الوسائل والأساليب الموائمة لتجنب الأضرار الجانبية وحصرها في أضيق نطاق، فضلًا عن صلاحية التدخل لتعليق الهجوم أو إلغائه إذا تبيَّن عكس ذلك.

ويُشكل مبدأ التمييز حجر الأساس خاصة في النزاعات المسلحة المعاصرة التي تدور رحاها في أكثر المناطق المأهولة بالمدنيين، ويصعب التحقُّقُ من وضع المعنيين بالحماية القانونية أو التأكُّد من عضوية الأفراد المنتمين للقوات المسلحة أو المشاركين في «هبة جماعية» أو الجماعات المسلحة النظامية و/أو غير النظامية أو حتى المتعاقدين مع القطاع الخاص، ومردُّ صعوبة ذلك، إلى تلك المعايير التي تكون في أغلبها غير قابلة للقياس مثل المشاركة المباشرة في العمليات العدائية، وعلى مدى وقت المشاركة فيها بهذا الدور، أو تمييز المقاتلين الذين أصبحوا عاجزين عن القتال بسبب الجروح أو الاستسلام.

ومن المقلق معرفة أن مثل هذه المعايير ستكون محلَّ ترميز وترجمة إلى خوارزميات يتم إدراجها في نظام تحكُّم منظومات الأسلحة ذاتية التشغيل، والظاهر أن القانون الدولي الإنساني لم ينص على معايير تقنية محددة بل معايير مجرَّدة تعتمد وبشكل أكبر على فهم سياق عملية الهجوم عن طريق عملية ذهنية وفق منطق عقلاني يصعُب حتى على البشر إدراكه في ظل الظروف العادية، ناهيك عن حالات تُستخدم فيها الآلات، فقد يرتكب البشر أخطاءً بل أخطاءً أحمق مما تكون لدى الآلة من أعطال تقنية، وعلى الرغم من ذلك هنالك سجــايا بشرية لا غنى عنها لضمان استيعاب مشروعية الهدف، فهل يُمكن استنساخ تلك العوامل في برامج حاسوبية؟

بناءً على هذا، يُمكن القول إنه كلما كانت معايير الامتثال لقواعد سير العمليات العدائية بسيطة وسهلة البرمجة بالنسبة للروبوت، كانت آثار استخدامه أكثر دقة من البشر أنفسهم، غير أن واقع الحرب عكس ذلك، فمن المُرجَّح أن دقَّة الهجمات لدى الآلة لن تقتصر سوى على ظروف محدودة للغاية، ولن تتجاوز حدود الأهداف المعروفة أو التي تم ترميز خصائصها، بحيث يمكن إيجاد أمثلة كثيرة في عمليات القتل المُستهدف عن طريق المركبات المُسيَّرة غير المأهولة، في حين يبدو من الصعب استيعاب معايير قواعد الاستهداف والتمييز للأهداف غير المعروفة أو مجموعة الأهداف متباينة الخصائص في المواقف التي تتسمُ بالدينامية.

هل القانون الحالي كافٍ؟

تُمثل اتفاقيات جنيف نُقطة انطلاق للتعاطي مع الشواغل القانونية التي تُثيرها منظومات الأسلحة ذاتية التشغيل، ولعلَّ الأمر الإيجابي هو إمكانية استنباط بعض القيود المفروضة على استقلالية منظومات الأسلحة لا سيما التمييز والتناسب والاحتياطات قبل وأثناء الهجوم وتقييم أثره، ويمكن استثمارها بفرض الإبقاء على السيطرة البشرية في مرحلة «التنشيط» و«التشغيل» لضمان قُرب القرار البشري من حيث الزمان والمكان لعملية الهجوم، ويُنظر إلى توفير السيطرة البشرية في مرحلة «البرمجة والتطوير» بوصفه سبيلًا لتحديد تدابير كفالة تلك السيطرة أثناء المراحل اللاحقة حيث يتعين على البشر إصدار أحكام تراعي القواعد والمبادئ غير القابلة للقياس، فأي «سلاح» لا يُمكن التنبؤ بآثاره ولا يخضع بطريقة هادفة إلى تلك القيود، سيكون مخالفًا للقانون.

وبقدر ما تحمله تلك القيود من مزايا، إلَّا أن قواعد القانون الدولي الإنساني القائمة لا توفر جميع الإجابات، فإنَّ عتبة الاستقلالية المسموح بها، أو السيطرة البشرية المناسبة لضمان الامتثال وتحمُّل المسؤولية وفق مستويات قانونية من السلطة وحدود الإبقاء على قدرة التنبؤ والموثوقية غير محدَّدة بالقانون، كما يُنظر لتصنيف «منظومات الأسلحة» إن كانت وسيلة أم طريقة حرب كمُعوِّق إضافي لضمان أن تفي الدول بالتزاماتها عن الاستعراض القانوني كتدبير لتحقيق الشفافية وبناء الثقة، فمن غير المعلوم أيُّ حزمة من القواعد تنطبق على هذه «الأسلحة»، إن كانت قواعد تنظيم الأسلحة، أم قواعد الاستهداف؟ فالأولى يلتزم بها المطوِّر أو حائز السلاح، في حين يقع الالتزام بقواعد الاستهداف على المُشغِّل والمُخطِّط للهجوم، فطبيعة منظومات الأسلحة ذاتية التشغيل تجعل تدابير الاستهداف تنتقل من المُخطط للهجوم إلى جزء من «السلاح»، وبذلك تُصبح طرق الاستخدام ضرورية لإجراء المراجعة القانونية وفق معايير موائمة.

وفيما يتعلَّق بالمُساءلة، فإنه من الصعب بمكان أن يتم إيجاد سلوك محدد من أجل تجريمه، فالاستقلالية ليست سلوكًا بالمفهوم التقليدي، إنما نظام تشغيل على عكس طبيعة بعض الأسلحة التي تم حظرها مثل الألغام، وبالمثل، فإن اتفاقيات جنيف لم تُحدِّد بعض المفاهيم الجوهرية من قَبيل: حصر آثار الهجوم، ومقياس تحديد الضرر، وتوقيت الهجمات وتعدادها، ومفهوم الهجوم، وهل تُعتبر عملية نشر منظومات الأسلحة ذاتية التشغيل هجومًا أو أعمال عنف في حدِّ ذاتها؟ وهل العبرة من تحديد السلوك إن كان هجومًا بآثاره أم بطريقة حدوثه؟ وغيرها من المفاهيم.

وتُثير مسألة إقصاء الإنسانية من القرارات المتعلقة باستخدام القوة مصدر قلق عميق لا يقتصر على القانون فحسب، بل يمتد إلى هواجس أخلاقية أخرى نظرًا إلى الفلسفة الإنسانية للقانون الدولي الإنساني، وتُعتبر مسألة محدودية القواعد التي تم رصدها مسألة تقنية وقانونية بحتة، في حين أن الشق الأخلاقي من الشواغل يُنبئ عن احتمال تعارض الاستخدام مع المبادئ التي أقرَّها «شرط مارتينز» الذي يعتبره أغلب شرَّاح القانون مبدأ قائمًا في حدِّ ذاته، ولئن كانت مسألة الأخلاق تشكل سقف العتبة القانونية، فإن ضمانات تركيبها في الآلة غير مُقنعة، حيث تُشكل المعاملة الإنسانية مزيجًا من المشاعر والمعتقدات المشتركة بين الشعوب، وليست الآلات التي تفتقر إلى التعاطف والرحمة، والحق، فإنه لا سبب يجعل المقاتلين يتحلون بقدر من التعاطف كما لا يسعى القانون إلى نشر «المحبة» التي لا تمتلكها الآلة، إلا أنه وُجد وبكل تأكيد من أجل تقليل المعاناة وتخفيف الآلام وفق معايير موضوعية تضمن كرامة الإنسان وحقه في الحياة، وإن انتهاكها يُعتبر انتهاكًا لأحد أهم المقاييس القانونية وهي إملاءات الضمير العام الإنساني.

ومن غير المُستبعد أن يتم اعتماد مفهوم «السيطرة البشرية الهادفة» كمبدأ قانوني جديد، أو على الأقل شرط قانوني لتصميم الأسلحة، لضمان امتثالها لقواعد النزاعات المسلحة بما في ذلك المحافظة على الموثوقية والشفافية وإمكانية التنبؤ، وقدرة المشغل على إلغاء الهجوم في الوقت المناسب بما يُتيح تحميل المسؤولية عن أي انتهاك قد يحدث. وقد لا يكون هذا مُتاحًا إلا عبر إصدار صكٍّ قانوني مُلزم.