يدور نقاش محتدم في الفترة الحالية حول الضوابط الواجب توفرها في الأسلحة ذاتية التشغيل، وهي منظومات أسلحة متطورة ربما تكون هي وحدها من تتخذ القرارات العسكرية الحاسمة في ساحة القتال. هذا المقال يحلل الأبعاد القانونية لواحد من أهم أنواع هذه الأسلحة وهو الروبوتات القاتلة.

الروبوتات القاتلة كاصطلاح إعلامي أو منظومات الأسلحة الفتاكة ذاتية التشغيل، انسياقًا لما شاع ودرُج ضمن مناقشات فريق الخبراء الحكوميين في «اتفاقية حظر أو تقييد استعمال أسلحة تقليدية معينة يمكن اعتبارها مفرطة الضرر أو عشوائية الأثر» يمكن اعتبار أنها الأسلحة مفرطة الضرر أو عشوائية الأثر، وهي قادرة على اختيار الأهداف وتعقُّبها والحكم ثم استخدام القوة وتعطيلها أو تدميرها دون تدخل إضافي من قبل البشر. فماذا يعني هذا حقًّا؟

يقول الفيلسوف والفقيه القانوني «ليبنتز» إن معظم الخلافات العلمية ترجع إلى خلاف حول معنى الألفاظ ودلالاتها. بالفعل، فقد ظهر جدال حاد بين من هو مؤيد لحظر استباقي لهذه الأسلحة وبين من يدعو إلى تقييد استخدامها وتنظيمها دون الحاجة إلى صكٍّ قانوني جديد. غير أن مسألة جوهرية أخرى غالبًا ما يتغاضى عنها بعض أطراف النقاش – وهذا إغفال مثير للإزعاج – وهي إشكالية المفهوم والتعريف الدقيق الذي يُحدِّد الخصائص. والحقيقة أنَّ ذلك يُعد أكبر عقبة تقف في سبيل إيجاد حلٍّ جذري للمسألة.

درجة التحكم البشري أم درجة ذكاء الآلة؟

من البديهي الاتفاق على أن منظومات الأسلحة الفتاكة ذاتية التشغيل كما هو مفهوم، هي في الحقيقة برامج حاسوبية تختزل عددًا هائلًا من الخوارزميات والتعليمات التي تجسِّد عمليات اتخاذ القرار لتنفِّذها الآلة والتي يُحدِّدها البشر في نهاية المطاف، بيد أن مُعظم مخاوف المناهضين لها تندرج ضمن ما أصبح يُعرف اليوم بالذكاء الاصطناعي الخارق والتعلُّم العميق، وهو أعلى درجات الاستقلالية التي تُحدِّد نسبة مُساهمة البشر في استخدام القوة، هذه الأخيرة قد تسمح للآلة بابتكار وخلق قرارات لم تبرمج من قبل، إمَّا لتغيُّر المُحيط أو نتيجة التعلُّم والتطوير الذاتي عن طريق برامج المُحاكاة والتجربة، وبالتالي فإن مُخرجات منظومة الأسلحة لا تُتيح التنبُّؤ ولا تضمن موثوقيةً مواءمة حجم الأخطار التي قد تُحدثها.

فقد صادف أن عالجت محكمة العدل الدولية إحدى الوقائع يوم 3 يوليو سنة 1988 حين كان طرَّاد أمريكي – يُطلق عليه اسم «الطرَّاد الروبوتي» – يجوب الخليج العربي حيث كان يشتغل بنظام «إيجيس» Aegis وهو نظام حاسوبي يشتمل على أربعة أوضاع، من بينها الوضع العفوي حيث يُنفِّذ النظام ما يراه الأفضل في الهجوم والدفاع، وحدث أن رصد رحلة الخطوط الجوية الإيرانية رقم 655 وهي طائرة مدنية من طراز «إيرباص» تبث إشارات لاسلكية تُشير إلى أنها طائرة مدنية، غير أنَّ النظام كان مُصمَّمًا لإدارة المعارك ضدَّ القاذفات السوفيتية في أعالي بحر الشمال، وليس للتعامل مع أجواء مكتظة في الخليج، وقد تمَّ تكييفها على أنها مُقاتلة من طراز F-14 وبالتالي عدُوٌّ مُفترض، لكن الطاقم البشري لم يرغب بالتشكيك في قدرة الروبوت، وتركوا له القرار بإطلاق النَّار، وكانت النتيجة تدمير الطائرة، ما أسفر عن مقتل جميع الرُكَّاب والطاقم الذين بلغ عددهم 290 فردًا منهم 66 طفلًا، واكتفت المحكمة بالحكم بتعويضٍ لصالح جمهورية إيران الإسلامية.

فلا ينبغي إذن الاقتصار على تحديد درجة مُشاركة البشر في اتخاذ القرار بقدر ما يتعيَّن معرفة درجة ذكاء الآلة، فالقائم على برمجة النظام يبذل كُلَّ جُهد لضمان مُراعاة قواعد الاشتباك في سبيل قصر الهجمات على الأهداف المشروعة وتقليل الأضرار الجانبية وتجنُّب العشوائية، وبالتالي السعي إلى تركيب الأخلاق في الآلة وبرمجة حاكم أخلاقي يُثبِّطُ تصرُّفاتها، والتقيُّد دائمًا بـصياغة الأوامر بالشكل الصحيح في الزمن والمكان المُناسبين، وبالنقيض من ذلك فإن ذكاء الآلة قد يبلغ مبلغ الاستقلالية التامة في الأداء، بمعنى آخر فإن التعليمات المُبرمجة من المُستبعد أن تكون دقيقة حسب كُل احتمال بل يكتفي البشر بوضع القواعد الأساسية والحدود غير المسموح بتجاوزها، لترك الآلة تتخذ ما تراه الأفضل لتحقيق الميزة العسكرية المُحدَّدة.

فمُنفِّذ الهجمات من البشر سواء كان المُبرمج أو المُشغِّل تبقى له القدرة على إيقاف أو تعليق الهجوم إذا تغيرت الظروف أو شُحَّت المعلومات، أي البقاء على الحلقة (A human-on-the-loop weapon) والإشراف على المراحل، وهذا بتحقُق شرط المعرفة الفعلية المُسبقة لآثار الهجوم غير أن ذلك قد لا يكون مُتاحًا في كُلِّ الأحوال، فالغاية من وجود الآلة هي الدقة واتخاذ القرارات في ظرف زمني فائق السرعة على خلاف مقدرة البشر، وإلا لما كانت الحاجة إلى أسلحة «غبيَّة» صمَّاء، فالإنسان لا يستطيع الاستجابة لكُلِّ السيناريوهات. فيما تنصرف منظومات الأسلحة المُستقلة تمامًا إلى ما دون الحاجة إلى تدخُّل بشري إضافي (Human Out of the Loop) أي المقدرة على تحقيق الغرض من الهجوم بأفضل الطُرق المُمكنة دون إشراف البشر، وفي هذه الحالة فإن ثمة شكوكًا حقيقية حول قدرة الآلة على الامتثال الكُلِّي لقواعد سير العمليات العدائية نظرًا لارتباط أغلبها بالكيان البشري والضمير الإنساني.

يُستنتج ممَّا سبق، أن عبارة منظومات الأسلحة الفتاكة ذاتية التشغيل غير جديرة بالتأييد، فهي لفظ مُبهم وغير مرن ويذهب إلى حدِّ الغموض والالتباس، فهنالك بعض الأسلحة لها من الوظائف ما يجعلها ذاتية في التشغيل مثل الصواريخ المُتتبِّعة والألغام، غير أنَّها ليست مُستقلة بالكامل على النحو الذي جرى إبرازه، كما أنه من المُفيد الاستغناء عن صفة الفتك، وهذا بالرجوع إلى اعتبارين، يتعلقان باقترانها بمؤدَّاها للموت المُحتَّم، فإن كان الأمر كذلك، فهي أسلحة مُحرَّمة بامتياز استنادًا للقيود الواردة على اختيار الأسلحة التي تُحدث إصابات وآلامًا لا مُبرر لها، كما قد يتولَّدُ إغفال لمخاطر الأسلحة التي تقلُّ فتكًا بينما تكون أكثر ضراوة في إحداث ضرر على البيئة والأعيان المحمية دون الموت، وبمفهوم المخالفة الذي يقودنا إلى الاعتبار الثاني، فإن الأسلحة غير الفتاكة أيضًا قد تتسببُ في الموت إذا ما استُخدمت بطريقة عشوائية أو لظروف معينة، فالخوض إذن في درجة الفتك قد لا يكون مُفيدًا.

وبالنتيجة فإن العبارة الموائمة قد تكون» منظومات الأسلحة المُستقلة بالكامل» (Fully Autonomous Weapons Systems) ما تدل على الجزالة والوقار في اللفظ ودلالته القطعية باستقلالية السلاح، فهو بذلك مدلول شائع في جنسه ويكون مُطلقًا على هذه الأسلحة ما لم يقترن به قيد مثل (شبه المستقلة)، وبالتالي فإن الدقة في هذا المُصطلح بلغت درجة يتعذَّر معها إساءة فهمه أو الانحراف بمدلوله. كما أن هذا الرأي يتفق بالكامل مع ما تُنادي به الأطراف المُناهضة التي تدعو إلى حظر استباقي لهذه الأسلحة وضرورة الإبقاء على التحكم البشري الهادف أو المُناسب أو ذي المغزى. فما المقصود به؟

لا بديل عن مسؤولية البشر

من البائن أن النظام القانوني لقيام المسؤولية الجنائية الدولية بشكله الحالي يستحيل انطباقه في حالة استخدام منظومات الأسلحة المُستقلة تمامًا، فحتى لو مُنحت الآلة شخصية قانونية افتراضية تمكِّنها من تحمُّل المسؤولية واكتساب الحقوق، فلن يكون هذا طائعًا نظرًا لخصوصية المُساءلة عند ارتكاب جرائم الحرب، فلا بُدَّ من توافر عنصرين وهما العمل الإجرامي (Actus reus) والقصد الجنائي (Mens rea). بمعنى آخر، فالمسؤولية المُباشرة أو التي تقع على عاتق الشخص الذي يسحب الزناد ويُطلق النار لن تتحقَّق إلَّا بتوفر ثلاثة شروط، يتعلق الأول بالقصد الجنائي للروبوت، ثم ضرورة تعديل النطاق الشخصي للمحاكم الجنائية الدولية وإضفاء الشرعية، وثالثًا مُعاقبة مُرتكب الجريمة أو الروبوت الفاقد للإحساس والإدراك والندم على الأفعال. ثم إن المسؤولية غير المُباشرة أو ما يُعرف بمسؤولية القائد العسكري الذي يتحمل مسؤولية ما ارتكبه من يأتمرون بأمره بفعل منصبه القيادي الذي يمنحه السيطرة الفعلية، سواء كان بعدم اتخاذه الإجراءات اللازمة أو المعقولة لمنع أو تجنب وقوع الفعل المُجرَّم، ما إن علم أو كان من المُفترض أن يعلم، تلك المسؤولية أيضًا سيكون من الصعب تطبيقها لوجوب توفُّر أربعة شروط تشمل وقوع الجريمة بأركانها كافة، بما في ذلك الركن المعنوي، ثم المعرفة الفعلية أو الحقيقية لوقوع الجريمة التي تتطلَّب بدورها معرفة ما سيوشك أن يقع، ثم منعه، ومُعاقبة الروبوت. وهذا قد لا يكون مُتاحًا في منظومات مُستقلة تمامًا، لا سيما وأنها تستبعد السيطرة الفعلية والقدرة المادية لمنع السلوك الإجرامي عن طريق إلغاء الهجوم.

بالموازاة مع ذلك، فإن المسؤولية المدنية أو مسؤولية المُصنِّع والمُبرمج أيضًا يصعُبُ انطباقها، فالضحايا مُطالبون بإثبات الخطأ والضرر والعلاقة السببية في تشغيل وبرمجة الروبوت، أو إثبات الإهمال الذي وقع أثناء أداء واجب إدارة الخطر والحادث المُتوقَّع أو غير المُتوقَّع، وفي كلتا الحالتين فإن مُعوقات أخرى تقنية وإجرائية تزيد من محدوديتها، ليس أقلَّها أن الحكومات المالكة لتلك التكنولوجيا تُبقي أفراد جيشها والمتعاقدين معه محصَّنين إلى حدٍّ كبير من الدعاوى المدنية، ومثال ذلك القانون الأمريكي، فقد سبق أن منعت الإدارة الأمريكية ورثة ضحايا الرحلة الجوية 655 من مُقاضاة الحكومة بسبب الحصانة السياسية للمُقاتلين.

لهذا الغرض تُطالب المنظمات غير الحكومية على الأخص بإبقاء سيطرة بشرية هادفة على منظومات الأسلحة، ويعني هذا اتخاذ التدابير اللازمة التي من شأنها ضمان تنفيذ الآلة للمهام وفقًا لقصد القائد والحفاظ على الموثوقية والشفافية وإمكانية التنبؤ بالنتيجة المنشودة والقدرة على التدخل ضمن الوظائف الحرجة في اختيار الأهداف ومُشاركتها في الوقت المُناسب وفهم المسارات واحترام القيود القانونية بما يُتيح في الأخير تحميل القائد المسؤولية عن أي انتهاك قد يحدُث.

نحو إطار قانوني لحظر الروبوتات القاتلة

إن القانون الدولي الإنساني سريع التطور والاستجابة، لكن غالبًا ما يكون هذا بعد فوات الأوان لتلك الكوارث الإنسانية وقلَّما يستبقها. بالفعل، فإن هنالك بعض السوابق التاريخية التي تؤكِّدُ على أن الحظر الاستباقي أمر مُمكن، ومثالها حظر أسلحة الليزر المُسبِّبة للعمى.

أما بخصوص منظومات الأسلحة المُستقلة، فقد أكَّد التقرير النهائي لفريق الخبراء على أنه من غير المقبول استبعاد البشر أثناء تطبيق القوة المُميتة، ما يُفهمُ ضمنيًّا على حظرها. بيد أن بعضًا من الدول المالكة للتكنولوجيا تتخذ مواقف رافضة لأي صك قانوني جديد وتدعو إلى إصدار مدونة سلوك أو إعلان سياسي لا قيمة قانونية لهما. وفي الحقيقة فإن الحظر الاستباقي لا يمنع مزيدًا من تقييد هذه التكنولوجيا وفقًا لمُتطلَّبات المادة 36 من البروتوكول الإضافي الأول لاتفاقيات جنيف.

ومن الواضح أن عدد المُناهضين لهذه الأسلحة يزداد يومًا بعد يوم ما يُنبئ عن أن حظرها لم يعُد سوى مسألة وقت، لكن قبل ذلك على الدُّول أن تُجيب على أسئلة صعبة لا يُمكن إغفالها، فذلك لن يُقدِّم شيئًا تجاه التحدِّيات الناشئة التي تفرضها التكنولوجيا. فمن غير اليسير الجزم بأن هذه المنظومات من الأسلحة قد تُقلِّلُ وقوع الخسائر والانتهاكات إلى الحدِّ الأدنى في مُقابل حماقات البشر، ومن الصَّعب كذلك الإنكار.

نُشر هذا الموضوع في العدد 64 من مجلة الإنساني الصادر في ديسمبر 2018. للاطلاع على محتويات العدد انقر هنا.

اقرأ أيضا: 

تيم مكفارلاند، الأسلحة ذاتية التشغيل والتحكم البشري

إيريك تالبوت جنسن، تحدي قابل للتحقق… إضفاء الطابع الإنساني على الأسلحة الذاتية التشغيل