ar
إغلاق

على من يطلق «الجندي الافتراضي» الرصاص؟

القانون الدولي الإنساني

على من يطلق «الجندي الافتراضي» الرصاص؟

منذ منتصف القرن التاسع عشر عندما بدأت محاولات تنظيم وسائل القتال الحديثة، كان الإنسان هو محور القرار العسكري؛ هو الذي يختار الهدف ثم يقرر الهجوم عليه. لكن الآن ظهرت للعلن أسلحة ذاتية التشغيل لا تحتاج لتدخل بشري حتى تقرر طبيعة الهدف أو وقت الهجوم.

بدأ الإنسان في تنظيم وسائل القتال في العام 1868 مع إعلان بطرسبورغ «بغية حظر استعمال قذائف معينة في زمن الحرب»، منع هذا الإعلان استخدام نوع من القذائف المتفجرة التي يقل وزنها عن 400 جرام. هذا الإعلان لم ينظم فقط استخدام الذخائر، بل أوجد قاعدتين قانونيتين مهمتين للغاية وهما: عدم التسبب في أضرار تفوق الضرورة اللازمة لإضعاف العدو، وعدم استخدام أسلحة تسبب آلامًا مفرطة ولا مبرر لها. هذه العبارة نظمت وسائل الحرب وأساليبها، وصولًا إلى اتفاقيات لاهاي 1899 التي نظمت عدة وسائل وأساليب. 

حتى ذلك الوقت، كان الإنسان في محور دائرة القرار، وبالتالي هناك مسؤولية ومحاسبة وحكم سليم. لكن ظهرت أسلحة أخرجت الإنسان من دائرة القرار وأعطت الآلة الحق في اتخاذ القرار بقتل الإنسان. هذا ما نريد أن نتكلم عنه، الأسلحة الذاتية المستقلة التي عرفتها اللجنة الدولية للصليب الأحمر بأنها نوع من أنواع الأسلحة تعمل بالجو أو بالبر أو بالبحر بتلقائية في وظائفها الحساسة، أي الوظائف الحرجة. هذا يعني أن السلاح يمكن أن يختار الهدف ويقرر استهدافه دون أي تدخل بشري باستخدام الذكاء الاصطناعي. هنا تظهر الإشكالية بين الاتفاقيات والقواعد الموجودة والتدابير الوقائية التي يجب اتخاذها قبل أن نصل إلى استخدام ونشر هذا السلاح. 

أسلحة خطرة

تكمن خطورة الأسلحة ذاتية التشغيل في كونها مستقلة، أي أن الإنسان غير موجود في دائرة القرار، وبمجرد تشغيلها الأولي، يفقد الإنسان السيطرة عليها. وذلك لا ينطبق على الطائرات بدون طيار، لأنه في هذه الحالة قد يكون الإنسان هو صاحب القرار والأمر والتخطيط، وإنما على الأسلحة التي تتمتع باستقلال تام من حيث اكتساب الأهداف واتخاذ القرار بالاشتباك مع الهدف. الأمر الأخطر من الاستقلالية في هذه الأسلحة هو قدرة الآلة على التكيف والتعلم مع الأوضاع عبر ذكاء اصطناعي وتعقيدات تكنولوجية، ما يجعل الآلة بحد ذاتها تتعلم وتتكيف مع البيئة المحيطة. وهذا يخلق خللًا مع تطبيق المادة 36 من البروتوكول الأول الإضافي إلى اتفاقيات جنيف (1977). تتناول هذه المادة «الأسلحة الجديدة» وهي تنص على أن «يلتزم أي طرف سامٍ متعاقد، عند دراسة أو تطوير أو اقتناء سلاح جديد أو أداة للحرب أو اتباع أسلوب للحرب، بأن يتحقق مما إذا كان ذلك محظورًا في جميع الأحوال أو في بعضها بمقتضى هذا الملحق «البروتوكول» أو أية قاعدة أخرى من قواعد القانون الدولي التي يلتزم بها الطرف السامي المتعاقد». أي أن هذه المادة تلزم الدول أن تكون بدائرة تحديد ما إذا كان هذا التصرف، أو هذا السلاح، أو هذه الوسيلة تخرق القانون الدولي الإنساني. وهذه هي الإشكالية الأولى في الموضوع. 

بالإضافة إلى ذلك، هناك تحكم تلقائي. فبمجرد رصد الآلة للهدف لا يعود التحكم بيد الإنسان كي يوقف الهجوم. من بعد الاستقلالية نجد خاصية ثالثة ناتجة عنها، هي التعقيد، خاصةً إذا اختفت تحت طبقات من الذكاء الاصطناعي. هنا نحن لا نعرف من اتخذ القرار، من رصَد، من استهدَف، من أعطى الأمر. تضيع المسؤولية بهذه الحلقات حيث تكون الآلة أو «الجندي الافتراضي» هو الطرف الوحيد المسؤول. هذا الأمر، دفع لتسميتها بالأسلحة الفتاكة، فالفتك هو التجرد من الإنسانية المطلقة، وبالتالي تجرد من غاية ووسيلة القانون الدولي الإنساني وهي الإنسانية. مثال على ذلك، روبوت اسمه سوبر إيجس (Super AEGIS) أنتجته شركة سامسونغ، نشر حاليًّا بالمنطقة منزوعة السلاح بين الكوريتين. الروبوت يستطيع تحديد هدف على بُعد كيلومترين، واستهدافه بالقوة القاتلة من دون أي تدخل بشري. 

قابلية تطبيق القانون

لم يفكر أحد قبل سبعين عامًا أن يأتي يوم تكون فيه هذه الأسلحة المتطورة هي التي تقود الحروب. ستؤدي هذه الأسلحة إلى حروب صفرية القتلى من الجنود. بمعنى آخر، وجود هذه الأسلحة ذاتية التشغيل يقدم خدمتين، من المنظور العسكري: صفر قتلى من الجنود أو تخفيف الخسائر البشرية، إضافة إلى الجهوزية المطلقة.. ففائدة هذه الأسلحة أنها جاهزة طيلة أربع وعشرين ساعة، وهو أمر لا يستطيع أي مقاتل بشري أن يحققه. على سبيل المثال، نظام الأسلحة فلانكس قصير المدى (CIWS)، وهو منظومة أسلحة مضادة للصواريخ الموجهة ضد السفن، والموجود على البوارج الأميركية يستطيع في أي لحظة أن يرصد هدفًا ويقرر ما إذا كان عدوًّا، ويشتبك معه على مسافة محددة. النظام يؤَمن الحماية المتقاربة للسفن الحربية. 

حجر الأساس

مبدأ التمييز هو حجر الأساس بالقانون الدولي الإنساني. نصت المادة 48 من البروتوكول الإضافي الأول على أن على الأطراف المتحاربة أن تميز بين الأهداف العسكرية والأعيان المدنية، وبين المقاتلين والمدنيين، وأن تعمد فقط إلى استهداف العسكريين والأهداف العسكرية. وهذا التمييز هو جوهر الإشكال الحاصل حول نظم الأسلحة المستقلة ويشكل أكبر عقبة أمامها. فإذا كان يمكن تمييز عسكري من زيه العسكري أو من السلاح الذي يحمله، كيف أستطيع التمييز- كما يقول نوال شاركي، أحد علماء الروبوتيك أي الذكاء الاصطناعي وعضو مؤسس بمنظمة «أوقفوا الروبوتات القاتلة»- بين أمٍّ تهرب من ميدان المعركة ومعها ولد يحمل سلاحًا لعبة؟ من ناحية أخرى، يمكن خداع الروبوت كأن يخفي مدني حزامًا ناسفًا تحت ثيابه المدنية. كيف يستطيع الروبوت أن يكشف ما إذا كان هذا مقاتلًا أو لا؟ هذه إحدى أهم العقبات من ناحية التمييز. 

إلى ذلك يضاف مبدأ التناسب بين الميزة العسكرية المرتقبة من الهجوم والأضرار الجانبية المتوقعة عنه. تقول اللجنة الدولية بتعليقها إن هذا معيار يتسم بالموضوعية والعقلانية بالتقييم، أي أن هذا مرتبط بالحس السليم للقائد والنية السليمة، وقد طبقت المحكمة الجنائية الدولية ليوغوسلافيا السابقة هذا المعيار في قضية ]الجندي الصربي[ ستانيسلاس غاليتش سنة 2003. وبالتالي عندما نتكلم عن الحس السليم والتقدير الجيد للقائد العسكري، هل يمكن للآلة أن تقوم بهذه المهام؟ الجواب هو حتى الآن كلَّا. 

أما بخصوص مبدأ الإنسانية، احترام حياة وكرامة الإنسان، الذي هو غاية ووسيلة القانون الدولي الإنساني، فإنه لا يمكن تطبيقه وفي الوقت نفسه ترك الآلة تقتل الذات الإنسانية. هذا يتعارض مع أساس القانون الدولي الإنساني ووضع الإنسان الذي يتوجه له القانون كفرد من ناحية المسؤولية أو التعليم أو التوجيه أو الأوامر وهرمية السلطة للقيام بكل ما هو ممكن لاحترام قواعد القانون الدولي الإنساني. يظل المبدأ الأساسي هو الضرورة العسكرية، استخدام القوة ليس غاية بحد ذاته، وإنما هو وسيلة. في حالة السلاح ذاتي التشغيل، كيف يمكن للآلة أن تميز ما إذا كان هذا الهدف يؤمِّن ضرورة عسكرية؟ المعارضون للأسلحة ذاتية التشغيل يقولون إنه لا يمكن للآلة أو الروبوت أن تحدد «الضرورة العسكرية»، أما المؤيدون لاستخدام هذه الأسلحة فيقولون بأن نشر هذه الأسلحة هو بحد ذاته ضرورة عسكرية. وهنا تكمن إشكالية النزاع بين الرأيين. 

تقنين قانوني

نحن اليوم أمام نوع جديد من الأسلحة لا تنطبق عليه النصوص القانونية الموجودة بالفعل. وبالتالي نحن بحاجة لصياغة نصوص جديدة لأن المجتمع الدولي مهتم بتنظيم استخدام هذا السلاح. لقد بدأ أول اجتماع للخبراء في العام 2013 لتنظيم هذا الموضوع انطلاقًا من اتفاقية الأسلحة التقليدية للعام 1980 وبروتوكولاتها الخمسة. وقد تكون هذه الأسلحة ذاتية التشغيل شبيهة بحال الأسلحة الليزرية المسببة للعمى التي حظر البروتوكول الرابع الملحق باتفاقية حظر أو تقييد استعمال أسلحة تقليدية معينة، استخدامها. وهو بذلك البروتوكول وقائي.

وبالمثل، وقبل أن نصل لمرحلة تكون ظاهرة أو آلات الفتك الروبوتية المنتشرة في ساحات القتال، نستطيع وضع بروتوكول سادس ملحق باتفاقية الأسلحة التقليدية لتنظيم عمل هذه الروبوتات، أو نظم الأسلحة هذه بشكل يتطابق مع قواعد القانون الدولي الإنساني.

هناك نظريات مؤيدة ونظريات معارضة لهذا الاقتراح. النظريات المؤيدة تقول إن المادة 36 من البروتوكول الاضافي الأول التي تنص على أنه ينبغي للدول التي تنتج أو تستعمل الأسلحة أن تتأكد أنها غير محظورة وتتوافق مع قواعد القانون الدولي الإنساني يعتبرون هذه المادة كافية لهذه الأنظمة الحديثة المستقلة كي تحترم القانون الدولي الإنساني. لكن المعارضين الداعين لحظرها نهائيًّا يستندون إلى أمر مهمٍّ جدًّا وهو عدم الموثوقية. بمعنى أن هناك ذكاء اصطناعيًّا، لكن لا أحد يعلم كيف تتصرف الآلة في وقت من الأوقات. لذلك يدعون للحظر الكامل. وهناك رأي ثالث يقول بتعليق إنتاجها بالوقت الحالي حتى صدور دراسة أو بيان مدى فاعليتها

هذه المقالة (المنشورة في العدد 66 من مجلة الإنساني) نص محرر من مداخلة شفهية ألقيت أمام الندوة القانونية التي نظمتها اللجنة الوطنية للقانون الدولي الإنساني بوزارة العدل القطرية بالتعاون مع اللجنة الدولية للصليب الأحمر في تشرين الثاني/ نوفمبر 2019 بمناسبة مرور 70 عامًا على اتفاقيات جنيف الأربع 1949. 

 

اطلع غيرك على هذا المقال

تعليقات

لا توجد تعليقات الآن.

اكتب تعليقا