امروز دبیرکل سازمان ملل، آنتونیو گوترش، و رئیس کمیته بین­‌المللی صلیب سرخ، میریانا اسپولیارک، در فراخوانی مشترک از رهبران سیاسی جهان خواستند برای حفاظت از نوع بشر فوراً قوانین بین‌­المللی تازه‌­ای در زمینه سیستم‌­های سلاح خودکار برقرار کنند.

خبرنامه، 5 اکتبر 2023 (13 مهر 1402)

امروز در پیامی مشترک به یک اولویت اضطراری بشردوستانه می‌­پردازیم. سازمان ملل و کمیته بین‌­المللی صلیب سرخ از دولت‌­های جهان می‌­خواهند که ممنوعیت‌­ها و محدودیت‌­های مشخصی بر سیستم­‌های سلاح خودکار برقرار کنند تا از نسل‌­های حال حاضر و آینده در برابر پیامدهای استفاده از این سلاح‌­ها محافظت کنند. در وضع امنیتی حاضر، ایجاد خط قرمزهای واضح بین­‌المللی به نفع همه دولت‌­هاست.

سیستم‌­های سلاح خودکار، که عموماً به‌­عنوان سلاح‌­هایی شناخته شده­‌اند که هدف را انتخاب کرده و بدون دخالت انسانی به اعمال زور می‌­پردازند، نگرانی‌­های بشردوستانه، حقوقی، اخلاقی و امنیتی ایجاد می‌­کنند.

ساخت و اشاعه این سلاح­‌ها پتانسیل آن را دارد که نحوه انجام جنگ‌­ها و نقش آن در بی‌­ثباتی جهانی و تشدید تنش‌­های بین‌­المللی را دچار تغییرات زیادی کند. این سلاح­‌ها با ایجاد تصور کاهش خطر برای نیروهای نظامی و غیرنظامیان می‌­توانند آستانه ورود به مخاصمات را پایین آورده و ناخواسته خشونت را تشدید کنند.

باید همین حالا در جهت حفظ کنترل انسانی بر استفاده از زور گام برداریم. باید کنترل انسانی بر تصمیمات تعیین‌­کننده مرگ‌­وزندگی را حفظ کرد. هدف‌­گیری خودکار انسان‌­ها با ماشین مرزی اخلاقی است که نباید از آن عبور کنیم. ماشین­‌هایی با اختیار و قوه تشخیص گرفتنِ جان آدم­‌ها بدون مداخله انسانی باید در حقوق بین‌­الملل ممنوع شود.

وجود و دسترسی فناوری­‌های پیشرفته جدید و درحال ­ظهوری مانند رباتیک و هوش مصنوعی که می‌­توانند با سلاح‌­های خودکار یکپارچه شوند تنها بر نگرانی‌­های ما افزوده است.

خود دانشمندان و مدیران صنعتی مسئول این پیشرفت­‌های فناورانه­ زنگ هشدار را نیز به صدا درآورده‌­اند. اگر بنا باشد بتوانیم فناوری‌­های تازه را برای خیر بشریت مهار کنیم، ابتدا باید به جدی‌­ترین خطرات آن پرداخته و از پیامدهای جبران‌­ناپذیر بپرهیزیم.

این به معنای ممنوع ­کردن سیستم‌­های سلاح خودکاری است که به نحوی عمل می‌­کنند که نمی‌­توان اثراتشان را پیش‌­بینی کرد. برای مثال، دادن کنترل سلاح‌­های خودکار به الگوریتم‌­های یادگیری ماشینی، که اساساً نرم‌­افزاری غیرقابل‌­پیش‌­بینی است که خودش را می‌­نویسد، پیشنهادی به‌­شدت خطرناک است.

علاوه­ بر این، برای اطمینان از رعایت حقوق بین­‌المللی و مقبولیت اخلاقی به محدودیت­‌های روشنی برای همه انواع سلاح­‌های خودکار نیاز داریم که عبارتند از محدودسازی مکان، زمان و مدت استفاده از آنها، انواع اهدافی که به آن حمله می‌­کنند و میزان زوری که اعمال می‌­کنند، و نیز اطمینان از قابلیت نظارت و دخالت اثربخش انسانی و غیرفعال‌سازی به‌­موقع به‌­دست انسان.

به­‌رغم گزارش­‌های روزافزون از آزمایش و به­‌کارگیری انواع مختلف سیستم‌­های سلاح خودکار، برای اقدام دیر نیست. بعد از یک دهه بحث­‌های مختلف در سازمان ملل از جمله شورای حقوق بشر ذیل کنوانسیون برخی سلاح­‌های متعارف و مجمع عمومی، بنای اتخاذ ممنوعیت‌­ها و محدودیت‌­های صریح پیشاپیش گذاشته شده است. اکنون، دولت‌­ها باید این زمینه‌­سازی را مبنای کار قرار دهند و برای مذاکره درباره قواعد جدیدی که به تهدیدات ملموس این فناوری‌­های تسلیحاتی بپردازد به‌­نحوی سازنده گرد هم آیند.

حقوق بین­‌الملل، به‌­خصوص حقوق بین‌­المللی بشردوستانه، تسلیحاتی را ممنوع می‌­کند و محدودیت­‌هایی کلی برای استفاده از تسلیحات دیگر قائل می‌­شود ولی همچنان این دولت­‌ها و افرادند که مسئول هر گونه نقض این قواعد هستند. با این حال، بدون یک توافق مشخص بین­‌المللی که بر سیستم­‌های سلاح خودکار حاکم شود، دولت‌­ها می‌­توانند نظرات مختلفی درباره نحوه اعمال این قواعد کلی داشته باشند. بنابراین به قواعد بین‌­المللی تازه‌­ای در زمینه تسلیحات خودکار نیاز داریم تا قانون موجود را روشن و تحکیم کند. این قواعد اقدامی پیش‌گیرانه و فرصتی برای حفاظت از کسانی خواهد بود که ممکن است از چنین سلاح­‌هایی آسیب ببینند و برای اجتناب از پیامدهای وحشتناک آن برای بشریت ضروری است.

ما رهبران جهان را فرامی‌­خوانیم که مذاکرات سند الزام‌­آور حقوقی تازه‌­ای را جهت اعمال محدودیت‌­ها و ممنوعیت‌­های روشن در زمینه سیستم­‌های سلاح خودکار آغاز کرده و این مذاکرات را تا سال 2026 به نتیجه برسانند. از دولت‌­های عضو می‌­خواهیم که هم‌­اکنون برای حفاظت از بشریت تصمیمات قاطعی اتخاذ کنند.