در ماه‌های اخیر با رشد چت ربات‌­هایی مانند ChatGPT هوش مصنوعی (AI) توجه زیادی را به خود جلب کرده است. اما به نحوه استفاده از هوش مصنوعی در مخاصمات و تأثیر آن بر غیرنظامیان توجه کمتری شده است. در سفر رابرت ماردینی، مدیر کل کمیته بین‌المللی صلیب سرخ، به لندن در اوایل ماه جاری، از او درباره کاربرد هوش مصنوعی در حوزه نظامی و بخش بشردوستانه پرسیدیم.

مقاله

24 ژوئیه 2023 (2 مرداد 1402)

پیام شما به دولت‌ها و طرف‌­های دیگری که به دنبال استفاده از هوش مصنوعی و فناوری جدید برای مقاصد نظامی هستند چیست؟

فناوری نظامی و هوش مصنوعی با سرعتی باورنکردنی در حال توسعه هستند، و در برخی موارد سریعتر از توانایی جامعه بین‌المللی در دستیابی به توافقی در خصوص چارچوب‌های حاکم و مؤثر، که این نگران‌کننده است. لذا، ما همواره می‌خواهیم اطمینان یابیم که پیشرفت‌های فناوری به اقدامات بشردوستانه کمک می‌کند و به نفع غیرنظامیان و دیگر افراد تحت حمایت در مناطق مخاصمه است، نه در جهت افزایش خطراتی که متوجه آنهاست.

از دیدگاه ما، گفتگوها پیرامون کاربردهای نظامی هوش مصنوعی باید اصول حقوق بین‌المللی بشردوستانه را که در کنوانسیون‌های ژنو و پروتکل‌های الحاقی آن ذکر شده است، در برگیرد. جامعه جهانی باید رویکردی انسان‌محور در مورد نحوه استفاده از هوش مصنوعی در مکان‌های متاثر از مخاصمه اتخاذ کند. برای کمک به تقویت حمایت‌­های موجود و کاهش خطرات باقی‌مانده، باید حفاظی وجود داشته باشد.

خطرات مربوط به هوش مصنوعی که کمیته بین‌­المللی صلیب سرخ را نگران می­‌کند کدامند؟

شک ندارم که هوش مصنوعی می­‌تواند نیروی مثبتی برای اقدامات بشردوستانه و افرادی باشد که به دنبال کمک به آنها هستیم. اما خطرات زیادی نیز وجود دارد که باید در نظر گرفته شوند.

برای مثال، از دیدگاه ما درباره کار در مناطق جنگی، استفاده از هوش مصنوعی در تصمیم‌گیری نظامی یا سلاح‌های خودکار می‌تواند خطرات قابل‌توجهی را هم برای غیرنظامیان و هم برای مبارزان ایجاد کند. ما نمی­‌توانیم این فکر را بپذیریم که تصمیم مرگ و زندگی به ماشین‌­ها یا الگوریتم‌­ها واگذار شود. کنترل و قضاوت انسانی باید بخش لاینفک در هر تصمیمی باشد که بر زندگی یا کرامت انسانی تأثیرگذار است.

وقتی به شکل گسترده‌تری به فناوری‌های نوین نگاه می‌کنید، منصفانه است که بگوییم مخاصمات مسلحانه امروزی دیگر به زمین، دریا و هوا محدود نیستند، بلکه در فضای سایبری انجام می‌شوند. حملات سایبری می‌­توانند پیامدهای قابل توجهی بر غیرنظامیان داشته باشد زیرا سیستم‌­ها و ابزار دیجیتالی که این حملات متکی به آنها هستند، به عنوان بخشی از اقدام نظامی تضعیف، تخریب یا مختل می‌شوند.

برای مثال، هنگامی که یک بیمارستان قربانی یک حمله سایبری می­‌شود، این کار ارائه مراقبت‌­های درمانی به غیرنظامیان را با مشکل مواجه می‌­کند. وقتی زیرساخت‌های آب یا انرژی در حوزه سایبری هدف قرار می‌گیرند، خدمات ضروری مختل می‌شوند و این غیرنظامیان هستند که تاوان آن را می‌­دهند. حملات سایبری که شبکه‌­های ارتباطی را مختل می‌­کند، غیرنظامیان را از دسترسی به اطلاعات دقیق و به روز ناتوان می‌­سازد و این ممکن است در لحظات حساس به قطع تماس آنها با عزیزانشان منجر شود.

اکنون برای سال‌ها است که ما به صراحت گفته­‌ایم که قوانین جنگ، کنوانسیون‌­های ژنو، در فضای مجازی نیز اعمال می‌شود. ما همچنین در مورد ایده یک نشان دیجیتالی صلیب سرخ/هلال احمر در حال تحقیق بوده­‌ایم، که شناسایی و در امان داشتن مراکز تحت حمایت را برای آنهایی که در جریان مخاصمات مسلحانه عملیات سایبری انجام می‌دهند، آسان‌تر کند.

در جلسات شما موضوع هوش مصنوعی تا چه اندازه در اولویت کار قرار داشت؟

این موضوع در میان هیئت مدیره از اهمیت بسیار بالایی برخوردار بوده است. و همانطور که در اجلاس جهانی ایمنی هوش مصنوعی که در اواخر سال بریتانیا میزبانی آن را برعهده خواهد داشت، یک اولویت مهم برای این کشور است.

ما بسیار خوش اقبالیم که گفتگوی قوی و سازنده‌­ای با بریتانیا داریم. چنین گفتگویی به ما امکان می‌­دهد دغدغه‌­های بشردوستانه خود را در مورد مسائل مربوط به هوش مصنوعی و فناوری جدید در مناطق متأثر از مخاصمه مطرح کنیم.

موضع ما با تمامی دولت‌­ها هنگام بحث در مورد استفاده از هوش مصنوعی در سناریوهای نظامی این است که آنها باید رویکردی انسان­-محور در این‌­باره داشته باشند و هرگونه استفاده از هوش مصنوعی در سیستم‌­های تسلیحاتی باید با احتیاط زیاد انجام شود.

از آنجایی که بریتانیا آماده برگزاری کنفرانس هوش مصنوعی در اواخر سال جاری می­‌شود، ما مشتاقانه منتظر مشارکت در این بحث­‌های مهم هستیم تا حقوق بین‌­المللی بشردوستانه بخشی از این گفتگو باشد.

افزایش مشارکت غیرنظامیان در نبرد دیجیتال تا چه اندازه نگران‌کننده است؟

این کار نگرانی‌­های زیادی را ایجاد می‌­کند. طبق حقوق بین‌المللی بشردوستانه، طرف‌های مخاصمه باید بین غیرنظامیان و مبارزان، و بین اهداف غیرنظامی و اهداف نظامی تمایز قائل شوند. چنین تمایزهایی معمولاً در مخاصمات فیزیکی بدیهی است. اما جنگ دیجیتال این خطر را دارد که تفکیک میان این دو را دشوار کند.

دیجیتالی­‌شدن جامعه و میدان جنگ به این معنی است که مشارکت غیرنظامیان در فعالیت‌های سایبری و دیجیتالی نظامی هرگز آسان‌تر از این زمان نبوده است. در واقع، ما شاهد روندی هستیم که غیرنظامیان در مخاصمات بیشتر مشارکت می‌­کنند و در برخی موارد مستقیماً از طریق ابزارهای دیجیتالی به عملیات نظامی کمک می‌کنند.

قوانین جنگ بسیار واضح اند: غیرنظامیان در برابر حمله تحت حمایت هستند مگر اینکه مستقیماً در مخاصمات شرکت کنند. اینکه آیا مشارکت غیرنظامیان در جنگ دیجیتال واجد شرایط مشارکت مستقیم در مخاصمات است یا خیر، یک موضوع حقوقی پیچیده است. اما اگر دولت‌ها غیرنظامیان را تشویق کنند تا در چنین فعالیت‌هایی شرکت کنند، به طور بالقوه آنها را در معرض خطر آسیب جدی قرار می‌دهند.

بنابراین، لازم است که ما بتوانیم خط مشخصی بین غیرنظامیان و ارتش نگه داریم. دولت­‌ها باید از تشویق غیرنظامیان برای شرکت مستقیم در مخاصمات اجتناب کنند، یا دست کم اطمینان حاصل نمایند که غیرنظامیان از خطراتی که ممکن است در معرض آنها قرار گیرند و نحوه حفاظت از خود، کاملاً آگاه هستند.