وقتی «کدها» جای «وجدان» را می‌گیرند

سازمان ملل خواستار ممنوعیت جهانی استفاده از پهپادهای کشنده در جنگ‌هاست

آرزو کیهان
گروه علم و فناوری

با افزایش استفاده از پهپادها در میادین جنگی که از آنها به عنوان ماشین‌های کشتار خود کار( آسیب رسان بدون فرمان عامل انسانی) هم یاد می‌شود، نگرانی‌ها بابت سوء‌استفاده از این محصولات مبتنی بر هوش مصنوعی بالا گرفته است. با توجه به نگرانی‌های اخلاقی که در زمینه استفاده از این پهپادهای کشنده در جنگ‌ها ایجاد شده، چندی پیش سازمان ملل خواستار ممنوعیت جهانی استفاده از پهپادهای خودکار در درگیری‌ها شد. از نگاه سازمان ملل متحد، این سلاح یک فناوری «غیرانسانی دیجیتال» است که می‌تواند مرتکب جنایات جنگی غیرقابل ‌پیگیری شود و جان غیرنظامیان را به خطر بیندازد که خود زمینه‌ساز نقض قوانین حقوق بشری می‌شود.

خطاها و سوگیری‌های هوش مصنوعی
نگرانی اصلی این است که پهپادهای مجهز به هوش مصنوعی می‌توانند به‌ طور مستقل عمل کنند و با استفاده از فناوری بینایی ماشین (Machine vision)
 اهداف را شناسایی و بدون دخالت اپراتور انسانی، تصمیم‌گیری کنند. این ابزارهای جنگی بدون در نظر گرفتن مسائل اخلاقی، اهداف را نشانه رفته و بی‌رحمانه غیرنظامیان را می‌کشند، در حالی که سربازان در چنین شرایطی، به دلیل نگاه انسانی، تلاش می‌کنند به غیرنظامیان در جنگ آسیب نزنند.
کارشناسان می‌گویند، شاید نتوان به راحتی از کشورها خواست از این فناوری بهره نگیرند چون از منظر نظامی، هر کشوری که هوش مصنوعی را در توانایی‌های جنگی خود ادغام نکند، در میدان نبرد عقب خواهد ماند. اما با وجود همه این موانع، سیاست‌گذاران بین‌المللی در تلاشند مقرراتی برای استفاده از سامانه‌های جنگ‌افزار خودکار کشنده وضع کنند.«ایزومی ناکامیتسو»، رئیس بخش خلع سلاح سازمان ملل در این باره می‌گوید:«استفاده از ماشین‌هایی که قدرت کامل تصمیم‌گیری برای گرفتن جان انسان‌ها به آنها واگذار می‌شود، از نظر اخلاقی منزجرکننده است و حتماً باید بر تصمیمات این ماشین‌ها کنترل انسانی وجود داشته باشد.»
«مری ویرهام»، دیده‌بان حقوق بشر نیز درباره خطا و سوگیری سامانه‌های هوش مصنوعی فعلی در شناسایی تهدیدها هشدار می‌دهد و می‌گوید:«به عنوان مثال ممکن است صندلی‌های چرخ‌دار یا اعضای مصنوعی بدن معلولان، از سوی پهپادها به اشتباه به‌عنوان یک سلاح شناسایی شوند که این امر خطر را برای غیرنظامیان در محیط‌های پرتنش دوچندان می‌کند. علاوه بر این، پهپادها و سامانه‌های هوش مصنوعی بویژه در محیط‌های پیچیده، مستعد خطا هستند و البته پاسخگو و مشخص کردن مسئولیت اقدامات این ماشین‌های کشنده هم چندان راحت نیست.»

یک کارزار برای پاسخگویی
با توجه به نگرانی‌های ایجاد شده، «نیکول فان روین»، یکی از اعضای کمیته بین‌المللی صلیب سرخ، پروژه‌ای به نام «روبات‌های قاتل را متوقف کنید»، راه‌اندازی کرده است. وی به عنوان مدیر اجرایی این پروژه، پرسشی اساسی مطرح می‌کند: «چه کسی پاسخگو است؟ سازنده؟ یا کسی که الگوریتم را برنامه‌نویسی کرده است؟» از نگاه وی، بدون وجود چهارچوب‌های حقوقی روشن، تعیین مسئولیت جنایات جنگی که با استفاده از سامانه‌های خودران انجام می‌شوند، با ابهام زیادی روبه‌رو خواهد بود. جنگ‌های دیجیتالی که در آن ماشین‌ها تصمیم می‌گیرند چه کسی زنده بماند و چه کسی بمیرد، حقوق بشر را بشدت تحت تأثیر قرار داده است. در چنین جنگ‌هایی، «کدها» جای وجدان را می‌گیرند و ماشین‌ها بر اساس «درخت تصمیم» عمل می‌کنند، نه همدلی. این تمایز، پیامدهای عمیقی در نبردهای شهری یا مناطق متراکم غیرنظامی دارد و باید برای آن فکری کرد. (درخت تصمیم (Decision Tree) تکنیکی است که در مهارت‌های داده‌کاوی، کاربرد بسیار دارد و وقتی حجم داده‌ها بسیار بالا باشد، این تکنیک می‌تواند به کمک شما بیاید.) در این پروژه، عنوان شده است که قانونگذاری برای سلاح‌های «غیرانسانی دیجیتال» به عنوان مسأله‌ای حیاتی، نیازمند بررسی دقیق و هماهنگی میان دولت‌، سازمان‌ها و کارشناسان است و باید احتمال آسیب گسترده به غیرنظامیان در جنگ‌های دیجیتالی، به ‌طور جدی مورد توجه قرار گیرد.

صفحات
آرشیو تاریخی
شماره هشت هزار و هفتصد و هفتاد و نه
 - شماره هشت هزار و هفتصد و هفتاد و نه - ۱۲ تیر ۱۴۰۴