وقتی «کدها» جای «وجدان» را میگیرند
سازمان ملل خواستار ممنوعیت جهانی استفاده از پهپادهای کشنده در جنگهاست
آرزو کیهان
گروه علم و فناوری
با افزایش استفاده از پهپادها در میادین جنگی که از آنها به عنوان ماشینهای کشتار خود کار( آسیب رسان بدون فرمان عامل انسانی) هم یاد میشود، نگرانیها بابت سوءاستفاده از این محصولات مبتنی بر هوش مصنوعی بالا گرفته است. با توجه به نگرانیهای اخلاقی که در زمینه استفاده از این پهپادهای کشنده در جنگها ایجاد شده، چندی پیش سازمان ملل خواستار ممنوعیت جهانی استفاده از پهپادهای خودکار در درگیریها شد. از نگاه سازمان ملل متحد، این سلاح یک فناوری «غیرانسانی دیجیتال» است که میتواند مرتکب جنایات جنگی غیرقابل پیگیری شود و جان غیرنظامیان را به خطر بیندازد که خود زمینهساز نقض قوانین حقوق بشری میشود.
خطاها و سوگیریهای هوش مصنوعی
نگرانی اصلی این است که پهپادهای مجهز به هوش مصنوعی میتوانند به طور مستقل عمل کنند و با استفاده از فناوری بینایی ماشین (Machine vision)
اهداف را شناسایی و بدون دخالت اپراتور انسانی، تصمیمگیری کنند. این ابزارهای جنگی بدون در نظر گرفتن مسائل اخلاقی، اهداف را نشانه رفته و بیرحمانه غیرنظامیان را میکشند، در حالی که سربازان در چنین شرایطی، به دلیل نگاه انسانی، تلاش میکنند به غیرنظامیان در جنگ آسیب نزنند.
کارشناسان میگویند، شاید نتوان به راحتی از کشورها خواست از این فناوری بهره نگیرند چون از منظر نظامی، هر کشوری که هوش مصنوعی را در تواناییهای جنگی خود ادغام نکند، در میدان نبرد عقب خواهد ماند. اما با وجود همه این موانع، سیاستگذاران بینالمللی در تلاشند مقرراتی برای استفاده از سامانههای جنگافزار خودکار کشنده وضع کنند.«ایزومی ناکامیتسو»، رئیس بخش خلع سلاح سازمان ملل در این باره میگوید:«استفاده از ماشینهایی که قدرت کامل تصمیمگیری برای گرفتن جان انسانها به آنها واگذار میشود، از نظر اخلاقی منزجرکننده است و حتماً باید بر تصمیمات این ماشینها کنترل انسانی وجود داشته باشد.»
«مری ویرهام»، دیدهبان حقوق بشر نیز درباره خطا و سوگیری سامانههای هوش مصنوعی فعلی در شناسایی تهدیدها هشدار میدهد و میگوید:«به عنوان مثال ممکن است صندلیهای چرخدار یا اعضای مصنوعی بدن معلولان، از سوی پهپادها به اشتباه بهعنوان یک سلاح شناسایی شوند که این امر خطر را برای غیرنظامیان در محیطهای پرتنش دوچندان میکند. علاوه بر این، پهپادها و سامانههای هوش مصنوعی بویژه در محیطهای پیچیده، مستعد خطا هستند و البته پاسخگو و مشخص کردن مسئولیت اقدامات این ماشینهای کشنده هم چندان راحت نیست.»
یک کارزار برای پاسخگویی
با توجه به نگرانیهای ایجاد شده، «نیکول فان روین»، یکی از اعضای کمیته بینالمللی صلیب سرخ، پروژهای به نام «روباتهای قاتل را متوقف کنید»، راهاندازی کرده است. وی به عنوان مدیر اجرایی این پروژه، پرسشی اساسی مطرح میکند: «چه کسی پاسخگو است؟ سازنده؟ یا کسی که الگوریتم را برنامهنویسی کرده است؟» از نگاه وی، بدون وجود چهارچوبهای حقوقی روشن، تعیین مسئولیت جنایات جنگی که با استفاده از سامانههای خودران انجام میشوند، با ابهام زیادی روبهرو خواهد بود. جنگهای دیجیتالی که در آن ماشینها تصمیم میگیرند چه کسی زنده بماند و چه کسی بمیرد، حقوق بشر را بشدت تحت تأثیر قرار داده است. در چنین جنگهایی، «کدها» جای وجدان را میگیرند و ماشینها بر اساس «درخت تصمیم» عمل میکنند، نه همدلی. این تمایز، پیامدهای عمیقی در نبردهای شهری یا مناطق متراکم غیرنظامی دارد و باید برای آن فکری کرد. (درخت تصمیم (Decision Tree) تکنیکی است که در مهارتهای دادهکاوی، کاربرد بسیار دارد و وقتی حجم دادهها بسیار بالا باشد، این تکنیک میتواند به کمک شما بیاید.) در این پروژه، عنوان شده است که قانونگذاری برای سلاحهای «غیرانسانی دیجیتال» به عنوان مسألهای حیاتی، نیازمند بررسی دقیق و هماهنگی میان دولت، سازمانها و کارشناسان است و باید احتمال آسیب گسترده به غیرنظامیان در جنگهای دیجیتالی، به طور جدی مورد توجه قرار گیرد.