هوش مصنوعی هیروشیمایی نشود!
امیر خدادادهمدانی
حقوقدان فناوریهای نوین
این گزاره را تصور کنید که توسعهدهندگان قصد دارند به هوش مصنوعی استقلال تصمیمگیری برای کشتن اهداف انسانی بدهند! و «روباتهای قاتل» پیشرفت نگرانکنندهای را تجربه کنند و از این پس میدان نبرد، مرگ و زندگی انسانها، در اختیار هوش مصنوعی باشد. جالب اینکه دانشگاه استنفورد در کالیفرنیا امسال در پژوهش فناوری خود به این نتیجه رسیده که «تصمیمات اتخاذ شده توسط هوش مصنوعی میتواند فاجعهای به اندازه یک جنگ هستهای همهجانبه در قرن جاری ایجاد کند.»
گرچه با این استدلال، تنظیمگری سختگیرانه برای هوش مصنوعی، با رویکرد تقویت رشد اقتصادی کشورها تناسبی ندارد اما تعیین چهارچوبهای توسعه AI مورد توجه است تا از وحشت یک حمله هستهای دیگر مانند هیروشیما، جهان درامان باشد و به قول «هنری کیسینجر» سیاستمدار کهنه کار امریکایی که در تألیف کتاب «هوش مصنوعی و آینده انسان» هم نقش دارد، «هوش مصنوعی در طی پنج سال به یک عنصر کلیدی در امنیت تبدیل خواهد شد و توان تخریب آن با اختراع چاپ قابل مقایسه است، چراکه ایدههایی را گسترش میدهد که در ایجاد جنگهای ویرانگر قرنهای ۱۶ و ۱۷ نقش داشتند.» وزیر خارجه اسبق ایالات متحده، نسبت به تکرار حادثه هیروشیما هشدار میدهد و تأکید دارد:«ما در ابتدای مسیری هستیم که ماشینها میتوانند بیماریهای کشنده و یا پاندمی به جهان تحمیل کنند. نه فقط خطر ناشی از بمب هستهای که هرگونه کشتار دستهجمعی میتواند از ناحیه این ماشینها ایجاد شود.»
جالب اینکه برخی از اعضای جامعه ملل که بانیان جنگهای اتمی بودهاند اما اکنون در گروه «جی۷» برای فرار از خطرات هوش مصنوعی، با منشور رفتاری برای شرکتهای توسعهدهنده سیستمهای هوش مصنوعی پیشرفته، موافقت کردهاند که بسیاری از کارشناسان، دلیل آن را اهتمام این دولتها به کاهش خطرات و سوءاستفاده احتمالی از این فناوری میدانند.
گرچه رهبران گروه هفت متشکل از کشورهای کانادا، فرانسه، آلمان، ایتالیا، ژاپن، بریتانیا، ایالات متحده و اتحادیه اروپا، این روند را در ماه مه سال جاری تحت برنامهای موسوم به فرایند هوش مصنوعی هیروشیما آغاز کردند، اما در روزهای اخیر رویترز گزارش داد که در یک سند ۲۰ صفحهای، شرکتهای طراحی و استفاده از هوش مصنوعی ملزم شدهاند که مشتریان و عموم مردم را در برابر سوءاستفاده ایمن کنند و این توافق که مورد موافقت ۱۸ کشور قرار گرفته است، جدیدترین ابتکار و تلاش دولتهای سراسر جهان برای نفوذ بیشتر بر توسعه بینالمللی هوش مصنوعی است.
تحلیلگران این فرایند معتقدند که گسترش سریع چت «جیپیتی» که ساخته شرکت «OpenAI» است، وحشت از خطرات جنگهای اتمی را به جامعه جهانی بازگردانده و از اردیبهشت امسال به صورت جدی سران کشورها را هم مشغول به خود کرده است و این جمله ایلان ماسک که «ما باید در خصوص هوش مصنوعی بسیار محتاط باشیم؛ آنها ممکن است از سلاح هستهای هم خطرناکتر باشند»، موجب شد تا سران گروه ۷ برای تعیین مقررات شناسایی، ارزیابی و کاهش خطرات در کل چرخه فعالیت هوش مصنوعی اقدام و همچنین با رخدادها و الگوهای سوءاستفاده پس از ورود محصولات هوش مصنوعی به بازار برخورد کنند.
البته در ۱۸ جولای ۲۰۲۳، «آنتونیو گوترش» دبیرکل سازمان ملل این مهم را متذکر شده است که تأسیس یک نهاد مرجع بینالمللی، یعنی آژانس بینالمللی هوش مصنوعی میتواند با تدوین موازین، کشف و ارائه راهکارهای فنی و همچنین تجمیع فعالیتهای ملل متحد در حوزه هوش مصنوعی، نقشی بسیار مهم و حیاتی برای بشریت ایفا کند.
سرانجام اینکه، جهان برای کنترل وجه خطرناک توسعه هوش مصنوعی دست به کار شده و برای جلوگیری از تکرار واقعه هیروشیما و البته این بار با هدف پیشگیری از آسیبهای فناوری میخواهد تنظیمگری کند، اما صد حیف که سرعت پیشرفت دانش، از مقرراتگذاری بیشتر است.