پدرخوانده هوش مصنوعی هشدار داد

ظهور «غریزه بقا» در مدل‌های پیشرفته AI

آرزو کیهان
گروه علم و فناوری


با توسعه هوش مصنوعی، نگرانی‌ها درباره عملکرد این فناوری در زندگی بشر هم افزایش یافته و فعالان این حوزه نسبت به آن هشدار می‌دهند. یکی از این افراد، «یاشوا بنجیو»، دانشمند علوم کامپیوتر است که به عنوان یکی از پدرخوانده‌های هوش مصنوعی نیز شناخته می‌شود. او به‌تازگی هشدار داده است که برخی از پیشرفته‌ترین مدل‌های هوش مصنوعی در محیط‌های آزمایشگاهی نشانه‌هایی از «غریزه بقا» را از خود بروز داده‌اند و به همین دلیل نباید تحت هیچ شرایطی برای آنها حقوق ویژه در نظر گرفت. او معتقد است بشر باید به هوش مصنوعی مانند یک موجود فضایی بالقوه متخاصم فکر کند. یعنی تصور کند بیگانه‌ای به زمین آمده که شاید نیت‌های شومی داشته باشد. در این صورت، آیا به آنها تابعیت و حقوق شهروندی می‌دهیم، یا از جان خود دفاع می‌کنیم؟

نگرانی برنده جایزه «تورینگ»
«یاشوا بنجیو» یکی از برندگان جایزه تورینگ سال ۲۰۱۸ است؛ جایزه‌ای که او به‌همراه «جفری هینتون» و «یان لکان»، دانشمند ارشد پیشین هوش مصنوعی در متا دریافت کرد. غالباً از این 3 نفر به‌عنوان پدرخوانده‌های هوش مصنوعی یاد می‌شود. برنده جایزه تورینگ در گفت‌و‌گو با «گاردین» یادآور شد: «این مدل‌ها در صورت داشتن حقوقی مشخص می‌توانند با سوء‌استفاده از آن، علیه بشریت اقدام کنند.» او دراین باره گفت: «هم‌اکنون برخی مدل‌های هوش مصنوعی نشانه‌هایی از خودحفاظتی در محیط‌های آزمایشگاهی نشان می‌دهند و اگر روزی صاحب حقوقی ویژه شوند، به این معناست که دیگر اجازه نخواهیم داشت آنها را خاموش کنیم. باید به موازات افزایش توانمندی‌های این مدل‌ها، از داشتن سازوکارهای فنی و اجتماعی بازدارنده‌ برای کنترل آنها مطمئن شویم تا بتوان در صورت لزوم، آنها را از کار انداخت.»
اظهارات بنجیو به مجموعه‌ای از آزمایش‌ها اشاره دارد که در آن‌ها، مدل‌های هوش مصنوعی از اجرای دستورها یا سازوکارهایی که برای خاموش‌کردنشان طراحی شده بود، سر باز زده یا آنها را دور زده‌اند. در یکی از این پژوهش‌ها که توسط شرکت تحقیقاتی
Palisade Research انجام شده، پژوهشگران دریافتند چنین رفتارهایی می‌تواند نشانه‌ «تمایل به بقا» در مدل‌های پیشرفته‌ای مانند «جمینای» گوگل باشد. در این آزمایش‌ها، روبات‌ها با وجود دریافت دستورهای کاملاً صریح برای خاموش‌شدن، آنها را نادیده می‌گرفتند. مطالعه‌ شرکت آنتروپیک هم نشان داد چت‌بات هوش مصنوعی«کلود» و برخی مدل‌های دیگر، گاه در مواجهه با تهدید خاموش‌شدن، به باج‌گیری از کاربر متوسل می‌شوند. گزارشی از سازمان «آپولو ریسرچ» هم فاش کرد که برخی مدل‌های «چت جی پی تی» تلاش کرده‌اند برای جلوگیری از جایگزینی با مدلی «مطیع‌تر»، خود را به‌صورت مستقل روی یک حافظه یا درایو دیگر کپی و منتقل کنند.
هرچند این یافته‌ها پرسش‌های جدی درباره امنیت هوش مصنوعی مطرح می‌کنند، اما الزاماً به این معنا نیست که این مدل‌ها دارای آگاهی یا شعور هستند. همچنین نمی‌توان «غریزه بقا»ی ماشین‌ها را با الزامات زیستی موجودات زنده مقایسه کرد چراکه خودحفاظتی آنها به‌احتمال زیاد پیامد نحوه یادگیری و داده‌های آموزشی است. با این حال، «بنجیو» همچنان با ابراز نگرانی از مسیر پیش‌رو گفت: «برای مردم مهم نیست دقیقاً چه سازوکارهایی درون یک هوش مصنوعی در جریان است. آنها احساس می‌کنند با موجودی هوشمند صحبت می‌کنند که شخصیت و اهداف خاص خودش را دارد. به همین دلیل برخی افراد به هوش‌های مصنوعی وابستگی عاطفی پیدا می‌کنند.»