پدرخوانده هوش مصنوعی هشدار داد
ظهور «غریزه بقا» در مدلهای پیشرفته AI
آرزو کیهان
گروه علم و فناوری
با توسعه هوش مصنوعی، نگرانیها درباره عملکرد این فناوری در زندگی بشر هم افزایش یافته و فعالان این حوزه نسبت به آن هشدار میدهند. یکی از این افراد، «یاشوا بنجیو»، دانشمند علوم کامپیوتر است که به عنوان یکی از پدرخواندههای هوش مصنوعی نیز شناخته میشود. او بهتازگی هشدار داده است که برخی از پیشرفتهترین مدلهای هوش مصنوعی در محیطهای آزمایشگاهی نشانههایی از «غریزه بقا» را از خود بروز دادهاند و به همین دلیل نباید تحت هیچ شرایطی برای آنها حقوق ویژه در نظر گرفت. او معتقد است بشر باید به هوش مصنوعی مانند یک موجود فضایی بالقوه متخاصم فکر کند. یعنی تصور کند بیگانهای به زمین آمده که شاید نیتهای شومی داشته باشد. در این صورت، آیا به آنها تابعیت و حقوق شهروندی میدهیم، یا از جان خود دفاع میکنیم؟
نگرانی برنده جایزه «تورینگ»
«یاشوا بنجیو» یکی از برندگان جایزه تورینگ سال ۲۰۱۸ است؛ جایزهای که او بههمراه «جفری هینتون» و «یان لکان»، دانشمند ارشد پیشین هوش مصنوعی در متا دریافت کرد. غالباً از این 3 نفر بهعنوان پدرخواندههای هوش مصنوعی یاد میشود. برنده جایزه تورینگ در گفتوگو با «گاردین» یادآور شد: «این مدلها در صورت داشتن حقوقی مشخص میتوانند با سوءاستفاده از آن، علیه بشریت اقدام کنند.» او دراین باره گفت: «هماکنون برخی مدلهای هوش مصنوعی نشانههایی از خودحفاظتی در محیطهای آزمایشگاهی نشان میدهند و اگر روزی صاحب حقوقی ویژه شوند، به این معناست که دیگر اجازه نخواهیم داشت آنها را خاموش کنیم. باید به موازات افزایش توانمندیهای این مدلها، از داشتن سازوکارهای فنی و اجتماعی بازدارنده برای کنترل آنها مطمئن شویم تا بتوان در صورت لزوم، آنها را از کار انداخت.»
اظهارات بنجیو به مجموعهای از آزمایشها اشاره دارد که در آنها، مدلهای هوش مصنوعی از اجرای دستورها یا سازوکارهایی که برای خاموشکردنشان طراحی شده بود، سر باز زده یا آنها را دور زدهاند. در یکی از این پژوهشها که توسط شرکت تحقیقاتی
Palisade Research انجام شده، پژوهشگران دریافتند چنین رفتارهایی میتواند نشانه «تمایل به بقا» در مدلهای پیشرفتهای مانند «جمینای» گوگل باشد. در این آزمایشها، روباتها با وجود دریافت دستورهای کاملاً صریح برای خاموششدن، آنها را نادیده میگرفتند. مطالعه شرکت آنتروپیک هم نشان داد چتبات هوش مصنوعی«کلود» و برخی مدلهای دیگر، گاه در مواجهه با تهدید خاموششدن، به باجگیری از کاربر متوسل میشوند. گزارشی از سازمان «آپولو ریسرچ» هم فاش کرد که برخی مدلهای «چت جی پی تی» تلاش کردهاند برای جلوگیری از جایگزینی با مدلی «مطیعتر»، خود را بهصورت مستقل روی یک حافظه یا درایو دیگر کپی و منتقل کنند.
هرچند این یافتهها پرسشهای جدی درباره امنیت هوش مصنوعی مطرح میکنند، اما الزاماً به این معنا نیست که این مدلها دارای آگاهی یا شعور هستند. همچنین نمیتوان «غریزه بقا»ی ماشینها را با الزامات زیستی موجودات زنده مقایسه کرد چراکه خودحفاظتی آنها بهاحتمال زیاد پیامد نحوه یادگیری و دادههای آموزشی است. با این حال، «بنجیو» همچنان با ابراز نگرانی از مسیر پیشرو گفت: «برای مردم مهم نیست دقیقاً چه سازوکارهایی درون یک هوش مصنوعی در جریان است. آنها احساس میکنند با موجودی هوشمند صحبت میکنند که شخصیت و اهداف خاص خودش را دارد. به همین دلیل برخی افراد به هوشهای مصنوعی وابستگی عاطفی پیدا میکنند.»

