نامه سرگشاده نخبگان فناوری دنیا
هوش مصنوعی را متوقف کنید
هزار و 100 نفر از نخبگان حوزه فناوری دنیا در نامهای سرگشاده نگرانی خود را از قدرت گرفتن خارج از کنترل هوش مصنوعی اعلام کردند.
حتماً این روزها به کرات به این جمله برخوردهاید که از هوش مصنوعی خواستیم....
هوش مصنوعی که در ابتدا برای کمک به انسان و به دست گرفتن برخی امور ساخته شد، این روزها در حال تصرف تمامی ابعاد زندگی آدمی است تا جایی که نه تنها دستیار انسان در اندیشیدن، تصمیمگیری و اجرا محسوب میشود، بلکه به عنوان جایگزین او در حال به دست گرفتن تمامی حوزهها است تا جایی که نخبگان فناوری که خود خالقان ذرات قدرت هوش مصنوعی هستند، در نامهای سرگشاده خواستار توقف فعالیت آزمایشگاههای هوش مصنوعی و ارائه محصولی جدید دراین رابطه شدند.
در نامهای که نخبگانی از جمله استیو وزنیاک بنیانگذار اپل، ایلان ماسک کالک توئیتر، ایوان شارپ مؤسس پینترست، کریس لارسن از بنیانگذاران ریپل و ژان تالین بنیانگذار اسکایپ امضا کردهاند و در سایت مؤسسه Future of Life منتشر شده، آمده است:«ما از همه آزمایشگاههای هوش مصنوعی میخواهیم که بلافاصله آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را حداقل به مدت شش ماه متوقف کنند.سیستمهای هوش مصنوعی با هوش رقابتی انسان میتوانند خطرات عمیقی را برای جامعه و بشریت ایجاد کنند، همانطور که تحقیقات گسترده نشان داده است و آزمایشگاههای برتر هوش مصنوعی نیز تأیید کردهاند. همانطور که بیان شده هوش مصنوعی پیشرفته میتواند نشاندهنده یک تغییر عمیق در تاریخ حیات روی زمین باشد و باید برای آن برنامهریزی و با دقت و منابع متناسب مدیریت شود. متأسفانه، این سطح از برنامهریزی و مدیریت اتفاق نمیافتد؛ در مقابل در ماههای اخیر آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس - حتی سازندگان آنها - نمیتوانند آن را درک کنند، قفل شدهاند.»
خطر از دست دادن کنترل تمدنها
در ادامه این نامه با طرح سؤالی حتی کارکرد هوش مصنوعی به چالش کشیده شده و آمده است: «سیستمهای هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقابت با انسان در وظایف عمومی هستند، و ما باید از خود بپرسیم: آیا باید به ماشینها اجازه دهیم کانالهای اطلاعاتی ما را پر از تبلیغات نادرست کنند؟ آیا باید تمام مشاغل را خودکار کنیم؟ آیا باید ذهنهای غیرانسانی را پرورش دهیم که ممکن است در نهایت به لحاظ تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری منتخب واگذار شود. سیستمهای هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل مدیریت خواهد بود.این اطمینان باید به خوبی توجیه شود و با بزرگی اثرات بالقوه یک سیستم افزایش یابد.»
پیشنهادهایی که در نهایت ارائه شده این است که «آزمایشگاههای هوش مصنوعی و کارشناسان مستقل باید از این توقف برای توسعه و اجرای مشترک مجموعهای از پروتکلهای ایمنی مشترک برای طراحی و توسعه هوش مصنوعی استفاده کنند که بهشدت توسط کارشناسان مستقل خارجی بررسی و نظارت میشوند.این پروتکلها باید اطمینان حاصل کنند که سیستمهایی که به آنها پایبند هستند، فراتر از یک شک منطقی، ایمن هستند. این به معنای توقف توسعه هوش مصنوعی به طور کلی نیست، بلکه صرفاً یک عقبنشینی از مسابقه خطرناک به سمت مدلهای جعبه سیاه غیرقابل پیشبینی بزرگتر با قابلیتهای نوظهور است.
تحقیق و توسعه هوش مصنوعی باید روی ساختن سیستمهای قدرتمند و پیشرفته امروزی دقیقتر، ایمنتر، قابل تفسیرتر، شفافتر، قویتر، همسوتر، قابل اعتمادتر و وفادارتر متمرکز شود.
به موازات آن، توسعه دهندگان هوش مصنوعی باید با سیاستگذاران برای تسریع چشمگیر توسعه سیستمهای مدیریتی قوی هوش مصنوعی همکاری کنند.این موارد حداقل باید شامل موارد زیر باشد: مقامات نظارتی جدید و توانمند که به هوش مصنوعی اختصاص داده شدهاند. نظارت و ردیابی سیستمهای هوش مصنوعی بسیار توانمند و مجموعههای بزرگ توانایی محاسباتی؛ سیستمهای منشأ و واترمارکینگ برای کمک به تشخیص واقعی از مصنوعی و ردیابی نشت مدل. یک اکوسیستم حسابرسی و صدور گواهینامه قوی؛ مسئولیت آسیب ناشی از هوش مصنوعی؛ بودجه عمومی قوی برای تحقیقات ایمنی فنی هوش مصنوعی و مؤسسات دارای منابع مناسب برای مقابله با اختلالات اقتصادی و سیاسی چشمگیر (به ویژه در دموکراسی) که هوش مصنوعی ایجاد خواهد کرد.»
داستان اخراج کارمندی که به احساس غیرعادی هوش مصنوعی پی برد
در مقابل اعتراضاتی که در خصوص قدرت گرفتن هوش مصنوعی مطرح میشود، آیا حاکمان رسانه منافع خود را در راستای این خواسته میدانند؟
تجربهای که اخیراً شنیده شده است نشان میدهد که قدرتگیری هوش مصنوعی تا زمانی که منافع رسانه تأمین شود، مورد استقبال و حمایت است.
بلیک لمواین، یکی از مهندسان گوگل که علناً مدعی بود هوش مصنوعی محاورهای این شرکت (LaMDA) خودآگاه شده، در ماههای اخیر اخراج شد.
این کارمند ادعا کرده بود که مکالمات او با چت روبات LaMDA او را بهاین باور رساند که این برنامه به چیزی فراتر از هوش مصنوعی تبدیل شده و افکار و احساسات خاص خود را دارد. گوگل معتقد است که ادعاهای بلیک لمواین را به طور گسترده بررسی کرده و براساس نتایج، آنها کاملاً بیاساس هستند.
گوگل در بیانیهای به اتهامات لمواین مبنی براینکه این شرکت به درستی ادعاهای او را بررسی نکرده است، چنین پاسخ داد که «همانطور که ما به خط مشی خود در حوزه هوش مصنوعی معتقدیم، توسعه هوش مصنوعی را بسیار جدی میگیریم و به نوآوری ادامه میدهیم LaMDA از 11 بررسی مجزا عبور کرده است و ما در یک مقاله تحقیقاتی اوایل امسال جزئیات کار را منتشر کردیم که در راستای توسعه مسئولانه آن است.
اگر کارمندی مانند بلیک نگرانیهایی را در مورد کار به اشتراک بگذارد، ما آن را به طور کامل بررسی میکنیم. ما متوجه شدیم که ادعاهای بلیک مبنی براینکه LaMDA احساس دارد، کاملاً بیاساس است. ما برای روشن کردن قضیه ماهها روی این ادعا کار کردهایم.»
با وجود نوع برخورد گوگل و تلاش این مجموعه برای پاسخگویی به افکار عمومی همچنان نگرانیهایی در خصوص قدرت گرفتن غیرعادی و خارج از کنترل هوش مصنوعی وجود دارد.این روزها این سؤال مطرح است که آیا ممکن است هوش مصنوعی حاکم بر انسان و روابط او شده و تمامی ابعاد زندگی وی را در اختیار تصمیمات خود بگیرد؟