نامه سرگشاده نخبگان فناوری دنیا

هوش مصنوعی را متوقف کنید

هزار و 100 نفر از نخبگان حوزه فناوری دنیا در نامه‌ای سرگشاده نگرانی خود را از قدرت گرفتن خارج از کنترل هوش مصنوعی اعلام کردند.
حتماً ‌این روزها به کرات به ‌این جمله برخورده‌اید که از هوش مصنوعی خواستیم....
هوش مصنوعی که در ابتدا برای کمک به انسان و به دست گرفتن برخی امور ساخته شد، ‌این روزها در حال تصرف تما‌‌می ‌ابعاد زندگی آد‌‌می ‌است تا جایی که نه تنها دستیار انسان در ‌‌اندیشیدن، تصمیم‌گیری و اجرا محسوب ‌‌می‌شود، بلکه به عنوان جایگزین او در حال به دست گرفتن تما‌‌می‌ حوزه‌ها است تا جایی که نخبگان فناوری که خود خالقان ذرات قدرت هوش مصنوعی هستند، در نامه‌ای سرگشاده خواستار توقف فعالیت آزمایشگاه‌های هوش مصنوعی و ارائه محصولی جدید در‌این رابطه شدند.
در نامه‌ای که نخبگانی از جمله استیو وزنیاک بنیانگذار اپل، ‌ایلان ماسک کالک توئیتر، ایوان شارپ مؤسس پینترست، کریس لارسن از بنیانگذاران ریپل و ژان تالین بنیانگذار اسکایپ امضا کرده‌‌اند و در سایت مؤسسه Future of Life منتشر شده، آمده است:«ما از همه آزمایشگاه‌های هوش مصنوعی می‌خواهیم که بلافاصله آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را حداقل به مدت شش ماه متوقف کنند.سیستم‌های هوش مصنوعی با هوش رقابتی انسان می‌توانند خطرات عمیقی را برای جامعه و بشریت ‌ایجاد کنند، همان‌طور که تحقیقات گسترده نشان داده است و آزمایشگاه‌های برتر هوش مصنوعی نیز تأیید کرده‌اند. همان‌طور که بیان شده هوش مصنوعی پیشرفته ‌‌می‌تواند نشان‌دهنده یک تغییر عمیق در تاریخ حیات روی زمین باشد و باید برای آن برنامه‌ریزی و با دقت و منابع متناسب مدیریت شود. متأسفانه، این سطح از برنامه‌ریزی و مدیریت اتفاق نمی‌افتد؛ در مقابل در ماه‌های اخیر آزمایشگاه‌های هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر که هیچ‌کس - حتی سازندگان آنها - نمی‌توانند آن را درک کنند، قفل شده‌اند.»

 خطر از دست دادن کنترل تمدن‌ها

در ادامه ‌این نامه با طرح سؤالی حتی کارکرد هوش مصنوعی به چالش کشیده شده و آمده است: «سیستم‌های هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقابت با انسان در وظایف عمو‌‌می ‌هستند، و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را پر از تبلیغات نادرست کنند؟ آیا باید تمام مشاغل را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت به لحاظ تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری منتخب واگذار شود. سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل مدیریت خواهد بود.‌این اطمینان باید به خوبی توجیه شود و با بزرگی اثرات بالقوه یک سیستم افزایش یابد.»
پیشنهادهایی که در نهایت ارائه شده ‌این است که «آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل باید از ‌این توقف برای توسعه و اجرای مشترک مجموعه‌ای از پروتکل‌های ‌ایمنی مشترک برای طراحی و توسعه هوش مصنوعی استفاده کنند که به‌شدت توسط کارشناسان مستقل خارجی بررسی و نظارت می‌شوند.‌این پروتکل‌ها باید اطمینان حاصل کنند که سیستم‌هایی که به آنها پایبند هستند، فراتر از یک شک منطقی، ‌ایمن هستند. ‌این به معنای توقف توسعه هوش مصنوعی به طور کلی نیست، بلکه صرفاً یک عقب‌نشینی از مسابقه خطرناک به سمت مدل‌های جعبه سیاه غیرقابل پیش‌بینی بزرگتر با قابلیت‌های نوظهور است.
تحقیق و توسعه هوش مصنوعی باید روی ساختن سیستم‌های قدرتمند و پیشرفته امروزی دقیق‌تر، ‌ایمن‌تر، قابل تفسیرتر، شفاف‌تر، قوی‌تر، همسوتر، قابل اعتمادتر و وفادارتر متمرکز شود.
به موازات آن، توسعه دهندگان هوش مصنوعی باید با سیاستگذاران برای تسریع چشمگیر توسعه سیستم‌های مدیریتی قوی هوش مصنوعی همکاری کنند.‌این موارد حداقل باید شامل موارد زیر باشد: مقامات نظارتی جدید و توانمند که به هوش مصنوعی اختصاص داده شده‌‌اند. نظارت و ردیابی سیستم‌های هوش مصنوعی بسیار توانمند و مجموعه‌های بزرگ توانایی محاسباتی؛ سیستم‌های منشأ و واترمارکینگ برای کمک به تشخیص واقعی از مصنوعی و ردیابی نشت مدل. یک اکوسیستم حسابرسی و صدور گواهینامه قوی؛ مسئولیت آسیب ناشی از هوش مصنوعی؛ بودجه عمو‌‌می‌ قوی برای تحقیقات ‌ایمنی فنی هوش مصنوعی و مؤسسات دارای منابع مناسب برای مقابله با اختلالات اقتصادی و سیاسی چشمگیر (به ویژه در دموکراسی) که هوش مصنوعی ‌ایجاد خواهد کرد.»

 

داستان اخراج کارمندی که به احساس غیرعادی هوش مصنوعی پی برد

در مقابل اعتراضاتی که در خصوص قدرت گرفتن هوش مصنوعی مطرح ‌‌می‌شود، آیا حاکمان رسانه منافع خود را در راستای ‌این خواسته ‌‌می‌دانند؟
تجربه‌ای که اخیراً شنیده شده است نشان ‌‌می‌دهد که قدرت‌گیری هوش مصنوعی تا زمانی که منافع رسانه تأمین شود، مورد استقبال و حمایت است.
بلیک لمواین، یکی از مهندسان گوگل که علناً مدعی بود هوش مصنوعی محاوره‌ای ‌این شرکت (LaMDA) خودآگاه‌ شده، در ماه‌های اخیر اخراج شد.
این کارمند ادعا کرده بود که مکالمات او با چت روبات LaMDA او را به‌این باور رساند که ‌این برنامه به چیزی فراتر از هوش مصنوعی تبدیل ‌شده و افکار و احساسات خاص خود را دارد. گوگل معتقد است که ادعاهای بلیک لمواین را به طور گسترده بررسی کرده و براساس نتایج، آنها کاملاً بی‌اساس هستند.
گوگل در بیانیه‌ای به اتهامات لمواین مبنی بر‌اینکه‌ این شرکت به درستی ادعاهای او را بررسی نکرده است، چنین پاسخ داد که «همان‌طور که ما به خط مشی خود در حوزه هوش مصنوعی معتقدیم، توسعه هوش مصنوعی را بسیار جدی می‌گیریم و به نوآوری ادامه می‌دهیم LaMDA از 11 بررسی مجزا عبور کرده است و ما در یک مقاله تحقیقاتی اوایل امسال جزئیات کار را منتشر کردیم که در راستای توسعه مسئولانه آن است.
اگر کارمندی مانند بلیک نگرانی‌هایی را در مورد کار به اشتراک بگذارد، ما آن را به طور کامل بررسی می‌کنیم. ما متوجه شدیم که ادعاهای بلیک مبنی بر‌اینکه LaMDA احساس دارد، کاملاً بی‌اساس است. ما برای روشن کردن قضیه ماه‌ها روی ‌این ادعا کار کرده‌ایم.»
با وجود نوع برخورد گوگل و تلاش‌ این مجموعه برای پاسخگویی به افکار عمو‌‌می‌ همچنان نگرانی‌هایی در خصوص قدرت گرفتن غیرعادی و خارج از کنترل هوش مصنوعی وجود دارد.‌این روزها ‌این سؤال مطرح است که آیا ممکن است هوش مصنوعی حاکم بر انسان و روابط او شده و تما‌‌می ‌ابعاد زندگی وی را در اختیار تصمیمات خود بگیرد؟

 

جستجو
آرشیو تاریخی