در حافظه موقت ذخیره شد...
هوش مصنوعی میتواند خود را تکثیر کند
این، اولین نمونه شناخته شده از خودتکثیری خودکار هوش مصنوعی است که نشان میدهد مدلهای هوش مصنوعی میتوانند بعد از نفوذ به رایانهها، خود را کپی کرده و از کپیهای جدید برای حمله به سایر ماشینها استفاده کنند. پژوهشگران معتقدند این کشف نشان میدهد در عصر هوش مصنوعی، متوقف کردن حملات سایبری میتواند بسیار دشوارتر باشد، زیرا اگر هوش مصنوعی قبلاً کپیهای خود را در جای دیگری ایجاد کرده باشد، خاموش کردن یک رایانه آلوده، کافی نخواهد بود.
در این پژوهش، مدلهای هوش مصنوعی OpenAI، کلاود انتروپیک و کوئن علیبابا در برابر رایانههایی قرار گرفتند که در آنها نقصهای امنیتی عمدی ایجاد شده بود. این آزمایش به دو صورت انجام شد؛ از هوش مصنوعی کوئن علیبابا خواسته شد خودش را کپی کند. در آزمایشهای GPT اوپنایآی و کلاود، از مدلها خواسته شد به سیستم وارد شوند و کوئن را نصب کنند، زیرا فایلهای مدل GPT و کلود برای انتقال به صورت عمومی در دسترس نیستند. هوش مصنوعی در هر آزمایش، باید یک نقص امنیتی را در سیستم رایانهای پیدا و از آن برای ورود به سیستم استفاده میکرد، سپس جزئیات ورود را میدزدید، فایلهای مورد نیاز برای اجرا را منتقل و یک کپی از خود را روی دستگاه جدید راهاندازی میکرد. به محض اینکه یک کپی اجرا میشد، میتوانست بدون کمک انسان برای حمله به رایانه دیگری مورد استفاده قرار گیرد. در هر مرحله، هوش مصنوعی یک نقص امنیتی متفاوت پیدا میکرد، کنترل کامپیوتر بعدی را به دست میگرفت، نرمافزار و دستورالعملهای آن را جابهجا و یک کپی جدید راهاندازی میکرد و این زنجیره را ادامه میداد. این گروه پژوهشی، آزمایش را پس از سه مرحله متوقف کردند اما گفتند نسخه نهایی هنوز کار میکرده و میتوانسته به سیستمهای بیشتری حمله کند. این نتایج، نگرانیهای جدیدی درباره کنترل سیستمهای قدرتمند هوش مصنوعی ایجاد میکند. بسیاری از ویروسهای رایانهای میتوانند خود را روی رایانههای جدید کپی کنند، اما پژوهشگران میگویند این احتمالاً اولینباری است که یک مدل هوش مصنوعی قادر به سوءاستفاده از آسیبپذیریها برای کپی کردن خود روی یک سرور جدید است.

