مراقب هوش مصنوعی خطاکار باشید
آرزوکیهان
خبرنگار
تصور عمومی این است که هوش مصنوعی(AI) بدون امکان یا حداقل خطا، زندگی ما را آسان خواهد کرد، اما توهمات و انحراف از واقعیت این فناوری، بسیاری از کاربران و فعالان این حوزه را نگران کرده است. آخرین دادهها نشان میدهد مدلهای استدلالی جدید در چتباتها با نرخ خطای بالایی مواجهند که از آن به عنوان توهم هوش مصنوعی یاد میشود. بررسی چت جیپیتی از کمپانی اوپنایآی از نرخ خطای ۳۳ تا 48 درصدی مدلهای o3 و o4-mini این شرکت نشان دارد که در آوریل ۲۰۲۵ عرضه شده است. این رقم برای مدل قدیمیتر یعنی o1 که در دسامبر ۲۰۲۴عرضه شد، تنها ۱۶درصد بود. هوش مصنوعی
DeepSeek-R1 نیز با افزایش ۱۴.۳درصدی این توهم و خطا مواجه شده است.
توهم هوش مصنوعی چیست؟
توهم هوش مصنوعی به چه خطاهایی اشاره دارد و چرا رو به افزایش است؟ ارائه اطلاعات نادرست همچون تاریخهای اشتباه، پاسخهای صحیح اما نامربوط به سؤال و پیروی نکردن از دستورات کاربر که به نظر میرسد روزانه در حال افزایش است، از مصادیق توهم هوش مصنوعی به شمار میرود.
به گفته محققان علوم کامپیوتر، پیچیدگی ذاتی مدلهای زبانی میتواند یکی از علل افزایش توهم و خطای هوش مصنوعی باشد چراکه این سیستمها بر اساس درک واقعی کار نمیکنند و الگوهای آماری، نقشی ویژه در این زمینه ایفا میکنند. از دلایل دیگر، تنوع منابع داده در هوش مصنوعی است. مدلهای جدید با حجم بیشتری از دادهها مواجهند که به درستی کنترل نشده و به شکل صحیح آموزش داده نشدهاند. به عنوان مثال ماه گذشته، یک روبات هوش مصنوعی که پشتیبانی فنی Cursor، ابزاری نوظهور برای برنامهنویسان کامپیوتر را برعهده دارد، در یک پیام غلط به چندین مشتری، اعلام کرد که دیگر مجاز به استفاده از Cursor در بیش از یک کامپیوتر نیستند. مشتریان هم در واکنش به این پیام، برخی حسابهای Cursor خود را مسدود کردند. درنهایت هم «مایکل تروئل»، از بنیانگذاران این شرکت در ردیت نوشت: «ما چنین سیاستی نداریم. این پاسخ نادرست از یک روبات پشتیبانی هوش مصنوعی بوده است.»
افزایش پیچیدگی مدلهای جدیدتر هوش مصنوعی
جدیدترین مدلهای «استدلال» اوپن ایآی و دیپ سیک که برای تجزیه گام به گام مسائل پیچیده طراحی شدهاند، بیش از قبل دچار توهم میشوند و ادامه این روند میتواند دردسرساز شود. با توجه به افزایش پیچیدگی مدلهای جدیدتر هوش مصنوعی و مدیریت دادههای بیشتر، کنترل یا پیشبینی رفتار آنها دشوارتر میشود. به علاوه، حتی سازندگان هوش مصنوعی اعتراف میکنند که نمیدانند چگونه و چرا این سیستمها اشتباهات خاصی مرتکب میشوند. مشکلات کیفیت دادهها نیز موضوع را بغرنجتر میکند. اگر دادههای آموزشی به صورت ناقص یا نادرست ارائه شوند، احتمال خطا و توهم هوش مصنوعی بیشتر میشود. گاهی نیز همان خلاقیتی که به هوش مصنوعی اجازه میدهد ایدههای جدید تولید کند، منجر به خروجیهای عجیب یا نادرست میشود. اینها تنها بخشی از دلایل بروز اشتباه یا توهم و خطا در پاسخهای هوش مصنوعی هستند.با ادغام بیشتر هوش مصنوعی در همه چیز، از کارهای حقوقی گرفته تا مراقبتهای بهداشتی، این خطاها میتوانند عواقب جدی در دنیای واقعی داشته باشند. به عنوان مثال توصیههای پزشکی نادرست میتواند خطرناک یا حتی کشنده باشد. همچنین ارائه اطلاعات و تحلیلهای نادرست به کسب و کارها منجر به اشتباهات پرهزینه برای سرمایهگذاران میشود.
یک مقابله جدی
با وجود همه این مشکلات، راهکارهایی برای مقابله با توهمات احتمالی هوش مصنوعی وجود دارد. کاربران باید در تصمیمات مهم، چندین بار موضوع را از منابع رسمی و مطمئن بررسی کنند چراکه اعتماد کورکورانه به خروجی هوش مصنوعی، دردسرساز میشود. همچنین بهتر است آگاهانه رفتار کنید و بهروزرسانی اطلاعات شرکتها و محققان هوش مصنوعی را دنبال کنید تا از بهترین راهکار جستوجو با مدلهای هوش مصنوعی مطمئن شوید.