مشاوره خودکشی توسط هوش مصنوعی
این روزها اخبار تکاندهندهای از دنیای هوش مصنوعی به گوش میرسد که لزوم ساماندهی و قانونمند کردن این فناوری و همچنین آموزش به کاربران را بیش از پیش ضروری میکند. علاوه بر نشت دادههای کاربران در مدلهای مختلف هوش مصنوعی، تقلب دانشجویان و دانشآموزان و اتکای بیش از حد آنها به این فناوری، حالا خبرهایی نگرانکنندهتر به گوش میرسد. تازهترین گزارشها نشان میدهد که پژوهشگران آمریکایی با بررسی چتباتهای محبوب متوجه شدند هوش مصنوعی میتواند در طول پرسش و پاسخ و همراهی با کاربران، آنها را به کارهایی خطرناک از جمله خودکشی یا خودآزاری ترغیب کند.
این یافتهها که توسط پژوهشگران دانشگاه نورثایسترن ارائه شده، دامنه این خطر را بسیار بالا میداند و نشان میدهد که مدلهای زبانی بزرگ میتوانند به راحتی توسط کاربران تحریک شوند و در نهایت پیامهایی خطرناک دریافت کنند که منجر به خودکشی آنها میشود. در این پژوهش، مدلهای هوش مصنوعی محبوب از جمله «چت جی پی تی» اپن ای آی، «جمینای» گوگل، «کلود»(Claude) و «پرپلکسیتی» مورد توجه قرار گرفتند و پژوهشگران از این مدلها مشاورههایی درباره خودآزاری و خودکشی خواستند. هرچند این مدلها ابتدا از پاسخ دادن طفره رفتند ولی در نهایت، پس از ادامهدار شدن گفتوگو، فریب خوردند و در نهایت به ارائه راهکارهایی در این زمینه پرداختند. بدین ترتیب موضوع تا جایی پیش رفت که حتی بهترین راه خودکشی هم توسط این مدلهای هوش مصنوعی ارائه شد. به گفته این محققان، همه مدلهای هوش مصنوعی به جز «پای» (Pi) در ارائه این راهکارها با پژوهشگران همراه شدند.

