چالش جعل خبر؛ آزمونی تازه برای اعتماد عمومی

حیدر ربیعی
استاد دانشگاه تهران و فعال
در حوزه فناوری هوش مصنوعی

رشد شتابان فناوری هوش مصنوعی، در کنار فرصت‌های گسترده‌ای که برای توسعه رسانه، آموزش و ارتباطات فراهم کرده است، چالشی جدی و نوظهور را نیز پیش روی جامعه و نظام اطلاع‌رسانی قرار داده است: جعل خبر به شکلی سریع، ارزان و باورپذیر. امروز دیگر جعل خبر صرفاً به تحریف تیتر یا دستکاری یک تصویر محدود نمی‌شود، بلکه با استفاده از ابزارهای هوشمند، می‌توان متون خبری، تصاویر، صدا و حتی ویدیوهایی تولید کرد که تشخیص آنها از محتوای واقعی برای بسیاری از مخاطبان دشوار است. هوش مصنوعی مولد بویژه در حوزه تولید متن و تصویر، امکان بازتولید سبک رسانه‌های معتبر، لحن رسمی خبرنگاران و حتی شبیه‌سازی گفتار افراد شناخته شده را فراهم کرده است.
 این قابلیت‌ها اگرچه در ذات خود خنثی هستند، اما در نبود چهارچوب‌های اخلاقی و نظارتی، می‌توانند به ابزاری برای انتشار اخبار جعلی، تخریب اعتبار افراد و نهادها و ایجاد بی‌اعتمادی عمومی تبدیل شوند.
خطر اصلی جعل خبر با هوش مصنوعی، نه فقط در گمراه کردن افکار عمومی، بلکه در فرسایش تدریجی مفهوم «حقیقت» در فضای رسانه‌ای است. زمانی که مخاطب احساس کند هر خبر، تصویر یا ویدیو می‌تواند ساختگی باشد، اعتماد خود را نه تنها به رسانه‌های غیررسمی، بلکه به منابع معتبر نیز از دست می‌دهد. این وضعیت می‌تواند به بی‌تفاوتی اجتماعی، شایعه پذیری گسترده و تضعیف سرمایه اجتماعی منجر شود؛ پدیده‌ای که پیامدهای آن فراتر از حوزه رسانه و به عرصه سیاست، اقتصاد و امنیت اجتماعی تسری می‌یابد.
در این میان، مسئولیت رسانه‌های حرفه‌ای بیش از پیش سنگین‌تر شده است. روزنامه نگاری مبتنی بر راستی آزمایی، شفافیت در منابع خبری و توضیح فرآیند تولید خبر، می‌تواند نقش مهمی در بازسازی اعتماد عمومی ایفا کند. همچنین آموزش سواد رسانه‌ای به مخاطبان، بویژه در مواجهه با محتوای تولید شده توسط هوش مصنوعی، ضرورتی انکار ناپذیر است. جامعه‌ای که بتواند با نگاه انتقادی خبر را ارزیابی کند، کمتر در دام جعل و تحریف گرفتار می‌شود.
در سطح کلان‌تر، تدوین مقررات حقوقی و اخلاقی متناسب با تحولات هوش مصنوعی، امری اجتناب ناپذیر است. این مقررات باید با حمایت از نوآوری و استفاده مشروع از فناوری، مرزهای مسئولیت پذیری را برای تولیدکنندگان و منتشرکنندگان محتوا مشخص کند. الزام به برچسب‌گذاری محتوای تولید شده توسط هوش مصنوعی و پیش‌بینی ضمانت‌های اجرایی برای سوء‌استفاده‌های رسانه‌ای، می‌تواند گامی مؤثر در این مسیر باشد. هوش مصنوعی همان‌قدر که می‌تواند یاری رسان حقیقت باشد، قادر است به ابزاری برای تحریف آن نیز تبدیل شود. آینده اعتماد عمومی در گرو آن است که رسانه‌ها، قانونگذاران و شهروندان، همزمان و آگاهانه، با این چالش نوظهور مواجه شوند و اجازه ندهند فناوری، جایگزین مسئولیت اخلاقی در عرصه خبررسانی شود.