نقد لانگدن وینر به ایده «بی‌طرفی هوش‌مصنوعی»

سیاست پنهان فناوری

سیاست همیشه در پارلمان و انتخابات اتفاق نمی‌افتد گاهی در طراحی یک الگوریتم پنهان می‌شود

در عصری که هوش‌مصنوعی به مهم‌ترین نماد پیشرفت تکنولوژیک تبدیل شده، یکی از رایج‌ترین گزاره‌ها این است که «فناوری ذاتاً خنثی است»؛ یعنی نه خوب است و نه بد، و این فقط انسان‌ها هستند که به آن جهت اخلاقی می‌دهند. براساس این نگاه، هوش‌مصنوعی نیز صرفاً ابزاری پیشرفته است که می‌تواند هم در خدمت رفاه انسان قرار گیرد و هم در مسیر آسیب و کنترل به کار رود. بنابراین مسأله نه خود فناوری، بلکه نحوه استفاده از آن است. اما این ایده، مورد نقد بسیاری از فلاسفه تکنولوژی از جمله لانگدن وینر واقع شده است که آن را نوعی ساده‌سازی خطرناک توصیف می‌کند. این جماعت از فلاسفه علم معتقدند فناوری‌های جدید، بویژه هوش‌مصنوعی، فقط ابزارهایی در اختیار انسان نیستند؛ آنها به‌تدریج در حال بازطراحی مناسبات قدرت، شکل دادن به تصمیم‌گیری‌های اجتماعی و حتی تعریف دوباره مفهوم اختیار و مسئولیت‌اند. مسأله این نیست که ما با هوش‌مصنوعی چه می‌کنیم، بلکه این است که هوش‌مصنوعی چگونه ما را وادار می‌کند جهان را به شکلی خاص ببینیم و در آن زندگی کنیم. لانگدن وینر، اندیشمند برجسته آمریکایی در حوزه فلسفه علم، از مهم‌ترین متفکرانی است که به‌طور جدی با ایده خنثی بودن فناوری مخالفت می‌کند و نشان می‌دهد که فناوری نه‌تنها ابزار، بلکه حامل نوعی نظم سیاسی و اجتماعی است.

پروفسور شانون والور
فیلسوف فناوری و استاد دانشگاه ادینبرو
مترجم: حمیدرضا حبیبی

فیلسوف سیاستِ فناوری
لانگدن وینر از چهره‌های مهم مطالعات علم، فناوری و جامعه (STS) و یکی از متفکران اثرگذار در فلسفه تکنولوژی معاصر است. شهرت اصلی او بیش از همه به مقاله معروفش با عنوان «آیا مصنوعات سیاست دارند؟» بازمی‌گردد؛ مقاله‌ای که به یکی از متون کلاسیک در فهم نسبت فناوری و قدرت تبدیل شده است.
وینر در برابر این تصور رایج که فناوری صرفاً مجموعه‌ای از ابزارهای بی‌طرف است، استدلال می‌کند که هر فناوری می‌تواند نوعی «نظم اجتماعی» را تثبیت کند. به بیان دیگر، اشیا و سیستم‌های فنی فقط برای انجام کار ساخته نمی‌شوند؛ آنها در دل خود نوعی رابطه قدرت، نوعی ساختار تصمیم‌گیری و حتی نوعی تصور از انسان و جامعه را حمل می‌کنند.
از نگاه او، برخی فناوری‌ها به‌گونه‌ای طراحی می‌شوند که شکل خاصی از اقتدار را تقویت کنند. برخی دیگر، حتی بدون نیت مستقیم طراحان، پیامدهایی ایجاد می‌کنند که به تمرکز قدرت، حذف مشارکت عمومی یا بازتولید نابرابری منجر می‌شود. بنابراین پرسش اصلی این نیست که فناوری خوب است یا بد، بلکه این است که هر فناوری چه نوع جامعه‌ای را ممکن می‌کند.

هوش مصنوعی؛ فناوری
 با دستور کار سیاسی
اگر با نگاه وینر به هوش مصنوعی بنگریم، دیگر نمی‌توان آن را صرفاً یک ابزار محاسباتی پیشرفته دانست. هوش مصنوعی نوعی «معماری قدرت» است؛ سیستمی که تصمیم می‌گیرد چه چیزی دیده شود، چه کسی شنیده شود، چه کسی حذف شود و چه چیزی معتبر تلقی شود.
الگوریتم‌های هوش‌مصنوعی امروز در بسیاری از عرصه‌های زندگی روزمره حضور دارند؛ از پیشنهاد محتوا در شبکه‌های اجتماعی گرفته تا ارزیابی رزومه‌های شغلی، تشخیص اعتبار مالی، تصمیم‌های پزشکی و حتی تحلیل‌های قضایی. در ظاهر، این سیستم‌ها فقط داده را پردازش می‌کنند و تصمیم‌گیری را سریع‌تر و دقیق‌تر می‌سازند. اما در واقع، آنها نوعی قدرت نامریی تولید می‌کنند: قدرت تعیین معیار.
وقتی یک الگوریتم تصمیم می‌گیرد چه کسی برای استخدام مناسب‌تر است، در حقیقت فقط یک انتخاب فنی انجام نمی‌دهد؛ بلکه معیاری از شایستگی را تثبیت می‌کند. وقتی شبکه‌های اجتماعی با کمک هوش مصنوعی مشخص می‌کنند چه محتوایی بیشتر دیده شود، فقط اطلاعات را مرتب نمی‌کنند؛ آنها افکار عمومی را شکل می‌دهند. این همان چیزی است که وینر از آن به «سیاست نهفته در فناوری» یاد می‌کند. او تصریح می‌کند: «سیاست همیشه در پارلمان و انتخابات اتفاق نمی‌افتد؛ گاهی در طراحی یک الگوریتم پنهان می‌شود.»

افسانه بی‌طرفی الگوریتم‌ها
یکی از مهم‌ترین افسانه‌های عصر دیجیتال، باور به بی‌طرفی الگوریتم‌هاست. بسیاری تصور می‌کنند چون تصمیم‌های هوش‌مصنوعی بر پایه داده و محاسبه انجام می‌شود، پس از خطاهای انسانی، تعصب و پیش‌داوری دور است. اما این تصور دقیقاً همان چیزی است که وینر نسبت به آن هشدار می‌دهد: «هیچ الگوریتمی بیرون از جهان اجتماعی ساخته نمی‌شود. داده‌ها از دل همان جامعه‌ای می‌آیند که پر از نابرابری، تبعیض و پیش‌داوری است. وقتی این داده‌ها مبنای تصمیم‌گیری قرار می‌گیرند، هوش مصنوعی نه‌تنها بی‌طرف نیست، بلکه می‌تواند همان تبعیض‌ها را با ظاهری علمی و غیرقابل اعتراض بازتولید کند.»
برای مثال، اگر یک سیستم استخدام بر اساس داده‌های گذشته، آموزش دیده باشد و در گذشته فرصت‌های شغلی بیشتر در اختیار گروه خاصی بوده باشد، الگوریتم نیز همان الگو را بازتولید می‌کند. در اینجا فناوری صرفاً اشتباه انسانی را تکرار نمی‌کند؛ بلکه آن را به ساختاری پنهان و پایدار تبدیل می‌کند.

انتقال مسئولیت از طراحان
به کاربران فناوری
یکی از پیامدهای خطرناک باور به خنثی بودن فناوری، انتقال مسئولیت از طراحان به کاربران است. شرکت‌های فناوری معمولاً می‌گویند ما فقط ابزار ساخته‌ایم؛ این دیگر کاربران هستند که تصمیم می‌گیرند چگونه از آن استفاده کنند. اما از نگاه وینر، این استدلال نمی‌تواند پذیرفتنی باشد. وقتی یک فناوری به‌گونه‌ای طراحی می‌شود که رفتار خاصی را تشویق کند، اعتیاد ایجاد کند، توجه را دستکاری کند یا نظارت گسترده را ممکن سازد، دیگر نمی‌توان مسئولیت را صرفاً برعهده مصرف‌کننده گذاشت.
هوش‌مصنوعی امروز دقیقاً در چنین موقعیتی قرار دارد. بسیاری از پلتفرم‌ها عمداً الگوریتم‌هایی طراحی می‌کنند که کاربر را هرچه بیشتر درگیر نگه دارند، احساسات شدیدتر تولید کنند و وابستگی بیشتری بسازند، زیرا سود اقتصادی در همین وابستگی نهفته است. وینر معتقد است در چنین شرایطی، ادعای بی‌طرفی بیشتر شبیه نوعی فرار اخلاقی است تا یک استدلال فلسفی.

چه کسی آینده را طراحی می‌کند؟
وینر معتقد است مهم‌ترین پرسش درباره فناوری این نیست که چه چیزی ممکن است، بلکه این است که «چه چیزی باید ممکن شود». جامعه نباید صرفاً مصرف‌کننده منفعل نوآوری باشد، بلکه باید درباره جهت آن تصمیم بگیرد. هوش‌مصنوعی امروز بیش از هر فناوری دیگری این پرسش را پیش روی ما گذاشته است. آیا قرار است این فناوری به گسترش عدالت، بهبود آموزش و ارتقای کیفیت زندگی کمک کند، یا صرفاً به ابزار تازه‌ای برای انباشت قدرت و سود تبدیل شود؟
پاسخ این پرسش نه در خود فناوری، بلکه در سیاست، قانون، فرهنگ عمومی و مسئولیت اجتماعی نهفته است. اگر جامعه درباره شکل توسعه فناوری تصمیم نگیرد، این تصمیم به‌طور کامل به شرکت‌هایی واگذار می‌شود که منطق اصلی‌شان نه عدالت، بلکه بازار است.

صفحات
آرشیو تاریخی
شماره نه هزار و بیست و سه
 - شماره نه هزار و بیست و سه - ۲۲ اردیبهشت ۱۴۰۵