نقد لانگدن وینر به ایده «بیطرفی هوشمصنوعی»
سیاست پنهان فناوری
سیاست همیشه در پارلمان و انتخابات اتفاق نمیافتد گاهی در طراحی یک الگوریتم پنهان میشود
در عصری که هوشمصنوعی به مهمترین نماد پیشرفت تکنولوژیک تبدیل شده، یکی از رایجترین گزارهها این است که «فناوری ذاتاً خنثی است»؛ یعنی نه خوب است و نه بد، و این فقط انسانها هستند که به آن جهت اخلاقی میدهند. براساس این نگاه، هوشمصنوعی نیز صرفاً ابزاری پیشرفته است که میتواند هم در خدمت رفاه انسان قرار گیرد و هم در مسیر آسیب و کنترل به کار رود. بنابراین مسأله نه خود فناوری، بلکه نحوه استفاده از آن است. اما این ایده، مورد نقد بسیاری از فلاسفه تکنولوژی از جمله لانگدن وینر واقع شده است که آن را نوعی سادهسازی خطرناک توصیف میکند. این جماعت از فلاسفه علم معتقدند فناوریهای جدید، بویژه هوشمصنوعی، فقط ابزارهایی در اختیار انسان نیستند؛ آنها بهتدریج در حال بازطراحی مناسبات قدرت، شکل دادن به تصمیمگیریهای اجتماعی و حتی تعریف دوباره مفهوم اختیار و مسئولیتاند. مسأله این نیست که ما با هوشمصنوعی چه میکنیم، بلکه این است که هوشمصنوعی چگونه ما را وادار میکند جهان را به شکلی خاص ببینیم و در آن زندگی کنیم. لانگدن وینر، اندیشمند برجسته آمریکایی در حوزه فلسفه علم، از مهمترین متفکرانی است که بهطور جدی با ایده خنثی بودن فناوری مخالفت میکند و نشان میدهد که فناوری نهتنها ابزار، بلکه حامل نوعی نظم سیاسی و اجتماعی است.
پروفسور شانون والور
فیلسوف فناوری و استاد دانشگاه ادینبرو
مترجم: حمیدرضا حبیبی
فیلسوف سیاستِ فناوری
لانگدن وینر از چهرههای مهم مطالعات علم، فناوری و جامعه (STS) و یکی از متفکران اثرگذار در فلسفه تکنولوژی معاصر است. شهرت اصلی او بیش از همه به مقاله معروفش با عنوان «آیا مصنوعات سیاست دارند؟» بازمیگردد؛ مقالهای که به یکی از متون کلاسیک در فهم نسبت فناوری و قدرت تبدیل شده است.
وینر در برابر این تصور رایج که فناوری صرفاً مجموعهای از ابزارهای بیطرف است، استدلال میکند که هر فناوری میتواند نوعی «نظم اجتماعی» را تثبیت کند. به بیان دیگر، اشیا و سیستمهای فنی فقط برای انجام کار ساخته نمیشوند؛ آنها در دل خود نوعی رابطه قدرت، نوعی ساختار تصمیمگیری و حتی نوعی تصور از انسان و جامعه را حمل میکنند.
از نگاه او، برخی فناوریها بهگونهای طراحی میشوند که شکل خاصی از اقتدار را تقویت کنند. برخی دیگر، حتی بدون نیت مستقیم طراحان، پیامدهایی ایجاد میکنند که به تمرکز قدرت، حذف مشارکت عمومی یا بازتولید نابرابری منجر میشود. بنابراین پرسش اصلی این نیست که فناوری خوب است یا بد، بلکه این است که هر فناوری چه نوع جامعهای را ممکن میکند.
هوش مصنوعی؛ فناوری
با دستور کار سیاسی
اگر با نگاه وینر به هوش مصنوعی بنگریم، دیگر نمیتوان آن را صرفاً یک ابزار محاسباتی پیشرفته دانست. هوش مصنوعی نوعی «معماری قدرت» است؛ سیستمی که تصمیم میگیرد چه چیزی دیده شود، چه کسی شنیده شود، چه کسی حذف شود و چه چیزی معتبر تلقی شود.
الگوریتمهای هوشمصنوعی امروز در بسیاری از عرصههای زندگی روزمره حضور دارند؛ از پیشنهاد محتوا در شبکههای اجتماعی گرفته تا ارزیابی رزومههای شغلی، تشخیص اعتبار مالی، تصمیمهای پزشکی و حتی تحلیلهای قضایی. در ظاهر، این سیستمها فقط داده را پردازش میکنند و تصمیمگیری را سریعتر و دقیقتر میسازند. اما در واقع، آنها نوعی قدرت نامریی تولید میکنند: قدرت تعیین معیار.
وقتی یک الگوریتم تصمیم میگیرد چه کسی برای استخدام مناسبتر است، در حقیقت فقط یک انتخاب فنی انجام نمیدهد؛ بلکه معیاری از شایستگی را تثبیت میکند. وقتی شبکههای اجتماعی با کمک هوش مصنوعی مشخص میکنند چه محتوایی بیشتر دیده شود، فقط اطلاعات را مرتب نمیکنند؛ آنها افکار عمومی را شکل میدهند. این همان چیزی است که وینر از آن به «سیاست نهفته در فناوری» یاد میکند. او تصریح میکند: «سیاست همیشه در پارلمان و انتخابات اتفاق نمیافتد؛ گاهی در طراحی یک الگوریتم پنهان میشود.»
افسانه بیطرفی الگوریتمها
یکی از مهمترین افسانههای عصر دیجیتال، باور به بیطرفی الگوریتمهاست. بسیاری تصور میکنند چون تصمیمهای هوشمصنوعی بر پایه داده و محاسبه انجام میشود، پس از خطاهای انسانی، تعصب و پیشداوری دور است. اما این تصور دقیقاً همان چیزی است که وینر نسبت به آن هشدار میدهد: «هیچ الگوریتمی بیرون از جهان اجتماعی ساخته نمیشود. دادهها از دل همان جامعهای میآیند که پر از نابرابری، تبعیض و پیشداوری است. وقتی این دادهها مبنای تصمیمگیری قرار میگیرند، هوش مصنوعی نهتنها بیطرف نیست، بلکه میتواند همان تبعیضها را با ظاهری علمی و غیرقابل اعتراض بازتولید کند.»
برای مثال، اگر یک سیستم استخدام بر اساس دادههای گذشته، آموزش دیده باشد و در گذشته فرصتهای شغلی بیشتر در اختیار گروه خاصی بوده باشد، الگوریتم نیز همان الگو را بازتولید میکند. در اینجا فناوری صرفاً اشتباه انسانی را تکرار نمیکند؛ بلکه آن را به ساختاری پنهان و پایدار تبدیل میکند.
انتقال مسئولیت از طراحان
به کاربران فناوری
یکی از پیامدهای خطرناک باور به خنثی بودن فناوری، انتقال مسئولیت از طراحان به کاربران است. شرکتهای فناوری معمولاً میگویند ما فقط ابزار ساختهایم؛ این دیگر کاربران هستند که تصمیم میگیرند چگونه از آن استفاده کنند. اما از نگاه وینر، این استدلال نمیتواند پذیرفتنی باشد. وقتی یک فناوری بهگونهای طراحی میشود که رفتار خاصی را تشویق کند، اعتیاد ایجاد کند، توجه را دستکاری کند یا نظارت گسترده را ممکن سازد، دیگر نمیتوان مسئولیت را صرفاً برعهده مصرفکننده گذاشت.
هوشمصنوعی امروز دقیقاً در چنین موقعیتی قرار دارد. بسیاری از پلتفرمها عمداً الگوریتمهایی طراحی میکنند که کاربر را هرچه بیشتر درگیر نگه دارند، احساسات شدیدتر تولید کنند و وابستگی بیشتری بسازند، زیرا سود اقتصادی در همین وابستگی نهفته است. وینر معتقد است در چنین شرایطی، ادعای بیطرفی بیشتر شبیه نوعی فرار اخلاقی است تا یک استدلال فلسفی.
چه کسی آینده را طراحی میکند؟
وینر معتقد است مهمترین پرسش درباره فناوری این نیست که چه چیزی ممکن است، بلکه این است که «چه چیزی باید ممکن شود». جامعه نباید صرفاً مصرفکننده منفعل نوآوری باشد، بلکه باید درباره جهت آن تصمیم بگیرد. هوشمصنوعی امروز بیش از هر فناوری دیگری این پرسش را پیش روی ما گذاشته است. آیا قرار است این فناوری به گسترش عدالت، بهبود آموزش و ارتقای کیفیت زندگی کمک کند، یا صرفاً به ابزار تازهای برای انباشت قدرت و سود تبدیل شود؟
پاسخ این پرسش نه در خود فناوری، بلکه در سیاست، قانون، فرهنگ عمومی و مسئولیت اجتماعی نهفته است. اگر جامعه درباره شکل توسعه فناوری تصمیم نگیرد، این تصمیم بهطور کامل به شرکتهایی واگذار میشود که منطق اصلیشان نه عدالت، بلکه بازار است.

