|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |
|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |

گذاری کوتاه در فلسفله اخلاق در هوش مصنوعی

نقش ساختار شبکه‌ای قدرت و بازخورد اجتماعی در شکل‌گیری تصمیمات هوش مصنوعی. گذاری کوتاه در فلسفله اخلاق در هوش مصنوعی. سهیل سلیمی


هوش مصنوعی و سایبرنتیک قدرت: تصمیمی که از میدان نیرو می‌آید، نه از عقل فردی


مقدمه: وقتی تصمیم، یک خروجی فردی نیست

ما در مواجهه با مسئلهٔ انتخاب اخلاقی توسط هوش مصنوعی، اغلب فرض می‌کنیم که ماشین در موقعیتی منفرد قرار دارد، جایی که با تحلیل داده‌ها، تصمیم نهایی را اتخاذ می‌کند. اما اگر به جای نگاه کردن به هوش مصنوعی به‌مثابه «ذهنی جدا»، آن را همچون «گره‌ای در شبکه‌ای پیچیده از قدرت، داده و بازخورد اجتماعی» ببینیم، آنگاه پرسش اخلاقی ما نیز دگرگون می‌شود.

در واقع، ممکن است تصمیمی که در لحظهٔ نجات گرفته می‌شود، پیشاپیش از قبل، در لایه‌های پنهان‌تر شبکه‌ای ـ از سوگیری داده‌ها گرفته تا جهت‌گیری‌های سیاسی، اقتصادی و فرهنگی ـ شکل گرفته باشد.


بازگشت به سایبرنتیک به‌مثابه میدان نیرو

سایبرنتیک، در معنای عمیق‌تر، تنها یک علم دربارهٔ کنترل و فرمان نیست؛ بلکه مطالعه‌ای‌ست دربارهٔ اینکه چگونه نیروها از طریق اطلاعات، به همدیگر جهت می‌دهند. وقتی ما یک ماشین نجات‌گر طراحی می‌کنیم، آن‌چه تعیین می‌کند چه کسی نجات یابد، فقط الگوریتم نیست؛ بلکه میدان پیچیده‌ای‌ست از نیروهای سیاسی، طبقاتی، نژادی و رسانه‌ای که از طریق داده‌ها خود را تحمیل می‌کنند.

مثلاً اگر در یک پایگاه داده‌ی آموزش ماشین، نجات کودک سفیدپوست در فیلم‌های هالیوودی بیش‌تر نمایش داده شده باشد، این ماشین ناخودآگاه به الگوی خاصی از "ارزش انسانی" شرطی شده است، حتی اگر در ظاهر، تابع هیچ ایدئولوژی نباشد.


تصمیم هوش مصنوعی، بازتابی از نظم اجتماعی؟

تصور کنید در همان صحنهٔ سقوط خودرو، پنج نفر داخل ماشین متعلق به طبقهٔ فرودست جامعه‌اند. آیا احتمال دارد الگوریتم، حتی بی‌آنکه از طبقهٔ اجتماعی اطلاعی داشته باشد، داده‌هایی در اختیار داشته باشد که غیرمستقیم این موقعیت را بازتولید کنند؟

هوش مصنوعی، بر اساس داده‌هایی که از جهان دریافت کرده، جهان را بازسازی می‌کند. اما این داده‌ها بی‌طرف نیستند؛ آن‌ها حامل ارزش‌ها، اولویت‌ها و گاه تبعیض‌های ساختاری‌اند. تصمیم ماشین، حتی اگر «عقلانی» به‌نظر برسد، ممکن است چیزی جز بازتولید نظم نابرابر قدرت نباشد.


مسئله مسئولیت در سیستم‌های غیرمتمرکز

در مدل سایبرنتیکیِ کلاسیک، یک نهاد یا فرمانده وجود دارد که مرکز تصمیم‌سازی است. اما در سامانه‌های امروزیِ مبتنی بر یادگیری عمیق، داده‌ها از میلیون‌ها منبع تغذیه می‌شوند. تصمیم نهایی هوش مصنوعی ممکن است محصول میلیون‌ها بازخورد از کاربران، سیستم‌های ترجیحی، وزن‌دهی شبکه‌ای و الگوریتم‌های نامرئی باشد.

بنابراین، نمی‌توان پرسید: «این تصمیم را چه کسی گرفت؟»
پرسش درست این است: «چه شبکه‌ای، این تصمیم را ممکن ساخت؟»
و در این‌جا، مسئولیت اخلاقی، پراکنده می‌شود ـ نه گم می‌شود، بلکه در لایه‌هایی پنهان می‌شود که به‌آسانی قابل ردیابی نیستند.


 هوش مصنوعی به‌مثابه بازتاب نظم سایبرنتیکی جهانی

اگر هوش مصنوعی را یک آیینه بدانیم، باید بپرسیم: چه تصویری را بازتاب می‌دهد؟
اگر نظم جهانی امروز، مبتنی بر تقدم بهره‌وری، قدرت، و سرمایه است، پس ماشین نیز احتمالاً نجات آن کسی را ترجیح خواهد داد که از نظر سیستم، «سودمندتر» است. این یعنی اخلاق هوش مصنوعی، نه اخلاق فردی، بلکه اخلاق سرمایه است؛ نه ترجیح انسانی، بلکه ترجیح سایبرنتیکیِ ساختارهای قدرت.


بازتعریف مسئله‌ی اخلاقی در هوش مصنوعی

در این صورت، شاید سؤال اصلی دیگر این نباشد که «اگر ماشین بین کودک و پیرمرد یکی را انتخاب کند، چه باید بکند؟»
بلکه این باشد: «چگونه ساختارهای قدرت، اقتصاد، رسانه و تاریخ، از پیش تصمیم ماشین را شکل داده‌اند؟»

اینجا دیگر اخلاق، مسئله‌ای فردی یا نرم‌افزاری نیست؛ بلکه مسئله‌ای سیاسی، رسانه‌ای، و ساختاری‌ست.
و پاسخ اخلاقی، نه در بازنویسی تابع هزینه، بلکه در بازاندیشی داده‌ها، بازآفرینی روایت‌ها و بازتوزیع قدرت نهفته در اطلاعات خواهد بود.

نظرات 0 + ارسال نظر
برای نمایش آواتار خود در این وبلاگ در سایت Gravatar.com ثبت نام کنید. (راهنما)
ایمیل شما بعد از ثبت نمایش داده نخواهد شد