ش | ی | د | س | چ | پ | ج |
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
کوتاه پیرامون فلسفه ی اخلاق در هوش مصنوعی
مقدمه:
در عصر هوش مصنوعی، ما با پرسشی مواجهایم که تا دیروز تنها در ساحت فلسفه، دین و اخلاق زیست میکرد: «چه کسی باید نجات یابد؟» این پرسش، وقتی رنگ و بوی واقعی به خود میگیرد که در یک وضعیت بحرانی ـ مثلاً سقوط یک خودرو حاوی پنج عضو یک خانواده به درون رودخانهای یخزده ـ روبات نجاتگری مبتنی بر هوش مصنوعی، تنها توان نجات یک نفر را داشته باشد. کودک؟ مادر؟ سالخورده؟ یا آن که از نظر زیستی مقاومتر است؟
آیا ماشین تصمیم خواهد گرفت؟ و اگر بله، با چه معیاری؟
۱. سایبرنتیک و بازآرایی مفهوم تصمیم
نخست باید به چیستی «تصمیم» در بستر سایبرنتیک نگاه کنیم. سایبرنتیک، به تعبیر نوربرت وینر، علم فرمان، کنترل و ارتباط در موجودات زنده و ماشینهاست. در این چارچوب، هر کنش، بازخوردی دارد؛ و هر تصمیم، حاصل شبکهای از اطلاعات، وزنها و حلقههای بازخوردی است.
در یک سیستم سایبرنتیکی، اولویت نه براساس «احساس» بلکه براساس الگوریتمی از ورودیها و خروجیها تعیین میشود. بنابراین روبات نجاتگر، ممکن است تابعی از این جنس داشته باشد:
نجات کسی که کمترین انرژی برای نجاتش لازم است و بالاترین احتمال بقاء را دارد.
یا:
نجات فردی که در شبکه اطلاعاتی، دارای بیشترین ارزش اجتماعی یا ژنتیکی (بر اساس دادههای آماری آموزشدیده) شناخته شده است.
در اینجا اخلاق، از درون شبکه تصمیمسازی به بیرون پرتاب میشود، مگر آنکه اخلاق، خود به دادهای قابل رمزگذاری تبدیل شده باشد.
۲. اخلاق بهمثابه داده: آیا ممکن است؟
سؤال اساسی این است که آیا «اخلاق» را میتوان به الگوریتم تبدیل کرد؟ اگر پاسخ منفی باشد، پس سیستمهای مبتنی بر هوش مصنوعی هرگز اخلاقی تصمیم نخواهند گرفت، بلکه صرفاً بر اساس «اولویتهایی برنامهریزیشده» عمل خواهند کرد.
اما اگر بپذیریم که میتوان اخلاق را در قالب قواعدی فرمال و قابل محاسبه فرموله کرد (نظیر اخلاق وظیفهگرای کانتی، یا اخلاق پیامدگرای بنتامی)، آنگاه شاید بتوان امید داشت که روبات نجاتگر، تصمیمی «اخلاقی» بگیرد.
مثلاً، بر اساس اخلاق وظیفهگرا، نجات کودک به عنوان موجودی بیگناه و ناتوان، یک وظیفه اخلاقی بیقید و شرط است. اما در نگاه پیامدگرایانه، نجات مادر ممکن است توجیهپذیر باشد زیرا او میتواند فرزندان دیگر را در آینده تربیت کند.
در هر دو صورت، اخلاق دیگر حس یا الهام نیست، بلکه تابعی ریاضیاتی و سایبرنتیکی از اهداف سیستم است.
۳. احساسات: خطای سیستم یا سیگنالی فراتر از منطق؟
در انسان، احساسات نقش حیاتی در تصمیمگیری دارند. ما از روی شفقت، عشق، ترس، وفاداری یا اندوه تصمیم میگیریم؛ تصمیمهایی که اغلب در تضاد با منطق سرد هستند. سایبرنتیک در فرم کلاسیکش، احساس را اغلب بهعنوان نویز یا اختلال در سیستم در نظر میگیرد، اما در نسخههای نوین و بینارشتهای، احساس بهمثابه سیگنالی نرم برای تنظیم وزنهای تصمیم دیده میشود.
هوش مصنوعی میتواند یاد بگیرد که احساسات را تقلید کند (همدلسازی)، اما نمیتواند واقعاً «احساس» داشته باشد. این تفاوت، در لحظه بحران، تعیینکننده است: روبات دچار تردید نمیشود، پشیمان نمیشود، و خاطرهای از آن لحظه در ضمیر ناخودآگاهش نمیسازد. این «نبود عذاب وجدان»، مزیت کاراییست، اما خلأ اخلاقی را نیز آشکار میسازد.
۴. رسانه و بازنمایی انتخاب اخلاقی در هوش مصنوعی
در جهان امروز، رسانهها نقش چشمگیری در شکلدادن به تصویر عمومی از هوش مصنوعی دارند. روایتهایی که از روباتهای نجاتگر در فیلمها و داستانها میبینیم، اغلب با ترس، تحسین یا پرسش همراهاند. رسانه با بازنمایی موقعیتهای بحرانی، ما را با مسئله «انتخاب» در برابر چشم هوشمند و بیروح ماشین مواجه میکند. این بازنماییها نهتنها افکار عمومی، بلکه مسیر توسعه فناوری را نیز جهت میدهند. اگر جامعه بخواهد روبات نجاتگر بر اساس «احساس» تصمیم بگیرد، توسعهدهندگان در پاسخ، احساس را شبیهسازی خواهند کرد.
اینجاست که «بازخورد رسانهای» به بخشی از سیستم سایبرنتیکی توسعه فناوری تبدیل میشود.
در نهایت، باید بپذیریم که هوش مصنوعی، در وضعیت دو راهی اخلاقی، به گونهای تصمیم خواهد گرفت که از پیش توسط ما ـ برنامهریزان و طراحان ـ درون الگوریتمهایش کاشته شده است. اگر ما اخلاق را به زبان داده ترجمه نکنیم، ماشین تنها بر اساس اولویتهای فنی تصمیم خواهد گرفت.
بنابراین، مسئولیت تصمیم هوش مصنوعی، نه با خودش، بلکه با ماست. و این، نه صرفاً مسئلهای فنی، بلکه عمیقاً رسانهای، اخلاقی و سایبرنتیکیست.