|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |
|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |

هوش مصنوعی در دو راهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی

کوتاه پیرامون فلسفه ی اخلاق در هوش مصنوعی


هوش مصنوعی در دو راهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی

مقدمه:

در عصر هوش مصنوعی، ما با پرسشی مواجه‌ایم که تا دیروز تنها در ساحت فلسفه، دین و اخلاق زیست می‌کرد: «چه کسی باید نجات یابد؟» این پرسش، وقتی رنگ و بوی واقعی به خود می‌گیرد که در یک وضعیت بحرانی ـ مثلاً سقوط یک خودرو حاوی پنج عضو یک خانواده به درون رودخانه‌ای یخ‌زده ـ روبات نجات‌گری مبتنی بر هوش مصنوعی، تنها توان نجات یک نفر را داشته باشد. کودک؟ مادر؟ سالخورده؟ یا آن که از نظر زیستی مقاوم‌تر است؟

آیا ماشین تصمیم خواهد گرفت؟ و اگر بله، با چه معیاری؟


۱. سایبرنتیک و بازآرایی مفهوم تصمیم

نخست باید به چیستی «تصمیم» در بستر سایبرنتیک نگاه کنیم. سایبرنتیک، به تعبیر نوربرت وینر، علم فرمان، کنترل و ارتباط در موجودات زنده و ماشین‌هاست. در این چارچوب، هر کنش، بازخوردی دارد؛ و هر تصمیم، حاصل شبکه‌ای از اطلاعات، وزن‌ها و حلقه‌های بازخوردی است.

در یک سیستم سایبرنتیکی، اولویت نه براساس «احساس» بلکه براساس الگوریتمی از ورودی‌ها و خروجی‌ها تعیین می‌شود. بنابراین روبات نجات‌گر، ممکن است تابعی از این جنس داشته باشد:

نجات کسی که کمترین انرژی برای نجاتش لازم است و بالاترین احتمال بقاء را دارد.

یا:

نجات فردی که در شبکه اطلاعاتی، دارای بیشترین ارزش اجتماعی یا ژنتیکی (بر اساس داده‌های آماری آموزش‌دیده) شناخته شده است.

در اینجا اخلاق، از درون شبکه تصمیم‌سازی به بیرون پرتاب می‌شود، مگر آن‌که اخلاق، خود به داده‌ای قابل ‌رمزگذاری تبدیل شده باشد.


۲. اخلاق به‌مثابه داده: آیا ممکن است؟

سؤال اساسی این است که آیا «اخلاق» را می‌توان به الگوریتم تبدیل کرد؟ اگر پاسخ منفی باشد، پس سیستم‌های مبتنی بر هوش مصنوعی هرگز اخلاقی تصمیم نخواهند گرفت، بلکه صرفاً بر اساس «اولویت‌هایی برنامه‌ریزی‌شده» عمل خواهند کرد.

اما اگر بپذیریم که می‌توان اخلاق را در قالب قواعدی فرمال و قابل ‌محاسبه فرموله کرد (نظیر اخلاق وظیفه‌گرای کانتی، یا اخلاق پیامدگرای بنتامی)، آنگاه شاید بتوان امید داشت که روبات نجات‌گر، تصمیمی «اخلاقی» بگیرد.

مثلاً، بر اساس اخلاق وظیفه‌گرا، نجات کودک به عنوان موجودی بی‌گناه و ناتوان، یک وظیفه اخلاقی بی‌قید و شرط است. اما در نگاه پیامدگرایانه، نجات مادر ممکن است توجیه‌پذیر باشد زیرا او می‌تواند فرزندان دیگر را در آینده تربیت کند.

در هر دو صورت، اخلاق دیگر حس یا الهام نیست، بلکه تابعی ریاضیاتی و سایبرنتیکی از اهداف سیستم است.


۳. احساسات: خطای سیستم یا سیگنالی فراتر از منطق؟

در انسان، احساسات نقش حیاتی در تصمیم‌گیری دارند. ما از روی شفقت، عشق، ترس، وفاداری یا اندوه تصمیم می‌گیریم؛ تصمیم‌هایی که اغلب در تضاد با منطق سرد هستند. سایبرنتیک در فرم کلاسیکش، احساس را اغلب به‌عنوان نویز یا اختلال در سیستم در نظر می‌گیرد، اما در نسخه‌های نوین و بینارشته‌ای، احساس به‌مثابه سیگنالی نرم برای تنظیم وزن‌های تصمیم دیده می‌شود.

هوش مصنوعی می‌تواند یاد بگیرد که احساسات را تقلید کند (همدل‌سازی)، اما نمی‌تواند واقعاً «احساس» داشته باشد. این تفاوت، در لحظه بحران، تعیین‌کننده است: روبات دچار تردید نمی‌شود، پشیمان نمی‌شود، و خاطره‌ای از آن لحظه در ضمیر ناخودآگاهش نمی‌سازد. این «نبود عذاب وجدان»، مزیت کارایی‌ست، اما خلأ اخلاقی را نیز آشکار می‌سازد.


۴. رسانه و بازنمایی انتخاب اخلاقی در هوش مصنوعی

در جهان امروز، رسانه‌ها نقش چشمگیری در شکل‌دادن به تصویر عمومی از هوش مصنوعی دارند. روایت‌هایی که از روبات‌های نجات‌گر در فیلم‌ها و داستان‌ها می‌بینیم، اغلب با ترس، تحسین یا پرسش همراه‌اند. رسانه با بازنمایی موقعیت‌های بحرانی، ما را با مسئله «انتخاب» در برابر چشم هوشمند و بی‌روح ماشین مواجه می‌کند. این بازنمایی‌ها نه‌تنها افکار عمومی، بلکه مسیر توسعه فناوری را نیز جهت می‌دهند. اگر جامعه بخواهد روبات نجات‌گر بر اساس «احساس» تصمیم بگیرد، توسعه‌دهندگان در پاسخ، احساس را شبیه‌سازی خواهند کرد.

اینجاست که «بازخورد رسانه‌ای» به بخشی از سیستم سایبرنتیکی توسعه فناوری تبدیل می‌شود.

در نهایت، باید بپذیریم که هوش مصنوعی، در وضعیت دو راهی اخلاقی، به گونه‌ای تصمیم خواهد گرفت که از پیش توسط ما ـ برنامه‌ریزان و طراحان ـ درون الگوریتم‌هایش کاشته شده است. اگر ما اخلاق را به زبان داده ترجمه نکنیم، ماشین تنها بر اساس اولویت‌های فنی تصمیم خواهد گرفت.

بنابراین، مسئولیت تصمیم هوش مصنوعی، نه با خودش، بلکه با ماست. و این، نه صرفاً مسئله‌ای فنی، بلکه عمیقاً رسانه‌ای، اخلاقی و سایبرنتیکی‌ست.


دوره‌ خصوصی تولید محتوا Advance Content Creation - Pro Mobile CineTography - ACC - PMCT


دوره‌های خصوصی ACC - PMCT تولید محتوا با موبایل.


از صفر تا صد (خصوصی) در دو سطح حرفه ای و فوق پیشرفته، آموزش اختصاصی در محل شما (تهران و حومه)، ساخت محتوا با امکانات خودتان!

آماده همکاری با مراکز دولتی و آموزشگاه‌ها برای ارتقا سواد رسانه ای کارمندان و کارکنان. و ایجاد مهارت تولید محتوای سازمانی


سطح حرفه‌ای: عکاسی و فیلمبرداری موبایل (Professional Mobile CineTography)

با موبایل خود حرفه‌ای کار کنید:

اصول نورپردازی و ترکیب‌بندی پیشرفته

تنظیمات حرفه‌ای دوربین موبایل - تبدیل گوشی شما به یک استودیو همراه

تکنیک‌های فیلمبرداری دینامیک از ویدئوهای ساده تا تولیدات حرفه‌ای


سطح فوق‌پیشرفته ACC: تولید محتوای هوشمند.

  (Advance Content Creation) 

ترکیب هنر، فناوری و خلاقیت

عکاسی و فیلمبرداری موبایل (Professional Mobile CineTography)

تدوین و صداگذاری - ساخت محصولات رسانه‌ای با موبایل

نویسندگی و اجرای محتوا - از ایده تا مدیا

آموزش استفاده از هوش مصنوعی در تولید محتوا

دستیابی به توانایی تولید محتوای حرفه‌ای


ویژگیها:

✔️ آموزش کاملاً خصوصی و متناسب با نیازهای شما

✔️ گواهینامه پایان دوره از (نویسنده و کارگردان سینما و تلویزیون)

✔️ پشتیبانی پس از دوره


هزینه سطح حرفه ای 7.9 هفت میلیون و نه صد هزار تومان

هزینه سطح فوق پیشرفته 18.5 هجده و نیم میلیون تومان


 سطح حرفه‌ای هفت جلسه و سطح فوق پیشرفته بیست جلسه می‌باشد.


برای هماهنگی به آیدی یا شماره موبایل زیر پیام بدهید:

eitaa.com/SOHEILSALIMI1

09939494184

گذاری کوتاه در فلسفله اخلاق در هوش مصنوعی

نقش ساختار شبکه‌ای قدرت و بازخورد اجتماعی در شکل‌گیری تصمیمات هوش مصنوعی. گذاری کوتاه در فلسفله اخلاق در هوش مصنوعی. سهیل سلیمی


هوش مصنوعی و سایبرنتیک قدرت: تصمیمی که از میدان نیرو می‌آید، نه از عقل فردی


مقدمه: وقتی تصمیم، یک خروجی فردی نیست

ما در مواجهه با مسئلهٔ انتخاب اخلاقی توسط هوش مصنوعی، اغلب فرض می‌کنیم که ماشین در موقعیتی منفرد قرار دارد، جایی که با تحلیل داده‌ها، تصمیم نهایی را اتخاذ می‌کند. اما اگر به جای نگاه کردن به هوش مصنوعی به‌مثابه «ذهنی جدا»، آن را همچون «گره‌ای در شبکه‌ای پیچیده از قدرت، داده و بازخورد اجتماعی» ببینیم، آنگاه پرسش اخلاقی ما نیز دگرگون می‌شود.

در واقع، ممکن است تصمیمی که در لحظهٔ نجات گرفته می‌شود، پیشاپیش از قبل، در لایه‌های پنهان‌تر شبکه‌ای ـ از سوگیری داده‌ها گرفته تا جهت‌گیری‌های سیاسی، اقتصادی و فرهنگی ـ شکل گرفته باشد.


بازگشت به سایبرنتیک به‌مثابه میدان نیرو

سایبرنتیک، در معنای عمیق‌تر، تنها یک علم دربارهٔ کنترل و فرمان نیست؛ بلکه مطالعه‌ای‌ست دربارهٔ اینکه چگونه نیروها از طریق اطلاعات، به همدیگر جهت می‌دهند. وقتی ما یک ماشین نجات‌گر طراحی می‌کنیم، آن‌چه تعیین می‌کند چه کسی نجات یابد، فقط الگوریتم نیست؛ بلکه میدان پیچیده‌ای‌ست از نیروهای سیاسی، طبقاتی، نژادی و رسانه‌ای که از طریق داده‌ها خود را تحمیل می‌کنند.

مثلاً اگر در یک پایگاه داده‌ی آموزش ماشین، نجات کودک سفیدپوست در فیلم‌های هالیوودی بیش‌تر نمایش داده شده باشد، این ماشین ناخودآگاه به الگوی خاصی از "ارزش انسانی" شرطی شده است، حتی اگر در ظاهر، تابع هیچ ایدئولوژی نباشد.


تصمیم هوش مصنوعی، بازتابی از نظم اجتماعی؟

تصور کنید در همان صحنهٔ سقوط خودرو، پنج نفر داخل ماشین متعلق به طبقهٔ فرودست جامعه‌اند. آیا احتمال دارد الگوریتم، حتی بی‌آنکه از طبقهٔ اجتماعی اطلاعی داشته باشد، داده‌هایی در اختیار داشته باشد که غیرمستقیم این موقعیت را بازتولید کنند؟

هوش مصنوعی، بر اساس داده‌هایی که از جهان دریافت کرده، جهان را بازسازی می‌کند. اما این داده‌ها بی‌طرف نیستند؛ آن‌ها حامل ارزش‌ها، اولویت‌ها و گاه تبعیض‌های ساختاری‌اند. تصمیم ماشین، حتی اگر «عقلانی» به‌نظر برسد، ممکن است چیزی جز بازتولید نظم نابرابر قدرت نباشد.


مسئله مسئولیت در سیستم‌های غیرمتمرکز

در مدل سایبرنتیکیِ کلاسیک، یک نهاد یا فرمانده وجود دارد که مرکز تصمیم‌سازی است. اما در سامانه‌های امروزیِ مبتنی بر یادگیری عمیق، داده‌ها از میلیون‌ها منبع تغذیه می‌شوند. تصمیم نهایی هوش مصنوعی ممکن است محصول میلیون‌ها بازخورد از کاربران، سیستم‌های ترجیحی، وزن‌دهی شبکه‌ای و الگوریتم‌های نامرئی باشد.

بنابراین، نمی‌توان پرسید: «این تصمیم را چه کسی گرفت؟»
پرسش درست این است: «چه شبکه‌ای، این تصمیم را ممکن ساخت؟»
و در این‌جا، مسئولیت اخلاقی، پراکنده می‌شود ـ نه گم می‌شود، بلکه در لایه‌هایی پنهان می‌شود که به‌آسانی قابل ردیابی نیستند.


 هوش مصنوعی به‌مثابه بازتاب نظم سایبرنتیکی جهانی

اگر هوش مصنوعی را یک آیینه بدانیم، باید بپرسیم: چه تصویری را بازتاب می‌دهد؟
اگر نظم جهانی امروز، مبتنی بر تقدم بهره‌وری، قدرت، و سرمایه است، پس ماشین نیز احتمالاً نجات آن کسی را ترجیح خواهد داد که از نظر سیستم، «سودمندتر» است. این یعنی اخلاق هوش مصنوعی، نه اخلاق فردی، بلکه اخلاق سرمایه است؛ نه ترجیح انسانی، بلکه ترجیح سایبرنتیکیِ ساختارهای قدرت.


بازتعریف مسئله‌ی اخلاقی در هوش مصنوعی

در این صورت، شاید سؤال اصلی دیگر این نباشد که «اگر ماشین بین کودک و پیرمرد یکی را انتخاب کند، چه باید بکند؟»
بلکه این باشد: «چگونه ساختارهای قدرت، اقتصاد، رسانه و تاریخ، از پیش تصمیم ماشین را شکل داده‌اند؟»

اینجا دیگر اخلاق، مسئله‌ای فردی یا نرم‌افزاری نیست؛ بلکه مسئله‌ای سیاسی، رسانه‌ای، و ساختاری‌ست.
و پاسخ اخلاقی، نه در بازنویسی تابع هزینه، بلکه در بازاندیشی داده‌ها، بازآفرینی روایت‌ها و بازتوزیع قدرت نهفته در اطلاعات خواهد بود.

“The behavior of the individual is purposeful if it can be interpreted as directed to the attainment of a goal.”  Norbert Wiener

رفتار یک فرد زمانی هدفمند است که بتوان آن را بهعنوان حرکتی در جهت رسیدن به یک هدف تفسیر کرد. نوربرت وینر

رفتار هدفمند: یکپارچگی سایبرنتیک

ارائه دهند: سهیل سلیمی   (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

مقدمه

نوربرت وینر، بنیان‌گذار سایبرنتیک، در جمله‌ای عمیق اظهار می‌کند: «رفتار یک فرد زمانی هدفمند است که بتوان آن را به‌عنوان حرکتی در جهت رسیدن به یک هدف تفسیر کرد.» این تعریف، که ریشه در علم سایبرنتیک دارد، رفتار را به‌عنوان فرآیندی هدف‌محور می‌بیند که از طریق بازخورد و تنظیم هدایت می‌شود. رفتار هدفمند، چه در انسان و چه در ماشین، نیازمند هدفی مشخص و مکانیزمی برای ارزیابی و اصلاح مسیر است. برای مثال، یک راننده که به سمت مقصدی حرکت می‌کند، با توجه به علائم راهنمایی و رانندگی مسیر خود را تنظیم می‌کند، همان‌طور که یک سیستم هوش مصنوعی با تحلیل داده‌ها عملکرد خود را بهبود می‌بخشد. این مفهوم، پلی بین علوم طبیعی، علوم اجتماعی، و حکمت دینی ایجاد می‌کند و پرسش‌هایی بنیادین را مطرح می‌سازد: اهداف ما از کجا می‌آیند؟ چگونه فرهنگ و باورهای ما آن‌ها را شکل می‌دهند؟ و چگونه فناوری‌هایی مانند هوش مصنوعی می‌توانند این اهداف را تقویت یا مختل کنند؟

این پژوهش رفتار هدفمند را از سه منظر بررسی می‌کند: سایبرنتیک (با تکیه بر وینر و ماکسول مالتز)، انسان‌شناسی، و حکمت اسلامی (با تأکید بر تعالیم امام علی علیه‌السلام). این دیدگاه‌ها به‌صورت یکپارچه ترکیب شده‌اند تا نشان دهند چگونه رفتار هدفمند در انسان از تعامل بین مکانیزم‌های زیستی، فرهنگی، و معنوی شکل می‌گیرد و چگونه هوش مصنوعی می‌تواند این تعادل را به خطر بیندازد. هدف این متن، ارائه‌ی یک نمای کلی منسجم است که نه‌تنها علمی و دقیق باشد، بلکه برای مخاطب عام نیز قابل‌فهم و الهام‌بخش باشد.

سایبرنتیک: چارچوبی برای رفتار هدفمند

سایبرنتیک، علمی که نوربرت وینر در دهه‌ی 1940 پایه‌گذاری کرد، مطالعه‌ی کنترل و ارتباطات در سیستم‌های زیستی و مصنوعی است. وینر رفتار هدفمند را نتیجه‌ی وجود یک هدف و مکانیزم بازخورد تعریف می‌کند. بازخورد به سیستم اجازه می‌دهد تا با مقایسه‌ی وضعیت کنونی با هدف موردنظر، رفتار خود را تنظیم کند. برای مثال، یک ترموستات با اندازه‌گیری دمای اتاق و تنظیم گرمایش، رفتار هدفمندی برای حفظ دمای مطلوب نشان می‌دهد. در انسان، این فرآیند می‌تواند به تصمیم‌گیری‌های آگاهانه تشبیه شود، مانند کارمندی که با بازخورد مدیرش عملکرد خود را بهبود می‌بخشد.

ماکسول مالتز در کتاب سایکو-سایبرنتیک (1960) این مفهوم را به روان‌شناسی انسانی گسترش داد. او معتقد بود که ذهن انسان مانند یک سیستم سایبرنتیک عمل می‌کند و از طریق تصویر ذهنی (Self-Image) و بازخورد، رفتارهای هدفمند را هدایت می‌کند. برای مثال، فردی که خود را به‌عنوان یک ورزشکار موفق تصور می‌کند، با تمرین مداوم و ارزیابی پیشرفت خود، به سوی هدف سلامتی یا موفقیت ورزشی حرکت می‌کند. مالتز تأکید دارد که اهداف باید با تصویر ذهنی فرد هم‌راستا باشند تا رفتار هدفمند به نتیجه برسد.

دیدگاه انسان‌شناسی: فرهنگ و رفتار هدفمند

انسان‌شناسی رفتار هدفمند را در بستر فرهنگ بررسی می‌کند. فرهنگ، مجموعه‌ای از معانی، ارزش‌ها، و هنجارهایی است که رفتارهای افراد را شکل می‌دهند. کلیفورد گیرتز، انسان‌شناس برجسته، فرهنگ را «تارهایی از معنا» می‌داند که افراد در آن‌ها رفتارهای خود را تعریف می‌کنند. برای مثال، در یک جامعه‌ی سنتی، رفتار هدفمند ممکن است شامل شرکت در آیین‌های مذهبی باشد، زیرا این آیین‌ها به حفظ هویت جمعی کمک می‌کنند. در مقابل، در یک جامعه‌ی صنعتی، هدف ممکن است دستیابی به موفقیت حرفه‌ای باشد که با ارزش‌های فردگرایی هم‌خوانی دارد.

این دیدگاه با سایبرنتیک پیوند می‌خورد، زیرا فرهنگ مانند یک سیستم بازخورد عمل می‌کند که اهداف افراد را هدایت می‌کند. برای مثال، یک جوان در یک جامعه‌ی دینی ممکن است از طریق آموزش‌های مذهبی و بازخورد اجتماعی (مانند تأیید بزرگ‌ترها) یاد بگیرد که احترام به دیگران هدفی ارزشمند است. این فرآیند مشابه مکانیزم‌های سایبرنتیک است که در آن بازخورد، رفتار را به سوی هدف تنظیم می‌کند.

دیدگاه حکمت اسلامی: هدف والای انسان از نگاه امام علی (ع)

حکمت اسلامی، به‌ویژه در تعالیم امام علی (ع)، رفتار هدفمند را در راستای هدف والای آفرینش انسان تعریف می‌کند: شناخت خدا، عبادت او، و آمادگی برای حیات اخروی. این دیدگاه با سایبرنتیک و انسان‌شناسی پیوند می‌خورد، زیرا هدف‌گذاری انسان را نه‌تنها نتیجه‌ی مکانیزم‌های زیستی یا فرهنگی، بلکه نتیجه‌ی نیت الهی می‌داند. امام علی (ع) در احادیث متعدد بر این نکته تأکید کرده‌اند که رفتارهای انسان باید به سوی مقصدی متعالی هدایت شوند. در زیر، چند حدیث معتبر از نهج‌البلاغه آورده شده است:

  • حدیث: «جهان پلی است، از آن عبور کنید، اما بر آن خانه نسازید» (نهج‌البلاغه، خطبه 132). این سخن نشان می‌دهد که رفتار هدفمند باید انسان را به سوی آخرت هدایت کند، نه اینکه در اهداف زودگذر دنیوی متوقف شود.
  • حدیث: «هر که خود را شناخت، پروردگارش را شناخت» (نهج‌البلاغه، حکمت 178). این حدیث خودشناسی را به‌عنوان مبنای معرفت الهی و هدفی بنیادین معرفی می‌کند.
  • حدیث: «بهترین اعمال، دوست داشتن برای خدا و نفرت داشتن برای خداست» (نهج‌البلاغه، حکمت 130). این سخن بر اهمیت نیت خالص در رفتارهای هدفمند تأکید دارد.

این تعالیم با ایده‌ی مالتز در سایکو-سایبرنتیک هم‌راستا هستند، زیرا هر دو بر نقش تصویر ذهنی و نیت در هدایت رفتار تأکید دارند. در حکمت اسلامی، تصویر ذهنی انسان باید با ایمان به خدا و هدف اخروی هم‌خوانی داشته باشد تا رفتارش هدفمند و متعالی باشد.

تأثیر هوش مصنوعی بر رفتار هدفمند

هوش مصنوعی (AI)، به‌عنوان محصولی از اصول سایبرنتیک، توانایی خلق سیستم‌هایی با رفتارهای هدفمند را دارد. برای مثال، یک سیستم هوش مصنوعی در پزشکی می‌تواند با تحلیل داده‌ها، بیماری‌ها را تشخیص دهد. اما بدون نظارت مناسب، این فناوری می‌تواند رفتار هدفمند انسانی را مختل کند:

  • محدودیت خودمختاری: الگوریتم‌های هوش مصنوعی، مانند آن‌هایی که در پلتفرم‌های دیجیتال استفاده می‌شوند، می‌توانند با ارائه‌ی محتوای هدفمند، انتخاب‌های انسان را محدود کنند. برای مثال، پیشنهادهای شخصی‌سازی‌شده در شبکه‌های اجتماعی ممکن است افراد را به سمت مصرف‌گرایی یا سرگرمی‌های بی‌فایده سوق دهند، که با اهداف متعالی مانند خودشناسی یا خدمت به جامعه در تضاد است.
  • تضاد با ارزش‌های انسانی: هوش مصنوعی ممکن است ارزش‌هایی را ترویج کند که با نظام‌های معنایی فرهنگی یا دینی هم‌خوانی ندارند. برای نمونه، تأکید بیش از حد بر بهره‌وری یا سودآوری در سیستم‌های هوش مصنوعی می‌تواند انسان را از اهداف معنوی، مانند عبادت یا همدلی، دور کند.
  • جایگزینی تصمیم‌گیری انسانی: وقتی هوش مصنوعی تصمیم‌های کلیدی (مانند مدیریت منابع یا انتخاب‌های شغلی) را بر عهده می‌گیرد، ممکن است انسان احساس کند کنترل زندگی‌اش را از دست داده است. این امر می‌تواند با هدف والای انسان، که در حکمت اسلامی شناخت خدا و آمادگی برای آخرت است، در تضاد باشد.

این چالش‌ها نشان می‌دهند که هوش مصنوعی، اگرچه ابزاری قدرتمند است، باید در چارچوبی طراحی شود که با اهداف انسانی و الهی هم‌راستا باشد. همان‌طور که وینر هشدار داده بود، ماشین‌ها بندگان خوبی هستند، اما اگر کنترل آن‌ها از دست انسان خارج شود، می‌توانند به اربابانی آسیب‌رسان تبدیل شوند.

رفتار هدفمند، به‌عنوان حرکتی به سوی یک هدف، در سایبرنتیک، انسان‌شناسی، و حکمت اسلامی به‌صورت یکپارچه قابل‌فهم است. سایبرنتیک (وینر و مالتز) رفتار هدفمند را نتیجه‌ی بازخورد و تصویر ذهنی می‌داند، انسان‌شناسی آن را در بستر فرهنگ و نظام‌های معنایی تحلیل می‌کند، و حکمت اسلامی (با تکیه بر تعالیم امام علی علیه‌السلام) آن را در راستای شناخت خدا و آمادگی برای آخرت تعریف می‌کند. این دیدگاه‌ها در یک نقطه به هم می‌رسند: رفتار هدفمند نیازمند هدفی متعالی و مکانیزمی برای تنظیم و ارزیابی است. هوش مصنوعی، به‌عنوان محصولی از سایبرنتیک، می‌تواند این رفتار را تقویت کند، اما بدون نظارت، ممکن است انسان را از اهدافش دور سازد. برای حفظ رفتار هدفمند، باید فناوری را در خدمت ارزش‌های انسانی و الهی به کار گرفت، تا همان‌طور که امام علی (ع) فرموده‌اند، انسان به سوی شناخت پروردگارش هدایت شود.

سهیل سلیمی

منابع

  1. Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  2. Maltz, M. (1960). Psycho-Cybernetics. Prentice-Hall.
  3. نهج‌البلاغه، گردآوری سید رضی، ترجمه به فارسی توسط محمد دشتی. قابل دسترسی در: https://www.al-islam.org/nahj.
  4. Geertz, C. (1973). The Interpretation of Cultures. Basic Books.