|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |
|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |

هوش مصنوعی، و محدودیت‌های یک سلطه تکنیکی

هوش مصنوعی، و محدودیتهای یک سلطه تکنیکی

·         حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است.

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر سایبرنتیک و هوش مصنوعی / نویسنده و فیلمساز)

مقدمه

نفوذ سریع و همهجانبه هوش مصنوعی در زندگی روزمره بشر، نوید عصری تازه از بازتعریف نقش انسان را میدهد. اما این پیشرفت خیرهکننده، اگرچه در سطوح نرمافزاری بسیار در دسترس و نافذ شده است، در حوزههای سختافزاری، زیربنایی و اخلاقی با محدودیتهای بنیادینی مواجه است که نهتنها ماهیت کار و معنا را زیر سؤال میبرد، بلکه میتواند به حذف غیرقابل بازگشت بسیاری از ابعاد انسانی بینجامد.

از منظر علوم سایبرنتیک، ما با سیستمی روبهرو هستیم که در آن بازخورد انسانـماشین در برخی حوزهها بهطرز نگرانکنندهای از تعادل خارج شده و در عوض بهجای همکاری، به جایگزینی یکسویه میل دارد. این مسئله بهویژه در حرفههایی با ساختار سادهتر و کمهزینهتر بروز یافته است.


1.  تضاد سختافزار و نرمافزار، نامتوازن و نابرابر:

چرا در برخی حوزهها سرعت نفوذ بالا، و در برخی دیگر کند است؟

پدیدهای که میتوان آن را تضاد سختافزار و نرمافزار نامید، یکی از کلیدیترین عوامل محدودیت نفوذ همگن هوش مصنوعی در تمامی حوزههاست. فناوریهایی مثل مدلهای زبانی مولد Generative Language Models یا ابزارهای خلق تصویر و موسیقی با کمک هوش مصنوعی، بر بستر گوشیهای هوشمند و رایانههای شخصی اجرا میشوند؛ درحالیکه خودروهای خودران یا تجهیزات هوشپزشکی نیازمند سختافزارهایی پیچیده، گرانقیمت، با سطح بالایی از اطمینان و مسئولیتپذیری هستند.

از منظر فنی، این تفاوت را باید با رجوع به نظریههای پایهای در علوم سایبرنتیک و فلسفه فناوری تحلیل کرد.

نوربرت وینر، بنیانگذار علم سایبرنتیک، در کتاب معروف خود Cybernetics: or Control and Communication in the Animal and the Machine (۱۹۴۸) یادآور میشود: هر سامانهای تنها در صورتی کارآمد است که بتواند بازخورد دقیق دریافت کرده و پاسخ خود را تنظیم کند. بدون این تعامل مستمر، سیستم یا از کنترل خارج میشود یا ناکارآمد میگردد.

در حوزههایی مانند تولید محتوا یا گفتوگوی ماشینی، ورودی و خروجی سادهاند: یک متن وارد میشود، و ماشینی با یک مدل زبانی، پاسخی میسازد. بازخورد نیز فوری و دیجیتال است (لایک، زمانماندن کاربر، کلیک بعدی). بنابراین، سیستم میتواند بهسرعت خودش را تنظیم و بهینه کند. این همان محیط ایدهآل سایبرنتیکی برای هوش مصنوعی است.

اما در حوزههایی مانند خودروهای خودران یا جراحی رباتیک، ورودیها شامل متغیرهای فیزیکی، زیستی، اخلاقی و موقعیتیاند. بازخوردها ممکن است دیرهنگام، مبهم، یا جبرانناپذیر باشند (مثلاً مرگ یک بیمار یا تصادف در خیابان). بههمین دلیل، نفوذ هوش مصنوعی در این حوزهها با تأخیر و تردید همراه است. چون فناوری نمیتواند تضمین کند که پاسخهایش «امن»، «مسئولانه» و «اخلاقی» خواهند بود، آنهم در وضعیتی که پاسخ در ماشین اساساً بر اساس اولویت تعریف می شود.

یکی از منتقدان برجسته فناوری، ژوزف وایزنباوم Joseph Weizenbaum ، دانشمند علوم کامپیوتر MIT و خالق برنامهی مکالمهمحور ELIZA، در کتاب مهم خود Computer Power and Human Reason: From Judgment to Calculation (۱۹۷۶) به نکتهای اساسی اشاره میکند: فقط به این دلیل که یک ماشین قادر به انجام کاری است، دلیل نمیشود که باید آن را به انجام آن واداشت.

وایزنباوم هشدار میدهد که حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است. او تفاوت میان «حسابگری» و «قضاوت» را کلیدی و مهم میداند و معتقد است: واگذاری تصمیمگیری به ماشینها، بدون فهم زمینهی انسانی، نه تنها عقلانیت را تهی میکند، بلکه میتواند به شکلگیری نوعی اتوماسیون بیروح و فاقد مسئولیت منجر شود.

برای مثال، اگر یک سیستم تشخیص تصویر بتواند غدهای مشکوک را در تصویر اسکن تشخیص دهد، این به معنای درک بالینی، مشاوره اخلاقی، یا فهم وضعیت روانی بیمار نیست. همینطور، اگر یک خودرو بتواند علائم راهنمایی را بخواند، نمیتواند اخلاقاً تصمیم بگیرد که در یک صحنه ی احتمالی تصادف بین خودرو و عابر پیاده، بین حفظ جان سرنشین و عابر پیاده کدام را انتخاب کند.


۲. اولین قربانیان

تئوریهای حوزه سایبرنتیک، مانند آنچه نوربرت وینر Norbert Wiener بنیان گذاشت، به ما یادآوری میکنند که نظامهای بازخوردی، زمانی بهینهاند که میان ورودی و خروجی انسان و ماشین، توازن دقیق برقرار باشد. اما در مشاغلی مانند نویسندگی، طراحی گرافیک، ترجمه، آموزش آنلاین و حتی روزنامهنگاری، فیلمسازی ساختار اطلاعاتی بسیار قابل الگوسازی و تقلید است. بنابراین، این حوزهها بهسرعت توسط مدلهای هوش مصنوعی بلعیده میشوند.

برنارد استیگلر Bernard Stiegler، فیلسوف فرانسوی، در کتاب فروپاشی زمان و تکنولوژی Technics and Time  هشدار میدهد که تکنولوژی اگر بدون حافظه انتقادی و آموزش عمومی گسترش یابد، نهتنها ابزار رهایی نخواهد بود، بلکه عامل انفجار حافظه جمعی و تهی شدن معنا خواهد شد.


۳. تحلیل محتوای امکان سنجی در دو نمونهی ذکر شده در بالا:

در پزشکی، هوش مصنوعی بهصورت آزمایشگاهی در حال پیشرفت است؛ الگوریتمهایی مانند تشخیص سرطان در تصاویر رادیولوژی یا پایش علائم حیاتی، نشان میدهند که در آینده، نقش پزشکان عمومی تا حدی قابل جایگزینی است. اما تحقق این امر، نیازمند ابزارهایی است که نهتنها دقت بالا، بلکه تأییدیههای اخلاقی، قانونی و فنی نیز داشته باشند. در بسیاری از کشورها، قوانین مربوط به مسئولیت حقوقی خطاهای ماشینی هنوز تدوین نشدهاند.

در مورد خودروهای خودران نیز با مشکلی مشابه مواجهیم. هوش مصنوعی این خودروها به دادههای محیطی بلادرنگ، تعامل با دیگر وسایل نقلیه و پردازش وضعیت انسانی نیاز دارد که فعلاً بهشکل گسترده و قابل اطمینان محقق نشدهاند. همانطور که آیوکای اینادا  Ayokai Inada، اندیشمند ژاپنی در حوزه فلسفه تکنولوژی، میگوید: هوش مصنوعی بدون هوش اجتماعی، همانقدر خطرناک است که جراح بدون وجدان.


۴. بحران معنا و فروپاشی میانجی انسانی

با حذف کار انسان از فرآیندهای خلاقانه، آنچه از دست میرود فقط شغل نیست، بلکه مشارکت در تولید معنا، حافظه فرهنگی و روابط اجتماعی است. در رسانهها، محتواهای تولیدشده توسط الگوریتم، نوعی انباشت بیروح از دادههای بیزمینه را شکل میدهد که نمیتواند پیوندی زنده با زندگی انسان برقرار کند.


۵. نتیجهگیری: تکنولوژی باید پاسخگو باشد، نه فقط کارآمد

نفوذ هوش مصنوعی در حوزههایی با مقاومت زیرساختی و اخلاقی بالا کند خواهد بود، و این کندی نه ضعف تکنولوژی، بلکه نشانه بلوغ تمدنی ماست. نباید از هر ابزار جدید، صرفاً بهدلیل کارآمدی ظاهریاش استقبال کرد. آنچه لازم است، بازخوانی انتقادی نسبت ما با تکنولوژی است؛ بازخوانیای که در آن نقش انسان، نه بهعنوان مصرفکننده، بلکه بهعنوان قوامدهنده معنا و مسئولیتپذیری، حفظ شود.

سهیل سلیمی


منابع


  1. Martin Heidegger, The Question Concerning Technology, 1954
    مقالهای فلسفی درباره ماهیت تکنولوژی و نگاه وجودی به ابزار
  2. Bernard Stiegler, Technics and Time, Vol.1–3
    سهگانهای درباره نسبت حافظه، فرهنگ و فناوری
  3. Norbert Wiener, Cybernetics: Or Control and Communication in the Animal and the Machine, 1948
    کتاب بنیادین در نظریه سایبرنتیک و تعامل سیستمها
  4. Shoshana Zuboff, The Age of Surveillance Capitalism, 2019
    تحلیل ساختارهای قدرت در فناوریهای مبتنی بر داده
  5. Ayokai Inada, Ethics in Autonomous Systems, Tokyo Tech Press
    بحث فلسفی درباره مسئولیت و هوش مصنوعی در شرق آسیا
  6. Nicholas Carr, The Shallows: What the Internet Is Doing to Our Brains, 2010
    تحلیلی روانشناختی درباره تأثیر فناوری بر تفکر انسان