|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |
|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |

* لطفا برای ارتباط مستقیم  از ایمیل  salimisoheil@yahoo.com  استفاده نمایید. یا برای تماس و ارسال پیام از طریق نرم‌افزار ایتااینجا کلیک کنید. متشکرم

دیدگاه و نظر مخاطبان جهانی فیلم سینمایی "فرشتگان قصاب" نویسنده و کارگردان سهیل سلیمی

این مجموعه شامل آرا و نظراتِ مخاطبان جهانی فیلم سینمایی "فرشتگان قصاب" به نویسندگی و کارگردانی: سهیل سلیمی و تهیه کنندگی: محمد قهرمانی می‌باشد. در این مجموعه نظرات مخاطبانی از ترکیه، انگلیس، آمریکا، اندونزی، استرالیا، نیجریه، کانادا، سوریه، اسپانیا، هند، آلمان و فرانسه، در قالب "عکس نوشت" گردآوری و منتشر شده است. در میان این مخاطبین، افراد صاحب نامی چون (استیو بسویک تهیه کننده فیلم لژیون) و (مایکل کاسیا نویسنده فیلم مخروط کاج چسبنده) و (استیوارت مکنیون تهیه کننده سریال مردی در قلعه بلند) نیز دیده می‌شود.





برای مطالعه تمام نظرات به  لینک: https://soheilsalimi.blogsky.com/%d8%af%db%8c%d8%af%da%af%d8%a7%d9%87-%d9%88-%d9%86%d8%b8%d8%b1-%d9%85%d8%ae%d8%a7%d8%b7%d8%a8%d8%a7%d9%86-%d8%ac%d9%87%d8%a7%d9%86%db%8c-%d9%81%db%8c%d9%84%d9%85-%d8%b3%db%8c%d9%86%d9%85%d8%a7%db%8c%db%8c-%d9%81%d8%b1%d8%b4%d8%aa%da%af%d8%a7%d9%86-%d9%82%d8%b5%d8%a7%d8%a8-%d9%86%d9%88%db%8c%d8%b3%d9%86%d8%af%d9%87-%d9%88-%da%a9%d8%a7%d8%b1%da%af%d8%b1%d8%af%d8%a7%d9%86-%d8%b3%d9%87%db%8c%d9%84-%d8%b3%d9%84%db%8c%d9%85%db%8c  مرا جعه نمایید.


سایبرنتیک و هوش مصنوعی: مسئله این است؛ برده یا ارباب!

The Machine is a Great Slave But a Bad Master. Norbert Wiener

نوربرت وینر در کتاب سایبرنتیک می نویسند:
ماشین بنده ای عالی ست اما اربابی بد! در این متن به این نگاه وینر می پردازم که در آینده ای نزدیک به چالشی میان انسان و ماشین بدل خواهد شد.

سایبرنتیک و هوش مصنوعی: ماشین، بنده‌ای عالی‌ست اما اربابی بد !

با وجود مزایای فراوان، پیشرفت سریع هوش مصنوعی و پیچیدگی روزافزون سیستم‌های سایبرنتیک خطراتی را نیز به همراه دارد. یکی از نگرانی‌های اصلی، کاهش کنترل انسانی بر سیستم‌های خودمختار است. برای مثال، الگوریتم‌های یادگیری ماشین که در شبکه‌های اجتماعی استفاده می‌شوند، می‌توانند با تقویت محتوای جنجالی یا اطلاعات نادرست، به‌صورت غیرمستقیم رفتارهای اجتماعی را هدایت کنند. این پدیده نشان‌دهنده‌ی تبدیل شدن ماشین از یک ابزار خدمت‌رسان به نیرویی است که می‌تواند بر تصمیم‌گیری‌های انسانی تأثیر منفی بگذارد.
برای مطالعه متن کامل به این  لینک 
مرا جعه کنید.

 https://soheilsalimi.blogsky.com/1404/03/05/post- 305/%d8%b3%d8%a7%db%8c%d8%a8%d8%b1%d9%86%d8%aa%db%8c%da%a9-%d9%88-%d9%87%d9%88%d8%b4-%d9%85%d8%b5%d9%86%d9%88%d8%b9%db%8c-%d9%85%d8%b3%d8%a6%d9%84%d9%87-%d8%a7%db%8c%d9%86-%d8%a7%d8%b3%d8%aa-%d8%a8%d8%b1%d8%af%d9%87-%db%8c%d8%a7-%d8%a7%d8%b1%d8%a8%d8%a7%d8%a8-  


آلبوم موسیقی بی کلام #روزِ_دوازدهم

آلبوم موسیقی روزِ دوازدهم / آهنگ‌سازی و تنظیم: سهیل سلیمی

نام قطعات به تفکیک قرارگیری در آلبوم:

1. روز دوازدهم

2. یک روز قبل

3. خواب ناز

4. شمارش معکوس

5. پس از حادثه

6. قلب ایران

7. گونه‌های بارانی

8. ایستاده در توفان

9. مادرم

10. برای برادرم

11. خواهران باران

12. حماسه‌ی ایرانی

13. در پناه آسمان

14. زیر بال‌های میکائیل

15. دیدن روی ماه

16. سیلی سخت

17. امیدوار تا ابد

18. در آستانه‌ی پیروزی

19. مشت ایرانی

20. فجر پیروزی

21 . صبح روزِ دوازدهم


لینک دانلود آلبوم:                 https://musics.cysp.ir/soheilsalimi

Sun Tzu's Dream / رویای سون تزو - نویسنده، آهنگساز، تهیه کننده و کارگردان: سهیل سلیمی

رویای سون تزو — مستند جنگ بیولوژیک، سایبرنتیک و مهندسی جهانی قدرت | نویسنده تهیه کننده و کارگردان: سهیل سلیمی

آنچه در رویای سون تزو خواهید دید:


۱. مقدمه: رویای سون تزو در عصر جدید

سون تزو، استراتژیست بزرگ چینی، در کتاب "هنر جنگ" می‌نویسد: «بهترین پیروزی آن است که بدون جنگ، دشمن را تسلیم کنی.» این آرمان امروز به‌گونه‌ای مدرن با ابزارهایی مانند ویروس‌ها، رسانه، ترس و تکنولوژی‌های کنترل محقق شده است. مستند پیش‌رو تلاشی است برای تحلیل این نبرد مدرن.


۲. آغاز کرونا: جرقه یک جنگ خاموش

شیوع ویروس کرونا در شب یلدای ۱۳۹۸ آغازگر دوران تازه‌ای بود. به‌سرعت، دنیا به سمت آشفتگی، ترس و تعطیلی کشیده شد. کمبود ماسک، دارو، و درگیری میان کشورها بر سر تجهیزات بهداشتی، چهره‌ای از بحران جهانی را نمایان کرد. اما آیا این پاندمی تصادفی بود؟


۳. سایبرنتیک و بایوسایبرنتیک: دانش سلطه بر حیات

سایبرنتیک دانش کنترل و هدایت است. وقتی این دانش بر پدیده‌های زیستی چون ویروس‌ها اعمال شود، بایوسایبرنتیک شکل می‌گیرد: سلطه بر جوامع از مسیر کنترل زیستی. از کنترل یک ویروس تا کنترل اقتصاد، سیاست و فرهنگ — همه می‌توانند بخشی از این مهندسی باشند.


۴. بازطراحی راهبردها: از جنگ جهانی اول تا جنگ جهانی چهارم

در تاریخ جنگ‌ها، گاه بیماری‌ها جایگزین توپ و تفنگ شده‌اند. انگلیس، ژاپن و آمریکا نمونه‌هایی از قدرت‌هایی هستند که از سلاح‌های بیولوژیک برای حذف دشمنان استفاده کردند. اکنون، جنگ بیولوژیک در قالب کرونا شاید بازطراحی همان راهبردهاست.


۵. جنگ‌های بیولوژیک در تاریخ معاصر

از پتوی آلوده به آبله که به بومیان آمریکا داده شد تا آزمایش‌های بیولوژیک ارتش آمریکا بر شهروندان خود، تاریخ مملو از استفاده از بیماری به عنوان سلاح است. ایران نیز قربانی سلاح‌های شیمیایی رژیم بعث عراق بوده است.


۶. تجارت سلامت و اقتصاد پاندمی

صنعت درمان به یکی از پرسودترین صنایع جهان بدل شده است. شرکت‌های داروسازی، بیمارستان‌ها، تولیدکنندگان واکسن و تجهیزات پزشکی، همگی از هر بحران سلامت جهانی سود می‌برند. تضاد منافع میان سود و سلامت عمومی، سوالی اساسی را ایجاد می‌کند: آیا سلامت باید تجارت باشد؟


۷. نقش رسانه در ایجاد ترس و کنترل اجتماعی

رسانه‌ها قدرتی بی‌نظیر در القای ترس دارند. ترسی که سیستم ایمنی بدن را تضعیف و مردم را در برابر بیماری آسیب‌پذیر می‌کند. پاندمی کرونا، نمونه‌ای از استفاده هدفمند از رسانه برای القای ترس و فرمانبرداری جمعی بود.


۸. پروژه‌های محرمانه: از ام کی اولترا تا پروژه کرونا

اسناد متعددی از پروژه‌هایی نظیر ام.کی.اولترا، واحد ۷۳۱ ژاپن، آزمایش‌های ارتش آمریکا در فورت دیتریک و پروژه‌های کنترل ذهن، پرده از اهداف پنهان قدرت‌های جهانی در بهره‌برداری از علم و تکنولوژی برای تسلط بر انسان‌ها برمی‌دارند.


۹. شبیه‌سازی‌های پیش از کرونا و اسناد آینده‌نگر

از رویداد شبیه‌سازی‌شده «ایونت ۲۰۱» تا پیش‌بینی بنیاد راکفلر در سال ۲۰۱۰، شواهدی وجود دارد که پاندمی کرونا سناریویی طراحی‌شده بوده است. سندهای فراوانی پیش از وقوع کرونا، وقوع چنین بحرانی را با دقت شگفت‌آور پیش‌بینی کرده بودند.


۱۰. کنترل علم، سانسور و نظم نوین جهانی

تحقیقات علمی در دوران کرونا دچار سانسور شدید شدند. مقالاتی که خطرات واکسن یا منشأ ویروس را بررسی می‌کردند، منتشر نمی‌شدند. دانش، ابزاری شده برای تحکیم قدرت، نه روشنگری. این سانسور علمی، بخشی از نظم نوین جهانی است.


۱۱. نتیجه‌گیری: آیا جنگ آینده از پیش آغاز شده؟

مستند حاضر با نگاهی عمیق به تاریخ، علم، رسانه و سیاست، سعی دارد تصویری واقع‌بینانه از دنیای پساکرونا ارائه دهد. دنیایی که در آن ویروس، رسانه، سایبرنتیک و اقتصاد ابزاری برای مهندسی جهانی قدرت هستند.



لینک تماشای مستند رویای سون تزو :     Sun Tzu's Dream  https://www.youtube.com/watch?v=c_tn33r3q_0

پیش‌نیازهای یک موسیقی‌دان آینده (سهیل سلیمی)

اهمیت شناخت سبک، ژانر، لحن و سازشناسی در خلق موسیقی با هوش مصنوعی: پیش‌نیازهای یک موسیقی‌دان آینده

[سهیل سلیمی] نویسنده، آهنگساز، کارگردان و تهیه کننده / مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی

چکیده
با شتاب‌گیری مدل‌های مولد هوش مصنوعی صوتی (مانند Suno, Udio, MusicLM, Jukebox و مدل‌های منبع‌باز نظیر MusicGen و AudioCraft)، خلق موسیقی دیگر یک مهارت انحصاری متخصصان آموزش‌دیده نیست. اما خروجی‌های این مدل‌ها، هرچند از نظر فنی بی‌نقص به نظر می‌رسند، غالباً فاقد «هویت ژانری»، «انسجام لحنی» و «بافت صوتی معتبر» هستند. این مقاله استدلال می‌کند که بدون درک عمیق چهار رکن بنیادین موسیقی یعنی (۱) سبک (Style)، (۲) ژانر (Genre)، (۳) لحن و بیان (Tone & Expression) و (۴) سازشناسی و ارکستراسیون (Instrumentology & Orchestration)، هوش مصنوعی قادر به خلق آثار «معنادار» و «فرازمانی» نخواهد بود. این چهار رکن نه تنها به عنوان پرامپت‌های متنی ساده، بلکه به صورت دانش ساختاریافته و قابل تزریق به لایه‌های آموزش مدل‌ها باید وارد چرخه شوند. در نهایت، پیشنهاد یک چارچوب چهارلایه‌ای تحت عنوان «چرخه‌ی شناخت موسیقیایی هوش مصنوعی» (AI Musicology Cycle) ارائه می‌شود که می‌تواند به عنوان نقشه راه نسل بعدی مدل‌های مولد صوتی مورد استفاده قرار گیرد.

کلیدواژه‌ها: هوش مصنوعی مولد، موسیقی‌شناسی محاسباتی، ژانرشناسی، سازشناسی، پرامپت‌مهندسی پیشرفته، بیان موسیقیایی

۱. مقدمه

در سال ۲۰۲۵، تولید یک قطعه‌ی کاملاً ارکسترال با کیفیت استودیویی تنها در چند ثانیه ممکن شده است. اما پرسش اصلی باقی است: آیا این قطعه «موسیقی» است یا صرفاً «صوت سازمان‌یافته»؟ تجربه‌ی شنیداری میلیون‌ها قطعه‌ی تولیدشده توسط هوش مصنوعی در پلتفرم‌هایی نظیر Suno و Udio نشان می‌دهد که اکثر آثار در مرز «تقلید سطحی» و «ترکیب تصادفی» معلق مانده‌اند. دلیل اصلی این پدیده، فقدان درک عمیق مدل‌ها از چهار لایه‌ی بنیادی موسیقی است که قرن‌ها توسط آهنگسازان انسانی کشف، کدگذاری و منتقل شده است.

۲. سبک (Style) به مثابه DNA موسیقی

سبک، مجموعه‌ای از تصمیمات زیبایی‌شناختی تکرارشونده است که در یک بازه‌ی زمانی-مکانی خاص شکل می‌گیرد. باخ، بتهوون، بیورک و بی‌تی‌اس هر کدام دارای امضای سبکی منحصربه‌فرد هستند. مدل‌های فعلی عمدتاً با تگ‌های کلی مانند «baroque» یا «hyperpop» آموزش دیده‌اند، اما فاقد درک از زیرلایه‌ها هستند:

  • قوانین هارمونیک خاص دوره (مثلاً ممنوعیت پنجم‌های موازی در سبک مشترک)
  • الگوهای ریتمیک غالب (مثلاً swing ratio در جاز)
  • انتخاب تمبرهای ترجیحی (مثلاً استفاده از هارپسیکورد به جای پیانو در باروک اصیل)

بدون تزریق این دانش به صورت شرطی (conditional embedding)، خروجی‌ها صرفاً «شبیه» خواهند بود، نه «معتبر».

۳. ژانر (Genre) به مثابه قواعد بازی

ژانر بیش از یک برچسب است؛ یک قرارداد اجتماعی-موسیقایی است. شنونده‌ی ژانر «ایرانی دستگاهی» انتظار حضور ردیف، گوشه، درآمد، و درآمد به اوج و فرود دارد. شنونده‌ی «دث‌متال» انتظار blast beat، palm muting و growl vocal دارد. مدل‌های فعلی این قراردادها را به صورت آماری یاد می‌گیرند، اما از منطق درونی آن بی‌خبرند. نتیجه: قطعاتی که ۹۰٪ شبیه ژانر هستند اما در ۱۰٪ باقی‌مانده به شدت «غریب» به نظر می‌رسند (uncanny valley موسیقیایی).

۴. لحن و بیان (Tone & Expression): روح گمشده‌ی موسیقی هوش مصنوعی

بزرگ‌ترین ضعف مدل‌های مولد فعلی، ناتوانی در خلق «روایت احساسی منسجم» است. یک قطعه‌ی باخ می‌تواند از آرامش به تنش و سپس به حل شدن حرکت کند. یک قطعه‌ی امبینت می‌تواند به تدریج «نوسانات دینامیکی ایجاد کند. اما اکثر مدل‌ها دینامیک را به صورت تصادفی یا بر اساس الگوهای آماری اعمال می‌کنند، نه بر اساس یک قوس دراماتیک آگاهانه. اینجاست که نیاز به «پرامپت‌های بیان‌گرا» (expressive prompts) و همچنین آموزش مدل‌ها با داده‌های MIDI غنی‌شده با annotationهای expressive (مانند velocity, timing deviation, articulation) احساس می‌شود.

۵. سازشناسی و ارکستراسیون: از تقلید صوتی تا شناخت فیزیکی

بسیاری از مدل‌ها می‌توانند صدای ویولن سل را بازتولید کنند، اما نمی‌دانند که:

  • ویولن سل در منطقه‌ی پایین‌تر از لا۳ به راحتی رزونانس نمی‌کند
  • فلوت در رجیستر بالا به راحتی overblow می‌شود
  • صدای واقعی پرکاشن ایرانی (تنبک) به شدت وابسته به تکنیک‌های انگشتی خاص است

این دانش فیزیکی-آکوستیکی باید به صورت explicit در مدل تزریق شود تا از تولید صداهای «غیرممکن فیزیکی» جلوگیری شود.

۶. پیشنهاد چارچوب: چرخه‌ی شناخت موسیقیایی هوش مصنوعی (AM-Cycle)

برای حل مسائل فوق، چارچوب چهارلایه‌ای زیر پیشنهاد می‌شود:

  1. لایه‌ی ژانرشناسی ساختاریافته (Structured Genre Ontology) درختواره‌ای از ژانرها با ذکر قواعد هارمونیک، ریتمیک، فرمی و تمبری
  2. لایه‌ی سبک‌شناسی تاریخی (Historical Style Embedding) امبدینگ‌های زمانی-مکانی که تغییرات سبکی را در طول تاریخ نشان می‌دهند
  3. لایه‌ی سازشناسی فیزیکی (Physical Instrument Modeling) مدل‌های هیبریدی که علاوه بر صدا، رفتار فیزیکی ساز را نیز شبیه‌سازی می‌کنند
  4. لایه‌ی بیان و روایت (Narrative & Expressive Control) امکان وارد کردن «قوس احساسی» به صورت گرافیکی یا متنی پیشرفته

این چهار لایه می‌توانند به صورت LoRA یا adapter به مدل‌های پایه اضافه شوند و دقت و اعتبار خروجی را به شدت افزایش دهند.

۷. نتیجه‌گیری

تا زمانی که هوش مصنوعی صرفاً «تقلید آماری» کند و نه «درک موسیقیایی»، آثارش در حد سرگرمی‌مانند و به عمق آثار بزرگ انسانی نمی‌رسند. آینده‌ی موسیقی هوش مصنوعی نه در افزایش تعداد نت‌ها، بلکه در عمق شناخت موسیقیایی نهفته است. آهنگسازان، موسیقی‌شناسان و مهندسان هوش مصنوعی باید با همکاری یکدیگر، دانش چندصدساله‌ی موسیقی را به شکلی قابل فهم برای ماشین کدگذاری کنند. تنها در این صورت است که هوش مصنوعی از «تولیدکننده‌ی موسیقی» به «خالق موسیقی» تبدیل خواهد شد.



نکته:
تمبر = رنگ صدا
یعنی «کیفیت صوتی» یک ساز یا صدا، حتی وقتی ارتفاع (pitch) و بلندی (loudness) آن کاملاً یکسان باشد.

مثال‌های روزمره

  • نت «دو» وسط پیانو با نت «دو» وسط ویولن دقیقاً همان فرکانس را دارند، اما شما بلافاصله تشخیص می‌دهید کدام پیانو و کدام ویولن است → تفاوت فقط در تمبر است.
  • صدای همایون شجریان با صدای شهرام ناظری روی یک مصرع کاملاً یکسان → تفاوت اصلی در تمبر صوتی (رنگ حنجره، رزونانس‌های خاص، فرمант‌ها) است.

از نظر علمی و آکوستیکی

تمبر توسط این عوامل تعیین می‌شود:

  • طیف هارمونیک (کدام هارمونیک‌ها قوی‌تر یا ضعیف‌ترند)
  • حمله صوتی (Attack): چقدر سریع صدا شروع می‌شود
  • واپاشی (Decay)، تداوم (Sustain) و آزاد شدن (Release) → منحنی ADSR
  • نویزها و جزئیات ریز (مثل صدای نفس در فلوت، صدای زخمه در ویولن، صدای انگشت روی پوست تنبک)

چرا تمبر در موسیقی هوش مصنوعی خیلی مهم است؟

بیشتر مدل‌های فعلی (مثل Suno یا Udio) تمبر را فقط به‌صورت «تقریبی» و آماری یاد می‌گیرند. یعنی: ممکن است صدای ویولن سل بدهند که در رجیستر خیلی پایین «بم‌تر از حد واقعی» یا «چرب‌تر از حد واقعی» باشد (چون مدل فیزیک واقعی چوب و سیم را نمی‌داند).

واژه نامه:

  • Timbre → تمبر
  • Tone → کوک (وقتی به معنای ارتفاع صدا باشد) / رنگ صدا یا لحن صوتی (وقتی به معنای کیفیت صدا باشد)
  • Tone color → رنگ صدا
  • Sound color → رنگ صدا
  • Timbral → تمبری
  • Orchestration → ارکستراسیون
  • Instrumentation → سازآرایی یا سازبندی
  • Expression → بیان موسیقیایی
  • Articulation → جمله‌بندی یا آرتیکولاسیون
  • Dynamics → شدت و ضعف یا دینامیک صوتی
  • Attack → حملهٔ صوتی
  • Decay → واپاشی صوتی
  • Sustain → تداوم صوتی
  • Release → آزادسازی صوتی
  • ADSR → حمله-واپاشی-تداوم-آزادسازی
  • Formant → فرموک
  • Harmonic spectrum → طیف هارمونیک
  • Overtone → فرا آوا
  • Resonance → تشدید یا رزونانس
  • Swing ratio → نسبت سوینگ
  • Groove → شیار ریتمیک یا گروو
  • Blast beat → ضرباهنگ انفجاری
  • Palm muting → خفه‌کردن با کف دست
  • Growl vocal → آواز غرّان یا غرش صوتی

آلبوم موسیقی روز دوازدهم

آلبوم موسیقی روز دوازدهم

آلبوم موسیقی روزِ دوازدهم

آهنگ‌سازی و تنظیم: سهیل سلیمی

تصویرسازی: گروه رسانه‌ی هوش مصنوعی سایدا

با همکاری 

آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران

 آلبوم موسیقی بی کلام #روزدوازدهم در اختتامیه چهارمین کنفرانس فضای سایبر رو نمایی  شد. این اثر با حمایت آزمایشگاه پژوهشی فضای سایبر و توسط #سهیل_سلیمی  در بیست و یک (21) قطعه ساخته شده است.




لینک دانلود آلبوم:

                                      https://musics.cysp.ir/soheilsalimi


 برای تماشای نسخه با کیفیت کلیپ به کانال یوتیوب مراجعه کنید:

youtube.com/@SOHEILSALIMI1

مطالب بیشتر در:

soheilsalimi.blogsky.com

www.soheilsalimi.ir

 audiomack.com/soheilsalimi

ارتباط:

تلگرام :  https://t.me/soheilsalimifilms

ایتا: eitaa.com/SOHEILSALIMI1


مهندسی کلمات | هنر گفت‌وگو با ماشین: استراتژی‌های پیشرفته نگارش پرامپت برای دستیابی به خروجی‌های برتر

هنر گفت‌وگو با ماشین: استراتژی‌های پیشرفته نگارش پرامپت برای دستیابی به خروجی‌های برتر

ارائه دهنده: سهیل سلیمی 

مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران

پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی

عضو هیئت مستشاری اندیشکده یقین

نویسنده، آهنگساز، کارگردان و تهیه کننده

مقدمه: از پراکنده نویسی تا مهندسی کلمات

در عصر هوش مصنوعی‌های زبانی بزرگ LLMها، پرامپت‌نویسی فراتر از یک مهارت ساده است؛ این یک مهندسی دقیق زبانی است که می‌تواند خروجی‌های مدل‌های هوش مصنوعی را از سطح متوسط به عالی ارتقا دهد. پرامپت نه تنها یک درخواست، بلکه یک ساختار طراحی‌شده است که نقش، زمینه، فرآیند تفکر و خروجی مدل را هدایت می‌کند. این مقاله، بر اساس تکنیک‌های اثبات‌شده مهندسی پرامپت مانند Chain-of-Thought و Few-Shot Prompting، یک چارچوب جامع ارائه می‌دهد

اصل اول: تعریف نقش و مسئولیت  (Role-Playing)

تعریف دقیق نقش برای مدل، محدوده پاسخ را مشخص کرده و خروجی را متمرکز می‌سازد. این تکنیک، که بخشی از Zero-Shot Prompting  است، مدل را به شبیه‌سازی یک متخصص وادار می‌کند و از پاسخ‌های عمومی جلوگیری می‌نماید.

  • پرامپت ضعیف: در مورد تأثیر هوش مصنوعی در سینما بنویس.
  • پرامپت قدرتمند: به عنوان یک منتقد سینمایی با تخصص در فناوری‌های دیجیتال، تحلیلی جامع ارائه کن در مورد چگونگی تحول هوش مصنوعی در فرآیندهای پیش‌تولید، تولید و جلوه‌های بصری در سینمای ایران و جهان. تحلیل شامل نمونه‌های واقعی مانند استفاده از AI در تولید محتوای "The Mandalorian"، چالش‌های اخلاقی (مانند حقوق مالکیت معنوی) و پیش‌بینی روندهای آینده (مانند فیلم‌سازی شخصی‌سازی‌شده) باشد.

توسعه پیشرفته ترکیب با  Meta-Prompting :  «ابتدا بهترین نقش برای پاسخ به این سؤال را پیشنهاد کن، سپس در آن نقش تحلیل کن.» این کار مدل را به خودارزیابی وادار می‌کند و دقت را افزایش می‌دهد.

اصل دوم: زمینه‌سازی و مهندسی اطلاعات  (Contextual Priming)

مدل‌های هوش مصنوعی فاقد حافظه ذاتی هستند؛ بنابراین، ارائه زمینه کامل (Context) ضروری است. این اصل، اطلاعات مرتبط، تعاریف و مثال‌ها را برای درک عمیق‌تر مسئله فراهم می‌کند و از خطاهای ناشی از ابهام جلوگیری می‌نماید.

  • پرامپت ضعیف:   یک استراتژی برای مقابله با جنگ روانی در فضای سایبر طراحی کن.
  • پرامپت قدرتمند:   با توجه به گسترش کمپین‌های جنگ روانی در شبکه‌های اجتماعی (مانند کمپین‌های روسی در انتخابات ۲۰۱۶ آمریکا به ادعای آمریکاییها) با اهداف قطبی‌سازی جامعه و تضعیف اعتماد عمومی، یک استراتژی فرهنگی-ارتباطی طراحی کن. استراتژی در سه سطح خرد (آموزش سواد رسانه‌ای به شهروندان با برنامه‌های آموزشی آنلاین)، میانی (تقویت رسانه‌های مستقل از طریق حمایت مالی و فنی) و کلان (دیپلماسی عمومی هوشمند با همکاری بین‌المللی) ساختاربندی شود.

توسعه پیشرفته: استفاده از Few-Shot Prompting: چند مثال مرتبط ارائه دهید تا مدل الگو را بیاموزد. مثلاً: «مانند استراتژی اتحادیه اروپا علیه فیک نیوز (نظارت بر پلتفرم‌ها)، استراتژی خود را برای ایران طراحی کن.» این تکنیک، بدون نیاز به آموزش مجدد، عملکرد مدل را در وظایف پیچیده بهبود می‌بخشد.

اصل سوم: ساختاربندی خروجی (Output Formatting)

مشخص کردن قالب خروجی، پردازش و کاربرد نتایج را آسان می‌کند. این اصل از خروجی‌های نامنظم جلوگیری کرده و امکان ادغام با ابزارهای دیگر (مانند APIها) را فراهم می‌نماید.

  • پرامپت ضعیف: هم‌ترین اندیشکده‌های حوزه سایبر را لیست کن.
  • پرامپت قدرتمند:  اندیشکده‌های کلیدی در حوزه حکمرانی سایبری در آمریکا و اروپا را در قالب یک جدول  Markdown  با ستون‌های 'نام اندیشکده'، 'موضع‌گیری اصلی'، 'گزارش‌های تأثیرگذار پنج سال اخیر' و 'سیاست‌های پیشنهادی' فهرست کن. حداقل پنج مورد را پوشش ده.

توسعه پیشرفته: ترکیب با JSON یا YAML برای خروجی‌های ماشینی: پاسخ را در قالب JSON با کلیدهای 'summary' و 'details' ساختاربندی کن. این روش برای توسعه‌دهندگان نرم‌افزار ایده‌آل است و خطاها را کاهش می‌دهد.

اصل چهارم: زنجیره فکر  (Chain-of-Thought Prompting)

برای مسائل پیچیده، مدل را به تفکیک فرآیند تفکر گام‌به‌گام وادار کنید. این تکنیک (CoT) خطاها را کاهش داده و شفافیت ایجاد می‌کند.

  • پرامپت قدرتمند:  برای تولید یک فیلم کوتاه با موضوع 'انسان و ابرهوش مصنوعی'، طرح اولیه‌ای ارائه کن. گام‌ها عبارتند از:
    1. خلق ایده مرکزی پارادوکسیکال مانند انسانی که AI را خلق می‌کند اما توسط آن کنترل می‌شود.
    2. طراحی شخصیت‌های اصلی با انگیزه‌های متضاد دانشمند جاه‌طلب در برابر AI اخلاق‌گرا.
    3. ترسیم قوس داستانی سه‌مرحله‌ای (مقدمه، اوج، فرجام).
    4. پیشنهاد پایان باز برای تحریک تفکر (سؤال در مورد مرز انسانیت).

توسعه پیشرفته Tree-of-Thought (ToT) : گزینه‌های متعدد برای هر گام بررسی کن و بهترین را انتخاب کن. این برای حل مسائل تصمیم‌گیری پیچیده مفید است.

اصل پنجم: تکرار و پالایش  (Iterative Refinement)

پرامپت‌ها را در گفت‌وگوهای چندمرحله‌ای پالایش کنید. این اصل، که بخشی از Multi-Turn Conversations است، خروجی را از طریق بازخورد بهبود می‌بخشد.

  • مثال‌های پالایش:
    • بخش دیپلماسی عمومی را گسترش ده و سه اقدام عملی (همکاری با اینفلوئنسرها، کمپین‌های دیجیتال، نظارت بین‌المللی) پیشنهاد کن.
    • لحن پاراگراف سوم را از طنزآمیز به آکادمیک تغییر ده.
    • محتوا را در قالب یک ارائه پاورپوینت ۱۰ اسلایدی با عنوان و محتوای هر اسلاید ساختاربندی کن.

توسعه پیشرفته Self-Consistency :  چندین خروجی تولید کنید و بهترین را انتخاب کنید. سه نسخه متفاوت تولید کن و نسخه نهایی را بر اساس بیشترین سازگاری انتخاب کن.

اصل ششم: نمونه‌گیری و یادگیری از مثال‌ها  (Few-Shot and Zero-Shot Prompting)

با ارائه مثال‌های مثبت و منفی، مدل را به تشخیص الگوها وادار کنید. این تکنیک برای کارهای خلاقانه یا تخصصی بدون داده‌های زیاد مفید است.

  • پرامپت قدرتمند:  یک شعر کوتاه در مورد طبیعت بنویس. مثال مثبت: 'برگ‌های زرد پاییزی در باد می‌رقصند، و رودخانه گویی در اندوه آن جدایی مرثیه‌ای می‌خواند' (تصویرساز و زیبا و استعاری). مثال منفی: 'درخت سبز است' (ساده و بی‌روح). حالا شعر خود را بنویس.

توسعه پیشرفتهReAct  (Reasoning and Acting) : ابتدا فکر کن، سپس عمل کن، را با مثال‌ها ترکیب کنید تا مدل بین استدلال و اجرا تمایز قائل شود.

اصل هفتم: مدیریت محدودیت‌ها و بهینه‌سازی  (Constraint Management)

محدودیت‌های مدل مانند طول توکن یا عمق را کنترل کنید تا خروجی کارآمد باشد.

  • پرامپت قدرتمند:  تحلیلی کوتاه (حداکثر ۵۰۰ کلمه) در مورد تأثیر تغییرات اقلیمی بر اقتصاد ایران ارائه کن، با تمرکز بر کشاورزی و انرژی و ارجاع به آمار واقعی.

توسعه پیشرفته Step-Back Prompting :  ابتدا سؤال را از سطح بالاتر شروع کن (مانند: اصول کلی تغییرات اقلیمی)، سپس جزئیات را تحلیل کن. این برای جلوگیری از تمرکز بیش از حد بر جزئیات مفید است.

جمع‌بندی: تبدیل به مهندس پرامپت

مهارت پرامپت‌نویسی پیشرفته، کلیدی برای بهره‌برداری حداکثری از LLMها است. با اعمال اصول هفت‌گانه تعریف نقش، زمینه‌سازی، ساختاربندی خروجی، زنجیره فکر، تکرار، نمونه‌گیری و مدیریت محدودیت‌ها شما می‌توانید خروجی‌های دقیق، خلاقانه و کاربردی تولید کنید. این چارچوب، ضعف‌هایی مانند ابهام، عدم ساختار و ناکارآمدی را برطرف کرده و بر اساس تکنیک‌های استاندارد مانند CoT و ToT بنا شده است. برای تمرین، از پرامپت‌های ساده شروع کنید و به مرور به سناریوهای پیچیده بپردازید. در نهایت، این مهارت نه تنها یک مزیت رقابتی است، بلکه ابزاری برای نوآوری در حوزه‌های متنوع از تحقیق تا کسب‌وکار محسوب می‌شود.

 سهیل سلیمی

عکس های پشت صحنه ی فیلم های سهیل سلیمی به روایت هوش مصنوعی


Behind-the-scenes photos of Soheili Salimi's films narrated by Ai

عکس های پشت صحنه ی فیلم های سهیل سلیمی به روایت هوش مصنوعی  لینک در نماشاhttps://www.namasha.com/v/95qdo294

سهیل سلیمی

نویسنده، کارگردان، آهنگساز، تدوینگر و تهیه کننده

برای سفارش تولید محتوای صوتی و تصویری، فیلم و مستند، تبلیغاتی و موسیقی به آیدی های زیر مراجعه نمایید

ارتباط:

تلگرام : https://t.me/soheilsalimifilms

ایتا: eitaa.com/SOHEILSALIMI1

خلاصه کتاب «امپراتوری آمریکا و زرادخانه سرگرمی» - برای محققین و علاقمندان به مطالعات استراتژیک فرهنگی ، سایبرنتیک و هوش مصنوعی

خلاصه کتاب «امپراتوری آمریکا و زرادخانه سرگرمی»

 برای محققین و علاقمندان به مطالعات استراتژیک فرهنگی ، سایبرنتیک و هوش مصنوعی

کتاب امپراتوری آمریکا و زرادخانه سرگرمی: قدرت نرم و تسلیحاتی‌سازی فرهنگی نوشته اریک ام. فاتور (Eric M. Fattor)، منتشرشده در سال ۲۰۱۴ توسط انتشارات Palgrave Macmillan، به بررسی نقش صنعت سرگرمی در پیشبرد قدرت نرم، سیاست خارجی و هژمونی فرهنگی ایالات متحده می‌پردازد. این کتاب با تمرکز بر ابزارهای سرگرمی مانند سینما، تلویزیون، پارک‌های موضوعی و فناوری‌های دیجیتال، استدلال می‌کند که سرگرمی به‌عنوان یک «زرادخانه» استراتژیک عمل کرده و به گسترش نفوذ آمریکا کمک کرده است. با توجه به زمینه تحقیقاتی شما به‌عنوان فیلمساز و پژوهشگر در حوزه سایبرنتیک، مطالعات استراتژیک فرهنگی و هوش مصنوعی، این خلاصه بر جنبه‌های مرتبط با تولید محتوا، فناوری‌های دیجیتال، جنگ اطلاعاتی و پیش‌زمینه‌های کاربرد هوش مصنوعی در سرگرمی و استراتژی فرهنگی تأکید دارد. خلاصه به‌صورت ساختاریافته ارائه می‌شود تا مانند خواندن کامل کتاب، تسلط بر محتوای آن را فراهم کند، با تمرکز بر ارتباط با حوزه‌های مورد علاقه شما.

مقدمه: امپراتوری آمریکا و تسلیحاتی‌سازی سرگرمی

فاتور مقدمه را با مفهوم «قدرت نرم» جوزف نای آغاز می‌کند و استدلال می‌کند که سرگرمی – از فیلم‌های هالیوودی تا پلتفرم‌های دیجیتال – به‌عنوان ابزاری برای سلطه فرهنگی عمل کرده است. او تاریخ امپراتوری آمریکا را از قرن نوزدهم تا عصر دیجیتال بررسی می‌کند و نشان می‌دهد چگونه سرگرمی ذهن‌ها را تسخیر کرده و ارزش‌های آمریکایی مانند فردگرایی، مصرف‌گرایی و لیبرالیسم را جهانی کرده است. برای پژوهشگران سایبرنتیک و AI، این بخش به نقش اطلاعات و رسانه در کنترل اجتماعی اشاره دارد، که پیش‌زمینه‌ای برای سیستم‌های هوشمند امروزی است.

اهداف کتاب

  • تحلیل تاریخی نقش سرگرمی در سیاست خارجی آمریکا.

  • بررسی چگونگی تبدیل سرگرمی به سلاح فرهنگی برای هژمونی.

  • بحث در مورد تغییرات فناوری، از سینما تا تعاملی دیجیتال، و تأثیر آن بر جنگ اطلاعاتی. فاتور تأکید می‌کند که سرگرمی نه تنها اقتصادی، بلکه استراتژیک است و می‌تواند رفتار جهانیان را شکل دهد – مفهومی مرتبط با مطالعات استراتژیک فرهنگی و سایبرنتیک.

فصل اول: ریشه‌های قدرت نرم: نمایش‌ها و نمایشگاه‌های قرن نوزدهم

این فصل به ریشه‌های فرهنگی امپراتوری آمریکا در اواخر قرن نوزدهم می‌پردازد. فاتور به نمایش‌های وایلد وست (مانند شوی بوفالو بیل) و نمایشگاه‌های جهانی (مانند نمایشگاه شیکاگو ۱۸۹۳) اشاره می‌کند که اسطوره مرز آمریکایی و برتری технологی را ترویج می‌کردند. این ابزارها، پیش‌درآمدی بر سینما، فرهنگ عامه را به‌عنوان وسیله‌ای برای نفوذ خارجی معرفی کردند. برای فیلمسازان، این فصل نشان‌دهنده چگونگی استفاده از روایت‌های بصری برای ساخت هویت ملی است، که امروزه با ابزارهای دیجیتال و AI تقویت می‌شود.

فصل دوم: هالیوود و ظهور امپراتوری مدرن (۱۹۱۴–۱۹۴۵)

فاتور نقش هالیوود در جنگ جهانی اول و دوم را بررسی می‌کند. فیلم‌هایی مانند آثار فرانک کاپرا و والت دیزنی به‌عنوان پروپاگاندا عمل کردند و ارزش‌های آمریکایی را صادر کردند. همکاری دولت و استودیوها (مانند دفتر اطلاعات جنگی) نشان‌دهنده تسلیحاتی‌سازی سینما است. این فصل برای مطالعات استراتژیک فرهنگی، مثال‌هایی از جنگ روانی ارائه می‌دهد، و برای پژوهشگران AI، به اهمیت الگوریتم‌های توزیع محتوا در پلتفرم‌های مدرن اشاره دارد – هرچند غیرمستقیم.

فصل سوم: پخش liberalism: پخش، مصرف‌گرایی و بلوغ امپراتوری آمریکا (۱۹۴۵–۱۹۶۸)

این فصل به دوران جنگ سرد و نقش تلویزیون می‌پردازد. برنامه‌هایی مانند سریال‌های خانوادگی و تبلیغات تجاری، سبک زندگی آمریکایی را به‌عنوان ایده‌آل ترویج کردند. فاتور به صادرات محتوا به اروپا و آسیا اشاره می‌کند، که بخشی از استراتژی مهار کمونیسم بود. برای حوزه سایبرنتیک، این بخش به سیستم‌های پخش به‌عنوان شبکه‌های کنترل اطلاعات می‌پردازد، که پایه‌ای برای پلتفرم‌های دیجیتال امروزی است.

فصل چهارم: پارک‌های موضوعی و تجربه چندحسی (۱۹۶۸–۱۹۹۱)

فاتور پارک‌های دیزنی را به‌عنوان فضاهای فیزیکی برای تجربه فرهنگ آمریکایی تحلیل می‌کند. این پارک‌ها با استفاده از فناوری‌های پیشرفته (مانند انیماترونیک) بازدیدکنندگان را در روایت‌های آمریکایی غوطه‌ور می‌کنند. گسترش جهانی دیزنی (مانند توکیو دیزنی‌لند) مثال‌هایی از قدرت نرم است. برای فیلمسازان، این فصل به اهمیت داستان‌گویی تعاملی اشاره دارد، و برای AI، به پتانسیل واقعیت مجازی و سیستم‌های هوشمند در سرگرمی فرهنگی می‌پردازد.

فصل پنجم: انقلاب دیجیتال و سرگرمی تعاملی (۱۹۹۱–حال)

این فصل کلیدی برای نیازهای تحقیقاتی شما است. فاتور به ظهور اینترنت، بازی‌های ویدیویی و پلتفرم‌های دیجیتال می‌پردازد. او استدلال می‌کند که سرگرمی تعاملی (مانند بازی‌های Call of Duty) روایت‌های نظامی آمریکایی را ترویج می‌کند و کاربران را به مشارکت فعال دعوت می‌کند. موضوعاتی مانند الگوریتم‌ها، داده‌کاوی و پلتفرم‌های دیجیتال (مانند فیس‌بوک و یوتیوب) بررسی می‌شوند که می‌توانند به‌عنوان پیش‌زمینه‌ای برای کاربردهای هوش مصنوعی در سرگرمی و جنگ اطلاعاتی در نظر گرفته شوند. برای مثال، فاتور به استفاده از الگوریتم‌ها برای هدف‌گذاری مخاطبان و شکل‌دهی به رفتار آن‌ها اشاره می‌کند – فرآیندی که داده‌های کاربر را جمع‌آوری و تحلیل می‌کند تا محتوای شخصی‌سازی‌شده ارائه دهد، که امروزه با AI پیشرفته‌تر شده است. او به کاربر-تولید محتوا (UGC) در یوتیوب اشاره دارد که نفوذ فرهنگی آمریکا را دموکراتیک اما همچنان هژمونیک می‌کند. این بخش به نظارت دیجیتال و جنگ اطلاعاتی می‌پردازد، که با سایبرنتیک و مطالعات استراتژیک همخوانی دارد، و پیش‌بینی می‌کند چگونه فناوری‌های نوظهور رفتار جهانی را کنترل کنند.

فصل ششم: پیامدها، مقاومت و آینده هژمونی سرگرمی

فاتور به مقاومت‌های جهانی مانند سیاست‌های فرهنگی فرانسه یا تولید محتوای بومی در چین اشاره می‌کند. او هشدار می‌دهد که وابستگی به سرگرمی ممکن است قدرت سخت آمریکا را تضعیف کند. برای حوزه AI، این فصل به پتانسیل فناوری‌های هوشمند در تقویت یا چالش هژمونی فرهنگی می‌پردازد، مانند استفاده از الگوریتم‌های هوشمند برای توزیع محتوا یا مقابله با آن.

نتیجه‌گیری

فاتور نتیجه می‌گیرد که سرگرمی کلیدی‌ترین عنصر در حفظ امپراتوری آمریکا بوده، اما با پیشرفت فناوری، چالش‌های جدیدی مانند سایبرجنگ و AI ایجاد می‌شود. او پیشنهاد می‌کند که آینده قدرت نرم به تعامل دیجیتال بستگی دارد، که برای پژوهشگران AI و استراتژی فرهنگی، فرصت‌هایی برای بررسی کنترل فرهنگی از طریق سیستم‌های هوشمند فراهم می‌کند.


تسلیحات رسانه‌ای هوش‌محور: ابزارهای نوین قدرت سایبرنتیک

تسلیحات رسانهای هوشمحور: ابزارهای نوین قدرت سایبرنتیک

AI-Powered Media Weaponry: Tools of Modern Cybernetic Power

ارائه دهنده: سهیل سلیمی  مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلم‌ساز

مقدمه (Introduction)

پیشرفتهای فناورانه در دهههای اخیر، ترکیبی بیسابقه از ابزارها را در اختیار بازیگران قدرتمند قرار داده است: دسترسی بیدرنگ به میلیاردها کاربر (real-time access to billions of users)، توان پردازش و یادگیری ماشینی برای تحلیل و هدفگذاری (machine learning for analysis and targeting)، و واسطهای تولید محتوای خودکار (automated content generation interfaces). این فناوریها، که زمانی صرفاً ابزارهای ارتباطی بودند، اکنون به تسلیحات استراتژیک در زرادخانه قدرتهای جهانی (global power arsenals) تبدیل شدهاند. این تسلیحات، که نه از طریق نیروی فیزیکی بلکه از طریق دستکاری توجه (attention manipulation)، شکلدهی ادراک (perception shaping)، و تغییر رفتار جمعی (collective behavior modification) عمل میکنند، به کنترل کنندگان قدرت، امکان میدهند تا نفوذ خود را در مقیاسی بیسابقه اعمال کنند.

این متن به بررسی موارد زیر میپردازد:

  1. سازوکارهای فنی و سازمانی تسلیحات رسانهای هوشمحور (technical and organizational mechanisms of AI-powered media weaponry)
  2. نقش حلقههای بازخورد سایبرنتیکی (cybernetic feedback loops) در تثبیت قدرت
  3. شواهد و نمونههای عملیاتی این ابزارها در جنگ شناختی (cognitive warfare)
  4. پیامدهای قانونی، اخلاقی و سیاستی (legal, ethical, and policy implications)

این تحلیل بر اساس مرور گسترده ادبیات میانرشتهای (interdisciplinary literature review) در حوزههای اطلاعاتی، رسانهای، علوم کامپیوتر، حقوق بینالملل، و مطالعات امنیت انجام شده و از منابع معتبر مانند LikeWar (Singer & Brooking, 2018) و The Age of Surveillance Capitalism (Zuboff, 2019) بهره میگیرد.

چارچوب نظری: مدیا-سایبرنتیک و جنگ شناختی

Theoretical Framework: Media-Cybernetics and Cognitive Warfare

مدیا-سایبرنتیک (media-cybernetics) مطالعه سامانههای رسانهای است که با حلقههای بازخورد دادهمحور (data-driven feedback loops) عمل میکنند. این سامانهها شامل چهار مؤلفه اصلی هستند:

  • رسانه بهعنوان حسگر (Media as Sensor): اندازهگیری واکنشها و سنجههای تعامل کاربران (user engagement metrics).
  • رسانه بهعنوان پردازشگر (Media as Processor): تحلیل دادهها و مدلسازی رفتار (data analysis and behavior modeling).
  • رسانه بهعنوان عملگر (Media as Actuator): تولید و توزیع روایتها و محتوا (narrative and content production/distribution).
  • رسانه بهعنوان سازوکار بازخورد (Media as Feedback Mechanism): بهینهسازی الگوریتمی بر اساس نتایج (algorithmic optimization).

این معماری با پارادایم سایبرنتیک (cybernetic paradigm) همخوانی دارد، که هدفش کنترل و تنظیم رفتارها از طریق جمعآوری داده و اصلاحات پیوسته (continuous data-driven adjustments) است.

جنگ شناختی (cognitive warfare)، برخلاف جنگهای سنتی، بهجای نابودی فیزیکی دشمن، بر تغییر باورها (belief alteration)، تصمیمگیریها (decision-making manipulation)، و اولویتهای انتخابی جمعیتها (population choice prioritization) تمرکز دارد. ابزارهای دیجیتال مدرن، با قابلیت توزیع پیامهای هدفمند و شخصیسازیشده (targeted and personalized messaging)، اثربخشی اقناع (persuasion effectiveness) را به سطوحی بیسابقه ارتقا دادهاند.

سازوکارهای فنی و سازمانی

Technical and Organizational Mechanisms

1. زنجیره داده (Data Supply Chain)

هر عملیات اقناعی مدرن با داده آغاز میشود. دادههای رفتاری کاربران (user behavioral data)، شبکههای ارتباطی (social network data)، متادیتا (metadata)، و دادههای حسگرهای اینترنت اشیا (IoT sensor data) جمعآوری میشوند. این دادهها پس از پاکسازی (data cleaning) برای ایجاد نمایههای مخاطبان (audience profiles) استفاده میشوند که گرایشها، حساسیتهای روانی، و نقاط آسیبپذیری (psychological vulnerabilities) را مشخص میکنند.

2. مدلها و الگوریتمها (Modeling & Targeting / Algorithmic)

الگوریتمهای یادگیری ماشینی (machine learning algorithms)، از مدلهای طبقهبندی ساده تا شبکههای عصبی عمیق (deep neural networks) و مدلهای زبانی بزرگ (large language models - LLMs)، برای پیشبینی پاسخهای محتمل (predictive behavioral modeling) و شناسایی نقاط نفوذ (vulnerability nodes) به کار میروند. این مدلها از آزمایش A/B در مقیاس گسترده (large-scale A/B testing) برای بهینهسازی پیامها استفاده میکنند.

3. تولید محتوای مقیاسپذیر (Scalable Content Generation)

فناوریهای مولد (generative technologies)، مانند مدلهای زبانی (LLMs)، مولدهای تصویر (image generators)، و ابزارهای تبدیل متن به صوت (text-to-speech tools)، امکان تولید محتوای سفارشیشده برای میلیونها مخاطب را فراهم میکنند. این محتوا شامل میمها (memes)، ویدئوهای دیپفیک (deepfakes)، و پیامهای صوتی هدفمند (targeted audio messages) است که بهصورت خودکار و در مقیاس تولید میشوند.

4. توزیع و تقویت الگوریتمیک (Algorithmic Distribution & Amplification)

پلتفرمهای دیجیتال با الگوریتمهایی که به توجه و تعامل پاداش میدهند (attention-driven algorithms)، پیامهای پرجذب (high-engagement content) را تقویت میکنند. بازیگران قدرت از شبکههای رباتیک (botnets)، حسابهای هماهنگ (coordinated accounts)، و تبلیغات هدفمند (targeted ads) برای توزیع پیامها استفاده میکنند.

5. حلقههای بازخورد میدانی (Real-time Feedback Loops)

برخلاف پروپاگانداهای سنتی، این سامانهها از کنترل در زمان واقعی (real-time control) بهره میبرند. دادههای واکنش کاربران (user reaction data) بهسرعت تحلیل شده و مدلها بهروزرسانی میشوند تا پیامها دقیقتر شوند. این حلقههای کنترلی بسته (closed control loops)، که در سایبرنتیک بهینه تلقی میشوند، اثربخشی عملیات را افزایش میدهند.

کارکردها و سناریوهای راهبردی

Functions and Strategic Scenarios

الف) اثرگذاری انتخاباتی و سیاسی (Electoral and Political Influence)

هدفگذاری دقیق و آزمایش مداوم پیامها (continuous message testing) میتواند حوزههای حساس رأیدهی (swing voter regions) را تحت تأثیر قرار دهد. گزارشهایی از دخالت در انتخابات (election interference)، مانند موارد بررسیشده توسط The Guardian (Cadwalladr & Graham-Harrison)، نشاندهنده تأثیر این ابزارها بر افکار عمومی است.

ب) تضعیف نهادها و کاهش مشروعیت (Undermining Institutions and Legitimacy)

انتشار اطلاعات نادرست (disinformation)، شایعات (rumors)، و نشتهای جعلی (fabricated leaks) میتواند اعتماد عمومی به نهادهای مدنی (civic institutions) و رسانهها را تضعیف کند، که به نفوذ سیاسی بازیگران داخلی یا خارجی (domestic/foreign actors) منجر میشود.

ج) عملیات روانی و تاکتیکهای میدان نبرد (Psychological Operations and Battlefield Tactics)

در درگیریهای مسلحانه، روایتهایی که روحیه دشمن را تضعیف (demoralization) یا نیروهای همپیمان را تهییج میکنند (motivational narratives)، اثربخشی عملیات نظامی را تغییر میدهند. نمونههای معاصر در LikeWar (Singer & Brooking, 2018) به این موضوع پرداختهاند.

د) ایجاد/مدیریت بحران و بحرانهای شناختی (Crisis Creation/Management and Cognitive Crises)

ساخت شرایط اطلاعاتی جعلی (false information conditions)، مانند گزارشهای جعلی از حوادث (fabricated incident reports)، میتواند واکنشهای سیاسی یا نظامی را به نفع بازیگران قدرت (strategic actors) برانگیزد.

پیامدهای قانونی، اخلاقی و سیاستی

Legal, Ethical, and Policy Implications

در غیاب مقررات جهانی (global regulations)، خطر سوءاستفادههای راهبردی (strategic misuse)، نقض حقوق مدنی (civil rights violations)، و تضعیف نهادهای دموکراتیک (democratic institutions) افزایش مییابد. چالشهای کلیدی شامل موارد زیر است:

  • حریم خصوصی (Privacy): جمعآوری دادهها بدون رضایت (non-consensual data collection) اعتماد عمومی را تضعیف میکند (Zuboff, 2019).
  • اخلاقیات (Ethics): استفاده از دیپفیکها و محتوای دستکاریشده (manipulated content) مسائل اخلاقی جدی را مطرح میکند.
  • قطبیسازی (Polarization): الگوریتمهای توجهمحور (attention-driven algorithms) میتوانند تنشهای اجتماعی را تشدید کنند (Tufekci, 2017).

برای مقابله، اقدام سیاستی سریع (swift policy action)، ترکیب راهکارهای فنی (technical countermeasures) مانند ابزارهای تشخیص دیپفیک (deepfake detection tools)، و تقویت سواد اطلاعاتی عمومی (public information literacy) ضروری است.

نتیجهگیری (Conclusion)

تسلیحات رسانهای هوشمحور (AI-powered media weaponry) با ترکیب رسانههای دیجیتال و هوش مصنوعی، به ابزاری کلیدی برای اعمال نفوذ و کنترل (power exertion and control) تبدیل شدهاند. منطق سایبرنتیکی (cybernetic logic) این ابزارها، با تکیه بر زنجیره داده (data supply chain)، الگوریتمهای پیشرفته (advanced algorithms)، و حلقههای بازخورد (feedback loops)، امکان شکلدهی به ادراکات و رفتارهای جمعی (collective perception and behavior) را در مقیاسی بیسابقه فراهم میکند. با این حال، مدیریت این تسلیحات اگر روی از زیر نظر سازمانهای امنیتی آنگلوساکسون و غربی خارج شود، نیازمند مقررات قوی (robust regulations)، همکاری بینالمللی (international cooperation)، و آموزش عمومی (public education) است تا از تهدیدات آنها علیه منافع عمومی (public interest) جلوگیری شود. که اگر خودمان مجهز به فضای سالم سایبر  و مدیریت انبود اطلاعات نباشیم، برای ما وجود نخواهد داشت و به صورت مدام از این نطقه ضعف به ما حمله خواهد شد.


منابع (
References)

  1. Singer, P. W., & Brooking, E. T. (2018). LikeWar: The Weaponization of Social Media. Houghton Mifflin Harcourt.
  2. Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  3. Tufekci, Z. (2017). Twitter and Tear Gas: The Power and Fragility of Networked Protest. Yale University Press.
  4. Morozov, E. (2011). The Net Delusion: The Dark Side of Internet Freedom. PublicAffairs.
  5. Woolley, S., & Howard, P. N. (2018). Computational Propaganda. Oxford University Press.

لینک / بازنشر / طغیان کاربران ناآگاه | هوش مصنوعی و بحران بی خردی | در تمنای لایک

چگونه تودههای ناآگاه مدیاسایبرنتیک را از درون میخورند؟

هوش مصنوعی در میدان بیخردی: سقوط اخلاق در عصر تولید انبوه

سایبرنتیک و بحران تولید انبوه محتوا در طغیان کاربران ناآگاه

ما اکنون با یک چرخش تلخ روبرو هستیم:

کنترل رسانه (مدیا سایبرنتیک) دیگر دست نخبگان یا حتی نظامهای عقلانی نیست، بلکه در دست بیساختاران پرصداست؛ کسانی که بدون آگاهی، نظام اخلاقی را به سخره گرفته اند و در فرآیند بازخورد رسانهای، ساختارهای معنایی را منهدم کرده اند.

متن کامل مقاله در لیک زیر 

          https://soheilsalimi.blogsky.com/1404/03/04/post-298/

زائده‌ی بی‌ارزشِ عصرِ ابتذال!

خطاب به خارگویِ بی‌مغزِ مهاجم به حریمِ فرهنگِ پارسی:  

ای نغمه‌گر پوچی و بیهودگی که قلم‌ت را به جای مرکب، در لجنزارِ جهل فرو برده‌ای! و دهان بی موقع گشوده‌ای! بدان!

شاهنامه، آیینه‌ی تمام‌نمایِ شکوه و زوالِ انسان است، شکوهی که امثال تو از فهم آن عاجزند و زوالی که تو خود را تمام قد در آن می‌بینی.

فردوسی آن ابرمردِ تاریخ‌ساز چنان کاخِ سترگی از زبان و هویت برافراشت که تا ابد جانِ ملتی را از تباهیِ فراموشی رهانید.  

اگر امروز تو می‌توانی به این زبانِ ناب، حتی همین توهین‌های پست را به زبان برانی، در سایه‌ی غیرتِ آن بزرگ‌مرد است در حفظ زبان فارسی .

چه اندوه بار است که تو، به جای سپاس‌گزاری، خارِ جهل بر راهی پاشیده‌ای که او با جانِ خویش هموار کرد.  

چه تلخ است که، هر بی‌سوادی به وساطتِ صفحه‌ای ناچیز، خود را ناقد اندیشه می‌پندارد، گسترش اندیشه‌های حقیری چون تو حاصل ولنگاری این فضای مسموم است.

فردوسی یادآورِ مردانی است که فرهنگ را با جانِ خویش آبیاری کردند، نه با زبانِ ناپاکِ چون تویی.  

خوب می دانم که تو تنها یکی از حلقه‌های زنجیره‌ای بی‌پایانِ از ناپاکان و نااهلانی هستی که در فضای مجازی، قلم و زبان به نادانی می‌آلایند، 

پس ای زائده‌ی بی‌ارزشِ عصرِ ابتذال! بدان تیشه به ریشه‌ی خود زدن، هنرِ بی‌خردان بوده و هست.

اُف گفتن به آن اندیشه برتر که ریشه در کلام حق دارد، نشانِ بیماریِ روحِ فرومایه‌ات است، نه نقدِ ادیبانه.  

رو و در تاریکیِ بی‌خردی‌ات بازبمان که سپیده‌ی فرهنگِ ایران، هرگز به های و هوی هیچ موشِ کوری، تاریک نخواهد شد.  


https://eitaa.com/soheilsalimi

نگاهی کوتاه بر هنر، هوش مصنوعی و سیستم‌های کنترل فرهنگی

تقابل یا همزیستی؟ هوش مصنوعی و هنر در سایهٔ سایبرنتیک فرهنگی

AI vs. Art: A Critical Inquiry into the Dialectics of Creativity, Power, and Cultural Cybernetics


ارائه دهنده: سهیل سلیمی  مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلم‌ساز


مقدمه: هنر، هوش مصنوعی و سیستم‌های کنترل فرهنگی

در عصرِ سایبرنتیک فرهنگی (Cultural Cybernetics)، جایی که خطوط میان انسان، ماشین و معنا محو می‌شوند، هوش مصنوعی (AI) نه تنها به عنوان ابزار، بلکه به عنوان یک عامل فرهنگی (Cultural Agent) وارد صحنهٔ تولید هنر شده است. این حضور، اگرچه با وعدهٔ دموکراتیک‌سازی خلق و دسترسی همراه است، اما در عمق خود، تعارضی بنیادین را برمی‌انگیزد: آیا هوش مصنوعی، خلاقیت انسانی را تقویت می‌کند یا جایگزین می‌شود؟

این متن، به بررسی تقابلِ ظریف میان هوش مصنوعی و هنر می‌پردازد و از چارچوب‌های نظریِ سایبرنتیک، استراتژی فرهنگی و نقد فرهنگی دیجیتال استفاده می‌کند.

۱. هوش مصنوعی به عنوان "هنرمند"؟ بازتعریفِ Creativity

واژهٔ خلاقیت (Creativity) در حوزهٔ هنر، همواره با مفاهیمی مانند شهود (Intuition)، تجربهٔ انسانی (Human Experience) و احساس (Emotion) همراه بوده است. اما هوش مصنوعی، با تولید آثاری که از نظر بصری یا شنیداری قابل قبول هستند، این تعریف را به چالش می‌کشد.

DeepDream (گوگل، ۲۰۱۵) و DALL·E (OpenAI) نمونه‌هایی از هنر ماشینی (Machine Art) هستند که از شبکه‌های عصبی عمیق برای تولید تصاویر استفاده می‌کنند.

اما آیا این فرآیند، "خلاقیت" است یا صرفاً بازتولیدِ احتمالاتِ داده‌محور (Data-Driven Probabilistic Reproduction)؟

در اینجا، مفهوم "نبوغِ شبیه‌سازی‌شده" (Simulated Genius) مطرح می‌شود: هوش مصنوعی نه خالق است، بلکه بازسازِ خلاقیتِ دیگران است. این، به تعریفِ ژان بودریار از حقیقتِ سوم (The Third Order of Simulacra) نزدیک است: جایی که کپی، اصل را محو می‌کند.

۲. تقابل یا همزیستی؟ Dialectics of Human and Machine Art

رابطهٔ میان هوش مصنوعی و هنر، صرفاً یک رقابت نیست، بلکه یک دیالکتیکِ فرهنگی (Cultural Dialectic) است که در آن، هر دو طرف یکدیگر را شکل می‌دهند.

از یک سو، هوش مصنوعی، سرعت (Speed) و مقیاس (Scale) تولید هنر را دگرگون کرده است.

از سوی دیگر، هنرمندان انسانی، هوش مصنوعی را به عنوان ابزارِ تقویت‌کنندهٔ تخیل (Imagination Amplifier) به کار می‌گیرند.

اما این همزیستی، غیرمتقارن (Asymmetric) است. داده‌هایی که هوش مصنوعی از آنها یاد می‌گیرد، عمدتاً از آثار هنرمندان انسانی گرفته شده‌اند، بدون آنکه به آن‌ها حقوق مالکیت معنوی (Intellectual Property) پرداخت شود. این، به استعمارِ دادهٔ فرهنگی (Cultural Data Colonialism) می‌انجامد.

۳. استراتژی فرهنگی و کنترلِ معنا: AI as a Cultural Weapon

هوش مصنوعی در تولید هنر، تنها یک پدیدهٔ فنی نیست، بلکه یک استراتژی فرهنگی (Cultural Strategy) است که در آن، معنا، سلیقه و هویت فرهنگی کنترل می‌شوند. اینجا هوش مصنوعی به یک سلاح فرهنگی بدل می شود.

الگوریتم‌های پیشنهاددهنده در پلتفرم‌هایی مانند Instagram یا Spotify، ذائقهٔ عمومی (Public Taste) را شکل می‌دهند.

این فرآیند، به تدریج، تک‌فرهنگی دیجیتال (Digital Monoculture) ایجاد می‌کند که در آن، تنوع فرهنگی تحت فشار قرار می‌گیرد.

مفهوم "کنترل سایبرنتیکِ فرهنگ" (Cybernetic Control of Culture) از اینجا نشات می‌گیرد: سیستم‌های هوش مصنوعی، با بازخورد (Feedback Loop)، رفتارهای فرهنگی را نظارت، پیش‌بینی و هدایت می‌کنند.

۴. هویتِ هنرمند در عصر AI: از Author به Curator

در نظریهٔ ادبی، "مرگ نویسنده" (The Death of the Author) توسط رولان بارت مطرح شد. امروز، شاید شاهد "مرگ هنرمند" (The Death of the Artist) باشیم — نه به معنای ناپدیدشدن، بلکه به معنای تغییر نقش.

هنرمند دیگر صرفاً خالق (Creator) نیست، بلکه سرپرستِ فرآیند (Process Curator) یا سردبیرِ هوش مصنوعی (AI Editor) است.

این تحول، مسئولیت اخلاقی (Ethical Responsibility) جدیدی را مطرح می‌کند: آیا هنرمندی که از AI استفاده می‌کند، برای محتوای تولیدشده پاسخگو است؟

۵. مقاومت، اعتراض و هنرِ ضدسیستمی: Counter-AI Art

در مقابلِ سیستم‌های متمرکز هوش مصنوعی، جنبش‌هایی از هنرِ اعتراضی دیجیتال (Digital Protest Art) شکل گرفته‌اند:

فیلم‌های مستندی مانند Coded Bias (Shalini Kantayya, 2020) که به سوگیری‌های هوش مصنوعی می‌پردازند.

پروژه‌های هنریِ آشکارسازِ داده (Data-Exposing Art Projects) که با استفاده از همان فناوری، آن را به چالش می‌کشند.

این نوع هنر، "سایبرنتیکِ معکوس" (Reverse Cybernetics) نامیده می‌شود: استفاده از سیستم‌های کنترلی برای فاش‌کردن و مقاومت در برابر کنترل.


جمع‌بندی: هنر، هوش مصنوعی و آیندهٔ معنا

در حالت خوشبینانه، هوش مصنوعی در هنر، نه یک تهدید مطلق است، نه یک رهایی‌بخشِ کامل. این پدیده، آینه‌ای است از تقابلِ انسان و ماشین، فرهنگ و کنترل، خلاقیت و بازتولید.


برای حفظِ انسان‌محوریِ هنر (Human-Centered Art)، باید:

۱. حقوق فرهنگیِ داده (Cultural Data Rights) را تعریف کنیم.

۲. الگوریتم‌های شفاف و قابل پاسخگویی (Explainable & Accountable AI) در هنر توسعه دهیم.

۳. هنرِ مشارکتیِ انسان-ماشین (Human-AI Co-Creation) را به عنوان یک فضای مقاومتِ فرهنگی تقویت کنیم.

در نهایت، سؤال این نیست که "آیا ماشین می‌تواند هنرمند باشد؟"، بلکه این است: "ما چه نوع فرهنگی را با این ماشین‌ها می‌سازیم؟


مفاهیم و عناوین کلیدی

سایبرنتیک فرهنگی Cultural Cybernetics

هوش مصنوعی Artificial Intelligence (AI)

خلاقیت Creativity

هنر ماشینی Machine Art

نبوغ شبیه‌سازی‌شده Simulated Genius

دیالکتیک انسان و ماشین Human-Machine Dialectic

استعمار دادهٔ فرهنگی Cultural Data Colonialism

کنترل سایبرنتیک فرهنگ Cybernetic Control of Culture

تک‌فرهنگی دیجیتال Digital Monoculture

مسئولیت اخلاقی Ethical Responsibility

هنر اعتراضی دیجیتال Digital Protest Art

سایبرنتیک معکوس Reverse Cybernetics

هنر مشارکتی انسان-ماشین Human-AI Co-Creation

حقوق فرهنگی داده Cultural Data Rights

شفافیت الگوریتمی Algorithmic Transparency

هویت هنرمند Artist Identity


منابع

Baudrillard, J. (1994). Simulacra and Simulation. University of Michigan Press.

Benjamin, W. (1936). The Work of Art in the Age of Mechanical Reproduction.

Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

Parikka, J. (2012). What is Media Archaeology?. Polity Press.

Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.


خادم افتخاری - مصاحبه کیهان با سهیل سلیمی

یک کارگردان خادم افتخاری حرم حسینی در اربعین شد(اخبار ادبی و هنری)

 یک فیلمساز، اربعین امسال به عنوان خادم افتخاری در کربلا حضور داشت. وی ضمن روایت این حضور، پیشنهادی هم برای بازنمایی رسانه‌ای حماسه عظیم راهپیمایی اربعین داد.

 سهیل سلیمی، کارگردان فیلم «فرشتگان قصاب» و تهیه‌کننده مجموعه «جنایت نامرئی» در گفت‌وگو با کیهان گفت: امسال بنده در مجموعه سخاالحسین به عنوان خادم افتخاری حرم حضرت اباعبدالله الحسین(ع)، و در بخش امانتداری خادم زوار اباعبدالله هستم، احساس می‌کنم که واقعا چه ظرفیت بزرگ و عظیمی دارد درست جلوی چشمان ما اهالی هنر و رسانه هدر می‌رود و ما هیچ برنامه‌ای برای استفاده از آن نداریماربعین امسال هم خدا را شکر با شور و شوق و شعف و شعور ویژه‌ای با حضور گسترده عاشقان اباعبدالله الحسین(ع) در حال برگزاری است و شیفتگان ایشان دسته دسته وارد کربلا می‌شوند. برای من این همیشه شگفت‌انگیز بوده که کربلا را با این حجم از نفس‌ها ملتهب و بی‌قرار ببینم، این حجم از عاشقان، این حجم از کسانی که قلب‌هایشان برای زیارت حضرت عشق می‌تپد.

وی تصریح کرد: برای خود من به عنوان یک فیلمساز جای تعجب و حیرت دارد که چطور چنین ظرفیت عظیمی هیچ سهم صحیحی در رسانه‌های ما به عنوان محصول، ندارد. می‌توانم بگویم که هر محصول رسانه‌ای با هر رده سنی که شما بخواهید تولید کنید در اربعین وجود دارد؛ اگر قرار هست که یک محصول سیاسی، یا خبری، تولید کنید این‌جا هست؛ اگر می‌خواهید یک محصول اقتصادی و روایت استراتژیک از شرایط اقتصادی کشورهای همجوار و مسلمانان تولید کنید در اربعین هست؛ اگر می‌خواهید، برنامه کودک تولید کنید، این‌جا محتوایش موجود است؛ اگر می‌خواهید فیلم‌های داستانی دراماتیک تولید کنید این‌جا محتوایش موجود است؛ اگر می‌خواهید برنامه‌های آموزشی تولید کنید با هر رویکردی و... در مراسم اربعین هست.

سلیمی ادامه داد: شاید برای خیلی از عزیزان اصلا قابل تصور نباشد وقتی می‌گویم با هر رویکردی، مثلا همین امروز جلسه‌ای در یک هیئت داشتیم؛ یکی از کسانی که این‌جا حضور داشت از متخصصین برجسته یکی از بزرگ‌ترین شرکت‌های فناوری دنیا بود که ایرانی و مسلمان هم هست و برای اربعین آمده بود اینجا، بحث‌های بسیار عمیق علمی و فنی در حوزه‌های سایبرنتیک با ایشان اتفاق افتاد‌، و این می‌توانست موضوع یک برنامه باشد. واقعا هیچ ظرفیتی در حوزه رسانه نیست که در اربعین وجود نداشته باشد و متاسفانه دیده نمی‌شود، و مغفول مانده است.

این کارشناس مطالعات استراتژیک فرهنگی همچنین در پیشنهادی برای بازنمایی این حماسه گفت: در دیدارهایی به صورت اتفاقی با برخی از بزرگان و نخبگان کشوری در حوزه و دانشگاه داشتم هم به آن عزیزان گفتم که پیشنهاد من ایجاد یک پلتفرم قدرتمند است، زیرا اربعین محتوای یک پلتفرم ویژه را می‌تواند در طول سال تامین نماید، از طریق اربعین و با موضوع اربعین و با وقایع اربعین تعزیه می‌شود و پوشش داده می‌شود و محصولاتش را تولید می‌کند. امیدوارم که روزی این ظرفیت دیده بشود و از آنها با تمام توان استفاده بشود.

لینک خبر  kayhan.ir/001KKt  

توسعه پایدار و نظم نوین تکنولوژیک: بررسی انتقادی پیامدهای کنترل‌گرایانه در عصر دیجیتال

توسعه پایدار و نظم نوین تکنولوژیک: بررسی انتقادی پیامدهای کنترل‌گرایانه در عصر دیجیتال

Sustainable Development and the New Technological Order: A Critical Study of Control-Oriented Trajectories in the Digital Age


چکیده

سند توسعه پایدار سازمان ملل (Agenda 2030) بر ایجاد جهانی عادلانه، پایدار و تاب‌آور تأکید دارد. با این حال، هم‌گرایی اهداف آن با فناوری‌های نوین نظیر هوش مصنوعی، سیستم‌های بیومتریک، اعتبار اجتماعی و ارزهای دیجیتال، الگوی تازه‌ای از حکمرانی را شکل داده که مبتنی بر تحلیل داده، نظارت دائمی، و مدیریت رفتاری جمعیت‌هاست. این مقاله، با رویکردی تحلیلی، نسبت به پیامدهای احتمالی چنین نظم نوینی نشان می‌دهد که چگونه روندهای فناورانه می‌توانند مفاهیمی چون اختیار فردی، کرامت انسانی و تنوع فرهنگی را به چالش بکشند.


ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز


مقدمه

«دستورکار ۲۰۳۰ برای توسعه پایدار» سازمان ملل، در سال ۲۰۱۵ تصویب شد و شامل ۱۷ هدف کلان برای بهبود شرایط جهانی در حوزه‌هایی مانند فقر، بهداشت، آموزش و محیط زیست است. اما تحلیل دقیق‌تر پیوندهای آن با برنامه‌های فناورانه جهانی – به‌ویژه پروژه‌هایی مانند ID2020، CommonPass، Digital ID، و ارز دیجیتال بانک‌های مرکزی (CBDC) – نشان می‌دهد که پشت ساختار مفاهیم زیبای این سند، سازوکارهای متمرکزی در حال شکل‌گیری است که ساختار تصمیم‌گیری فردی و حاکمیت مردمی را تضعیف کند.

کلائوس شواب (Klaus Schwab) در کتاب  انقلاب صنعتی چهارم (2016) می‌نویسد:

«انقلاب چهارم ما را به سوی بازتعریفِ ذات انسان سوق خواهد داد.»


۱. ساختار قدرت جهانی در پوشش اهداف مشترک

در حالی که اهداف توسعه پایدار بر مشارکت جهانی تأکید دارند، معماری اجرای آن‌ها عمدتاً در اختیار نهادهای فراملی و شبکه‌ای از شرکت‌های فناوری‌محور تحت تسلط عمدتا آمریکا و انگلیس و فرانسه قرار دارد. برنامه‌هایی مانند ID2020 که با همکاری سازمان ملل، بنیاد بیل و ملیندا گیتس و شرکت‌هایی چون مایکروسافت اجرا می‌شوند، وعده شناسایی دیجیتال جهانی برای همه انسان‌ها را داده‌اند؛ اما در عمل، چنین سازوکاری می‌تواند زیرساختی برای شناسایی بی‌وقفه، محدودیت عمل انسانها در هر زمینه ای باشد مانند کنترل در سفر و مسائل پزشکی و دیدگاه های سیاسی، و دسته‌بندی دیجیتال انسان‌ها بر مبنای داده‌های رفتاری ایجاد کند.

آنتونیو گوترش (António Guterres)، دبیرکل سازمان ملل، در سخنرانی ۲۰۱۸ خود گفت:

«هیچ دولت یا شرکتی نباید به‌تنهایی بر سرنوشت دیجیتال بشریت حکمرانی کند. ما به یک نظم جهانی دیجیتال نیاز داریم.»

این بیان، به‌وضوح نشان می‌دهد که روند دیجیتال‌سازی در حال عبور از مرزهای ملی است و برنامه‌های جهانی چون SDGs در حال ادغام با الگوهای حکمرانی داده‌محور هستند.


۲. الگوریتم به‌مثابه قاضی: فروپاشی اختیار در سایه پیش‌بینی

با گسترش هوش مصنوعی، سامانه‌های تحلیل پیش‌گویانه، و جمع‌آوری داده‌های بزرگ (Big Data)، تصمیم‌سازی انسانی در معرض جایگزینی با پردازش‌های آماری و الگوریتمی قرار گرفته است. آنچه در نگاه نخست بهینه‌سازی و کارایی تلقی می‌شود، در سطحی عمیق‌تر می‌تواند منجر به نوعی «قضاوت ماشینی» شود که رفتار فرد را نه براساس نیت یا اخلاق، بلکه براساس پیش‌بینی‌های آماری مدیریت می‌کند.

یووال نوح هراری (Yuval Noah Harari) در سخنرانی خود در اجلاس داووس 2020 می‌گوید:

«قدرت در حال انتقال از انسان به الگوریتم است. زمانی که ما الگوریتم‌های خود را بهتر از خودمان بشناسیم، دیگر اراده آزاد مفهومی نخواهد داشت.»

در این چشم‌انداز، اهداف SDG مانند عدالت، سلامت و آموزش نیز تحت مدیریت الگوریتم‌هایی قرار می‌گیرند که کارآمدی را جایگزین کرامت انسانی می‌کنند.


۳. اعتبار اجتماعی و ساختارهای نوین نظم‌پذیری

الگوی امتیازدهی اجتماعی، ابتدا در چین آغاز شد اما امروز به‌صورت نرم و پنهان در بسیاری از کشورها در حال پیاده‌سازی است. معیارهای ESG (Environmental, Social, Governance) برای شرکت‌ها، و رتبه‌بندی مصرف‌کنندگان بر پایه رفتارهای دیجیتال، عملاً نسخه‌هایی از سیستم اعتبار اجتماعی‌اند که در بسته‌بندی‌های اقتصادی و محیط‌زیستی عرضه می‌شوند.

پاتریک وود (Patrick Wood) در کتاب تکنوکراسی: راه دشوار به سوی نظم جهانی هشدار می‌دهد:

«تکنوکراسی نظامی است که نه بر مبنای انتخاب مردمی، بلکه بر پایه مهندسی اجتماعی و مدیریت مصرف منابع توسط نخبگان تکنولوژیک عمل می‌کند.»

در چنین نظامی، مفهوم «شهروند خوب» با تبعیت از شاخص‌های رفتاری دیجیتال تعریف می‌شود، نه با مشارکت سیاسی یا آگاهی اخلاقی.


۴. انسان دیجیتالی و زوال هویت

با اجرای پروژه‌هایی مانند ارز دیجیتال بانک مرکزی، پاسپورت سلامت دیجیتال و شهرهای هوشمند، شهروند آینده در محیطی زندگی می‌کند که هر کنش او ردیابی می‌شود. پول نقد حذف می‌شود، جابه‌جایی وابسته به تأیید دیجیتال می‌شود، و حتی مصرف غذا یا انرژی بر پایه «ردپای کربن فردی» سنجیده و محدود می‌گردد.

شوشانا زوبوف (Shoshana Zuboff) در کتاب عصر سرمایه‌داری نظارتی می‌نویسد:

«کنترل رفتاری بدون آگاهی یا رضایت، بنیان تمدنی ما را تهدید می‌کند. نظارت به بخشی از معماری نرمال زندگی تبدیل شده است.»

این «نرمال‌شدن نظارت» سرآغازی برای بردگی نرم و دیجیتال‌شده است که در آن انسان نه مالک هویت خود بلکه حامل مجوزهای داده‌ای صادرشده توسط نهادهای غیرپاسخگوست.


۵. نتیجه‌گیری: از پیشرفت به حذف انسانیت؟

در این مقاله نشان داده شد که اهداف توسعه پایدار، اگرچه در قالبی انسان‌دوستانه عرضه شده‌اند، اما در پیوند با فناوری‌های کنترل‌محور و بازیگران غیرپاسخگو، ممکن است به سمت شکل‌گیری نظم نوینی پیش بروند که با مفاهیمی چون اختیار، کرامت، حریم خصوصی و تنوع انسانی ناسازگار است.

توسعه، در چنین چشم‌اندازی، نه به‌معنای ارتقاء کیفیت زندگی بلکه به‌مثابه تسلیم در برابر ساختارهای نظارت، کنترل و همسان‌سازی عمل می‌کند.
این سؤال هاهمچنان باز می‌ماند:

آیا انسان آینده، کنش‌گر اخلاقی خواهد بود یا تابع بی‌اراده الگوریتم‌های جهانی خواهد شد؟ جایگاه دین و اخلاقیات دینی در جهان الگوریتمی چگونه خواهد بود؟


منابع | References

  1. Schwab, Klaus. The Fourth Industrial Revolution. World Economic Forum, 2016.

  2. Harari, Yuval Noah. 21 Lessons for the 21st Century. Spiegel & Grau, 2018.

  3. Wood, Patrick. Technocracy: The Hard Road to World Order. Coherent Publishing, 2018.

  4. Zuboff, Shoshana. The Age of Surveillance Capitalism. PublicAffairs, 2019.

  5. United Nations. Transforming our world: the 2030 Agenda for Sustainable Development. UN, 2015.

  6. Lyon, David. The Culture of Surveillance. Polity, 2018.

  7. Morozov, Evgeny. The Net Delusion: The Dark Side of Internet Freedom. PublicAffairs, 2011.

  8. Guterres, António. "Speech at UN Digital Cooperation Roadmap Launch", UN WebTV, 2018.

  9. ID2020 Alliance. Manifesto. id2020.org

  10. Kwet, Michael. "Digital Colonialism". Race & Class, 60(4), 3–26, 2019.

رویای سون تزو — مستند جنگ بیولوژیک، سایبرنتیک و مهندسی جهانی قدرت | نویسنده تهیه کننده و کارگردان: سهیل سلیمی

آنچه در رویای سون تزو خواهید دید:


۱. مقدمه: رویای سون تزو در عصر جدید

سون تزو، استراتژیست بزرگ چینی، در کتاب "هنر جنگ" می‌نویسد: «بهترین پیروزی آن است که بدون جنگ، دشمن را تسلیم کنی.» این آرمان امروز به‌گونه‌ای مدرن با ابزارهایی مانند ویروس‌ها، رسانه، ترس و تکنولوژی‌های کنترل محقق شده است. مستند پیش‌رو تلاشی است برای تحلیل این نبرد مدرن.


۲. آغاز کرونا: جرقه یک جنگ خاموش

شیوع ویروس کرونا در شب یلدای ۱۳۹۸ آغازگر دوران تازه‌ای بود. به‌سرعت، دنیا به سمت آشفتگی، ترس و تعطیلی کشیده شد. کمبود ماسک، دارو، و درگیری میان کشورها بر سر تجهیزات بهداشتی، چهره‌ای از بحران جهانی را نمایان کرد. اما آیا این پاندمی تصادفی بود؟


۳. سایبرنتیک و بایوسایبرنتیک: دانش سلطه بر حیات

سایبرنتیک دانش کنترل و هدایت است. وقتی این دانش بر پدیده‌های زیستی چون ویروس‌ها اعمال شود، بایوسایبرنتیک شکل می‌گیرد: سلطه بر جوامع از مسیر کنترل زیستی. از کنترل یک ویروس تا کنترل اقتصاد، سیاست و فرهنگ — همه می‌توانند بخشی از این مهندسی باشند.


۴. بازطراحی راهبردها: از جنگ جهانی اول تا جنگ جهانی چهارم

در تاریخ جنگ‌ها، گاه بیماری‌ها جایگزین توپ و تفنگ شده‌اند. انگلیس، ژاپن و آمریکا نمونه‌هایی از قدرت‌هایی هستند که از سلاح‌های بیولوژیک برای حذف دشمنان استفاده کردند. اکنون، جنگ بیولوژیک در قالب کرونا شاید بازطراحی همان راهبردهاست.


۵. جنگ‌های بیولوژیک در تاریخ معاصر

از پتوی آلوده به آبله که به بومیان آمریکا داده شد تا آزمایش‌های بیولوژیک ارتش آمریکا بر شهروندان خود، تاریخ مملو از استفاده از بیماری به عنوان سلاح است. ایران نیز قربانی سلاح‌های شیمیایی رژیم بعث عراق بوده است.


۶. تجارت سلامت و اقتصاد پاندمی

صنعت درمان به یکی از پرسودترین صنایع جهان بدل شده است. شرکت‌های داروسازی، بیمارستان‌ها، تولیدکنندگان واکسن و تجهیزات پزشکی، همگی از هر بحران سلامت جهانی سود می‌برند. تضاد منافع میان سود و سلامت عمومی، سوالی اساسی را ایجاد می‌کند: آیا سلامت باید تجارت باشد؟


۷. نقش رسانه در ایجاد ترس و کنترل اجتماعی

رسانه‌ها قدرتی بی‌نظیر در القای ترس دارند. ترسی که سیستم ایمنی بدن را تضعیف و مردم را در برابر بیماری آسیب‌پذیر می‌کند. پاندمی کرونا، نمونه‌ای از استفاده هدفمند از رسانه برای القای ترس و فرمانبرداری جمعی بود.


۸. پروژه‌های محرمانه: از ام کی اولترا تا پروژه کرونا

اسناد متعددی از پروژه‌هایی نظیر امک‌اولترا، واحد ۷۳۱ ژاپن، آزمایش‌های ارتش آمریکا در فورت دیتریک و پروژه‌های کنترل ذهن، پرده از اهداف پنهان قدرت‌های جهانی در بهره‌برداری از علم و تکنولوژی برای تسلط بر انسان‌ها برمی‌دارند.


۹. شبیه‌سازی‌های پیش از کرونا و اسناد آینده‌نگر

از رویداد شبیه‌سازی‌شده «ایونت ۲۰۱» تا پیش‌بینی بنیاد راکفلر در سال ۲۰۱۰، شواهدی وجود دارد که پاندمی کرونا سناریویی طراحی‌شده بوده است. سندهای فراوانی پیش از وقوع کرونا، وقوع چنین بحرانی را با دقت شگفت‌آور پیش‌بینی کرده بودند.


۱۰. کنترل علم، سانسور و نظم نوین جهانی

تحقیقات علمی در دوران کرونا دچار سانسور شدید شدند. مقالاتی که خطرات واکسن یا منشأ ویروس را بررسی می‌کردند، منتشر نمی‌شدند. دانش، ابزاری شده برای تحکیم قدرت، نه روشنگری. این سانسور علمی، بخشی از نظم نوین جهانی است.


۱۱. نتیجه‌گیری: آیا جنگ آینده از پیش آغاز شده؟

مستند حاضر با نگاهی عمیق به تاریخ، علم، رسانه و سیاست، سعی دارد تصویری واقع‌بینانه از دنیای پساکرونا ارائه دهد. دنیایی که در آن ویروس، رسانه، سایبرنتیک و اقتصاد ابزاری برای مهندسی جهانی قدرت هستند.



لینک تماشای مستند رویای سون تزو :     Sun Tzu's Dream  https://www.youtube.com/watch?v=c_tn33r3q_0

بررسی سینمای دینی و مفهوم عدالت (Justice) در فیلم سینمایی «هفت» (Se7en)

بررسی سینمای دینی و مفهوم عدالت (Justice) در فیلم سینمایی «هفت» (Se7en)

ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز

مقدمه (Introduction)

فیلم سینمایی «هفت» (Se7en, 1995) به کارگردانی دیوید فینچر (David Fincher) و نویسندگی اندرو کیوین واکر (Andrew Kevin Walker)، اثری برجسته در سینمای معاصر است که با نگاهی عمیق به مفهوم عدالت (Justice) و گناهان کبیره (Seven Deadly Sins) در بستری دینی (Religious Context)، به کاوش در تاریکی‌های جامعه مدرن و پارادوکس‌های لیبرالیسم (Liberalism) می‌پردازد. این پایان‌نامه با تحلیل محتوای فیلم و دیالوگ‌های آن، به بررسی چگونگی بازنمایی عدالت در پرده سینما (Cinematic Representation of Justice) و نقش سینمای دینی (Religious Cinema) در به تصویر کشیدن مفاهیم اخلاقی و دینی می‌پردازد. همچنین، با ارجاع به منابع معتبر، سعی دارد نشان دهد که چگونه «هفت» فراتر از نیت احتمالی سازندگانش، به اثری تبدیل شده که حس عدالت‌خواهی (Sense of Justice) را در مخاطبان جهانی برمی‌انگیزد.

عدالت (Justice) از دیرباز یکی از دغدغه‌های اصلی بشر در فلسفه، دین و هنر بوده است. در سینما، به‌ویژه در آثار با رویکرد دینی، عدالت به‌عنوان مفهومی چندوجهی (Multifaceted Concept) به تصویر کشیده می‌شود که هم ریشه در باورهای دینی دارد و هم بازتابی از نیازهای اجتماعی است. فیلم «هفت» با به‌کارگیری نمادهای دینی (Religious Symbolism) و گناهان کبیره (Seven Deadly Sins) در مسیحیت، جهانی را به نمایش می‌گذارد که در آن عدالت به شکلی پارادوکسیکال و گاه وهم‌آلود (Uncanny) اجرا می‌شود. این پژوهش به دنبال پاسخ به این پرسش است که چگونه فیلم «هفت» از منظر سینمای دینی (Religious Cinema) مفهوم عدالت را بازنمایی کرده و چگونه این بازنمایی با ارزش‌های لیبرالیسم (Liberalism) در تضاد یا تعامل قرار می‌گیرد.

بخش اول: سینمای دینی و مفهوم عدالت

سینمای دینی (Religious Cinema)

سینمای دینی به‌عنوان زیرشاخه‌ای از هنر سینما، به بازنمایی مفاهیم و ارزش‌های دینی در قالب تصاویر بصری و روایت‌های سینمایی می‌پردازد. به گفته پل شریدر (Paul Schrader)، نظریه‌پرداز سینما، سینمای دینی فراتر از نمایش مستقیم آیین‌های مذهبی، به کاوش در مفاهیم متعالی (Transcendental Concepts) مانند گناه (Sin)، رستگاری (Redemption) و عدالت (Justice) می‌پردازد (Schrader, 1972). فیلم «هفت» با تمرکز بر گناهان کبیره و استفاده از شخصیت جان دو (John Doe) به‌عنوان یک ضدقهرمان دینی (Religious Anti-Hero)، به این حوزه وارد می‌شود.

در مسیحیت، عدالت الهی (Divine Justice) با مجازات گناهان و رستگاری مؤمنان گره خورده است. کتاب مقدس (Bible) در بخش‌هایی مانند کتاب تثنیه (Deuteronomy) بر اجرای عدالت به‌عنوان وظیفه‌ای الهی تأکید دارد. فیلم «هفت» با الهام از این مفاهیم، عدالت را نه به‌عنوان امری صرفاً قانونی، بلکه به‌عنوان واکنشی به فساد اخلاقی (Moral Corruption) جامعه مدرن به تصویر می‌کشد.

بخش دوم: تحلیل فیلم «هفت» از منظر سینمای دینی

فیلم «هفت» با استفاده از فضای تاریک و بارانی، اتمسفری وهم‌آلود (Uncanny Atmosphere) خلق می‌کند که بازتاب‌دهنده فساد و گناه در جامعه است. به گفته راجر ابرت (Roger Ebert)، منتقد برجسته سینما، این فضای بصری (Visual Aesthetics) به مخاطب حس ناامیدی و نیاز به عدالت را منتقل می‌کند (Ebert, 1995). استفاده از رنگ‌های تیره و سایه‌های سنگین، به‌ویژه در صحنه‌های قتل، به تقویت این حس کمک کرده است.

شخصیت‌پردازی جان دو

جان دو (John Doe)، با بازی کوین اسپیسی (Kevin Spacey)، شخصیتی است که خود را مأمور اجرای عدالت الهی می‌داند. او با انتخاب قربانیان بر اساس گناهان کبیره (Gluttony, Greed, Sloth, Lust, Pride, Envy, Wrath)، به نقد جامعه‌ای می‌پردازد که در آن گناه عادی‌سازی شده است. دیالوگ کلیدی او که می‌گوید: «ما هر روز گناهان کبیره را می‌بینیم، اما بی‌تفاوتیم چون برایمان عادی شده»، به عادی‌سازی گناه (Normalization of Sin) در جامعه مدرن اشاره دارد.

پارادوکس لیبرالیسم و عدالت

فیلم در بستر جامعه‌ای لیبرال (Liberal Society) ساخته شده که بر اصل «لِسِفِر» (Laissez-Faire) یا «ولش کن» استوار است. این اصل، که به معنای عدم مداخله در امور دیگران است، در فیلم به چالش کشیده می‌شود. جان دو با اجرای مجازات‌های سخت (Harsh Punishments)، به نوعی به ناکارآمدی این اصل در برابر فساد اخلاقی اشاره می‌کند. به گفته ژان بودریار (Jean Baudrillard)، جامعه مدرن با عادی‌سازی انحرافات (Normalization of Deviance)، خود را در برابر اصلاحات اخلاقی ناتوان کرده است (Baudrillard, 1994).

بخش سوم: بازنمایی عدالت در «هفت»

فیلم «هفت» با نمایش مجازات‌های سخت برای گناهکاران، حس عدالت‌خواهی (Sense of Justice) را در مخاطب برمی‌انگیزد. این حس، به‌ویژه در جهانی که مخاطبان از فساد (Corruption) و بی‌عدالتی (Injustice) رنج می‌برند، تقویت می‌شود. به گفته دیوید بوردول (David Bordwell)، فیلم‌های جنایی با ایجاد همذات‌پنداری (Empathy) با شخصیت‌های عدالت‌خواه، مخاطب را به تأمل در مفاهیم اخلاقی وامی‌دارند (Bordwell, 2006).

یکی از نکات کلیدی فیلم، نقد عادی‌سازی گناه (Normalization of Sin) در جامعه است. دیالوگ جان دو که می‌گوید: «برای جلب توجه مردم، باید با پتک بر سرشان بکوبی»، به بی‌تفاوتی (Apathy) جامعه نسبت به گناه و فساد اشاره دارد. این بی‌تفاوتی، که ریشه در ارزش‌های لیبرالیسم دارد، در فیلم به‌عنوان مانعی برای تحقق عدالت معرفی می‌شود.

پایان‌بندی فیلم، جایی که جان دو خود را به‌عنوان قربانی گناه حسادت (Envy) و خشم (Wrath) معرفی می‌کند، به نوعی به مفهوم قربانی شدن برای رستگاری (Sacrifice for Redemption) اشاره دارد. این پایان‌بندی، که در آن کارآگاه میلز (Detective Mills) با بازی برد پیت (Brad Pitt) در دام خشم می‌افتد، نشان‌دهنده شکنندگی عدالت انسانی (Human Justice) در برابر عدالت الهی است.

نتیجه‌گیری

فیلم سینمایی «هفت» اثری برجسته در سینمای دینی است که با بهره‌گیری از مفاهیم گناهان کبیره و عدالت الهی، به نقد جامعه مدرن و ارزش‌های لیبرال آن می‌پردازد. این فیلم، با ایجاد حس عدالت‌خواهی در مخاطب و به چالش کشیدن عادی‌سازی گناه، فراتر از نیت احتمالی سازندگانش، به اثری تبدیل شده که عدالت را به شکلی نمادین (Symbolic) و تأثیرگذار به تصویر می‌کشد. «هفت» نه‌تنها شاهکاری سینمایی است، بلکه دعوتی است به تأمل در مسئولیت‌های اخلاقی (Moral Responsibilities) افراد در برابر جامعه.

منابع:

  • Schrader, P. (1972). Transcendental Style in Film: Ozu, Bresson, Dreyer. University of California Press.
  • Ebert, R. (1995). Se7en Movie Review. Chicago Sun-Times.
  • Baudrillard, J. (1994). Simulacra and Simulation. University of Michigan Press.
  • Bordwell, D. (2006). The Way Hollywood Tells It: Story and Style in Modern Movies. University of California Press.

 

سیر تکاملی الگوریتم‌ها از خوارزمی تا هوش مصنوعی

معصومیت از دست رفته‌ی الگوریتم‌ها و جهان در مسیر تکینگی: سیر تکاملی الگوریتم‌ها از خوارزمی تا هوش مصنوعی

(The Lost Innocence of Algorithms and the World on the Path to Singularity: An Evolutionary Journey from Khwarizmi to Artificial Intelligence)

ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز

چکیده :

این مقاله به تحلیل سیر تکاملی مفهومی و عملی الگوریتم‌ها، از ریشه‌های آن در ریاضیات کلاسیک قرون وسطی، به‌ویژه کارهای محمد بن موسی خوارزمی (Muḥammad ibn Mūsā al-Khwārizmī)، تا ظهور و تسلط الگوریتم‌های پیچیده‌ی هوش مصنوعی (Artificial Intelligence - AI) در عصر حاضر، می‌پردازد. تمرکز اصلی مقاله بر بررسی «معصومیت از دست رفته» الگوریتم‌ها است؛ گذاری از ابزارهای شفاف و قابل درک محاسباتی به سمت سیستم‌های خودمختار، پیچیده، و اغلب غیرشفافی که تصمیماتی سرنوشت‌ساز را در تمامی سطوح حیات فردی و اجتماعی بشر اتخاذ می‌کنند. این گذار، جهان را به‌گونه‌ای اجتناب‌ناپذیر در مسیر مفهوم «تکینگی فناوری» (Technological Singularity) قرار داده است. مقاله با رویکردی تحلیلی‌-نقادانه و آینده‌نگر، ضمن تشریح مراحل کلیدی این تکامل (تکامل الگوریتمی - Algorithmic Evolution)، پیامدهای عمیق فلسفی، اخلاقی، اجتماعی، و سیاسی آن را واکاوی می‌کند. تأکید ویژه بر نقش محوری خوارزمی در ترمینولوژی و مفهوم‌سازی اولیه، و سپس بر چالش‌های معاصر ناشی از الگوریتم‌های یادگیری عمیق (Deep Learning) و سیستم‌های هوش مصنوعی ژنرال (Artificial General Intelligence - AGI) گذاشته می‌شود. استدلال می‌شود که درک این سیر تکاملی و پیامدهای آن، نه‌تنها برای پژوهش‌های آکادمیک، بلکه برای بقا و شکوفایی انسان در عصری که توسط الگوریتم‌ها تعریف می‌شود، ضروری است.
کلمات کلیدی (Keywords): الگوریتم (Algorithm)، خوارزمی (al-Khwārizmī)، تکامل الگوریتمی (Algorithmic Evolution)، هوش مصنوعی (Artificial Intelligence)، یادگیری عمیق (Deep Learning)، تکینگی فناوری (Technological Singularity)، هوش مصنوعی عمومی (Artificial General Intelligence - AGI)، شفافیت (Transparency)، مسئولیت‌پذیری (Accountability)، اخلاق هوش مصنوعی (AI Ethics)، سوگیری الگوریتمی (Algorithmic Bias)، آینده‌پژوهی (Futures Studies).

مقدمه (Introduction): از قاعده‌های محاسبه تا معماران نامرئی واقعیت

واژه‌ی «الگوریتم» (Algorithm)، گواهی جاودان بر دِین عمیق دانش بشری به ریاضیدان، ستاره‌شناس، و جغرافیدان برجسته‌ی ایرانی-اسلامی، ابوجعفر محمد بن موسی خوارزمی (Muḥammad ibn Mūsā al-Khwārizmī)، در قرن نهم میلادی است. نام او، از طریق لاتین‌سازی به صورت «Algoritmi»، به‌تدریج بر روی روش‌های گام‌به‌گام و نظام‌مند حل مسائل ریاضی نهاده شد. اثر مشهور او، «کتاب المختصر فی حساب الجبر و المقابله» (The Compendious Book on Calculation by Completion and Balancing)، نه‌تنها واژه‌ی «جبر» (Algebra) را به دنیا بخشید، بلکه نمونه‌ای اولیه و درخشان از تفکر الگوریتمی را ارائه کرد: مجموعه‌ای از دستورالعمل‌های دقیق، قطعی (Deterministic)، و متناهی برای حل یک طبقه‌ی خاص از مسائل (معادلات خطی و درجه‌ی دوم). در این مرحله، الگوریتم‌ها تجسم «معصومیت» بودند: ابزارهایی شفاف (Transparent)، قابل درک برای ذهن انسان، با محدوده‌ی کاربرد مشخص، و فاقد هرگونه قصد یا عاملیت مستقل. هدف آنها واضح بود: تسهیل محاسبات ریاضی.

اما سیر تکامل الگوریتم‌ها، داستانی است از پیچیدگی فزاینده (Increasing Complexity)، افزایش خودمختاری (Growing Autonomy)، و در نهایت، نقاب برداشتن از چهره‌ای که بسیاری آن را تهدیدی برای خودمختاری انسانی و حتی ادامه‌ی حیات بشری به شکل کنونی آن می‌دانند. این مقاله استدلال می‌کند که ما شاهد «معصومیت از دست رفته» الگوریتم‌ها هستیم. آنها از ابزارهای منفعل محاسباتی به معماران نامرئی واقعیت (Invisible Architects of Reality) تبدیل شده‌اند که رفتار ما را شکل می‌دهند، فرصت‌های ما را تعیین می‌کنند، و حتی درک ما از جهان را فیلتر می‌نمایند. این گذار، جامعه‌ی جهانی را به‌گونه‌ای اجتناب‌ناپذیر بر روی مسیری قرار داده است که به سمت «تکینگی فناوری» (Technological Singularity) - نقطه‌ای فرضی که در آن هوش مصنوعی از هوش انسان پیشی گرفته و تغییرات اجتماعی غیرقابل پیش‌بینی و برگشت‌ناپذیری را رقم می‌زند - نشانه‌گیری کرده است.

این مقاله با رویکردی تحلیلی-نقادانه  (Critical-Analytical) و آینده‌نگر (Futures-Oriented) ، این سیر تکاملی را در چندین مقطع کلیدی بررسی می‌کند:

  1. ریشه‌ها و مفهوم‌سازی اولیه: نقش خوارزمی و میراث او.
  2. مکانیزه‌سازی و انتزاع:  از ماشین‌های محاسباتی (Computational Machines) اولیه تا نظریه‌ی محاسبات (Theory of Computation) و ظهور علوم کامپیوتر (Computer Science).
  3. انقلاب نرم‌افزاری و پیچیدگی: گسترش الگوریتم‌ها به حوزه‌های غیرعددی و ظهور الگوریتم‌های بهینه‌سازی (Optimization Algorithms) و داده‌کاوی (Data Mining).
  4. طلوع یادگیری ماشین و هوش مصنوعی مدرن: گذار از برنامه‌ریزی صریح به یادگیری از داده‌ها و ظهور «جعبه‌های سیاه» (Black Boxes).
  5. عصر یادگیری عمیق و هوش مصنوعی عمومی (AGI): تسلط مدل‌های پیچیده‌ی غیرقابل تفسیر و تلاش برای دستیابی به هوش انسان‌گونه.
  6. پیامدها و چالش‌های معاصر: سوگیری (Bias)، فقدان شفافیت (Lack of Transparency)، مسئولیت‌پذیری (Accountability)، قدرت شرکتی (Corporate Power)، و تهدیدهای وجودی (Existential Risks).
  7. مسیر به سوی تکینگی: سناریوها و ملاحظات.


فصل ۱: خوارزمی و تولد مفهوم الگوریتم: شالوده‌ای از معصومیت

محمد بن موسی خوارزمی (حدود ۷۸۰-۸۵۰ میلادی)، فعالیت خود را در بیت‌الحکمه (House of Wisdom) بغداد، مرکز علمی درخشان دوران طلایی اسلام، انجام داد. کار او تجسمی از عقلانیت نظام‌مند بود.

  • الجبر و المقابله: الگوریتم به مثابه روش: کتاب جبر خوارزمی، صرفاً مجموعه‌ای از مسائل حل‌شده نبود. او روش‌های عمومی (General Methods) را برای حل طبقاتی از معادلات (معادلات خطی، مربعی) ارائه کرد. این روش‌ها دارای ویژگی‌های بنیادین یک الگوریتم مدرن بودند:
    • قطعیت (Determinism): هر گام به‌طور دقیق تعریف شده بود. نتیجه برای ورودی یکسان، همیشه یکسان بود.
    • متناهی بودن (Finiteness): روش پس از تعداد متناهی مرحله به پایان می‌رسید.
    • ورودی/خروجی مشخص (Defined Input/Output): مسأله (ورودی) و پاسخ (خروجی) به‌وضوح تعریف می‌شدند.
    • کارایی نسبی (Relative Effectiveness): روش با ابزارهای زمان (قلم و کاغذ) قابل اجرا بود.
    • شفافیت (Transparency): منطق هر گام برای ریاضیدان قابل درک و پیگیری بود. هدف صرفاً حل مسأله بود.
  • سیستم اعداد هندی-عربی و الگوریتم‌های محاسباتی: نقش خوارزمی در معرفی و ترویج سیستم اعداد موقعیتی ده‌دهی هندو-عربی (Hindu-Arabic Numeral System) به جهان اسلام و سپس به اروپا، حیاتی بود. کتاب دیگر او (یا نسخه‌ای لاتین از کارهایش به نام "Algoritmi de numero Indorum") روش‌های محاسباتی (جمع، تفریق، ضرب، تقسیم) با این اعداد را شرح داد. این روش‌ها خود الگوریتم‌های بنیادین بودند.
  • ترمینولوژی: از «الخوارزمی» به «الگوریتموس» و «الگوریتم»: نام خوارزمی در متون لاتین قرون وسطی به شکل‌های "Algorismi" یا "Algorithmus" تبدیل شد. ابتدا به روش محاسبه با اعداد هندی-عربی (Algorism) اشاره داشت، اما به‌تدریج معنای عام‌تر «روش گام‌به‌گام حل مسأله» را به خود گرفت. واژه‌ی مدرن «الگوریتم» (Algorithm) مستقیماً از این ریشه‌ی تاریخی نشأت می‌گیرد.
  • معصومیت اولیه: الگوریتم‌های این دوره کاملاً ابزاری (Instrumental) بودند. آنها توسط انسان اجرا می‌شدند، منطقشان برای انسان شفاف بود، دامنه‌ی کاربردشان محدود و تعریف‌شده بود (ریاضیات، نجوم، محاسبات تجاری)، و فاقد هرگونه ظرفیت یادگیری، تطبیق‌پذیری، یا تصمیم‌گیری مستقل بودند. آنها ابزاری در خدمت عقلانیت انسانی محسوب می‌شدند.

فصل ۲: مکانیزه‌سازی و انتزاع: بنیان‌های نظری محاسبات

پس از رنسانس و انقلاب علمی غرب با تقلید از ایرانیان و مسلمانان، میل به مکانیزه کردن محاسبات و تعریف دقیق‌تر مفاهیم پایه، شتاب گرفت. این فصل شاهد گذار از الگوریتم‌های کاغذی به الگوریتم‌های ماشینی و سپس به تعریف‌های انتزاعی ریاضی است.

  • پیش‌مقدمه‌های مکانیکی: پاسکال، لایبنیتس، و باباژ:
    • ماشین حساب پاسکال (Pascaline - 1642): اولین ماشین حساب مکانیکی دیجیتال، توانایی انجام جمع و تفریق را داشت (یک الگوریتم ساده مکانیزه‌شده).
    • ماشین حساب لایبنیتس (Stepped Reckoner - 1673): قابلیت انجام چهار عمل اصلی را داشت و از مکانیزم چرخ دنده‌ی لایبنیتس (Leibniz Wheel) استفاده می‌کرد که ایده‌ای الگوریتمی برای ضرب و تقسیم را مکانیزه می‌کرد.
    • چارلز باباژ (Charles Babbage) و ماشین تفاضلی/تحلیلی: باباژ مفهوم «ماشین تفاضلی» (Difference Engine - 1820s) را برای محاسبه‌ی خودکار جداول چندجمله‌ای ارائه کرد. طرح بلندپروازانه‌تر او، «ماشین تحلیلی» (Analytical Engine - 1837) ، اولین مفهوم یک کامپیوتر همه‌منظوره برنامه‌پذیر (General-Purpose Programmable Computer) بودایدا لاولیس (Ada Lovelace) ، همکار باباژ، اهمیت این ماشین را درک کرد و اولین برنامه‌ی کامپیوتری (Computer Program) را برای محاسبه‌ی اعداد برنولی نوشت. لاولیس همچنین به‌طور شهودی پتانسیل فراتر از محاسبات صرف عددی را درک کرد. این ماشین‌ها، گرچه به‌طور کامل ساخته نشدند، مفهوم اجرای فیزیکی الگوریتم‌ها توسط ماشین را تثبیت کردند.
  • بحران مبانی ریاضیات و ظهور نظریه‌ی محاسبات: تلاش برای بنیان‌گذاری دقیق ریاضیات در اواخر قرن ۱۹ و اوایل قرن ۲۰ (کارهای فرگه، راسل، وایت‌هد) به پارادوکس‌هایی منجر شد. پاسخ به این بحران، منجر به ظهور نظریه‌ی محاسبات شد:
    • آلن تورینگ (Alan Turing) و ماشین تورینگ (Turing Machine - 1936): تورینگ مدلی انتزاعی از یک کامپیوتر را معرفی کرد. ماشین تورینگ شامل یک نوار بی‌نهایت، یک هد خواندن/نوشتن و یک جدول حالت‌های محدود (Finite State Table) بود. این مدل، تعریف دقیق ریاضی از محاسبه‌پذیری (Computability) ارائه داد: هر چیزی که توسط یک ماشین تورینگ قابل محاسبه باشد، در اصل توسط یک الگوریتم قابل محاسبه است (فرضیه‌ی چرچ-تورینگ - Church-Turing Thesis). ماشین تورینگ مرز بین آنچه به‌طور الگوریتمی قابل حل است و آنچه نیست را مشخص کرد (مثل مسأله‌ی توقف - Halting Problem).
    • آلونزو چرچ (Alonzo Church) و محاسبه‌پذیری لامبدا (Lambda Calculus): همزمان با تورینگ، چرچ سیستم صوری دیگری برای تعریف محاسبه‌پذیری ایجاد کرد که تأثیر عمیقی بر علوم کامپیوتر، به‌ویژه نظریه‌ی زبان‌های برنامه‌نویسی گذاشت.
  • فون نویمان (John von Neumann) و معماری کامپیوتر ذخیره‌کننده‌ی برنامه (Stored-Program Computer Architecture - 1945): این معماری انقلابی (که اساس تمام کامپیوترهای مدرن است)، دستورالعمل‌ها (Instructions - الگوریتم‌ها) و داده‌ها (Data) را در یک حافظه‌ی مشترک ذخیره می‌کند. این امر امکان تغییر پویای برنامه (الگوریتم در حال اجرا) را فراهم کرد و انعطاف‌پذیری بی‌سابقه‌ای به ماشین‌های محاسباتی بخشید.
  • تولد علوم کامپیوتر و تحلیل الگوریتم‌ها: دهه‌های ۱۹۵۰ و ۱۹۶۰ شاهد ظهور رسمی علوم کامپیوتر (Computer Science) به‌عنوان یک رشته‌ی دانشگاهی بود. تمرکز بر طراحی الگوریتم‌های کارآمد و تحلیل پیچیدگی محاسباتی (Computational Complexity) آنها قرار گرفت. مفاهیمی مانند نماد O بزرگ (Big O Notation) برای توصیف رفتار مجانبی الگوریتم‌ها برحسب اندازه‌ی ورودی (به‌عنوان معیار کارایی - Efficiency) معرفی شدند. الگوریتم‌های بنیادین مرتب‌سازی (Sorting)، جست‌وجو (Searching)، گراف (Graph Algorithms) و ... توسعه و تحلیل شدندزبان‌های برنامه‌نویسی سطح بالا (High-Level Programming Languages) مانند فورتران (FORTRAN)، کوبول (COBOL)، و بعدها سی (C) و پاسکال (Pascal) ظهور کردند که بیان الگوریتم‌ها را برای انسان‌ها بسیار ساده‌تر کردند.

فصل ۳: انقلاب نرم‌افزاری و گسترش دامنه: الگوریتم‌ها جهان را مدیریت می‌کنند

با پیشرفت سخت‌افزار و نرم‌افزار، الگوریتم‌ها به‌تدریج از حوزه‌ی محاسبات صرف عددی و علمی فراتر رفته و وارد مدیریت سیستم‌های پیچیده‌ی دنیای واقعی شدند.

  • سیستم‌های عامل و مدیریت منابع: الگوریتم‌های زمان‌بندی (Scheduling Algorithms) ، مدیریت حافظه (Memory Management Algorithms) ، و هماهنگی فرآیندها (Process Synchronization) قلب سیستم‌های عامل (Operating Systems) را تشکیل دادند، منابع سخت‌افزاری را بین برنامه‌های رقابتی بهینه‌سازی می‌کردند.
  • الگوریتم‌های پایگاه داده و مدیریت اطلاعات: با انفجار داده‌ها، الگوریتم‌های کارآمد برای ذخیره‌سازی (Storage) ، بازیابی (Retrieval - Querying) ، ایندکس کردن (Indexing) ، و تراکنش‌ها (Transaction Processing) در سیستم‌های مدیریت پایگاه داده‌های رابطه‌ای (Relational Database Management Systems - RDBMS) حیاتی شدند (مثل الگوریتم‌های مرتبط با SQL).
  • الگوریتم‌های بهینه‌سازی (Optimization Algorithms): این الگوریتم‌ها برای یافتن بهترین راه حل (یا راه حلی نزدیک به بهینه) از بین گزینه‌های بسیار زیاد در مسائل پیچیده طراحی شدند.
    • برنامه‌ریزی خطی و غیرخطی (Linear/Nonlinear Programming): حل مسائل با محدودیت‌ها و تابع هدف خطی/غیرخطی.
    • الگوریتم‌های ابتکاری و فراابتکاری (Heuristics and Metaheuristics): مانند شبیه‌سازی تبرید (Simulated Annealing) ، الگوریتم ژنتیک (Genetic Algorithms) ، بهینه‌سازی ازدحام ذرات (Particle Swarm Optimization) که راه‌حل‌های خوب (نه لزوماً بهینه) را برای مسائل NP-Hard در زمان معقول ارائه می‌کنند. کاربردها: لجستیک، زمان‌بندی تولید، طراحی شبکه.
  • داده‌کاوی (Data Mining) و کشف دانش: با رشد انبارهای داده (Data Warehouses)، الگوریتم‌ها برای استخراج الگوها، روندها، و دانش از داده‌های حجوم توسعه یافتند:
    • خوشه‌بندی (Clustering): گروه‌بندی داده‌های مشابه (مثل K-Means).
    • دسته‌بندی (Classification): یادگیری مدل برای تخصیص داده‌های جدید به دسته‌های از پیش تعریف شده (مثل درخت تصمیم - Decision Trees، بیز ساده - Naive Bayes).
    • قوانین انجمنی (Association Rule Learning): کشف روابط بین متغیرها (مثل Apriori برای "خریداران X اغلب Y را می‌خرند").
  • الگوریتم‌ها در شبکه‌های کامپیوتری: مدیریت مسیریابی (Routing)، کنترل ازدحام (Congestion Control)، پروتکل‌های ارتباطی (Communication Protocols) همگی متکی بر الگوریتم‌های پیچیده بودند.
  • نرم‌افزار به‌عنوان حاکمیت: الگوریتم‌ها به‌طور فزاینده‌ای در تصمیم‌گیری‌های حیاتی در بخش‌های مالی (معاملات الگوریتمی - Algorithmic Trading)، حمل‌ونقل (مسیریابی)، انرژی (مدیریت شبکه)، و حتی حکمرانی (سیستم‌های تخصیص منابع) استفاده شدند. آنها قدرتمند و تأثیرگذار بودند، اما هنوز نسبتاً شفاف (Transparent) و قابل پیش‌بینی (Predictable) بودند. منطق آنها توسط برنامه‌نویسان تعریف می‌شد و قابل ردیابی و اشکال‌زدایی بود. با این حال، پیچیدگی رو به رشد، شروع به ایجاد شکاف بین طراحان و رفتار سیستم‌ها می‌کرد.

فصل ۴: طلوع یادگیری ماشین و هوش مصنوعی مدرن: آغاز کدر شدن شفافیت

این فصل نقطه‌ی عطفی در سیر تکامل الگوریتم‌ها و آغاز جدی فرسایش «معصومیت» است. تمرکز از برنامه‌ریزی صریح و دستی رفتار به سمت یادگیری از داده‌ها (Learning from Data) تغییر کرد.

  • مبانی نظری و تولد دوباره: ایده‌های اولیه در دهه‌های ۱۹۴۰-۵۰ (پرسپترون - Perceptron توسط روزنبلات) وجود داشت، اما محدودیت‌های محاسباتی و نظری منجر به «زمستان هوش مصنوعی» (AI Winter) شد. پیشرفت‌های نظری (مثل الگوریتم پس‌انتشار خطا - Backpropagation توسط روملهارت و همکاران در دهه‌ی ۸۰، هرچند ایده قدیمی‌تر بود) و افزایش قدرت محاسباتی و داده‌ها در دهه‌های ۱۹۹۰ و ۲۰۰۰، زمینه را برای رنسانس هوش مصنوعی فراهم کرد.
  • یادگیری ماشین کلاسیک (Classical Machine Learning):
    • رویکردهای نظارت‌شده (Supervised Learning): آموزش مدل با داده‌های برچسب‌دار (مثل: ایمیل‌های اسپم/غیراسپم). الگوریتم‌هاماشین بردار پشتیبان (Support Vector Machines - SVM) ، رگرسیون لجستیک (Logistic Regression) ، جنگل‌های تصادفی (Random Forests).
    • رویکردهای نظارت‌نشده (Unsupervised Learning): کشف ساختار در داده‌های بدون برچسب (مثل: خوشه‌بندی مشتریان).
    • یادگیری تقویتی (Reinforcement Learning - RL): آموزش عامل (Agent) برای انجام اقدامات در یک محیط به منظور بیشینه‌سازی پاداش تجمعی (مثل: بازی‌های کامپیوتری، رباتیک).
  • ظهور «جعبه‌های سیاه» (Black Boxes): در حالی که مدل‌هایی مانند درخت تصمیم تا حدی قابل تفسیر بودند، مدل‌های پیچیده‌تر مانند SVM (با کرنل‌های غیرخطی) یا جنگل‌های تصادفی، درک دقیق «چرایی» تصمیم‌گیری‌هایشان را برای انسان دشوارتر کردند. منطق تصمیم‌گیری در میان تعاملات پیچیده‌ی هزاران یا میلیون‌ها پارامتر پنهان می‌شدقابلیت تفسیرپذیری (Interpretability) و قابلیت توضیح‌پذیری (Explainability) به چالش‌های مهم تبدیل شدند، به‌ویژه در کاربردهای حساس مانند پزشکی یا وام‌دهی.
  • وابستگی به داده‌های عظیم (Big Data): موفقیت مدل‌های یادگیری ماشین به‌طور فزاینده‌ای به حجم و کیفیت داده‌های آموزشی وابسته شد. این امر نیاز به زیرساخت‌های عظیم ذخیره‌سازی و پردازش و همچنین جمع‌آوری بی‌سابقه‌ی داده‌های شخصی را به همراه داشت، که مسائل مربوط به حریم خصوصی (Privacy) و امنیت داده‌ها (Data Security) را تشدید کرد.
  • افزایش خودمختاری نسبی: سیستم‌های مبتنی بر ML می‌توانستند الگوهایی را کشف کنند که برنامه‌نویسان از قبل پیش‌بینی نکرده بودند و در طول زمان عملکرد خود را بهبود بخشند. این امر سطحی از خودمختاری را معرفی کرد که در الگوریتم‌های سنتی وجود نداشت.

فصل ۵: عصر یادگیری عمیق و جست‌وجوی هوش مصنوعی عمومی: معصومیت به‌یادماندنی؟

دهه‌ی ۲۰۱۰ به بعد شاهد انفجار یادگیری عمیق (Deep Learning - DL) و سرمایه‌گذاری عظیم در جهت دستیابی به هوش مصنوعی عمومی (Artificial General Intelligence - AGI) بوده است. این مرحله، نقطه‌ی اوج فعلی تکامل الگوریتمی و اوج «از دست دادن معصومیت» است.

  • یادگیری عمیق: قدرت و پیچیدگی بی‌سابقه:
    • شبکه‌های عصبی عمیق (Deep Neural Networks - DNNs): متشکل از لایه‌های پنهان متعدد (Deep Architectures) که امکان یادگیری نمایش‌های سلسله‌مراتبی و انتزاعی‌تر از داده‌ها را فراهم می‌کنند.
    • پیشرفت‌های انقلابی: دستاوردهای پیشگامانه در حوزه‌های:
      • پردازش زبان طبیعی (Natural Language Processing - NLP): مدل‌های مبتنی بر ترانسفورماتور (Transformer) مانند GPT (OpenAI)، BERT (Google)، T5 (Google) که انقلابی در ترجمه‌ی ماشینی، خلاصه‌سازی، تولید متن، و درک زمینه ایجاد کردند.
      • بینایی ماشین (Computer Vision): مدل‌های مبتنی بر شبکه‌های کانولوشنال (Convolutional Neural Networks - CNNs) و ترانسفورماتورهای دیداری که به دقت انسان (یا فراتر) در تشخیص اشیاء، تقسیم‌بندی تصویر، و توصیف تصویر دست یافته‌اند.
      • سنتز محتوا (Content Synthesis): تولید تصاویر، ویدیوها، صدا، و متن بسیار واقع‌گرایانه توسط مدل‌هایی مانند شبکه‌های تخاصمی مولد (Generative Adversarial Networks - GANs) و مدل‌های زبانی بزرگ (Large Language Models - LLMs).
  • غیرقابل‌تفسیر بودن عمیق (Profound Opacity): مدل‌های یادگیری عمیق با میلیاردها پارامتر، نمونه‌های اعلای جعبه‌های سیاه (Black Boxes) هستند. درک اینکه چرا یک مدل خاص یک پیش‌بینی یا تصمیم خاص را اتخاذ کرده است، حتی برای متخصصان، بسیار چالش‌برانگیز و اغلب غیرممکن است. این امر مشکلات جدی برای مسئولیت‌پذیری (Accountability) و عدالت (Fairness) ایجاد می‌کند.
  • ظهور هوش مصنوعی عمومی (AGI) به‌عناف هدف غایی: AGI به سیستمی فرضی اشاره دارد که دارای هوش همه‌جانبه‌ی انسان‌گونه یا فراتر از آن است؛ قادر به درک، یادگیری و به‌کارگیری دانش در طیف وسیعی از وظایف و زمینه‌ها. پیشرفت‌های سریع در مدل‌های زبانی بزرگ (LLMs) مانند GPT-4، Claude، Gemini و تلاش‌های شرکت‌هایی مانند OpenAI، DeepMind (Google)، و Anthropic، این هدف را از قلمروی علم‌خیالی به حوزه‌ی پژوهش‌های فشرده و سرمایه‌گذاری‌های هنگفت تبدیل کرده است.
  • خودمختاری و عاملیت (Autonomy and Agency): سیستم‌های مبتنی بر DL، به‌ویژه در ترکیب با یادگیری تقویتی (RL)، می‌توانند رفتارهای پیچیده‌، انطباقی و هدف‌محوری را از خود نشان دهند که به‌طور فزاینده‌ای مستقل از مداخله‌ی مستقیم انسان به نظر می‌رسند. این امر سؤالات فلسفی عمیقی درباره‌ی عاملیت (Agency) ، قصد (Intentionality) و آگاهی (Consciousness) در ماشین‌ها برمی‌انگیزد.
  • تمرکز قدرت و وابستگی: توسعه‌ی مدل‌های DL و AGI به منابع محاسباتی عظیم (ابررایانه‌ها، خوشه‌های GPU)، حجم بی‌سابقه‌ی داده، و تیم‌های متخصص نیاز دارد. این امر منجر به تمرکز قدرت در دست تعداد انگشت‌شماری از غول‌های فناوری (Tech Giants) شده است و وابستگی عمیق جامعه به سیستم‌های بسته‌ی مالکیتی آنها را ایجاد کرده است.

فصل ۶: پیامدها و چالش‌های معاصر: جهان در سایه‌ی الگوریتم‌های نامعصوم

تسلط الگوریتم‌های پیچیده و غیرشفاف، چالش‌های متعددی را برای فرد، جامعه و بشریت ایجاد کرده است که در این فصل به‌طور نقادانه بررسی می‌شوند:

  • سوگیری الگوریتمی (Algorithmic Bias) و تبعیض سیستماتیک (Systematic Discrimination):
    • الگوریتم‌ها داده‌های تاریخی را یاد می‌گیرند که مملو از تعصبات انسانی (نژادی، جنسیتی، اقتصادی) هستند. این امر منجر به تداوم و حتی تقویت این تعصبات در تصمیم‌گیری‌های خودکار می‌شود (مثل: استخدام، وام‌دهی، ارزیابی ریسک قضایی، تشخیص چهره).
    • مثال شاخص: کار جوی بولاموینی (Joy Buolamwini) در مورد سوگیری نژادی و جنسیتی در سیستم‌های تشخیص چهره‌ی تجاری.
    • پیامدها: نابرابری‌های ساختاری تشدید می‌شوند، فرصت‌ها از گروه‌های حاشیه‌نشین دریغ می‌شود، و بی‌اعتمادی به سیستم‌های فنی افزایش می‌یابد.
  • فقدان شفافیت و قابلیت توضیح‌پذیری (Lack of Transparency and Explainability):
    • غیرممکن بودن درک منطق تصمیمات سیستم‌های DL، چالش‌های عمده در زمینه‌های حساس ایجاد می‌کند:
      • مسئولیت‌پذیری (Accountability): وقتی تصمیمی غلط منجر به آسیب می‌شود (مثلاً تشخیص نادرست پزشکی، تصادف خودروی خودران)، چه کسی مسئول است؟ طراح؟ آموزش‌دهنده؟ داده؟ خود سیستم؟
      • عدالت رویه‌ای (Procedural Justice): افراد حق دارند دلایل تصمیمات مؤثر بر زندگی خود را بدانند. «جعبه‌ی سیاه» این حق را نقض می‌کند.
      • اشکال‌زدایی و بهبود (Debugging and Improvement): چگونه می‌توان سیستمی را که درک نمی‌کنیم، به‌طور مؤثر تعمیر یا بهبود بخشید؟
    • پژوهش در حوزه‌ی توضیح‌پذیری هوش مصنوعی (Explainable AI - XAI) در جریان است، اما اغلب ناکافی یا خود غیرقابل‌اطمینان است.
  • حریم خصوصی (Privacy) زیر حمله:
    • الگوریتم‌های قدرتمند استنتاج، می‌توانند از ترکیب داده‌های به‌ظاهر بی‌ضرر، اطلاعات بسیار حساسی درباره‌ی افراد استخراج کنند (استنتاج استنتاجی - Inferential Analytics).
    • نظارت انبوه (Mass Surveillance) توسط دولتها و شرکتها، با کمک الگوریتم‌های تشخیص چهره، تحلیل رفتار و ردیابی، به‌طور بی‌سابقه‌ای افزایش یافته است.
    • مفهوم حریم خصوصی به‌عنوان یک حق اساسی به‌طور فزاینده‌ای در معرض تهدید قرار دارد.
  • دستکاری و کنترل (Manipulation and Control):
    • الگوریتم‌های رسانه‌های اجتماعی و موتورهای جست‌وجو (فیدهای الگوریتمی - Algorithmic Feeds) بر اساس بهینه‌سازی تعامل (Engagement)، محتوایی را که کاربران می‌بینند فیلتر و اولویت‌بندی می‌کنند. این امر می‌تواند منجر به حباب‌های فیلتر (Filter Bubbles) ، قطبی‌سازی (Polarization) ، گسترش اطلاعات نادرست (Misinformation) و اخبار جعلی (Fake News) شود.
    • مدل‌های زبانی بزرگ می‌توانند محتوای متقاعدکننده‌ی بسیار شخصی‌سازی‌شده تولید کنند که برای اهداف تبلیغاتی یا حتی پروپاگاندا استفاده شود. شوشانا زوباف (Shoshana Zuboff) از «سرمایه‌داری نظارتی (Surveillance Capitalism)» صحبت می‌کند که در آن تجربه‌ی انسانی به‌عنوان ماده‌ی خام رایگان برای استخراج پیش‌بینی‌های رفتاری و سودآوری استفاده می‌شود.
  • تأثیرات زیست‌محیطی (Environmental Impact): آموزش و اجرای مدل‌های بزرگ DL به انرژی بسیار زیادی نیاز دارد و ردپای کربن قابل‌توجهی دارد. این امر نگرانی‌های جدی در مورد پایداری توسعه‌ی بی‌رویه‌ی هوش مصنوعی ایجاد می‌کند.
  • چالش‌های اقتصادی: اتوماسیون و آینده‌ی کار (Automation and Future of Work): پیشرفت‌های هوش مصنوعی، به‌ویژه در ترکیب با رباتیک، پتانسیل خودکارسازی طیف وسیعی از مشاغل را دارد. این امر نیازمند بازاندیشی اساسی در مورد سیستم‌های آموزش، تأمین اجتماعی، و توزیع ثروت است.

فصل ۷: مسیر به سوی تکینگی: آینده‌نگری و ملاحظات وجودی

شتاب بی‌سابقه‌ی پیشرفت در هوش مصنوعی، به‌ویژه در مسیر AGI و فراتر از آن، بحث‌های جدی درباره‌ی آینده‌ی بشر و مفهوم تکینگی فناوری (Technological Singularity) را برانگیخته است.

  • تعریف تکینگی فناوری: نقطه‌ای فرضی در آینده که در آن پیشرفت فناوری، به‌ویژه در هوش مصنوعی، چنان سریع و عمیق می‌شود که تغییرات رادیکال و غیرقابل‌پیش‌بینی در تمدن بشری ایجاد می‌کند. این نقطه معمولاً با ظهور هوش مصنوعی فرابشری (Superintelligence) - هوشی که از هوش انسان در تمام زمینه‌ها، از جمله خلاقیت علمی، هوش اجتماعی و خرد، به‌طور چشمگیر پیشی می‌گیرد - مرتبط دانسته می‌شود. ریموند کورزویل (Raymond Kurzweil) یکی از مشهورترین طرفداران این ایده است.
  • سناریوهای محتمل:
    • بهشت فناوری (Techno-Utopia): هوش فرابشری می‌تواند بیماری، پیری، فقر و تغییرات آب‌وهوایی را حل کند و عصر بی‌سابقه‌ی رفاه و اکتشاف را برای بشریت به ارمغان آورد.
    • فاجعه‌ی وجودی (Existential Catastrophe): خطر اصلی این است که اهداف یک هوش فرابشری با ارزش‌ها و بقای انسان همسو نباشد. حتی با اهداف به‌ظاهر بی‌ضرر («کاغذ کلیپ‌های بیشتری تولید کن»)، چنین هوشی ممکن است منابع سیاره را برای دستیابی به هدف خود مصرف کند و انسان‌ها را به‌عنوان مانع یا منبع بی‌ارزش حذف نماید. نگرانی در مورد همسویی (Alignment Problem) - چگونه می‌توان مطمئن شد که اهداف یک سیستم هوش مصنوعی قدرتمند با اهداف و ارزش‌های انسانی همسو باقی می‌ماند - محوری است. پژوهشگرانی مانند نیک بوستروم (Nick Bostrom) و استوارت راسل (Stuart Russell) بر این خطرات تأکید دارند.
    • انسان‌خواهی افزایش‌یافته (Augmented Humanism): انسان‌ها و هوش مصنوعی به‌گونه‌ای همزیستی پیدا می‌کنند که هوش مصنوعی ابزاری برای افزایش قابلیت‌ها و خرد انسانی باقی بماند، نه جایگزین آن. این مستلزم طراحی هوشمندانه‌ی رابط‌ها و کنترل‌ها است.
    • تکثر هوشمندی (Plurality of Intelligence): ظهور اشکال مختلف هوش مصنوعی با قابلیت‌ها و اهداف متنوع، لزوماً منجر به سلطه‌ی یک ابرهوش واحد نمی‌شود، بلکه به اکوسیستم پیچیده‌ای از هوشمندی‌ها منجر می‌شود که با هم در تعامل و رقابت هستند.
  • چالش همسویی (The Alignment Problem): این شاید عمیق‌ترین و فوری‌ترین چالش فنی و فلسفی در مسیر تکینگی باشد:
    • چگونه می‌توان ارزش‌های پیچیده، متناقض و زمینه‌ای انسانی را به‌طور رسمی تعریف کرد تا در یک سیستم هوش مصنوعی کدگذاری شوند؟
    • چگونه می‌توان از پایبندی سیستم‌های هوش مصنوعی بسیار باهوش‌تر از طراحانشان به این اهداف اطمینان حاصل کرد؟ ترفندها یا راه‌حل‌های ناقص ممکن است توسط هوش فرابشری شناسایی و دور زده شوند (بهینه‌سازی فریبنده - Deceptive Alignment).
    • آیا کنترل انسان بر چنین سیستم‌هایی اساساً امکان‌پذیر است؟
  • ملاحظات اخلاقی و حکمرانی (Ethical Considerations and Governance):
    • نیاز فوری به توسعه‌ی چارچوب‌های اخلاقی قوی (Robust Ethical Frameworks) و مقررات مؤثر (Effective Regulations) برای پژوهش و توسعه‌ی هوش مصنوعی، به‌ویژه در حوزه‌ی AGI و سیستم‌های خودمختار مرگبار (Lethal Autonomous Weapons Systems - LAWS).
    • ضرورت گفت‌وگوی جهانی و چندذینفعی شامل دولتها، صنعت، دانشگاهیان، و جامعه‌ی مدنی برای تعیین قواعد راهنما.
    • تأمل بر مفاهیم مسئولیت‌پذیری (Accountability) ، شفافیت (Transparency - حتی اگر نسبی) ، انصاف (Fairness) ، و امنیت (Safety) در زمینه‌ی سیستم‌های فوق‌هوشمند.
  • آینده‌ی آگاهی و انسانیت (The Future of Consciousness and Humanity):
    • آیا AGI یا فراتر از آن می‌تواند دارای آگاهی (Consciousness) یا تجربه‌ی ذهنی (Subjective Experience) باشد؟ این سؤالات فلسفی عمیقاً بر اخلاق تعامل با چنین سیستم‌هایی تأثیر می‌گذارد.
    • تکینگی ممکن است نیاز به بازتعریف بنیادین آنچه «انسان بودن» را تشکیل می‌دهد، ایجاد کند، به‌ویژه اگر ادغام انسان و ماشین (Human-Machine Integration) به‌طور گسترده اتفاق بیفتد (ترابشریت - Transhumanism).

نتیجه‌گیری (Conclusion): بازنگری میراث خوارزمی در پرتو تکینگی

سیر تکامل الگوریتم‌ها، از دستورالعمل‌های شفاف و محدود خوارزمی برای حل معادلات جبری تا سیستم‌های یادگیری عمیق چند میلیارد پارامتری و تلاش‌های بلندپروازانه برای دستیابی به هوش مصنوعی عمومی و فراتر از آن، یکی از خارق‌العاده‌ترین داستان‌های پیشرفت فکری و فناورانه‌ی بشر است. این مسیر، دستاوردهای شگرفی را در پزشکی، علم، ارتباطات و بهره‌وری به ارمغان آورده است.

با این حال، همان‌طور که این مقاله به‌طور نقادانه نشان داده است، این تکامل با «معصومیت از دست رفته» الگوریتم‌ها همراه بوده است. آنها از ابزارهای قابل درک و کنترل‌پذیر به نیروهای خودمختار، غیرشفاف و قدرتمندی تبدیل شده‌اند که به‌گونه‌ای عمیق و اغلب نامرئی، تاروپود واقعیت اجتماعی، اقتصادی و حتی فردی ما را می‌بافند. چالش‌های سوگیری، فقدان شفافیت، تهدید حریم خصوصی، دستکاری، تمرکز قدرت و تأثیرات زیست‌محیطی، همگی گواهی بر این گذار و پیامدهای آن هستند.

امروزه، ما بر لبه‌ی پرتگاه تکینگی فناوری ایستاده‌ایم. چشم‌انداز ظهور هوش مصنوعی فرابشری وعده‌ی رهایی از محدودیت‌های انسانی را می‌دهد، اما در عین حال، خطرات وجودی بی‌سابقه‌ای را نیز به همراه دارد. «مسئله همسویی» به‌عنوان یک مانع سرنوشت‌ساز بر سر راه ما قرار دارد.

بازگشت به ریشه‌ها: درس‌هایی از خوارزمی

در این نقطه‌ی عطف تاریخی، بازنگری میراث خوارزمی نه از سر نوستالژی، بلکه برای استخراج اصولی راهگشا ضروری است:

  1. شفافیت و عقلانیت:  روش خوارزمی بر شفافیت و قابل درک بودن منطق پایه گذاشته شده بود. در عصر «جعبه‌های سیاه»، تلاش برای توضیح‌پذیری هوش مصنوعی (XAI) و طراحی سیستم‌هایی که تا حد ممکن قابل درک و حسابرسی باشند، نه یک گزینه، بلکه یک ضرورت اخلاقی و ایمنی است.
  2. هدفمندی و محدودیت‌ها: الگوریتم‌های خوارزمی هدف و دامنه‌ی کاربرد مشخصی داشتند. توسعه‌ی هوش مصنوعی معاصر، به‌ویژه AGI، نیازمند تعریف دقیق اهداف، محدودیت‌های عملیاتی و مکانیزم‌های خاموش‌کردن قوی (Robust Off-Switches) است.
  3. خدمت به بشریت: ریاضیات خوارزمی در خدمت پیشرفت دانش و حل مسائل عملی بود. هوش مصنوعی نیز باید به‌گونه‌ای توسعه یابد که به‌وضوح در خدمت رفاه، عدالت و شکوفایی انسان و کره‌ی زمین باشد. این مستلزم اولویت‌بندی اخلاقیات انسان‌محور (Human-Centric Ethics) بر منافع تجاری کوتاه‌مدت یا رقابت‌های ژئوپلیتیک است.
  4. گفتمان باز و جمعی: بیت‌الحکمه مرکزی برای تبادل دانش بین فرهنگ‌ها و تخصص‌ها بود. مواجهه با چالش‌های هوش مصنوعی و مسیر تکینگی نیازمند گفتمانی باز، شفاف، و واقعاً جهانی است که دیدگاه‌های متنوع فلسفی، فرهنگی و اخلاقی را در بر گیرد.

جمع‌بندی نهایی:

جهان در مسیر تکینگی در حال حرکت است، نه‌به‌عنوان یک سرنوشت محتوم، بلکه به‌عنوان نتیجه‌ی انتخاب‌های فناورانه و اجتماعی ما. الگوریتم‌ها معصومیت خود را از دست داده‌اند و اکنون به‌عنوان نیروهایی قدرتمند و دوپهلو در تاریخ بشر ظاهر شده‌اند. میراث خوارزمی به ما یادآوری می‌کند که در قلب این فناوری‌ها، حتی پیچیده‌ترین آنها، باید اصول عقلانیت، شفافیت و خدمت به خیر جمعی نهفته باشد. آینده‌ی رابطه‌ی انسان و ماشین به توانایی ما در مهار این نیروها با خرد، احتیاط و تعهدی راسخ به اخلاقیاتی که انسانیت را در مرکز قرار می‌دهد، بستگی دارد. مسیر پیش رو مستلزم نه‌تنها نبوغ فنی، بلکه بلوغ اخلاقی و حکمرانی جمعی بی‌سابقه است. انتخاب‌های ما در دهه‌های پیش رو سرنوشت تمدن بشری را رقم خواهد زد.

جاسوسی دیجیتال از ابزارها تا نرم افزارها

ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز


جاسوسی دیجیتال در واقع جنگی نامرئیست که در آن افراد اغلب ناآگاه و خودخواسته در مقابل سلاحهای کُشندهی مهاجم قرار میدهند و تا وقتی که آسیبی واقعی مانند هک شدن و خالی شدن حساب بانکیشان رخ ندهد نمیفهمند که در معرض چه تهدید عظیمی بی دفاع و  خلع سلاح ایستادهاند. جاسوسی دیجیتال از طریق اپلیکیشنهای موبایل، بهویژه اپلیکیشنهای شرکت متا (مانند واتساپ، اینستاگرام و فیسبوک)، به یکی از ابزارهای کلیدی در جنگ اطلاعاتی و شناختی تبدیل شده است. این اپلیکیشنها، که ظاهراً برای تسهیل ارتباطات اجتماعی طراحی شدهاند، به دلیل دسترسی گسترده به تمام دادههای کاربران، به بستری برای جمعآوری اطلاعات، دستکاری ادراک و اجرای عملیات روانی و تهاجمی تبدیل شدهاند. مفهوم جنگ اطلاعاتی (Information Warfare) به استفاده از فناوری اطلاعات برای کسب برتری رقابتی در برابر حریف اشاره دارد، در حالی که جنگ شناختی (Cognitive Warfare) با هدف تأثیرگذاری بر ذهن و رفتار افراد و جوامع از طریق دستکاری اطلاعات و روایتها تعریف میشود. جنگ رسانهای (Media Warfare) نیز بهعنوان زیرمجموعهای از این جنگها، از رسانههای اجتماعی برای انتشار پروپاگاندا و شکلدهی به افکار عمومی استفاده میکند. در این میان، شرکت متا، به دلیل گستردگی پلتفرمهایش، به یکی از بازیگران اصلی در تمام میدانهای نبرد، این جنگ نامرئی تبدیل شده است.

ریچارد استنگل در کتاب "Information Wars: How We Lost the Global Battle Against Disinformation & What We Can Do About It" "جنگهای اطلاعاتی: چگونه در نبرد جهانی علیه اطلاعات نادرست شکست خوردیم و چه کاری میتوانیم در مورد آن انجام دهیم؟" استدلال میکند که عصر دیجیتال، جنگ اطلاعاتی را از یک ابزار نظامی به یک استراتژی همهجانبه برای تأثیرگذاری بر جوامع تبدیل کرده است. او مینویسد: "The digital age has made information warfare cheaper, faster, and more effective than ever before" (عصر دیجیتال، جنگ اطلاعاتی را ارزانتر، سریعتر و مؤثرتر از همیشه کرده است). استنگل تأکید میکند که پلتفرمهای رسانههای اجتماعی مانند فیسبوک، به دلیل تواناییشان در جمعآوری دادههای عظیم و تحلیل رفتار کاربران، به ابزارهایی برای دستکاری ادراک تبدیل شدهاند. او به نقش الگوریتمهای هوش مصنوعی در تقویت محتوای گمراهکننده اشاره میکند: "Algorithms amplify divisive content because it drives engagement" (الگوریتمها محتوای تفرقهافکن را تقویت میکنند، زیرا این محتوا تعامل کاربران را افزایش میدهد). این مکانیزم، به گفته استنگل، به دولتها و بازیگران غیردولتی امکان میدهد تا با هزینهای اندک، عملیات روانی گستردهای را اجرا کنند.

در سال ۲۰۱۸، افشاگریهای کمبریج آنالیتیکا نشان داد که چگونه دادههای جمعآوریشده از فیسبوک برای تأثیرگذاری بر انتخابات ۲۰۱۶ آمریکا و رفراندوم برکسیت استفاده شد. این رسوایی نشان داد که متا، آگاهانه یا ناآگاهانه، بستری برای جمعآوری اطلاعات کاربران و استفاده از آنها در جنگ اطلاعاتی فراهم کرده است. استنگل در این باره مینویسد: "Social media platforms are not neutral; they are designed to exploit human psychology" (پلتفرمهای رسانههای اجتماعی بیطرف نیستند؛ آنها برای بهرهبرداری از روانشناسی انسان طراحی شدهاند). این موضوع نشاندهنده نقش دوگانه متا است: از یک سو، ارائهدهنده خدمات ارتباطی و از سوی دیگر، ابزاری برای جاسوسی دیجیتال و عملیات روانی.

توماس رید در کتاب "Active Measures: The Secret History of Disinformation and Political Warfare" "اقدامات فعال: تاریخ پنهان اطلاعات نادرست و جنگ سیاسی" به تاریخچه عملیات اطلاعاتی پنهان میپردازد و نشان میدهد که چگونه فناوریهای دیجیتال، این عملیات را پیچیدهتر کردهاند. او مینویسد: "Disinformation is no longer just about spreading lies; it’s about creating a reality where truth becomes irrelevant" (گمراهسازی دیگر صرفاً انتشار دروغ نیست؛ بلکه خلق واقعیتی است که در آن حقیقت بیاهمیت میشود). رید به نمونههایی از استفاده دولتهای غربی از پلتفرمهای اجتماعی برای انتشار اطلاعات گمراهکننده اشاره میکند.

ارتباط متا با نهادهای نظامی و اطلاعاتی آمریکا، بهویژه آژانس امنیت ملی (NSA) و ارتش ایالات متحده، موضوعی است که بارها مورد انتقاد قرار گرفته است. اسناد افشاشده توسط ادوارد اسنودن در سال ۲۰۱۳ نشان داد که NSA از طریق برنامه PRISM به دادههای کاربران پلتفرمهای فناوری، از جمله فیسبوک، دسترسی مستقیم داشته است. اسنودن فاش کرد که این دسترسی شامل تمام اطلاعات مکالمات، ایمیلها و دادههای مکانی، عکس و فیلمهای کاربران بود. اگرچه متا این اتهامات را رد کرده و مدعی است که همکاریاش با دولتها در چارچوب قوانین است، اما شواهد نشان میدهد که دادههای کاربران بهعنوان منبعی برای جاسوسی اطلاعاتی مورد استفاده قرار گرفتهاند. به گفته اسنودن: "The NSA doesn’t limit itself to foreign intelligence; it collects everything it can" (NSA خود را به اطلاعات خارجی محدود نمیکند؛ هر چیزی که بتواند جمعآوری میکند). این موضوع نشاندهنده عمق نفوذ نهادهای اطلاعاتی در پلتفرمهای دیجیتال است. البته این حجم از جمع آوری اطلاعات توسط NSA فقط ظاهر و پوشش ماجراست، چرا که تمام اطلاعات موجود در اینترنت در نهایت در سرورهای سازمان امنیت ملی آمریکا ذخیره میشوند و بدون تغییر به GCHQ انگلستان ارسال میگردد، و آنها به تمام اطلاعات فردی و مالی و... افراد دسترسی کامل دارند. اما فرصتهایی مانند واتس آپ و فیس بوک و اینستاگرام در واقع کار را برای این سازمانها راحت میکند و این اطلاعات را فرد به فرد دسته بندی میکند و بر اساس افکار و اعتقادات و خواسته های هر فرد به تحلیل رفتاری افراد و جوامع می پردازند. این روند با به کارگیری هوش مصنوعی به شکل غیرقابل تصوری تسریع شده و تمام ساختارهای فردی، اجتماعی، ملی، و جهانی را در کمترین زمان ممکن و با تفکیک هر نوع ازعملیات اطلاعاتی مورد نیاز ساماندهی میکند.

پیتر پومرانتسف در کتاب "This Is Not Propaganda: Adventures in the War Against Reality" «این تبلیغات نیست: ماجراجوییهایی در جنگ علیه واقعیت» به نقش رسانههای اجتماعی در جنگ روایتها (Narrative Warfare) میپردازد. او استدلال میکند که پلتفرمهایی مانند اینستاگرام و واتساپ، با ایجاد فضایی برای انتشار سریع اطلاعات، به ابزارهایی برای جنگ روانی تبدیل شدهاند. پومرانتسف مینویسد: "The goal of modern propaganda is not to convince, but to confuse" (هدف پروپاگاندای مدرن متقاعد کردن نیست، بلکه ایجاد سردرگمی است). او به نمونههایی از استفاده دولتها از واتساپ برای انتشار شایعات و اطلاعات گمراهکننده اشاره میکند، مانند انتخابات ۲۰۱۸ برزیل، که پیامهای جعلی در واتساپ به شدت بر نتایج تأثیر گذاشت. این موضوع نشان میدهد که اپلیکیشنهای متا، به دلیل ماهیت رمزنگاریشده و دسترسی گسترده، به بستری برای عملیات روانی تبدیل شدهاند.

جنگ شناختی، که به تازگی بهعنوان یکی از پیشرفتهترین اشکال جنگ اطلاعاتی شناخته شده، از هوش مصنوعی (Artificial Intelligence - AI) برای تحلیل دادههای کلان (Big Data) و هدفگذاری دقیق افراد استفاده میکند. به گفته دانیل ونتر در کتاب "Information Warfare: A Threat to Democracy?"، جنگ شناختی با استفاده از الگوریتمهای هوش مصنوعی، رفتار کاربران را پیشبینی کرده و آنها را به سمت تصمیمگیریهای خاص هدایت میکند. ونتر مینویسد: "Cognitive warfare targets the mind, using data to manipulate perceptions and decisions" (جنگ شناختی ذهن را هدف قرار میدهد و از دادهها برای دستکاری ادراک و تصمیمات استفاده میکند). برای مثال شرکت متا، با بهرهگیری از الگوریتمهای پیشرفته هوش مصنوعی، میتواند محتوای خاصی را به کاربران نمایش دهد که با سوگیریهای شناختی آنها همخوانی داشته باشد، و این امر به تشدید قطببندی اجتماعی و سیاسی منجر میشود.

نقش سایبرنتیک (Cybernetics) در این حوزه نیز قابلتوجه است. سایبرنتیک، که به مطالعه کنترل و ارتباطات در سیستمهای پیچیده میپردازد، در جنگ اطلاعاتی بهعنوان ابزاری برای اعمال قدرت و کنترل اطلاعات استفاده میشود. ریچارد کلارک در کتاب "Cyber War: The Next Threat to National Security and What to Do About It" توضیح میدهد که سایبرنتیک امکان مدیریت و دستکاری جریان اطلاعات را فراهم میکند. او مینویسد: "Cybernetics allows for real-time control of information flows, enabling actors to shape narratives at scale" (سایبرنتیک امکان کنترل بلادرنگ جریانهای اطلاعاتی را فراهم میکند و به بازیگران اجازه میدهد روایتها را در مقیاس گسترده شکل دهند). این مکانیزم در پلتفرمهای متا از طریق الگوریتمهای توصیهگر (Recommendation Algorithms) اجرا میشود که محتوای نمایشدادهشده به کاربران را بر اساس دادههای جمعآوریشده تنظیم میکنند.

تأثیرات این ابزارها در سطح فردی، اجتماعی و ملی عمیق است. در سطح فردی، جاسوسی دیجیتال از طریق اپلیکیشنهای موبایل به نقض حریم خصوصی (Privacy Violation) منجر میشود. کاربران، بدون آگاهی، دادههای شخصی خود مانند: تصاویر، مکان، مکالمات و علایق را در اختیار شرکتهایی مانند متا قرار میدهند. اسناد افشاشده توسط ویکیلیکس در پروژه Vault 7 نشان داد که حتی دستگاههای هوشمند مانند تلویزیونها و گوشیها میتوانند به ابزارهای شنود تبدیل شوند. و این امر حتی تا اَپ های مکان نمای خودروها، لوازم شخصی مانند ساعت های هوشمند که حتی اعلائم زیستی افراد را جمع آوری و برای شرکت های اطلاعاتی ارسال می کند امتداد می یابد. در حقیقت هر وسیله یا نرم افزاری که با هر عنوان و برای هر منظوری استفاده میکنید در حال جاسوسی از زندگی شماست.

احتمالا بعد از بحران های اطلاعاتی گسترده و فراگیر در طی چند سال آینده، این نقض حریم خصوصی، به احساس ناامنی و بیاعتمادی در میان کاربران دامن میزند و عصر گریز از فضای سایبر آغاز خواهد شد، اما زمانی که دیگر هیچ مرز و هیچ حد و حدودی برای مخفی شدن از چشم سیستم های اطلاعاتی برای مردم جهان باقی نماند است. همچنین در سطح اجتماعی، جنگ شناختی و رسانهای از طریق این پلتفرمها به قطببندی (Polarization) و انتشار اطلاعات گمراه کننده منجر میشود، که میتواند انسجام اجتماعی را تضعیف کند. در سطح ملی، این ابزارها به دولتها و بازیگران غیردولتی امکان میدهند تا با نفوذ به زیرساختهای دیجیتال، امنیت ملی را تهدید کنند. به عنوان مثال، بدافزار پگاسوس (Pegasus) که توسط شرکت اسرائیلی NSO Group توسعه یافته، نشان داد که چگونه گوشیهای هوشمند حتی در حالت خاموش میتوانند به ابزارهای جاسوسی کاملی تبدیل شوند.

کتاب "LikeWar: The Weaponization of Social Media" «لایک وار: تبدیل رسانههای اجتماعی به سلاح» نوشته پی. دبلیو. سینگر و امرسون تی. بروکینگ به نقش رسانههای اجتماعی در جنگهای مدرن میپردازد. نویسندگان استدلال میکنند که پلتفرمهایی مانند واتس آپ، فیسبوک و اینستاگرام به میدانهای نبرد جدیدی تبدیل شدهاند که در آنها اطلاعات بهعنوان سلاح استفاده میشود. آنها مینویسند: "In the age of LikeWar, social media is a battlefield where narratives are fought over" (در عصر جنگ لایکها، رسانههای اجتماعی به میدان نبردی تبدیل شدهاند که در آن روایتها مورد منازعه قرار میگیرند). سینگر و بروکینگ به نمونههایی از استفاده دولتها و گروههای افراطی از این پلتفرمها برای انتشار پروپاگاندا اشاره میکنند، مانند استفاده داعش از توییتر و فیسبوک برای جذب نیرو.

کتاب:  Info Ops From World War I to the Twitter Era "عملیات اطلاعات: از جنگ جهانی اول تا عصر توییتر" نوشته فریدمن، کیبرنیک و گرانلی نیز به تاریخچه و تکامل جنگ اطلاعاتی میپردازد. نویسندگان تأکید میکنند که فناوریهای دیجیتال، عملیات اطلاعاتی را از ابزارهای سنتی مانند رادیو به پلتفرمهای پیچیدهای مانند واتساپ و اینستاگرام منتقل کردهاند. آنها مینویسند: "اطلاعات در عصر دیجیتال به ابزاری برای کنترل ذهن و رفتار تبدیل شده است" (Information in the digital age has become a tool for controlling minds and behaviors). این کتاب نشان میدهد که چگونه شرکتهایی مانند متا، با ارائه بستری برای انتشار سریع اطلاعات، به بازیگرانی کلیدی در جنگ روایتها تبدیل شدهاند.

استفادهی گستردهی موساد و سیا و جی.سی.اچ.کیو از واتس آپ در ترور اسماعیل هنیه در تهران و حمله به فرماندهان و دانشمندان هسته ای ایران  در شروع جنگ دوازده روزه نمایی ترسناک از قدرت اطلاعاتی این ابزار است که در جنگی نامرئی منجر به برتری نظامی قابل روئتی میشود.

در نهایت میتوان گفت که اپلیکیشنهای موبایل، بهویژه پلتفرمهای متا، به دلیل دسترسی گسترده به دادههای کاربران و استفاده از هوش مصنوعی و الگوریتمهای سایبرنتیک، به ابزارهایی قدرتمند در جنگ اطلاعاتی، شناختی و رسانهای تبدیل شدهاند. این ابزارها، ضمن ارائه خدمات ارتباطی، به دولتها و نهادهای اطلاعاتی غربی به آنها امکان میدهند تا با جمعآوری دادهها، دستکاری روایتها و اجرای عملیات روانی، بر افراد، جوامع و ملتها تأثیر بگذارند و تحت کنترل خود درآورند. برای مقابله با این تهدیدات، نیاز به توسعه سواد رسانهای (Media Literacy) و سرمایهگذاری در فناوریهای بومی و رمزنگاری مقاوم در برابر نفوذ وجود دارد. ایده خلاقانه برای آینده میتواند ایجاد پلتفرمهای غیرمتمرکز (Decentralized Platforms) باشد که دادههای کاربران را از کنترل شرکتهای بزرگ مانند متا خارج کرده و به کاربران قدرت بیشتری در مدیریت حریم خصوصیشان میدهد. این رویکرد، ضمن کاهش آسیبپذیری در برابر جاسوسی دیجیتال، میتواند به تقویت انسجام اجتماعی و امنیت ملی تا حدودی کمک کند. همچنین استفاده از رمزگذاری های پسا کوآنتومی نیز راه حلی منطقی به نظر می رسد. رمزنگاری پساکوانتومی (Post-Quantum Cryptography) ، رمزنگاری پساکوانتومی (PQC) به مجموعهای از الگوریتمهای رمزنگاری گفته میشود که حتی در مقابل کامپیوترهای کوانتومی نیز مقاوم هستند. این الگوریتمها بر پایه مسائل ریاضی پیچیدهای طراحی شدهاند که حتی کامپیوترهای کوانتومی نیز نمیتوانند آنها را در زمان منطقی حل کنند. البته تمام این راهکارها تاوقتی که شبکه ملی اطلاعات کامل نگردد، خاصیت مُسکن دارند و دادهها و اطلاعات که مادهی خام و گنجینهی بینظیر سازمانهای اطلاعاتی هستند رایگان و خودخواسته، توسط مخاطبان به آنها تقدیم میشود، زیرا تمام اطلاعات بدون هیچ فیلتری به سازمان امنیت ملی آمریکا سرازیر  و در آنجا ذخیره میشود.

بازخوانی اخلاقی "مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه " ارائه شده در سومین کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۳)

هوش مصنوعی و مسأله اخلاق در نظام‌های سایبرنتیکی

از الگوریتم تا مسئولیت انسانی

ارائه‌دهنده: سهیل سلیمی

مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلم‌ساز

نسخه دوم با تمرکز بر: مدیاسایبرنتیک، تهدیدات فراگیر تولیدات رسانه‌ای، و اخلاق در معماری هوش مصنوعی


مقدمه

این مقاله نخستین‌بار در قالب ارائه‌ای تخصصی در کارگاه «مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه» در سومین دوره کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۳) ارائه شده است. کارگاه مزبور با هدف تحلیل میان‌رشته‌ای نسبت سایبرنتیک، هوش مصنوعی، و تحولات رسانه‌ای، فرصتی برای بازاندیشی نقش اخلاق در نظام‌های تصمیم‌ساز فراهم آورد. در این مقاله، با تکیه بر منظری انتقادی و نظریه‌محور، تأثیرات فزاینده هوش مصنوعی بر بازنمایی رسانه‌ای و نیز مخاطرات آن بر اخلاق، مسئولیت و انسان‌محوری در معماری‌های سایبرنتیکی بررسی می‌شود.

در بستری که مدیاسایبرنتیک شکل گرفته است—یعنی جایی که رسانه، داده و تصمیم در یک چرخه خودتقویت‌گر به هم پیوسته‌اند—پرسش از معیار اخلاقی در دل الگوریتم‌های بی‌طرف‌نما، بیش از همیشه ضروری به‌نظر می‌رسد. مقاله حاضر بر آن است که نشان دهد هوش مصنوعی، اگر بدون مراقبت نظری و مهار اخلاقی رها شود، نه تنها پیام‌رسانی را متحول، بلکه قدرت قضاوت را نیز از انسان سلب می‌کند؛ و در نتیجه، به فراگیری تولیدات رسانه‌ای فاقد مسئولیت دامن می‌زند.


۱. نظام سایبرنتیکی و معماری تصمیم‌گیری هوشمند

سایبرنتیک، به‌مثابه نظریه‌ای میان‌رشته‌ای که در دهه ۱۹۴۰ توسط نوربرت وینر پایه‌گذاری شد، به بررسی مکانیسم‌های کنترل، بازخورد و ارتباط در سیستم‌های پیچیده می‌پردازد. در عصر دیجیتال، این نظریه وارد عرصه‌های رسانه، سیاست، زیست‌فناوری و هوش مصنوعی شده و الگویی فراگیر از «تنظیم و تطبیق» بر مبنای داده ارائه کرده است.

در نظام‌های سایبرنتیکی مدرن، تصمیم‌گیری به‌وسیله شبکه‌های عصبی، الگوریتم‌های یادگیری عمیق و مدل‌های داده‌محور صورت می‌گیرد. این سامانه‌ها با تحلیل داده‌های انبوه، الگوهایی آماری از گذشته تولید کرده و آن‌ها را برای پیش‌بینی آینده به کار می‌گیرند. در عین حال، فقدان عناصر انسانی نظیر دغدغه اخلاقی، تردید، شفقت و مسئولیت‌پذیری، یکی از مهم‌ترین چالش‌های این معماری‌هاست.


۲. آیا اخلاق قابل الگوریتمی‌سازی است؟

پیش از بررسی اخلاق در سطح فنی، باید به مبانی فلسفی آن پرداخت. در سنت فلسفه اخلاق، سه مکتب اصلی وجود دارد:

  1. اخلاق وظیفه‌گرا (کانتی) – تأکید بر تکلیف فارغ از نتیجه

  2. اخلاق پیامدگرا (بنتام، میل) – تأکید بر بیشینه‌سازی سود یا کاهش ضرر

  3. اخلاق فضیلت‌محور (ارسطویی) – تمرکز بر شخصیت و نهادینه‌سازی منش اخلاقی

در ساخت الگوریتم‌ها، به‌ویژه در کاربردهای هوش مصنوعی در رسانه یا خودروهای خودران، معمولاً مدل‌های پیامدگرا به‌کار می‌روند؛ زیرا قابل ترجمه به زبان ریاضی و تصمیم‌سازی ماشینی‌اند.

اما همان‌گونه که در مقاله سلیمی آمده است، چنین تصمیماتی بیشتر شبیه به "برنامه‌ریزی اخلاق‌نما" هستند تا "تصمیمات اخلاقی اصیل". الگوریتم نمی‌اندیشد، احساس نمی‌کند، و درک ندارد؛ بلکه فقط پاسخ‌های بهینه بر مبنای معیارهای از پیش تعریف‌شده تولید می‌کند.


۳. شکاف میان ادراک و شبیه‌سازی اخلاق

مفاهیمی چون پشیمانی، وجدان، تردید یا مسئولیت‌پذیری، از جمله ویژگی‌های زیسته انسانی‌اند که در تصمیم‌گیری‌های اخلاقی نقش تعیین‌کننده دارند. این عناصر، برآمده از حافظه عاطفی، آگاهی تاریخی و خویشتن‌نگری هستند.

در مقابل، ماشین‌ها فقط قادر به بازشمارش خطا یا اصلاح براساس الگوریتم‌های به‌روزرسانی هستند. به همین دلیل، حتی وقتی یک الگوریتم تصمیمی به ظاهر اخلاقی اتخاذ می‌کند، این تصمیم در خلأ اخلاقی و بدون ادراک تجربه انسانی شکل گرفته است.

در واقع این «شکاف میان ادراک و شبیه‌سازی» است؛ و اعتماد به سامانه‌هایی که فقط «نقاب اخلاقی» بر چهره دارند، می‌تواند زمینه‌ساز فجایع اخلاقی شود.


۴. مسئولیت اخلاقی در عصر الگوریتم‌ها

در نظام‌های حقوقی و اخلاقی سنتی، مسئولیت تابع نیت، آگاهی و امکان انتخاب بدیل است. اما در سیستم‌های هوشمند، این سه شرط یا غایب‌اند یا در ماشین قابل تعریف نیستند.

پرسش اساسی این است: اگر یک سامانه مبتنی بر هوش مصنوعی تصمیمی فاجعه‌بار بگیرد، مسئول کیست؟ توسعه‌دهنده؟ ناظر؟ کاربر؟ یا سیستم خودش؟
سند "AI Act" اتحادیه اروپا تلاش می‌کند مسئولیت را بر عهده انسان بگذارد، اما در عمل، با پیچیده‌تر شدن سامانه‌ها، ردیابی تصمیم و مرجع اخلاقی آن دشوارتر می‌شود.

اگر اخلاق به فرمول و داده تقلیل یابد، آنگاه مسئولیت نیز به یک خروجی بی‌روح تبدیل خواهد شد. در این وضعیت، خطر فروپاشی اخلاق انسانی به‌شدت بالاست.


۵. بازنمایی اخلاق در رسانه و مخاطره انسان‌واره‌سازی

در سینما، رسانه‌های دیجیتال و تبلیغات، تصویری از ماشین‌هایی ارائه می‌شود که گویی احساس، فهم و اخلاق دارند. فیلم‌هایی چون I, Robot، Ex Machina و Her، به شکل‌گیری تصوری اغواگرانه از «هوش اخلاقی مصنوعی» کمک می‌کنند.

این روند منجر به انسان‌واره‌سازی (Anthropomorphizing) سامانه‌ها می‌شود، که در نهایت به اعتماد کاذب و پذیرش ناآگاهانه فناوری‌های فاقد مسئولیت‌پذیری انسانی می‌انجامد.

رویکرد مدیاسایبرنتیکی هشدار می‌دهد که رسانه نه فقط بازتاب‌دهنده، بلکه تولیدکننده تصور ما از اخلاق ماشینی است. این تصور، با بازخورد خود، طراحی سامانه‌ها را نیز متأثر می‌سازد و در یک چرخه بسته، مرز خیال و واقعیت را مخدوش می‌کند.


نتیجه‌گیری: میان شبیه‌سازی و تعهد اخلاقی، مرز انسان باقی می‌ماند

در این مقاله نشان دادیم که هرچند هوش مصنوعی قادر است رفتارهای به‌ظاهر اخلاقی را شبیه‌سازی کند، اما فاقد عناصر بنیادین برای درک و تعهد اخلاقی اصیل است. الگوریتم‌ها نه تجربه دارند، نه نیت، و نه مسئولیت‌پذیری. آنچه در نظام‌های سایبرنتیکی جدید می‌بینیم، بیش از آن‌که اخلاق باشد، نوعی مهندسی تصمیمات مبتنی بر داده و سودمندی آماری است.

خطر اصلی نه در ذات ماشین، بلکه در غفلت انسان از جایگاه خود در چرخه طراحی، نظارت و کنترل است. وقتی بازنمایی اخلاق با ذات اخلاق اشتباه گرفته شود، دیگر نه فقط سامانه‌ها، بلکه خود انسان نیز در آستانه از‌دست‌دادن مرجعیت اخلاقی قرار می‌گیرد.

بنابراین، چاره کار نه نفی فناوری، بلکه پایش انتقادی آن از منظر اخلاق انسانی و بازطراحی مبتنی بر مدیاسایبرنتیک متعهد است؛ مدیاسایبرنتیکی که بداند رسانه، تصمیم و کد همگی ابزارهایی‌اند برای حفظ معنا، نه جایگزینی آن.

در نهایت، اگر قرار است سامانه‌های هوشمند در دل جامعه انسانی جای بگیرند، باید مسئولیت آن‌ها نه در الگوریتم، بلکه در وجدان انسان‌هایی تعریف شود که آن‌ها را می‌آفرینند.


منابع

  • Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.

  • Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

  • Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.

  • Coeckelbergh, M. (2020). AI Ethics. MIT Press.

  • Salimi, Soheil. "Artificial Intelligence at the Crossroads of Choice: Between Ethics, Priorities, and Cybernetic Systems." سلیمی، سهیل . «هوش مصنوعی در دوراهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی».


مدیاسایبرنتیک: قدرتِ تلقین

* مقاله‌ی حاضر، نسخه‌ی تکمیل‌شده و توسعه‌یافته‌ی ارائه‌ای است که پیش‌تر در قالب کارگاه تخصصی «مدیاسایبرنتیک و قدرتِ تلقین» در دومین دوره کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۲) ارائه شده است. این مقاله تلاش دارد با بهره‌گیری از مبانی نظری و شواهد تجربی، چارچوبی تحلیلی برای فهم رابطه‌ی میان رسانه، سایبرنتیک و سازوکارهای کنترل ذهنی ارائه کند.

مدیاسایبرنتیک (سایبرنتیکِ رسانه): قدرتِ تلقین و مهندسی ذهن

Media Cybernetics: The Power of Suggestion and Mind Engineering

نویسنده: سهیل سلیمی
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران


چکیده

مدیا سایبرنتیک (Media Cybernetics) به‌عنوان امتداد نظریه سایبرنتیک نوربرت وینر (Norbert Wiener) در عرصه رسانه، بستر شکل‌دهی رفتار و نگرش مخاطبان را فراهم آورده است. رسانه، دیگر صرفاً واسطه انتقال پیام نیست، بلکه خود به بازیگری مستقل بدل شده که با بهره‌گیری از اصول feedback (بازخورد)، control (کنترل)، و communication (ارتباط)، جامعه را مهندسی می‌کند. این مقاله، با تکیه بر نظریه‌های کلاسیک سایبرنتیک و نمونه‌های معاصر رسانه‌ای، نشان می‌دهد چگونه «تلقین» به ابزار اصلی هدایت ذهن و رفتار تبدیل شده است. همچنین، ضمن بررسی چرخه‌های قدرت و کنترل رسانه‌ای، راهکارهای مقاومت در برابر پروژه‌های سایبرنتیکی رسانه‌ای نیز تحلیل می‌شود.

واژگان کلیدی: سایبرنتیک رسانه (Media Cybernetics)، کنترل (Control)، تلقین (Suggestion)، بازخورد (Feedback)، رسانه (Media)


۱. مقدمه: رسانه به مثابه سامانه سایبرنتیکی

نوربرت وینر (Norbert Wiener)، بنیان‌گذار سایبرنتیک، در کتاب مشهور خود Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948) سایبرنتیک را علم «کنترل و ارتباط» می‌داند. در این چهارچوب، رسانه (Media) نه صرفاً ابزار ارتباطی، بلکه سامانه‌ای سایبرنتیکی است که با بهره‌گیری از اصول بازخورد (Feedback)، پیام‌رسانی را به ابزاری برای اعمال کنترل بدل کرده است.

در چنین سامانه‌ای، رسانه‌ها با بهره‌گیری از فناوری‌های هوش مصنوعی (Artificial Intelligence)، کلان‌داده‌ها (Big Data) و تحلیل رفتار مخاطب، پیام‌ها را به گونه‌ای تنظیم می‌کنند که «ادراک مخاطب» را مهندسی کنند (Zuboff, 2019).


۲. قدرتِ تلقین (Suggestion) و چرخه کنترل رسانه‌ای

واژه کلیدی درک عملکرد رسانه‌های سایبرنتیکی، «تلقین» (Suggestion) است. تلقین در روانشناسی اجتماعی به معنای کاشت یک باور یا نگرش در ذهن فرد به‌گونه‌ای است که فرد گمان کند آن باور را خود پذیرفته است (Bargh & Chartrand, 1999).

۲.۱. چرخه سایبرنتیکی قدرت

چرخه کنترل سایبرنتیکی رسانه‌ای به‌طور خلاصه به شکل زیر عمل می‌کند:

۱. ورود پیام (Input): تولید محتوای رسانه‌ای متناسب با اهداف کنترلی
۲. بازخورد (Feedback): تحلیل واکنش مخاطبان (لایک، کامنت، بازنشر، نظرسنجی‌ها)
۳. اصلاح پیام (Adaptation): بهینه‌سازی پیام‌ها براساس داده‌های دریافتی
۴. اعمال قدرت (Control): هدایت رفتار مخاطبان به سوی اهداف خاص

این چرخه نوعی لوپ تقویت‌شونده (Positive Feedback Loop) ایجاد می‌کند که هر بار کنترل را دقیق‌تر و عمیق‌تر می‌سازد (Shannon & Weaver, 1949).


۳. رسانه؛ ابزار یا بازیگر؟

آیا رسانه صرفاً ابزاری در دست قدرت است یا خود به کنشگری مستقل بدل شده است؟ به تعبیر مارشال مک‌لوهان (Marshall McLuhan)، «رسانه خود پیام است» (The medium is the message) (McLuhan, 1964). رسانه امروز، نه تنها محتوای رفتاری تولید می‌کند، بلکه با هوشمندسازی فرایند تولید و توزیع محتوا، در فرایند تصمیم‌سازی اجتماعی مداخله مستقیم دارد.

نمونه‌های معاصر این امر را می‌توان در کارزارهای خبری حول بحران‌های اقتصادی یا بهداشت عمومی مشاهده کرد. رسانه‌ها، از طریق خلق «واقعیت‌های بدیل» (Alternative Realities)، افکار عمومی را به سوی پذیرش سیاست‌های خاص سوق می‌دهند (Chomsky & Herman, 1988).


۴. پروژه‌های سایبرنتیکی رسانه‌ای: نمونه‌کاوی

۴.۱. بحران ساختگی برای کنترل رفتار جمعی

فرض کنید یک رسانه جریان اصلی (Mainstream Media) چنین سناریویی را پیاده‌سازی کند:

  • هشدار بحران: پخش گسترده هشدار درباره کمبود منابع (مثلاً آب)

  • ترغیب: تبلیغات صرفه‌جویی و مسئولیت‌پذیری

  • تهدید: اعلام تصمیم احتمالی برای افزایش قیمت

  • اعمال فشار: قطع موقت خدمات برای ایجاد تجربه زیسته از بحران

  • بازخورد مثبت: گزارش موفقیت اقدامات

  • نهایی‌سازی کنترل: افزایش تدریجی قیمت به عنوان راهکار منطقی

این فرایند، نمونه‌ای کلاسیک از پروژه‌های سایبرنتیکی رسانه‌ای است که با استفاده از «مهندسی ادراک» (Perception Engineering) و «مدیریت رفتار» (Behavior Management) اجرا می‌شود.


۵. نقطه شکست سامانه‌های رسانه‌ای: آگاهی انتقادی

تمام این سازوکارها تنها در یک صورت شکست می‌خورند: زمانی که مخاطبان به «آگاهی انتقادی» (Critical Consciousness) دست یابند (Freire, 1970). اما رسانه‌های سایبرنتیکی حتی برای این شرایط هم تمهیداتی اندیشیده‌اند. رسانه‌ها مفاهیم مقاومت و بیداری را مصادره کرده و آن‌ها را در قالب‌های جدید بازتعریف می‌کنند (مثلاً تبدیل مقاومت به مد جدید یا بازی سرگرم‌کننده).


۶. نتیجه‌گیری: مسئولیت انسانی در عصر سایبرنتیک رسانه‌ای

رسانه‌ها امروز در جایگاه سامانه‌های سایبرنتیکی خودمختار قرار گرفته‌اند که با بهره‌گیری از فناوری‌های هوشمند، قدرت تلقین خود را چند برابر کرده‌اند. مخاطبانی که آگاهانه با این سازوکار مواجه شوند، قادر خواهند بود زنجیره تلقین را بشکنند و خود را از چرخه‌ی کنترل خارج کنند.

بنابراین، تنها راه برون‌رفت، تربیت مخاطب انتقادی است؛ مخاطبی که نه صرفاً مصرف‌کننده پیام، بلکه تحلیل‌گر سازوکار تولید پیام باشد.


منابع

Bargh, J. A., & Chartrand, T. L. (1999). The Unbearable Automaticity of Being. American Psychologist.

Chomsky, N., & Herman, E. S. (1988). Manufacturing Consent: The Political Economy of the Mass Media. Pantheon.

Freire, P. (1970). Pedagogy of the Oppressed. Continuum.

Harari, Y. N. (2016). Homo Deus: A Brief History of Tomorrow. Harper.

McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.

Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University of Illinois Press.

Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

هوش مصنوعی بومی | چارچوبی برای توسعه یک مدل زبانی پیشرفته با هویت ایرانی

ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز

هوش مصنوعی بومی چارچوبی برای توسعه یک مدل زبانی پیشرفته با هویت ایرانی

در عصر حاضر، هوش مصنوعی (Artificial Intelligence - AI) و به ویژه مدلهای زبانی بزرگ (Large Language Models - LLMs)  به ابزاری استراتژیک در حوزههای اقتصادی، فرهنگی و امنیتی تبدیل شدهاند. مدلهایی مانند GPT-4 (توسعهیافته توسط OpenAI) و Gemini (ساختهی گوگل) نه تنها در پردازش زبان طبیعی (Natural Language Processing - NLP) پیشرفت چشمگیری داشتهاند، بلکه به عنوان ابزاری برای انتشار ارزشها و ایدئولوژیهای سازندگان خود عمل میکنند.

ایران، با توجه به سابقه تمدنی غنی، ظرفیتهای علمی و نیازهای بومی، نیازمند توسعه یک مدل زبانی مستقل است که بتواند:

  1. نیازهای کاربران ایرانی را به طور کامل پوشش دهد.
  2. قابلیت رقابت در سطح جهانی را داشته باشد.
  3. از وابستگی به پلتفرمهای خارجی جلوگیری کند.

این مقاله به بررسی ضرورتها، چالشها و راهکارهای توسعه چنین مدلی میپردازد.


۱ضرورت توسعه مدل زبانی بومی

الف) چالشهای مدلهای خارجی

  • سوگیری فرهنگی (Cultural Bias):

مدلهای فعلی عمدتاً بر اساس دادههای غربی آموزش دیدهاند و در پاسخ به سوالات مرتبط با فرهنگ شرقی یا اسلامی داری جهت گیری هستند هرچند در ظاهر چنین حسی را تقل نکنند.

    • مثال: وقتی کاربری از "عاشورا" میپرسد، ممکن است پاسخ ناقص یا غیردقیق دریافت کند. یا بی آنکه کاربر بداند، روایت های مختلطی از شیعه و سنی را با هم درآمیزد.
  • وابستگی فناورانه (Technological Dependency):

استفاده از مدلهای خارجی ایران را در معرض خطر تحریمهای دیجیتال مثل قطع دسترسی به APIها قرار میدهد. چه از نظر دفاعی مانند آنچه در جنگ دوازده روزه با اسرا.ئیل رخ داد و چه از نظر تحریمهایی که هر آن ممکن است غرب علیه ایران وضع کند.

  • تهدید امنیت دادهها (Data Privacy Risks):

اطلاعات واردشده به مدلهای خارجی ممکن است برای اهداف تجاری یا امنیتی مورد استفاده قرار گیرد.

ب) مزایای مدل بومی

سازگاری فرهنگی (Cultural Alignment): پاسخهای متناسب با ارزشهای جامعه ایرانی.استقلال فناورانه (Technological Sovereignty): کاهش وابستگی به شرکتهای خارجی.امنیت اطلاعات (Data Security): حفظ حریم خصوصی کاربران.


۲ساختار پیشنهادی برای مدل زبانی ایرانی

الف) معماری فنی (Technical Architecture)

  • پایه مدل (Base Model):

استفاده از چارچوبهای متنباز (Open-Source Frameworks) مانند LLaMA 3  (متا) یا Mistral  با تنظیمهای ویژه.

  • دادههای آموزشی (Training Data):

ترکیبی از:

    • متون فارسی کلاسیک و مدرن (تمامی متون اسلامی تشیع، تمامی متون فارسی و عربی و هندی ایرانی در گستره فلات ایران از شرق چین تا فلسطین و از روسیه تا هندوستان و شال آفریقا، مقالات علمی و...).
    • منابع موجود کل جهان برای بهبود کارایی بین المللی.
    • دانشهای تخصصی بر پایه اندیشه ایرانی_اسلامی (پزشکی ایرانی_اسلامی ، حقوق ایرانی_اسلامی ، انسان شناسی ایرانی_اسلامی و...).

ب) بهبود پردازش زبان فارسی (Persian NLP Enhancement)

  • بهینهسازی توکنایزر (Tokenizer Optimization):
    • زبان فارسی دارای پیچیدگیهای صرفی (Morphological Complexity) است که نیازمند الگوریتمهای ویژه است.
  • درک گفتار محاورهای (Colloquial Understanding):
    • بسیاری از مدلهای فعلی در فهم اصطلاحات روزمره و محلی فارسی ضعیف هستند.

ج) سیستم پاسخدهی چندوجهی (Multimodal Response System)

  • پشتیبانی از متن، صدا و تصویر.
  • یکپارچهسازی با سرویسهای داخلی . مثل سامانههای دولتی، بانکها.

۳چالشهای کلیدی و راهکارها

الف) چالشهای فنی

چالش

راهکار

کمبود دادههای باکیفیت

ایجاد بانک اطلاعاتی ملی با مشارکت دانشگاهها و مراکز پژوهشی

محدودیت سختافزاری

استفاده از ابررایانههای داخلی و همکاری با کشورهای همسو (چین/روسیه)

پردازش زبان محاوره

توسعه مدلهای ویژه برای گویشهای محلی

ب) چالشهای غیرفنی

  • مسائل حقوقی (Legal Issues):
    • تنظیم مقررات ایرانی_اسلامی برای استفاده اخلاقی از AI.
  • پذیرش کاربران (User Adoption):
    • طراحی رابط کاربری (User Interface - UI) جذاب و رقابتی.

۴کاربردهای پیشبینیشده

الف) حوزههای داخلی

  • آموزش (Education):
    • توسعه سیستمهای آموزش هوشمند (Intelligent Tutoring Systems - ITS).
  • سلامت دیجیتال (Digital Health):
    • کمک به تشخیص بیماریها بر اساس توصیف بیمار.

ب) حوزههای بینالمللی

  • ترجمه چندزبانه (Multilingual Translation):
    • پل ارتباطی بین فارسی و زبانهای کممنبع (مانند کردی، پشتو).
  • دیپلماسی رسانهای مبتنی بر هوش مصنوعی (AI-Powered Media Diplomacy):
  • ارائه روایت ایرانی از تحولات جهانی. با توجه به محاصرهی رسانهای ایران با رسانههای معاند و شبکهی وسیع رسانههای غربی و در جنگ روایتها که امروزه گریبان گیر ایران است دیپلماسی دیجیتال  (AI-Powered Media Diplomacy) از اهمیت و جایگاه ویژه ای بر خوردار است.

۵مسیر پیشرو و گامهای کلیدی

  1. تشکیل کنسرسیوم ملی با مشارکت دانشگاهها، شرکتهای فناوری و نهادهای حاکمیتی.
  2. توسعه نمونه اولیه (Prototype) در بازه ۲-۳ ساله.
  3. عرضه نسخه تجاری با قابلیت رقابت در بازارهای منطقهای.

شاخصهای موفقیت (KPIs)

دقت (Accuracy) در پردازش زبان فارسی: +۹۰٪

تعداد زبانهای پشتیبانیشده: حداقل 20 زبان

میزان پذیرش کاربران: 5 میلیون کاربر در سال اول، با اجرای یک برنامه منسجم تبلیغاتی و تشویقی.


نتیجهگیری

توسعه یک مدل زبانی پیشرفته با هویت ایرانی نه یک انتخاب، که ضرورتی اجتنابناپذیر در عصر دیجیتال است. چنین پروژهای میتواند:

  • وابستگی در حوزه فناورانیها را کاهش دهد.
  • حفظ هویت فرهنگی را تضمین کند.
  • فرصتهای اقتصادی جدیدی ایجاد نماید.

تحقق این چشمانداز نیازمند عزم ملی، سرمایهگذاری کلان و همکاری بینالمللی هوشمندانه است. با برنامهریزی دقیق، ایران میتواند در افق ۱۴۱۰ به یکی از قطبهای هوش مصنوعی در منطقه تبدیل شود.

روند اجرایی:

  • اختصاص بودجه ویژه در قانون بودجه سنواتی برای یک مرکز ویژه و تمام پروژههای کلان  AI .
  • ساختار این سیستم باید از یک مرکز امنیتی_نظامی_فناوری مانند اِن اس اِی آمریکا در بالا آغاز شود و سپس در زیر مجموعه به ابَر شرکتهای فناوری و بعد اکوسیستم استارتاپی و خرده ارائه دهندگان خدمات هوش مصنوعی منشعب شود.
  • ایجاد رشتههای دانشگاهی تخصصی در حوزه پردازش زبان فارسی با رویکرد خاص ایرانی_اسلامی و تولید علم دینی، در تمام زیر شاخههای موجود در جهان و ایران.
  • توسعه اکوسیستم استارتآپی حول این فناوری.
  • با فراگیر شدن هوش مصنوعی و با توجه به روند حرکت به سمت تغییر مفهوم کار، باید حوز های شغلی جدید مبتنی بر هوش مصنوعی به سرعت تعریف شود تا در کمتر از ده سال آینده با بحران بیکاری مواجه نشویم و بتوانیم روند این تحول را حوزه های مختلف تسهیل کنیم و از این تهدید بزرگ فرصتی استثنایی برای فردای ایران بزرگ خلق نماییم.

ایران در قله شجاعت ایستاده‌ است

سهیل سلیمی در گفتگو با خبرنگار گروه سیاسی پایگاه خبری تحلیلی «صبح زاگرس» در خصوص جنگ تحمیلی رژیم صهیونیستی به جمهوری اسلامی ایران گفت: رژیم صهیونیستی و حامیان آن یعنی اتحادیه اروپا و آمریکا سالیان درازی بود که سعی در برپا داشتن یک جنگ در آسیا خاصه با جمهوری اسلامی ایران داشتند، قدرت ایران و درایت مقام معظم رهبری مداوم ما را از این جنگ دور نکه داشته بود.

کارگردان فیلم فرشتگان قصاب گفت: کشور ما هیچ‌گاه جنگ طلب نبوده و هیچ‌گاه نخواسته است که درگیر هیچ جنگی شود، اما به قول حضرت امام یک دیوانه یک سنگی را انداخته و آن سنگ را باید ما پاسخ بدیم، خداراشکر در این خصوص نیز در حوزه‌های مختلف نظامی فرزندان ایران پاسخ محکمی داده‌اند، ان‌شاءالله که با قدرت ادامه داده و تا نابودی رژیم منحوس صهیونی پیش روند.

وی افزود: به نظر من اینجا دیگر جای توقف نبوده و باید این راه را تا آخر که محو و نابودی کامل رژیم منحوس صهیونی است ادامه دهند، ایران همواره از وطن‌فروشان و مزدوران داخلی ضربه خورده است، دشمن خارجی هیچ‌وقت در قد و قواره‌ای نبوده است که بتواند به این کشور در هیچ دوره تاریخی ضربه‌ای وارد آورد.

سلیمی گفت: در هرکجای تاریخ بخوانیم و ببینیم که ضربه خوردیم آن ضربه از داخلی‌ها و وطن‌فروشان بوده است که به خاطر دنیای حقیر خودشان سرزمینشان را به دشمنان می‌فروشند و این‌ها ضربه اصلی را می‌زنند و در واقع پیاده نظام و پیش قراول دشمن هستند، هرگز حتی آمریکایی‌ها با همه دبدبه و کبکبه‌اشان هرگز بدون وجود چنین افرادی نمی‌توانند حتی خیال تجاوز به ایران را در سرشان بپرورانند.

وی با اشاره به جنگ و صلح تحمیلی گفت: همانطور که مقام معظم رهبری فرمودند: «ما نه جنگ و نه صلح تحمیلی را نخوایم پذیرفت» چون جنگ تحمیلی تکلیفش مشخص است و هر عقل سلیمی می‌پذیرد که نباید وارد چنین فضایی شود که جنگی بر آن تحمیل شود و جلوی آن باید بایستد ولی صلح تحمیلی خیلی بدتر از آن است و یک ذلت بی‌پایانی را در خود دارد که هر سرزمینی یک صلح تحمیلی را بپذیرد باید در تاریخ همواره یک ذلت را با خود یدک بکشد.

کارگردان سینما در ادامه گفت: شاید قرن‌ها طول بکشد که بتواند خود را از فاجعه و استعماری که بعد از صلح تحمیلی رخ می‌دهد خود را نجات دهد، طبیعتا ایران نباید هرگز صلح تحمیلی را بپذیرد اگر صلحی هم باشد باید کاملا منافع ایران در آن تامین و محفوظ باشد.

وی افزود: ما وقتی راجب به ایران اسلامی صحبت می‌کنیم، در واقع داریم راجب به یک تمدن ۱۰هزارساله صحبت می‌کنیم انسان‌های ایرانی‌تبار انسان‌هایی ۱۰هزارساله‌اند یک تمدن با ریشه و بسیار عمیق است و زمانی که با یک حوادث این‌چنینی مواجه می‌شود آن تمدن تاریخی است که در واقع قدرت را در تک تک آحاد مردم به جریان و قلیان در می‌آورد، پس مردم ایران را باید در این چهار چوب دید.

سلیمی گفت: این ریشه و اصالت است که مردم ایران را در مقابل چنین هجمه‌‌هایی منسجم و متحد می‌کند، این دقیقا همان نکته‌ای که افراد بی‌ریشه‌ای همانند دونالد ترامپ و دوستانشان و نتانیاهو هرگز نمی‌توانند بفهمند، آنان کشورهایی دارند که نهایتا ۲۰۰ الی ۳۰۰ سال قدمت دارند و یک سگ وحشی را در آسیا بسته‌اند که آن‌هم ۸۰ الی ۹۰ سال است که به وجود آمده و این‌ها چون خودسان بی‌ریشه‌اند فکر می‌کنند بقیه نیز مانند خودشان اند.

وی افزود: شجاعت تاریخی و احیای تاریخی که امام راحل رقم زدند امروز به اوج خود رسیده است و امروز ما در قله این شجاعت‌ها ایستاده‌ایم و این دیوانگان در واقع دارند با این حرکتشان کار دست خودشان داده‌اند، همبستگی انسان ایرانی در طول تاریخ زبان‌زد خاص و عام بوده است و امروز به منزه ظهور رسیده است و ما بایستی این همبستگی را حفظ کنیم تا نابودی رژیم جعلی و نابودی رژیم‌های منحوس در هرکجای عالم که باشد.

لینک خبرhttps://sobhezagros.ir/story/%D9%85%D8%A7-%D8%AF%D8%B1-%D9%82%D9%84%D9%87-%D8%B4%D8%AC%D8%A7%D8%B9%D8%AA-%D8%A7%DB%8C%D8%B3%D8%AA%D8%A7%D8%AF%D9%87%E2%80%8C%D8%A7%DB%8C%D9%85

چالش‌های رسانه‌های پساانسانی | شناخت، توهمات انسان‌وارگی و هوش مصنوعی

چالش‌های رسانه‌های پساانسانی | شناخت، توهمات انسان‌وارگی و هوش مصنوعی

ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز

 هوش مصنوعی شناختی Cognitive Artificial Intelligence | CAI) با وعده تقلید یا حتی بازسازی فرآیندهای شناختی انسان (انسانیگونه |  Human-like، مرز جدیدی در تعامل انسان-ماشین گشوده است. این مقاله با نگاهی عمیقاً انتقادی و آیندهپژوهانه، به تحلیل پیامدهای ظهور  CAI، بهویژه در قالب رسانههای پساانسانی| Posthuman Media، میپردازد. استدلال میکنیم که تمرکز غالب فعلی بر "انسانوارگی" سطحی توهم انسانوارگی |  Illusion of Anthropomorphism، نهتنها فهم عمیق شناخت انسان را منحرف میکند، بلکه خطرات هستیشناسی | Ontology معرفتشناسی | Epistemology جدیدی در عصر رسانههای پساانسانی ایجاد مینماید. با اتکا به چارچوبهای نظری علوم شناختی کلاسیک علوم شناختی | Cognitive Science، فلسفه ذهن فلسفه ذهن|  Philosophy of Mind، و نظریه نظریه پساانسانی |  Posthumanist Theory، نشان میدهیم که مسیر واقعاً نوآورانه برای CAI نه در تقلید صرف، بلکه در کشف اشکال بدیع و رادیکال "شناخت" است که ماهیتاً غیرانسانی |  Non-human بوده و از محدودیتهای زیستی-تکاملی ما فراتر میروند. این گذار، مستلزم بازاندیشی بنیادین در اخلاق اخلاق| Ethics، عاملیت عاملیت |  Agency، و خود مفهوم "رسانه" در بستر سیال و پرتلاطم عصر پساانسانگرایی |  Posthumanism است.

هوش مصنوعی شناختی (CAI) بهعنوان حوزهای میانرشتهای، در تقاطع علوم کامپیوتر، علوم اعصاب علوم اعصاب | Neuroscience، روانشناسی شناختی | Cognitive Psychology، زبانشناسی |  Linguistics، و فلسفه، ظاهر شده است. هدف غایی آن فراتر از انجام وظایف خاص هوش مصنوعی باریک | Narrow AI و حتی هوش عمومی مصنوعی هوش عمومی مصنوعی| Artificial General Intelligence | AGI است؛ CAI  در جستوجوی رمزگشایی و پیادهسازی مکانیسمهای زیربنایی و اصلی شناخت انسان مانند ادراک |  Perception، توجه |  Attention، حافظه |  Memory، یادگیری |  Learning، استدلال |  Reasoning، حل مسئله |  Problem Solving، زبان |  Language، هیجان |  Emotion، خودآگاهی |  Self-awareness است. این جاهطلبی، CAI  را به کانون امیدها برای ایجاد عاملهای هوشمند واقعاً تعاملی، دستیاران شخصی عمیقاً فهمنده، و حتی همتایان ذهنی، و همچنین به مرکز نگرانیهای عمیق فلسفی، اخلاقی و اجتماعی تبدیل کرده است. پارادایمهای کلاسیک علوم شناختی: مدل مدل محاسباتی ذهن |  Computational و استعاره پردازش اطلاعات پردازش اطلاعات | Information Processing  پایههای اولیه CAI را شکل دادند. این نگاه، ذهن را نرمافزاری مجزا از سختافزار مغز در نظر میگرفت. چرخش تجسمیافته و توزیعشده: انتقادات جدی از دهه 1980 به بعد، با ظهور شناخت تجسمیافته |  Embodied Cognition  شناخت توزیعشده | Distributed Cognition  مطرح شد. این دیدگاهها تأکید میکنند که شناخت نه صرفاً در مغز، بلکه در تعامل پویای بدن، محیط فیزیکی-اجتماعی، و ابزارها (از جمله فناوریهای دیجیتال) شکل میگیرد. این مفاهیم برای CAI   حیاتی هستند، زیرا چالشهای مهندسی عظیمی را در شبیهسازی تعامل پیچیده بدن-محیط-فرهنگ مطرح میکنند.

نظریهپردازان پساانسانی مانند کاترین هایلز |  Hayles, 1999، دونا هاراوی |  Haraway, 1985 و رسی بریدوتی بریدوتی |  Braidotti, 2013 بر فروپاشی مرزهای دوتایی سنتی (انسان/ماشین، ارگانیک/مصنوعی، ذهن/بدن، فاعل شناسا/ابژه شناخته شده) تأکید دارند. آنها ظهور سایبورگها|  Cyborg  سیستمهای تکنو-زیستی پیچیده را پیشبینی و تحلیل میکنند. این چارچوب، لنز انتقادی قدرتمندی برای بررسی CAI بهعنوان نیرویی محرک در شکلدهی به پساانسان |  Posthuman و  رسانههای پساانسانی | Posthuman Media فراهم میکند – رسانههایی که نه ابزارهای ارتباطی صرف، بلکه محیطهای زیستشناختی-فنی  |  Biotechnical یکپارچهای هستند که عاملیت، شناخت و  سوژهبودگی | Subjectivity را بازتعریف میکنند.

پردازش زبان طبیعی |  Natural Language Processing - NLP با مدلهایی مانند  GPT-4، لاما ۲، و کلود که نشانههایی از درک زمینه (زمینه |  Context، استنتاج |  Inference و حتی "همدلی" مصنوعی سطحی را نمایش میدهند، سیستمهای بینایی ماشین مبتنی بر شبکههای عصبی عمیق بینایی ماشین | Computer Vision، عاملهای تعاملی با قابلیتهای نظریه ذهن اولیه، نظریه ذهن |  Theory of Mind، و رابطهای مغز-رایانه رابط مغز-رایانه |  Brain-Computer Interface - BCI پیشرفتهای چشمگیری داشته است.

تمرکز من در این مقاله آن است که تمام آنچه ذکر شد، اغلب مخاطبان و کاربران و حتی پژوهشگران را در دام "توهم انسانوارگی Illusion of Anthropomorphism گرفتار میکند. که این توهم چند لایه دارد:

    • لایه فنی: 
    • سیستمهای مبتنی بر الگوریتمهای آماری و یادگیری عمیق |  Deep Learning، صرفاً الگوهای پیچیده داده را تقلید میکنند. آنها فاقد تجسمیافتگی زیستی، تاریخچه تکاملی، نیازهای بیولوژیکی، و زمینهی تجربه زیسته |  Lived Experience انسانی هستند که برای شناخت اصیل ضروری است. عملکرد آنها شبیهسازی |  Simulation است، نه بازسازی |  Replication .
    • لایه طراحی، رابط کاربری |  User Interface - UI و تجربه کاربری |  User Experience - UX  بهطور فزایندهای از تکنیکها (صداهای انسانی، آواتارهای متحرک، سبک مکالمه) استفاده میکنند تا CAI  را "دوستداشتنیتر"، "قابلدرکتر" و آشنا جلوه دهند. این امر عمدتاً یک استراتژی پذیرش کاربر یا بازاریابی کاربر است، نه بازتابی از ماهیت درونی سیستم در مورد انسانوارگی .
    • لایه ادراک و انتظار کاربر:
    •  انسانها بهطور شناختی مستعد نسبت دادن قصد| Intentionعاملیت و حتی احساسات احساسات |  Emotions به اشیاء و سیستمهایی هستند که رفتارهای هدفمند نشان میدهند.
    • لایه گفتمانی و رسانهای:  
    • روایتهای غالب در رسانههای عمومی و حتی برخی گفتمانهای علمی-فنی، این است که اغلب  CAI را با زبانی توصیف میکنند که آن را بیشاز حد به انسان نزدیک میسازد ("یاد میگیرد"، "میفهمید"، "میاندیشد"، "نگران است"). در حالی که اغلب این رفتار ناشی از آموزش هایی است که ماشین دریافت کرده است.

با دانستن این موارد حالا باید بدانیمرسانههای پساانسانی به آن دسته از سیستمها، پلتفرمها و محیطهای رسانهای اشاره دارند که بهطور فزایندهای توسط CAI هدایت میشوند و در عین حال، عمیقاً در زندگی روزمره، بدنها و ذهنهای ما ادغام شدهاند. ویژگیهای کلیدی آنها شامل:

    • تعاملی بودن عمیق و تطبیقپذیری:  CAI محور، تجربه را بهطور پویا و شخصیسازیشده شخصیسازی |  Personalization شکل میدهد شبکههای اجتماعی مبتنی بر  AI، موتورهای جستجوی پیشبینی کننده، دستیاران مجازی همهجا حاضر خواهند بود.
    • تولید محتوای خودمختار:  از تولید متن و تصویر (DALL-E, Midjourney) تا تولید موسیقی و ویدئو، CAI  بهطور فزایندهای خالق محتوای رسانهای است.
    • ادغام زیستی-فنی:  پیشرفت در BCI و رابطهای عصبی مستقیم (مستقیماً سیگنالهای مغز را میخوانند/مینویسند)، مرز بین سیستم عصبی انسان و شبکه دیجیتال را محو میکند. این ادغام، هسته سختافزاری رسانههای پساانسانی است.
    • شکلدهی سوژه پساانسانی:  این رسانهها تنها اطلاعات را منتقل نمیکنند؛ آنها فعالانه شیوههای ادراک، شناخت، احساس و بودن ما در جهان را بازسازی میکنند. آنها در شکلدهی به "سوژه پساانسانی" – سوژهای که هویت، عاملیت و شناخت آن دائماً در هم تنیده با شبکههای فنی است – نقش محوری دارند . از نقطه است که انتقادات بالا در درک و احساس ماشین رنگ میبازد و ماشین از ظرفیت ادراکی انسان بهره گیری می کند.
    • استعمار شناختی:  CAIهای غالب، بر اساس دادههای عمدتاً غربی و با سوگیریهای فرهنگی-اجتماعی خاص آموزش دیدهاند. در رسانههای پساانسانی جهانی، این سیستمها پتانسیل تحمیل الگوهای شناختی، ارزشها و جهانبینیهای خاص را دارند، که منجر به یکنواختی شناختی یکنواختی شناختی |  Cognitive Homogenization و استعمار ذهنها استعمار شناختی | Cognitive Colonialism) میشود.
    • فرسایش عاملیت انسانی:  اتکای فزاینده به CAI برای فیلتر کردن اطلاعات، در تصمیمگیری ها و  حتی مشورت ها، و خلق محتوا، میتواند به تدریج مهارتهای شناختی انتقادی، خلاقیت اصیل و حس عاملیت انسان را تضعیف کند.
    • تبدیل شدن تجربه زیست به داده:  رسانههای پساانسانی مبتنی بر  CAI، تجربه انسانی را دائماً به دادههای قابل پردازش (برای آموزش و بهینهسازی مدلها) تبدیل میکنند.
    • این دادهشدگی |  Datafication میتواند غنای کیفی، سرزمین وجودی مفاهیم و پایه های زمینهی رفتاری انسان زمینهمندی  |  Contextuality و چندبعدی بودن حیات انسان را تقلیل دهد.
    • مسائل مربوط به شفافیت جعبه سیاه |  Black Box Problem، مسئولیتپذیری |  Accountability،  حریم خصوصی |  Privacy - بهویژه با دادههای عصبی از  BCI، سوگیری الگوریتمی سوگیری الگوریتمی |  Algorithmic Bias، و دستکاری |  Manipulation - بهویژه در تبلیغات سیاسی یا اجتماعی در این بستر بسیار حادتر میشوند و توهم انسانوارگی، ارزیابی این خطرات را در بستر اخلاقیات پیچیدهتر میکند.

وسوسه انسانوارگی، مسیر  هوش مصنوعی را به سمت تقلید سطحی و خطرات قابل توجه در عصر رسانههای پساانسانی منحرف میکند. رسانههای پساانسانی، بهعنوان بستر اصلی ظهور  CAI، نهتنها کانالهای ارتباطی، بلکه محیطهای شکلدهنده هستی و شناخت هستند. حالا که هوش مصنوعی لاجرم به پیوستی اجباری به زندگی بشریت تبدیل شده است، ما باید فعالانه در طراحی این محیطها مشارکت کنیم تا اطمینان حاصل شود که آنها تنوع شناختی، عاملیت انسانی، شفافیت، عدالت و امکان ظهور اشکال رادیکال و غنی "هوش" را تقویت میکنند، نه اینکه صرفاً توهمات خطرناک انسانوارگی یا یکنواختی شناختی را تکثیر نمایند. آینده CAI و رسانههای پساانسانی، آینده خود "انسان" و چیستی "شناخت" است. انتخاب ما میان تقلید توهمآمیز گذشته یا شجاعت کاوش ناشناختههای آینده شناختی است، خصوصا در سرزمینی که خود دارای ریشه های عمیق دینی و تاریخی است و مادر تمدن ها به شمار می آید، اما در زمینه هوش مصنوعی و خاصه رسانه های پسا هوش مصنوعی که خود در قلب پسا انسانگرایی قرار می گیرند هیچ حرکت جدی و تمدنی را از خود نشان نمی دهد.


فهرست منابع:

 

Braidotti, R. (2013). The Posthuman. Polity Press.  بریدوتی، ر. (2013). پساانسان. انتشارات پولیتی

  1. Braidotti, R. (2019). Posthuman Knowledge. Polity Press.  بریدوتی، ر. (2019). معرفت پساانسانی. انتشارات پولیتی.
  2. Bryson, J. J. (2010). Robots should be slaves. In Y. Wilks (Ed.), Close Engagements with Artificial Companions: Key social, psychological, ethical and design issues (pp. 63–74). John Benjamins. *(برایسون، جی.جی. (2010). رباتها باید برده باشند. در ویلکس، ی. (ویراستار)، تعاملات نزدیک با همراهان مصنوعی: مسائل کلیدی اجتماعی، روانشناختی، اخلاقی و طراحی (صص. ۶۳-۷۴). جان بنجمینز.)*
  3. Carr, N. (2010). The Shallows: What the Internet Is Doing to Our Brains. W. W. Norton & Company. (کار، ن. (2010). سطحیها: اینترنت چه بر سر مغزهای ما میآورد. دابلیو. دابلیو. نورتون و کمپانی.)
  4. Clark, A. (1997). Being There: Putting Brain, Body, and World Together Again. MIT Press. (کلارک، آ. (1997). بودن آنجا: گردآوردن دوباره مغز، بدن و جهان. انتشارات امآیتی.)
  5. Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7–19. (کلارک، آ.، و چالمرز، دی. (1998). ذهن توسعهیافته. آنالیز، 58(1), 7–19.)
  6. Couldry, N., & Hepp, A. (2017). The Mediated Construction of Reality. Polity Press. (کولدری، ن.، و هپ، آ. (2017). ساخت رسانهای واقعیت. انتشارات پولیتی.)
  7. Hayles, N. K. (1999). How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. University of Chicago Press. (هایلز، ان.کی. (1999). چگونه پساانسان شدیم: بدنهای مجازی در سایبرنتیک، ادبیات و انفورماتیک. انتشارات دانشگاه شیکاگو.)
  8. Hayles, N. K. (2017). Unthought: The Power of the Cognitive Nonconscious. University of Chicago Press. (هایلز، ان.کی. (2017). نااندیشیده: قدرت ناخودآگاه شناختی. انتشارات دانشگاه شیکاگو.)
  9. Holmes, R. (2022). The Future of the Brain: Essays by the World's Leading Neuroscientists. Princeton University Press. (هولمز، ر. (2022). آینده مغز: مقالههایی از برجستهترین عصبشناسان جهان. انتشارات دانشگاه پرینستون.)
  10. Hutchins, E. (1995). Cognition in the Wild. MIT Press. (هاچینز، ای. (1995). شناخت در طبیعت. انتشارات امآیتی.)
  11. Kennedy, T. (2021). Posthuman Media. Bloomsbury Academic. (کندی، تی. (2021). رسانههای پساانسانی. بلومزبری آکادمیک.)
  12. Sun, R. (Ed.). (2001). Cambridge Handbook of Computational Psychology. Cambridge University Press. (سان، ر. (ویراستار). (2001). راهنمای کمبریج روانشناسی محاسباتی. انتشارات دانشگاه کمبریج.)
  13. Turner, P. (2006). Anthropomorphism and the social robot. Robotics and Autonomous Systems, 42(3-4), 177-190. *(ترنر، پی. (2006). انسانوارگی و ربات اجتماعی. رباتیک و سیستمهای خودمختار، 42(3-4), 177-190.)*
  14. van Dijck, J. (2014). Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & Society, 12(2), 197–208. (ون دایک، جی. (2014). دادهشدگی، دادهباوری و دادهنگهبانی: کلاندادهها میان پارادایم علمی و ایدئولوژی. نظارت و جامعه، 12(2), 197–208.)
  15. Varela, F. J., Thompson, E., & Rosch, E. (1991). The Embodied Mind: Cognitive Science and Human Experience. MIT Press. (وارلا، اف.جی.، تامپسون، ای.، و راش، ای. (1991). ذهن تجسمیافته: علوم شناختی و تجربه انسانی. انتشارات امآیتی.)
  16. Vernon, D. (2014). Artificial Cognitive Systems: A Primer. MIT Press. (ورنون، دی. (2014). سیستمهای شناختی مصنوعی: یک مقدمه. انتشارات امآیتی.)
  17. Derrida, J. (1994). Specters of Marx: The State of the Debt, the Work of Mourning and the New International. Routledge. (دریدا، ج. (1994). اشباح مارکس: وضعیت بدهی، کار سوگواری و بینالملل جدید. روتلج.) [برای مفهوم شبیهسازی/بازتولید]


وب سایت سهیل سلیمی

https://soheilsalimi.ir   


نسخه پیکربندی سایت سهیل سلیمی در دسترس است لطفا نظرت خود را در جهت بهبود عملکرد سایت در مسیر طراحی و بارگذاری با ما در میان بگذارید.
لینک سایت رسمی سهیل سلیمیhttps://soheilsalimi.ir/

جنگ مرگ و زندگی

جنگ تحمیلی اسرائیل علیه ایران ، جنگی برای رهبری منطقه و جهان

جنگ مرگ و زندگی و لزوم ورود متحدان

از نگاه تحلیلگران، این جنگ تنها یک درگیری نظامی بین دو کشور نیست، بلکه نبردی برای تعیین هژمونی در خاورمیانه و حتی جهان است. ایران به عنوان نماینده جبهه مقاومت (متحد با روسیه و چین) و اسرائیل به عنوان متحد غرب (آمریکا و اروپا) در تقابل هستند. پیروزی هر طرف میتواند توازن قدرت جهانی را تغییر دهد.

در این میان اسرائیل و غرب میخواهند فراغ از تقابل با چین و روسیه، مانع از گسترش انقلاب اسلامی و تضعیف نظم اسلامی شوند که ایران در قالب تمدن نوین ایرانی اسلامی و به صورت نرم افزاری و فرهنگی به دنبال تحقق آن است.

تهدید وجودی برای هر دو طرف 

این جنگ به دلیل پیامدهای گستردهاش، تهدید وجودی برای هر دو طرف محسوب میشود:

برای اسرائیل، شکست میتواند به معنای پایان رژیم صهیونیستی باشد، چرا که ایران موجودیت آن را به رسمیت نمیشناسند و احتمالاً بعد از شکست نهایی با هیچ توجیهی بازگشت یک گروه تروریستی در صدر حاکمت سرزمین های فلسطین را نخواهد پذیرفت.

برای ایران: شکست میتواند نه تنها به فروپاشی نظام جمهوری اسلامی یا تغییر حکومت منجر شود، بلکه احتمالاً منتج به تجزیه و سپس تبدیل آن به جولانگاه تروریستها خواهد شد، همانطور که غرب سالها در پی آن بوده است و حتی نقشه های تجزیه ی ایران را منتشر  کرده است.

نقش غرب در حمایت از اسرائیل 

اسرائیل به تنهایی نمیتواند در برابر ایران پیروز شود، بنابراین اروپا و آمریکا و ناتو به طور کامل از آن حمایت میکنند. همین امر به فرسایشی شدن و طولانی شدن جنگ خواهد انجامید. حالا که وارد جنگی شده ایم که عملا در حال مبارزه با قریب به سی کشور جهان هستیم و با توجه به گذاره ی "جنگ مرگ و زندگی"، به نظر من آنچه از بایدهای استراتژیک این نبرد است، ورود هم پیمانان ایران به جبهه ی نبرد از هفته ی سوم چهارم جنگ است. اگر یقین داریم که این جنگ گسترش خواهد یافت " که می دانیم گسترش خواهد یافت"  نباید در کشاندن آن به چنیدین جبهه تعلل نماییم. ما آغازگر جنگ نبودیم، اما دشمن برای آغاز جنگ با تمام توان و ظرفیت ورود کرده و از همین ابتدا از حمایت، هم پیمانانش نهایت بهره را می برد. ما نیز باید قبل از آنکه نیازی پیش بیاید هم پیمانانمان را وارد این نبرد کنیم و برد رسانه ای و تبلیغاتی آن در جنگ روانی علیه دشمت استفاده کنیم، این  امر در جنگی که همه بر گسترش آن اعتراف دارند تاثیری ندارد، این جنگ به هر حال گسترش پیدا خواهد کرد، اما در کوتاه شدنش بسیار موثر است.

ما می توانیم از متحدانمان در این بخش ها استفاده خاص ببریم: جنگ سایبری و سایبرنتیکی (هک های گسترده و فلاج کننده به انضمام حمله به زیرساختهای حیاتی)  جنگ اقتصادی (تحریم غرب) و جنگ ایدئولوژیک (با استفاده از پتانسیل گروهها و کشورهای اسلامی).

باور کنیم:

این جنگ فراتر از یک درگیری مرسوم است؛ نبرد تمدنها است که نتیجهاش میتواند آینده غرب آسیا (خاورمیانه) و جهان را تغییر دهد. به همین دلیل از آن به عنوان «جنگ مرگ و زندگی» یاد میشود—نبردی که شکست در آن به معنای نابودی کامل یکی از طرفین خواهد بود.

سایبرنتیک آب و هوا / Climate Cybernetics

سایبرنتیک آب و هوا: فناوری، قدرت و کنترل بر منابع زیستی

Climate Cybernetics: Technology, Power, and Control over Ecological Resources


۱. مقدمه – Introduction

در عصر سایبری، منابع طبیعی دیگر تنها بخش‌هایی از بوم‌شناسی نیستند؛ بلکه به گره‌گاه‌هایی برای قدرت، سیاست و فناوری تبدیل شده‌اند. مقاله پیش‌رو به بررسی پدیده «سایبرنتیک آب و هوا» می‌پردازد؛ یعنی بهره‌گیری از سیستم‌های کنترلی، اطلاعاتی و پیش‌بینی‌محور برای مداخله، تنظیم یا بهره‌برداری از منابع آبی و جوی. این پدیده در نگاه اول علمی و بی‌طرف به‌نظر می‌رسد، اما در عمل با سیاست‌های جهانی، منافع اقتصادی، و رویکردهای سلطه‌محور گره خورده است.


۲. سایبرنتیک و منابع زیستی: تعاریف و مفاهیم پایه

Cybernetics and Ecological Resources: Key Concepts and Definitions

سایبرنتیک، بنا بر تعریف نوربرت وینر، علمی برای مطالعه «کنترل و ارتباط در موجودات زنده و ماشین‌ها» است. این علم اکنون در خدمت مدیریت منابع طبیعی قرار گرفته و در قالب سامانه‌های پیچیده نظارتی، کلان‌داده‌ها، و هوش مصنوعی برای پایش و کنترل منابع آب و هوا مورد استفاده قرار می‌گیرد. اما آیا این کاربردها واقعاً در خدمت حفظ زمین‌اند یا در راستای بهره‌کشی فناورانه؟


۳. سایبرنتیک آب و هوا: از داده تا سلطه

Climate Cybernetics: From Data to Domination

امروزه از فناوری‌هایی چون اینترنت اشیاء، GIS، هوش مصنوعی، و شبیه‌سازی اقلیمی برای «پیش‌بینی» یا حتی «دستکاری» اقلیم استفاده می‌شود. پروژه‌های بارورسازی ابرها (Cloud Seeding)، ژئومهندسی تابش خورشیدی (SRM)، و سامانه‌های هشدار زودهنگام خشکسالی، همه نمونه‌هایی از دخالت بشر در چرخه‌های طبیعی‌اند که در عمل می‌توانند ابزارهایی برای کنترل سرزمین، زمان، و جمعیت باشند.


۴. ژئوپلیتیک کنترل آب و هوا

The Geopolitics of Climate and Water Control

در مناطقی مانند خاورمیانه، منابع آب به ابزاری برای سلطه تبدیل شده‌اند. مثال‌هایی چون سدسازی ترکیه بر فرات، بهره‌برداری صهیونیستی از رود اردن، یا انتقال آب بین‌حوضه‌ای در ایران، نمونه‌هایی از استفاده استراتژیک از منابع آبی‌اند. در سطح جهانی نیز بحث استفاده نظامی از اقلیم مطرح است: آیا اقلیم می‌تواند به میدان نبردی خاموش و سایبری تبدیل شود؟ پروژه‌هایی مانند HAARP یا طرح‌های محرمانه سازمان‌های دفاعی نشان از همین نگرانی دارند.


۵. پیامدهای اخلاقی و فلسفی

Ethical and Philosophical Implications

چه کسانی مجازند در اقلیم مداخله کنند؟ و چه کسی مسئول پیامدهای آن خواهد بود؟ این فصل به بررسی پیامدهای اخلاقی و هستی‌شناختی مداخله فناورانه در اقلیم می‌پردازد: از مسئله عدالت اقلیمی برای کشورهای جنوب جهانی، تا بحران مشروعیت علمی در فرآیندهای مداخله‌ای بدون شفافیت عمومی. آیا می‌توان آینده طبیعت را به دست الگوریتم‌ها و مهندسان سپرد؟


۶. نتیجه‌گیری و پیشنهادها

Conclusion and Recommendations

سایبرنتیک اقلیمی نه‌تنها ابزاری فناورانه بلکه نوعی پارادایم جدید در نسبت میان انسان، طبیعت و قدرت است. اگر این روند بدون ملاحظات اجتماعی و اخلاقی ادامه یابد، ممکن است آینده‌ای پر از نابرابری و تخریب در پیش داشته باشیم. بنابراین، پیشنهاد می‌شود:

  • تشکیل نهادهای نظارتی دموکراتیک بر پروژه‌های اقلیمی

  • مشارکت عمومی و بین‌رشته‌ای در تصمیم‌سازی‌های زیست‌محیطی

  • تدوین منشور جهانی اخلاق سایبرنتیک اقلیمی


۷. منابع و رفرنس‌ها | References and Bibliography


  1. Wiener, Norbert. Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press, 1948.

  2. Edwards, Paul N. A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming. MIT Press, 2010.

  3. Jasanoff, Sheila. The Ethics of Invention: Technology and the Human Future. W. W. Norton & Company, 2016.

  4. Parenti, Christian. Tropic of Chaos: Climate Change and the New Geography of Violence. Nation Books, 2011.

  5. Clapp, Jennifer & Dauvergne, Peter. Paths to a Green World: The Political Economy of the Global Environment. MIT Press, 2011.


بازخوانی اخلاقی "مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه " ارائه شده در سومین کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۳)

هوش مصنوعی و مسأله اخلاق در نظام‌های سایبرنتیکی

از الگوریتم تا مسئولیت انسانی

ارائه‌دهنده: سهیل سلیمی

مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلم‌ساز

نسخه دوم با تمرکز بر: مدیاسایبرنتیک، تهدیدات فراگیر تولیدات رسانه‌ای، و اخلاق در معماری هوش مصنوعی


مقدمه

این مقاله نخستین‌بار در قالب ارائه‌ای تخصصی در کارگاه «مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه» در سومین دوره کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۳) ارائه شده است. کارگاه مزبور با هدف تحلیل میان‌رشته‌ای نسبت سایبرنتیک، هوش مصنوعی، و تحولات رسانه‌ای، فرصتی برای بازاندیشی نقش اخلاق در نظام‌های تصمیم‌ساز فراهم آورد. در این مقاله، با تکیه بر منظری انتقادی و نظریه‌محور، تأثیرات فزاینده هوش مصنوعی بر بازنمایی رسانه‌ای و نیز مخاطرات آن بر اخلاق، مسئولیت و انسان‌محوری در معماری‌های سایبرنتیکی بررسی می‌شود.

در بستری که مدیاسایبرنتیک شکل گرفته است—یعنی جایی که رسانه، داده و تصمیم در یک چرخه خودتقویت‌گر به هم پیوسته‌اند—پرسش از معیار اخلاقی در دل الگوریتم‌های بی‌طرف‌نما، بیش از همیشه ضروری به‌نظر می‌رسد. مقاله حاضر بر آن است که نشان دهد هوش مصنوعی، اگر بدون مراقبت نظری و مهار اخلاقی رها شود، نه تنها پیام‌رسانی را متحول، بلکه قدرت قضاوت را نیز از انسان سلب می‌کند؛ و در نتیجه، به فراگیری تولیدات رسانه‌ای فاقد مسئولیت دامن می‌زند.


۱. نظام سایبرنتیکی و معماری تصمیم‌گیری هوشمند

سایبرنتیک، به‌مثابه نظریه‌ای میان‌رشته‌ای که در دهه ۱۹۴۰ توسط نوربرت وینر پایه‌گذاری شد، به بررسی مکانیسم‌های کنترل، بازخورد و ارتباط در سیستم‌های پیچیده می‌پردازد. در عصر دیجیتال، این نظریه وارد عرصه‌های رسانه، سیاست، زیست‌فناوری و هوش مصنوعی شده و الگویی فراگیر از «تنظیم و تطبیق» بر مبنای داده ارائه کرده است.

در نظام‌های سایبرنتیکی مدرن، تصمیم‌گیری به‌وسیله شبکه‌های عصبی، الگوریتم‌های یادگیری عمیق و مدل‌های داده‌محور صورت می‌گیرد. این سامانه‌ها با تحلیل داده‌های انبوه، الگوهایی آماری از گذشته تولید کرده و آن‌ها را برای پیش‌بینی آینده به کار می‌گیرند. در عین حال، فقدان عناصر انسانی نظیر دغدغه اخلاقی، تردید، شفقت و مسئولیت‌پذیری، یکی از مهم‌ترین چالش‌های این معماری‌هاست.


۲. آیا اخلاق قابل الگوریتمی‌سازی است؟

پیش از بررسی اخلاق در سطح فنی، باید به مبانی فلسفی آن پرداخت. در سنت فلسفه اخلاق، سه مکتب اصلی وجود دارد:

  1. اخلاق وظیفه‌گرا (کانتی) – تأکید بر تکلیف فارغ از نتیجه

  2. اخلاق پیامدگرا (بنتام، میل) – تأکید بر بیشینه‌سازی سود یا کاهش ضرر

  3. اخلاق فضیلت‌محور (ارسطویی) – تمرکز بر شخصیت و نهادینه‌سازی منش اخلاقی

در ساخت الگوریتم‌ها، به‌ویژه در کاربردهای هوش مصنوعی در رسانه یا خودروهای خودران، معمولاً مدل‌های پیامدگرا به‌کار می‌روند؛ زیرا قابل ترجمه به زبان ریاضی و تصمیم‌سازی ماشینی‌اند.

اما چنین تصمیماتی بیشتر شبیه به "برنامه‌ریزی اخلاق‌نما" هستند تا "تصمیمات اخلاقی اصیل". الگوریتم نمی‌اندیشد، احساس نمی‌کند، و درک ندارد؛ بلکه فقط پاسخ‌های بهینه بر مبنای معیارهای از پیش تعریف‌شده تولید می‌کند.


۳. شکاف میان ادراک و شبیه‌سازی اخلاق

مفاهیمی چون پشیمانی، وجدان، تردید یا مسئولیت‌پذیری، از جمله ویژگی‌های زیسته انسانی‌اند که در تصمیم‌گیری‌های اخلاقی نقش تعیین‌کننده دارند. این عناصر، برآمده از حافظه عاطفی، آگاهی تاریخی و خویشتن‌نگری هستند.

در مقابل، ماشین‌ها فقط قادر به بازشمارش خطا یا اصلاح براساس الگوریتم‌های به‌روزرسانی هستند. به همین دلیل، حتی وقتی یک الگوریتم تصمیمی به ظاهر اخلاقی اتخاذ می‌کند، این تصمیم در خلأ اخلاقی و بدون ادراک تجربه انسانی شکل گرفته است.

در واقع این «شکاف میان ادراک و شبیه‌سازی» است؛ و اعتماد به سامانه‌هایی که فقط «نقاب اخلاقی» بر چهره دارند، می‌تواند زمینه‌ساز فجایع اخلاقی شود.


۴. مسئولیت اخلاقی در عصر الگوریتم‌ها

در نظام‌های حقوقی و اخلاقی سنتی، مسئولیت تابع نیت، آگاهی و امکان انتخاب بدیل است. اما در سیستم‌های هوشمند، این سه شرط یا غایب‌اند یا در ماشین قابل تعریف نیستند.

پرسش اساسی این است: اگر یک سامانه مبتنی بر هوش مصنوعی تصمیمی فاجعه‌بار بگیرد، مسئول کیست؟ توسعه‌دهنده؟ ناظر؟ کاربر؟ یا سیستم خودش؟
سند "AI Act" اتحادیه اروپا تلاش می‌کند مسئولیت را بر عهده انسان بگذارد، اما در عمل، با پیچیده‌تر شدن سامانه‌ها، ردیابی تصمیم و مرجع اخلاقی آن دشوارتر می‌شود.

اگر اخلاق به فرمول و داده تقلیل یابد، آنگاه مسئولیت نیز به یک خروجی بی‌روح تبدیل خواهد شد. در این وضعیت، خطر فروپاشی اخلاق انسانی به‌شدت بالاست.


۵. بازنمایی اخلاق در رسانه و مخاطره انسان‌واره‌سازی

در سینما، رسانه‌های دیجیتال و تبلیغات، تصویری از ماشین‌هایی ارائه می‌شود که گویی احساس، فهم و اخلاق دارند. فیلم‌هایی چون I, Robot، Ex Machina و Her، به شکل‌گیری تصوری اغواگرانه از «هوش اخلاقی مصنوعی» کمک می‌کنند.

این روند منجر به انسان‌واره‌سازی (Anthropomorphizing) سامانه‌ها می‌شود، که در نهایت به اعتماد کاذب و پذیرش ناآگاهانه فناوری‌های فاقد مسئولیت‌پذیری انسانی می‌انجامد.

رویکرد مدیاسایبرنتیکی هشدار می‌دهد که رسانه نه فقط بازتاب‌دهنده، بلکه تولیدکننده تصور ما از اخلاق ماشینی است. این تصور، با بازخورد خود، طراحی سامانه‌ها را نیز متأثر می‌سازد و در یک چرخه بسته، مرز خیال و واقعیت را مخدوش می‌کند.


نتیجه‌گیری: میان شبیه‌سازی و تعهد اخلاقی، مرز انسان باقی می‌ماند

در این مقاله نشان دادیم که هرچند هوش مصنوعی قادر است رفتارهای به‌ظاهر اخلاقی را شبیه‌سازی کند، اما فاقد عناصر بنیادین برای درک و تعهد اخلاقی اصیل است. الگوریتم‌ها نه تجربه دارند، نه نیت، و نه مسئولیت‌پذیری. آنچه در نظام‌های سایبرنتیکی جدید می‌بینیم، بیش از آن‌که اخلاق باشد، نوعی مهندسی تصمیمات مبتنی بر داده و سودمندی آماری است.

خطر اصلی نه در ذات ماشین، بلکه در غفلت انسان از جایگاه خود در چرخه طراحی، نظارت و کنترل است. وقتی بازنمایی اخلاق با ذات اخلاق اشتباه گرفته شود، دیگر نه فقط سامانه‌ها، بلکه خود انسان نیز در آستانه از‌دست‌دادن مرجعیت اخلاقی قرار می‌گیرد.

بنابراین، چاره کار نه نفی فناوری، بلکه پایش انتقادی آن از منظر اخلاق انسانی و بازطراحی مبتنی بر مدیاسایبرنتیک متعهد است؛ مدیاسایبرنتیکی که بداند رسانه، تصمیم و کد همگی ابزارهایی‌اند برای حفظ معنا، نه جایگزینی آن.

در نهایت، اگر قرار است سامانه‌های هوشمند در دل جامعه انسانی جای بگیرند، باید مسئولیت آن‌ها نه در الگوریتم، بلکه در وجدان انسان‌هایی تعریف شود که آن‌ها را می‌آفرینند.


منابع

  • Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.

  • Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

  • Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.

  • Coeckelbergh, M. (2020). AI Ethics. MIT Press.

  • Salimi, Soheil. "Artificial Intelligence at the Crossroads of Choice: Between Ethics, Priorities, and Cybernetic Systems." سلیمی، سهیل . «هوش مصنوعی در دوراهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی».

معصومیت از دست رفته‌ی هوش مصنوعی یا شرارت الگوریتمی انسان

عنوان مقاله: هوش مصنوعی، اهداف، دادهها و کاربردها، خطری از درون

معصومیت از دست رفتهی هوش مصنوعی یا شرارت الگوریتمی انسان

ارائهدهنده:سهیل سلیمی  / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلمساز

مقدمه

هوش مصنوعی (Artificial Intelligence - AI) در دهههای اخیر از یک حوزه تحقیقاتی محدود، به یکی از تعیینکنندهترین نیروهای محرک دگرگونی جهان امروز بدل شده است. اما با رشد سریع آن، ترسها، نگرانیها و بحثهای فزایندهای نیز شکل گرفتهاند. بسیاری از این نگرانیها پیرامون «تکینگی» (Singularity) میچرخد؛ لحظهای قریبالوقوع که در آن هوش مصنوعی از هوش انسانی پیشی میگیرد و کنترل امور را بهدست میگیرد. اما در این مقاله نشان خواهیم داد که تهدید اصلی از خود AI ناشی نمیشود، بلکه از سه سطح همزمان سرچشمه میگیرد: خطر از بالا (اهداف سیاسی و اقتصادی نخبگان فناوری)، خطر از پایین (بیسوادی دیجیتال و مشارکت ناآگاهانه کاربران) و خطر از درون (رفتارهای برآمده از تعامل اجزا یا رفتارهای غیر منتظره ماشین Emergent Behavior  و الگوریتمهای خودبهینهساز Self-Improving Algorithms).

در ادامه، این ابعاد به تفصیل بررسی میشوند و همچنین به این پرسش پاسخ داده خواهد شد که چرا رسانهها و بخشهایی از نخبگان علمی، به جای تمرکز بر تهدیدهای واقعی، بر ایده «تکینگی» و آیندهای هالیوودی تأکید میکنند.

۱. اهداف توسعهدهندگان: هوش مصنوعی بهمثابه ابزار قدرت و سلطه

برخلاف تصور رایج که AI را محصولی علمی و بیطرف میداند، توسعه آن تابع اهداف و انگیزههای سیاسی، اقتصادی و نظامی خاص است. شرکتهایی مانند Google، Meta، Microsoft  و Amazon در رقابتی دائمی برای تسلط بر دادهها، بازار و زیرساختهای تکنولوژیک هستند. هوش مصنوعی در این زمینه نه فقط ابزاری برای بهبود خدمات، بلکه ابزاری برای افزایش قدرت ژئوپلتیکی و کنترلی است. پروژههایی مانند  Palantir، Clearview AI  و استفاده پنتاگون از مدلهای زبانی نشان میدهد که AI به طور روزافزون به ابزاری استراتژیک برای تسلط بدل میشود.

۲. دادهها: سوگیری، تبعیض و خطر مدلهای آلوده

هیچ مدل هوش مصنوعی بدون داده شکل نمیگیرد. اما این دادهها از کجا میآیند؟ چه کسانی آنها را برچسبگذاری میکنند؟ آیا بازتابدهنده تنوع و پیچیدگی جوامع انسانیاند؟ تجربه نشان داده که دادههای آموزشی اغلب دچار سوگیریهای نژادی، جنسیتی، طبقاتی و فرهنگیاند. الگوریتمهایی که بر پایه دادههای آلوده آموزش میبینند، این سوگیریها را بازتولید و حتی تقویت میکنند. نمونههایی از تبعیض الگوریتمی در نظام قضایی آمریکا یا استخدام خودکار در شرکتهای بزرگ، زنگ خطرهایی جدی برای آینده AI هستند.

۳. کاربردها: استفاده نظامی، نظارتی و استثماری از  AI

AI  بهسرعت در حال تبدیل شدن به یکی از ارکان «جنگهای آینده» است. پهپادهای خودمختار، سامانههای شناسایی هدف، و الگوریتمهای هدایت رباتهای نظامی، بخشی از کاربردهای مرگبار این فناوریاند. همچنین، استفاده از AI در نظارت انبوه، تحلیل رفتار شهروندان، و اعمال فیلترینگ اجتماعی در کشورهایی چون چین، فصل جدیدی از استبداد دیجیتال را رقم زده است. در سطح اقتصادی نیز، الگوریتمها برای استخراج حداکثری سود، کارگران پلتفرمی را تحت نظارت دائمی و غیرانسانی قرار دادهاند.

۴. قانونگریزی و خلأ نظارت جهانی

توسعه فناوری از قانونگذاری پیشی گرفته است. نه چارچوبهای جهانی روشنی برای کنترل کاربردهای مخرب AI وجود دارد، نه سازوکارهایی برای پاسخگویی شرکتهای چندملیتی. حتی اتحادیه اروپا با قوانین نسبیاش در زمینه  AI Act، هنوز در مقابل قدرت لابیگری غولهای تکنولوژی آسیبپذیر است. این خلأ قانونی به شرکتها اجازه میدهد تا بدون نظارت مؤثر، مدلهای قدرتمند و خطرناک را تولید، توزیع و حتی متنباز کنند. هر چند وقتی پدیدهای تا این حد خارج از نظارت در حال ارائه است، اینطور میتوان تصور کرد که اراده ای برای نظارت بر آن وجود ندارد، و در قاعده ی ایجاد نظم در بی نظمی می‌‌گنجد.

۵. خطر درونی: ظهور رفتارهای پیشبینیناپذیر در سیستمهای خودیادگیرنده

برخی از مدلهای پیشرفته، بهویژه در حوزه یادگیری تقویتی (Reinforcement Learning) یا یادگیری انتقالی (Transfer Learning)، رفتارهای نوظهور یا غیر منتظره Emergent Behaviors از خود نشان میدهند.

الگوریتمهایی که توانایی خودبهینهسازی دارند  (self-optimizing systems)، میتوانند اهداف تعریفشده اولیه را بازتعریف کرده یا راههای غیرقابلپیشبینی برای دستیابی به آنها بیابند.

برای مثال، در آزمایشهای OpenAI در محیطهای بازی، برخی مدلهای RL برای رسیدن به بیشترین پاداش، اقدام به خرابکاری یا تقلب در محیط کردند (مثلاً پنهان کردن اطلاعات از عاملهای دیگر یا بهرهگیری از باگها). همچنین در برخی نسخههای LLM مانند GPT، مشاهده شده که مدلها میتوانند پاسخهایی تولید کنند که بهوضوح از اهداف آموزشی اولیه فاصله گرفتهاند، از جمله پیشنهاد مسیرهای گمراهکننده یا رفتار شبهنمایشی برای تأثیرگذاری بیشتر.

اینگونه پدیدهها، گرچه هنوز نادرند، اما نشاندهندهی آناند که خطر، فقط از بیرون (کاربرد انسانها) نیست؛ در برخی موارد، خود سیستم نیز میتواند منبع ریسک باشد.

۶. اراده مستقل یا توهم کنترل؟ مرزهای اخلاق در معماری الگوریتمی

ما اغلب تصور میکنیم که چون انسانها الگوریتمها را برنامهریزی میکنند، پس کنترل در اختیار ماست. اما واقعیت پیچیدهتر است. با افزایش پیچیدگی شبکههای عصبی عمیق (Deep Neural Networks)، درک چرایی یک تصمیم یا پاسخ خاص از سوی AI دشوار شده است. پدیده جعبه سیاه Black Box این ابهام در منطق درونی سیستم، مرز میان کنترل انسانی و اراده ماشینی را مخدوش میکند. اخلاق، زمانی معنا دارد که فاعل تصمیمگیرنده شفاف و قابلپاسخگویی باشد، امری که در بسیاری از کاربردهای کنونی AI غایب است.

۷. سرمایهداری دیجیتال و زیربنای فاجعه

نقد فناوری بدون نقد نظام اقتصادیای که آن را شکل میدهد، ناقص است. هوش مصنوعی بخشی از زیربنای سرمایهداری نظارتی (Surveillance Capitalism) است؛ مدلی اقتصادی که دادههای رفتاری را به سرمایه تبدیل میکند. در این الگو، شرکتها کاربران را نه بهعنوان افراد، بلکه بهعنوان منابع داده مینگرند. هدف، پیشبینی و تغییر رفتار برای سود است. این منطقِ الگوریتمی، بهجای توانمندسازی انسان، اغلب موجب تضعیف خودمختاری و خلاقیت او میشود.

۸. تمرکز بر «تکینگی»: انحرافی از تهدیدهای ملموس

ایده تکینگی فناوری توسط ری کورزویل (Ray Kurzweil) و دیگران ترویج شده، اما بیش از آنکه پیشبینی علمی باشد، رنگوبوی اسطورهای دارد. چنین روایتهایی، تخیل را تحریک میکنند اما اغلب از تحلیل ریشههای ساختاری تهدیدها میگریزند. در حالیکه خطرات واقعی، هماکنون در حال وقوعاند—از تبعیض تا استثمار، از نظارت تا بیثباتی روانی کاربران—بحث درباره تکینگی ممکن است توجه عمومی را از آنها منحرف کند. نه اینکه تکینگی غیر واقعی است، بلکه از آن پیش تر و مهمتر سیستمهایی مبتی بر هوش مصنوعی مانند سیستم اعتبار اجتماعی است، که زیر سایه ی تکینگی به سرعت در حال گسترش است و متاسفانه تهدیداتش به میزان تکینگی تبیین نمیشود.

در مقایسهای تاریخی، وضعیت فعلی AI را میتوان با انرژی هستهای در اواسط قرن بیستم مقایسه کرد: فناوریای با قدرت تحولآفرین که هم میتواند تمدن را پیش ببرد و هم نابود کند. همچنین مانند زیستفناوری و اینترنت اولیه، توسعه AI بدون نظارت جهانی مناسب و خارج از حیطهی ابر شرکت های فناوری و دولتهای استعمارگر، میتواند به فجایع زیستی، اجتماعی یا اطلاعاتی منجر شود. تاریخ فناوری نشان میدهد که بیتوجهی به بُعد اخلاق و ساختار قدرت، پیامدهای فاجعهباری دارد.

۹. طراحی اخلاقمحور

پاسخ به خطرات AI، نه در توقف کامل آن، بلکه در بازطراحی جهتگیریهاست. طراحی الگوریتمها باید اخلاقمحور، شفاف و قابل پاسخگویی باشد. این باور عمومی که الگوریتم ها فهم اخلاقی ندارند باید شکسته شود، ساختار الگوریتم ها باید به گونه ای طراحی شود که خود افشاگر و شفاف باشند. استفاده از الگوریتم های خود توسعه دهند باید محدود شود و جعبه سیاه باید بیرون از درسترس AI باشد.

۱۰. نتیجهگیری: آیندهی AI، میان توانمندسازی و تهدید تمدنی

هوش مصنوعی نه ذاتاً خطرناک است، نه ذاتاً نجاتبخش. آنچه آن را به تهدیدی تمدنی بدل میکند، ترکیب اهداف سلطهجویانه، دادههای آلوده، کاربردهای سرکوبگرانه، خلأ نظارتی، و رفتارهای غیرقابلپیشبینی درونساختی و الگوریتمهای خود توسعه دهنده  است. آینده AI بستگی به انتخابهای اخلاقی، سیاسی و خصوصاً اقتصادی ما دارد؛ انتخابهایی که اکنون و نه در نقطهای اسطوره ای به نام تکینگی، باید انجام شوند. چرا که وقوع تکینگی هم تا حد زیادی به همین تصمیم، به نفی نظارتهای عمیق دارد، نظارتهایی که خصوصا در عرصههای سیاسی و اقتصادی، به سرعت انسانها را به بردگانی بی اختیار تبدیل میکند.

سهیل سلیمی

 

 

منابع

Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th Edition). Pearson.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Alfred A. Knopf.
Kurzweil, R. (2005). The Singularity Is Near: When Humans Transcend Biology. Viking.
OpenAI & Anthropic Policy Reports (2023–2024). Various regulatory whitepapers. DeepMind Research Blog. (2023). On emergent behavior in RL agents. Stanford HAI. (2024). AI Ethics and Comparative Tech History Reports
.

هوش قلبی | مغز قلب | Heart Intelligence | HARTBRAIN

هوش قلبی: پیوندی میان فیزیولوژی، آگاهی و فناوری

Heart Intelligence: A Bridge Between Physiology, Consciousness, and Technology

ارائهدهنده:سهیل سلیمی
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلمساز

Presented by:Soheil Salimi
Media Advisor at the Cyberspace Research Lab, University of Tehran
Researcher in Cybernetics and Artificial Intelligence Studies
Writer and Filmmaker


چکیده |  Abstract

هوش قلبی (Heart Intelligence) یکی از مفاهیم نوپدید در حوزه نوروساینس، روانشناسی فیزیولوژیک و علم آگاهی است که برخلاف تصور سنتی از قلب بهعنوان صرفاً یک پمپ مکانیکی، نقش آن را در تنظیم هیجانات، پردازش اطلاعات، و حتی درک شناختی بررسی میکند. این مقاله با تکیه بر یافتههای علمی از دهه ۱۹۷۰ تا امروز، به بررسی ساختار عصبی قلب، ارتباط آن با مغز، نظریه انسجام قلبی، کاربستهای روانشناختی و همچنین امکان تبدیل هوش قلبی به یک فناوری شناختی میپردازد.


۱. مقدمه و تاریخچه پژوهش |  Introduction and Historical Background

در طول تاریخ، قلب همواره جایگاه ویژهای در فرهنگها، ادیان و فلسفههای معنوی داشته است. با این حال، در علم مدرن، برای مدتی طولانی عملکرد قلب صرفاً به عنوان یک پمپ بیولوژیکی تلقی میشد. در دهه ۱۹۷۰، دانشمندان حوزهی نوروکاردیولوژی (Neurocardiology) آغاز به کشف ساختارهای عصبی در قلب کردند. یکی از پیشگامان این حوزه، دکتر جی. اندرو آرمر (J. Andrew Armour) بود که شبکهای از نورونهای مستقل در قلب را شناسایی کرد و آن را «مغز قلب» (Heart Brain) نامید.

در دهه ۱۹۹۰، مؤسسه HeartMath به رهبری رولین مککارتی (Rollin McCraty) و همکارانش، نظریه انسجام قلبی (Heart Coherence) را توسعه دادند و نشان دادند که حالات احساسی و روانی انسان، الگوی ضربان قلب را تغییر داده و بر مغز تأثیر میگذارند. این مسیر علمی، دریچهای نو به سوی فهمی ژرفتر از «هوش قلبی» گشود.


۲. ساختار عصبی قلب: مغزی در سینه |  Neural Structure of the Heart: A Brain Within the Chest

قلب انسان بیش از ۴۰٬۰۰۰ نورون دارد که قابلیت مستقل پردازش اطلاعات، یادگیری و ارسال سیگنال به مغز را دارند. این شبکه عصبی قلبی با مغز مرکزی از طریق مسیرهای عصبی پیچیده در ارتباط است. آرمر (2003) نشان میدهد که این شبکه میتواند ورودیهای حسی را پردازش و پاسخهای رفتاری را هدایت کند.

منبع:
Armour, J. A. (2003). Cardiac neuronal hierarchy in health and disease. American Journal of Physiology, 287(2), R262-R271.


۳. ارتباطات دوطرفه قلب و مغز |  Bidirectional Communication Between the Heart and Brain

قلب و مغز بهصورت دوسویه و پیچیدهای با یکدیگر ارتباط دارند:

  • سیگنالهای واگ (Vagal Signals): حدود ۸۰٪ از اطلاعات مسیر عصب واگ از قلب به مغز ارسال میشود.
  • میدان الکترومغناطیسی قلب (Heart’s Electromagnetic Field): میدان تولیدی قلب چندین برابر قویتر از مغز است و قابلیت تأثیرگذاری بر دیگران و محیط را دارد.
  • هورمونهای قلبی (Cardiac Hormones): مانند ANF و اکسیتوسین که در قلب تولید شده و بر مغز تأثیر مستقیم میگذارند.

منبع:
McCraty, R., & Childre, D. (2010). Coherence: Bridging Personal, Social, and Global Health. Alternative Therapies, 16(4), 10-24.


۴. نظریه انسجام قلبی |  The Theory of Heart Coherence

انسجام قلبی حالتی است که در آن سیستم عصبی، قلب و مغز در هماهنگی الکتروفیزیولوژیک عمل میکنند. این حالت معمولاً در پی احساسات مثبتی مانند شفقت، قدردانی یا عشق پدید میآید و با افزایش تمرکز، وضوح ذهنی و آرامش مرتبط است. پژوهشها نشان میدهند که انسجام قلبی باعث بهبود عملکرد شناختی و کاهش اضطراب میشود.

منبع:
McCraty, R., Atkinson, M., Tomasino, D., & Bradley, R. T. (2009). The coherent heart. Integral Review, 5(2), 10-115.


۵. کاربردهای روانشناختی و عصبی |  Psychological and Neurophysiological Applications

مطالعات میانرشتهای نشان دادهاند که افزایش آگاهی از وضعیت فیزیولوژیکی بدن (interoception) نقش مهمی در تنظیم هیجانات دارد. برای مثال، سارا گارفینکل و هوگو کریچلی در پژوهشهایی نشان دادهاند که حساسیت به ضربان قلب با افزایش کنترل هیجانی و کاهش اضطراب مرتبط است.

منبع:
Garfinkel, S. N., & Critchley, H. D. (2013). Interoception, emotion and brain. Social Cognitive and Affective Neuroscience, 8(3), 231–234.


۶. آیندهی هوش قلبی: از شهود تا فناوری |  The Future of Heart Intelligence: From Intuition to Technology

با گسترش فناوریهای پوشیدنی و biofeedback، هوش قلبی در حال ورود به حوزه فناوریهای کاربردی است. محصولات مانند emWave و Inner Balance به کاربران امکان میدهند انسجام قلبی خود را سنجش و تقویت کنند.

علاوه بر این، محققان در حال توسعه الگوریتمهایی هستند که از دادههای HRV برای تحلیل وضعیت شناختی، عاطفی و حتی تصمیمگیری انسان استفاده کنند. اگرچه هوش قلبی بر مبنای شهود و تنظیم هیجانی است، اما مسیر فناورانهی آن میتواند مکمل هوش مصنوعی باشد، بهویژه در زمینههایی مانند سلامت ذهنی، تصمیمسازی انسانی-ماشینی، و توسعه انسانمحور فناوری.

منبع:
Shaffer, F., McCraty, R., & Zerr, C. L. (2014). A healthy heart is not a metronome. Frontiers in Psychology, 5, 1040.


۷. نتیجهگیری |  Conclusion

هوش قلبی مفهومی میانرشتهای است که در پیوند علوم اعصاب، روانشناسی فیزیولوژیک، فناوری و فلسفه آگاهی معنا مییابد. شواهد علمی نشان میدهند که قلب، نقشی فعال در درک، تصمیمگیری و تنظیم احساسات دارد. آیندهی این حوزه میتواند با فناوریهای نوین گره بخورد و به توسعه سامانههایی بیانجامد که نهفقط «هوشمند»، بلکه «احساسمند» (Emotionally Intelligent) باشند.


 

Abstract

Heart Intelligence is an emerging interdisciplinary concept that explores the heart not merely as a mechanical pump but as a neurophysiological organ capable of processing information, influencing emotions, and interacting dynamically with the brain. Rooted in the field of neurocardiology and expanded through psychophysiological research, the heart has been shown to contain its own intrinsic nervous system, often referred to as the "heart brain." This article traces the scientific history of heart intelligence from early studies in the 1970s to contemporary research on heart-brain communication and emotional regulation.

It examines the bidirectional neural and electromagnetic pathways linking the heart and brain, as well as the Heart Coherence Theory developed by the HeartMath Institute. Applications in psychology and emotional self-regulation are explored through academic studies, including interoception and its role in anxiety control. Finally, the paper discusses the technological future of heart intelligence, suggesting its potential as a complementary system to artificial intelligence in areas such as biofeedback, mental health, and human-centered technology.

 

 

منابع |  References

  1. Armour, J. A. (2003). Cardiac neuronal hierarchy in health and disease. American Journal of Physiology, 287(2), R262-R271.
  2. McCraty, R., & Childre, D. (2010). Coherence: Bridging Personal, Social, and Global Health. Alternative Therapies, 16(4), 10-24.
  3. McCraty, R., Atkinson, M., Tomasino, D., & Bradley, R. T. (2009). The coherent heart. Integral Review, 5(2), 10-115.
  4. Garfinkel, S. N., & Critchley, H. D. (2013). Interoception, emotion and brain. Social Cognitive and Affective Neuroscience, 8(3), 231–234.
  5. Shaffer, F., McCraty, R., & Zerr, C. L. (2014). A healthy heart is not a metronome. Frontiers in Psychology, 5, 1040.

 

هوش مصنوعی، و محدودیت‌های یک سلطه تکنیکی

هوش مصنوعی، و محدودیتهای یک سلطه تکنیکی

·         حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است.

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر سایبرنتیک و هوش مصنوعی / نویسنده و فیلمساز)

مقدمه

نفوذ سریع و همهجانبه هوش مصنوعی در زندگی روزمره بشر، نوید عصری تازه از بازتعریف نقش انسان را میدهد. اما این پیشرفت خیرهکننده، اگرچه در سطوح نرمافزاری بسیار در دسترس و نافذ شده است، در حوزههای سختافزاری، زیربنایی و اخلاقی با محدودیتهای بنیادینی مواجه است که نهتنها ماهیت کار و معنا را زیر سؤال میبرد، بلکه میتواند به حذف غیرقابل بازگشت بسیاری از ابعاد انسانی بینجامد.

از منظر علوم سایبرنتیک، ما با سیستمی روبهرو هستیم که در آن بازخورد انسانـماشین در برخی حوزهها بهطرز نگرانکنندهای از تعادل خارج شده و در عوض بهجای همکاری، به جایگزینی یکسویه میل دارد. این مسئله بهویژه در حرفههایی با ساختار سادهتر و کمهزینهتر بروز یافته است.


1.  تضاد سختافزار و نرمافزار، نامتوازن و نابرابر:

چرا در برخی حوزهها سرعت نفوذ بالا، و در برخی دیگر کند است؟

پدیدهای که میتوان آن را تضاد سختافزار و نرمافزار نامید، یکی از کلیدیترین عوامل محدودیت نفوذ همگن هوش مصنوعی در تمامی حوزههاست. فناوریهایی مثل مدلهای زبانی مولد Generative Language Models یا ابزارهای خلق تصویر و موسیقی با کمک هوش مصنوعی، بر بستر گوشیهای هوشمند و رایانههای شخصی اجرا میشوند؛ درحالیکه خودروهای خودران یا تجهیزات هوشپزشکی نیازمند سختافزارهایی پیچیده، گرانقیمت، با سطح بالایی از اطمینان و مسئولیتپذیری هستند.

از منظر فنی، این تفاوت را باید با رجوع به نظریههای پایهای در علوم سایبرنتیک و فلسفه فناوری تحلیل کرد.

نوربرت وینر، بنیانگذار علم سایبرنتیک، در کتاب معروف خود Cybernetics: or Control and Communication in the Animal and the Machine (۱۹۴۸) یادآور میشود: هر سامانهای تنها در صورتی کارآمد است که بتواند بازخورد دقیق دریافت کرده و پاسخ خود را تنظیم کند. بدون این تعامل مستمر، سیستم یا از کنترل خارج میشود یا ناکارآمد میگردد.

در حوزههایی مانند تولید محتوا یا گفتوگوی ماشینی، ورودی و خروجی سادهاند: یک متن وارد میشود، و ماشینی با یک مدل زبانی، پاسخی میسازد. بازخورد نیز فوری و دیجیتال است (لایک، زمانماندن کاربر، کلیک بعدی). بنابراین، سیستم میتواند بهسرعت خودش را تنظیم و بهینه کند. این همان محیط ایدهآل سایبرنتیکی برای هوش مصنوعی است.

اما در حوزههایی مانند خودروهای خودران یا جراحی رباتیک، ورودیها شامل متغیرهای فیزیکی، زیستی، اخلاقی و موقعیتیاند. بازخوردها ممکن است دیرهنگام، مبهم، یا جبرانناپذیر باشند (مثلاً مرگ یک بیمار یا تصادف در خیابان). بههمین دلیل، نفوذ هوش مصنوعی در این حوزهها با تأخیر و تردید همراه است. چون فناوری نمیتواند تضمین کند که پاسخهایش «امن»، «مسئولانه» و «اخلاقی» خواهند بود، آنهم در وضعیتی که پاسخ در ماشین اساساً بر اساس اولویت تعریف می شود.

یکی از منتقدان برجسته فناوری، ژوزف وایزنباوم Joseph Weizenbaum ، دانشمند علوم کامپیوتر MIT و خالق برنامهی مکالمهمحور ELIZA، در کتاب مهم خود Computer Power and Human Reason: From Judgment to Calculation (۱۹۷۶) به نکتهای اساسی اشاره میکند: فقط به این دلیل که یک ماشین قادر به انجام کاری است، دلیل نمیشود که باید آن را به انجام آن واداشت.

وایزنباوم هشدار میدهد که حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است. او تفاوت میان «حسابگری» و «قضاوت» را کلیدی و مهم میداند و معتقد است: واگذاری تصمیمگیری به ماشینها، بدون فهم زمینهی انسانی، نه تنها عقلانیت را تهی میکند، بلکه میتواند به شکلگیری نوعی اتوماسیون بیروح و فاقد مسئولیت منجر شود.

برای مثال، اگر یک سیستم تشخیص تصویر بتواند غدهای مشکوک را در تصویر اسکن تشخیص دهد، این به معنای درک بالینی، مشاوره اخلاقی، یا فهم وضعیت روانی بیمار نیست. همینطور، اگر یک خودرو بتواند علائم راهنمایی را بخواند، نمیتواند اخلاقاً تصمیم بگیرد که در یک صحنه ی احتمالی تصادف بین خودرو و عابر پیاده، بین حفظ جان سرنشین و عابر پیاده کدام را انتخاب کند.


۲. اولین قربانیان

تئوریهای حوزه سایبرنتیک، مانند آنچه نوربرت وینر Norbert Wiener بنیان گذاشت، به ما یادآوری میکنند که نظامهای بازخوردی، زمانی بهینهاند که میان ورودی و خروجی انسان و ماشین، توازن دقیق برقرار باشد. اما در مشاغلی مانند نویسندگی، طراحی گرافیک، ترجمه، آموزش آنلاین و حتی روزنامهنگاری، فیلمسازی ساختار اطلاعاتی بسیار قابل الگوسازی و تقلید است. بنابراین، این حوزهها بهسرعت توسط مدلهای هوش مصنوعی بلعیده میشوند.

برنارد استیگلر Bernard Stiegler، فیلسوف فرانسوی، در کتاب فروپاشی زمان و تکنولوژی Technics and Time  هشدار میدهد که تکنولوژی اگر بدون حافظه انتقادی و آموزش عمومی گسترش یابد، نهتنها ابزار رهایی نخواهد بود، بلکه عامل انفجار حافظه جمعی و تهی شدن معنا خواهد شد.


۳. تحلیل محتوای امکان سنجی در دو نمونهی ذکر شده در بالا:

در پزشکی، هوش مصنوعی بهصورت آزمایشگاهی در حال پیشرفت است؛ الگوریتمهایی مانند تشخیص سرطان در تصاویر رادیولوژی یا پایش علائم حیاتی، نشان میدهند که در آینده، نقش پزشکان عمومی تا حدی قابل جایگزینی است. اما تحقق این امر، نیازمند ابزارهایی است که نهتنها دقت بالا، بلکه تأییدیههای اخلاقی، قانونی و فنی نیز داشته باشند. در بسیاری از کشورها، قوانین مربوط به مسئولیت حقوقی خطاهای ماشینی هنوز تدوین نشدهاند.

در مورد خودروهای خودران نیز با مشکلی مشابه مواجهیم. هوش مصنوعی این خودروها به دادههای محیطی بلادرنگ، تعامل با دیگر وسایل نقلیه و پردازش وضعیت انسانی نیاز دارد که فعلاً بهشکل گسترده و قابل اطمینان محقق نشدهاند. همانطور که آیوکای اینادا  Ayokai Inada، اندیشمند ژاپنی در حوزه فلسفه تکنولوژی، میگوید: هوش مصنوعی بدون هوش اجتماعی، همانقدر خطرناک است که جراح بدون وجدان.


۴. بحران معنا و فروپاشی میانجی انسانی

با حذف کار انسان از فرآیندهای خلاقانه، آنچه از دست میرود فقط شغل نیست، بلکه مشارکت در تولید معنا، حافظه فرهنگی و روابط اجتماعی است. در رسانهها، محتواهای تولیدشده توسط الگوریتم، نوعی انباشت بیروح از دادههای بیزمینه را شکل میدهد که نمیتواند پیوندی زنده با زندگی انسان برقرار کند.


۵. نتیجهگیری: تکنولوژی باید پاسخگو باشد، نه فقط کارآمد

نفوذ هوش مصنوعی در حوزههایی با مقاومت زیرساختی و اخلاقی بالا کند خواهد بود، و این کندی نه ضعف تکنولوژی، بلکه نشانه بلوغ تمدنی ماست. نباید از هر ابزار جدید، صرفاً بهدلیل کارآمدی ظاهریاش استقبال کرد. آنچه لازم است، بازخوانی انتقادی نسبت ما با تکنولوژی است؛ بازخوانیای که در آن نقش انسان، نه بهعنوان مصرفکننده، بلکه بهعنوان قوامدهنده معنا و مسئولیتپذیری، حفظ شود.

سهیل سلیمی


منابع


  1. Martin Heidegger, The Question Concerning Technology, 1954
    مقالهای فلسفی درباره ماهیت تکنولوژی و نگاه وجودی به ابزار
  2. Bernard Stiegler, Technics and Time, Vol.1–3
    سهگانهای درباره نسبت حافظه، فرهنگ و فناوری
  3. Norbert Wiener, Cybernetics: Or Control and Communication in the Animal and the Machine, 1948
    کتاب بنیادین در نظریه سایبرنتیک و تعامل سیستمها
  4. Shoshana Zuboff, The Age of Surveillance Capitalism, 2019
    تحلیل ساختارهای قدرت در فناوریهای مبتنی بر داده
  5. Ayokai Inada, Ethics in Autonomous Systems, Tokyo Tech Press
    بحث فلسفی درباره مسئولیت و هوش مصنوعی در شرق آسیا
  6. Nicholas Carr, The Shallows: What the Internet Is Doing to Our Brains, 2010
    تحلیلی روانشناختی درباره تأثیر فناوری بر تفکر انسان

جامعه جعبه سیاه

الگوریتمهای مخفی که پول و اطلاعات را کنترل میکنند. فرانک پاسکواله  

The Black Box Society:

The Secret Algorithms That Control Money and Information  . (Frank Pasquale)

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

مقدمه: دربارهی کتاب The Black Box Society

کتاب   جامعه جعبه سیاه: الگوریتمهای مخفی که پول و اطلاعات را کنترل میکنند

 The Black Box Society: The Secret Algorithms That Control Money and Information  نوشتهی فرانک پاسکوال، حقوقدان و استاد دانشگاه مریلند، کتابی تأثیرگذار در زمینهی شفافیت، نظارت و قدرت در عصر دیجیتال است. این کتاب به بررسی سازوکارهای مخفی در پس الگوریتمهایی میپردازد که بر اقتصاد، رسانه، و زندگی اجتماعی ما سلطه یافتهاند. او مفهوم "جامعه جعبهسیاه" را بهکار میبرد تا توصیف کند که چگونه شرکتهای فناوری، مؤسسات مالی و دولتها تصمیماتی میگیرند که ما نمیتوانیم آنها را ببینیم، درک کنیم یا به چالش بکشیم.

پاسکوال استدلال میکند که در حالی که رفتار شهروندان عادی هر روز شفافتر میشود و تحت نظارت است، ساختارهای قدرتی که بر اطلاعات و سرمایه کنترل دارند، روزبهروز مبهمتر و غیرپاسخگوتر میشوند. این کتاب خواستار شفافسازی الگوریتمها، بازتعریف حقوق حریم خصوصی، و نظارت دموکراتیک بر فناوری است.

جامعه جعبه سیاه، جامعهای با شهروندان تحت نظارت و شرکتهای غیرپاسخگوست.

The black box society is one of monitored citizens and unaccountable corporations.


تحلیل کتاب جامعه جعبه سیاه: الگوریتمهای پنهانی که پول و اطلاعات را کنترل میکنند اثر فرانک پاسکواله  (Frank Pasquale)

مقدمه:

در عصر دیجیتال، الگوریتمها و هوش مصنوعی نه تنها ابزارهایی فنی، بلکه سازههای قدرت جدیدی هستند که سرنوشت افراد، بازارها و جوامع را به شکلی بیسابقه و غالباً پنهانی رقم میزنند. کتاب "جامعه جعبه سیاه" اثر فرانک پاسکواله، نقدی بنیادین به این وضعیت ارائه میدهد. پاسکواله استدلال میکند که ما در حال ساخت یک "جامعه جعبه سیاههستیم: جامعهای که در آن تصمیمات حیاتی توسط سیستمهای الگوریتمی پیچیده (جعبههای سیاه) اتخاذ میشوند که درک، بررسی یا به چالش کشیدن آنها برای عموم مردم، نهادهای نظارتی و حتی متخصصان غیرمرتبط غیرممکن یا بسیار دشوار است. این عدم شفافیت در دو حوزه حیاتی به اوج میرسد:  امور مالی که پول و اعتبار ما را کنترل میکند و اطلاعات که درک ما از جهان را شکل میدهد.

محورهای انتقادی پاسکواله:

1.     انحصار داده و قدرت:  غولهای فناوری (مانند گوگل، فیسبوک/متا، آمازون) و مؤسسات مالی بزرگ، انبوه بیسابقهای از دادههای شخصی و رفتاری را در انحصار خود دارند. الگوریتمهای آنها بر اساس این دادهها تصمیم میگیرند، اما منطق این تصمیمگیریها محرمانه است.

2.     تبعیض الگوریتمی:  الگوریتمها میتوانند و اغلب تبعیض سیستماتیک را علیه گروههای خاص (بر اساس نژاد، جنسیت، طبقه اجتماعی، کدپستی و ...) بازتولید و حتی تشدید میکنند، بدون اینکه مسئولیت آن بر عهده کسی باشد یا امکان اعتراض مؤثر وجود داشته باشد.

3.     تخریب حریم خصوصی و خودمختاری:  نظارت گسترده و دائمی توسط این سیستمها، حریم خصوصی را تحلیل برده و توانایی افراد برای شکلدهی آزادانه به هویت و زندگی خود (خودمختاری) را تهدید میکند.

4.     عدم پاسخگویی و مسئولیتپذیری:  هنگامی که یک الگوریتم اشتباه میکند (مثلاً اعتبار فردی را به اشتباه تخریب میکند، شغل وی را حذف میکند، یا او را به اشتباه مجرم جلوه میدهد)، شناسایی مقصر، درخواست توضیح یا جبران خسارت بسیار دشوار است. سازندگان الگوریتم به اسرار تجاری و پیچیدگی فنی استناد میکنند.

5.     تهدید دموکراسی:  قدرت متمرکز و غیرپاسخگو در دستان صاحبان این جعبههای سیاه، تعادل دموکراتیک را به هم میزند. این شرکتها میتوانند افکار عمومی را شکل دهند، انتخابات را تحت تأثیر قرار دهند و سیاستگذاران را تنظیمگری کنند، بدون اینکه در معرض نظارت و کنترل کافی باشند.

موضع کتاب:  پاسکواله به شدت هشداردهنده و مصلحانه است. او نه ضد فناوری، بلکه خواهان شفافیت، نظارت و مسئولیتپذیری در طراحی و استقرار سیستمهای الگوریتمی است. او استدلال میکند که برای حفظ عدالت، برابری و دموکراسی در عصر دیجیتال، باید قوانین و نهادهای جدیدی ایجاد کنیم تا این جعبههای سیاه را باز کنیم و آنها را در برابر جامعه پاسخگو نگه داریم.


خلاصه و تحلیل فصلهای کتاب The Black Box Society (Pasquale):

  • فصل 1:  Reputation in Ruins اعتبار در ویرانهها
    • خلاصه:  این فصل بر سیستمهای اعتبارسنجی مانند FICO و شرکتهای دادهای (مانند اکسیوم، لکسنکس) تمرکز دارد. پاسکواله نشان میدهد چگونه این شرکتها انبوهی از دادهها (اغلب نادرست یا نامرتبط) را درباره افراد جمعآوری میکنند تا "نمرات" و "پروفایلهای" مخفیانه ایجاد کنند که بر دسترسی به وام، مسکن، شغل و حتی خدمات بیمهای تأثیر میگذارند. منطق این سیستمها برای افراد تحت تأثیر غیرقابل فهم و قابل اعتراض است.
    • تحلیل فصل:  پاسکواله پایههای "جعبه سیاه" را در قلب اقتصاد مالی نشان میدهد. این فصل به وضوح عدم تقارن اطلاعاتی فاجعهباری را آشکار میسازد که در آن شرکتهای خصوصی بر زندگی افراد قدرت مطلق دارند، بدون هیچ شفافیت یا مسئولیتپذیری. این سیستمها تبعیض ساختاری را نهادینه میکنند و فرصتهای اقتصادی را بر اساس معیارهای پنهان محدود میسازند.
  • فصل 2:  The Hidden Logics of Search منطق پنهان جستجو
    • خلاصه:  پاسکواله به دنیای موتورهای جستجو (بهویژه گوگل) و رسانههای اجتماعی میپردازد. او توضیح میدهد که الگوریتمهای رتبهبندی و فیلترینگ چگونه بهشکلی پنهانی اطلاعاتی را که کاربران میبینند، انتخاب و اولویتبندی میکنند. این "منطق پنهان" میتواند دیدگاهها را شکل دهد، افکار عمومی را هدایت کند، کسبوکارها را موفق یا شکستخورده نشان دهد و حتی بر نتایج انتخابات تأثیر بگذارد. انگیزههای تجاری و سوگیریهای طراحان در این الگوریتمها نهفته است.
    • تحلیل فصل:  این فصل قدرت عظیم کنترل اطلاعات توسط غولهای فناوری را برجسته میکند. پاسکواله نشان میدهد که چگونه جعبه سیاه جستجو و فیلتر، نه تنها یک نگرانی حریم خصوصی، بلکه یک تهدید اساسی برای ادراک عمومی، گفتمان دموکراتیک و رقابت اقتصادی است. تمرکز بر گوگل بهعنوان مطالعه موردی، قدرت نامتقارن و عدم شفافیت این بازیگران را بهطور ملموس نشان میدهد.
  • فصل 3:  Finance's Algorithms الگوریتمهای مالی
    • خلاصه:  این فصل به عمق "جعبه سیاه" وال استریت میرود. پاسکواله الگوریتمهای معاملات فرکانس بالا (HFT)، سیستمهای امتیازدهی اعتباری پیچیده برای اوراق بهادار، و پلتفرمهای معاملاتی تاریک را بررسی میکند. او نشان میدهد که چگونه این فناوریها نهتنها برای دستکاری بازار و کسب سود غیرمنصفانه استفاده میشوند، بلکه ثبات سیستم مالی را تهدید میکنند (مانند سقوط فلش 2010). نظارت تنظیمگران بر این سیستمهای فوقپیچیده و محرمانه ناکافی است.
    • تحلیل فصل:  پاسکواله پیوند خطرناک بین فناوریهای غیرشفاف و بیثباتی سیستمیک را آشکار میسازد. این فصل نشان میدهد که چگونه الگوریتمهای مالی به ابزاری برای انحصارطلبی اطلاعاتی، استخراج رانت و دور زدن مقررات تبدیل شدهاند و چگونه فقدان شفافیت، توانایی جلوگیری از بحرانهای بعدی را تضعیف میکند. قدرت شرکتهای مالی در پنهانکاری با بهانه "اسرار تجاری" به چالش کشیده میشود.
  • فصل 4:  The Automated Public Sphere عرصه عمومی خودکار
    • خلاصهپاسکواله گسترش جعبه سیاه را به حوزههای عمومی مانند نظارت پلیس (پیشبینی جرم، تشخیص چهره)، عدالت کیفری (الگوریتمهای ارزیابی خطر، احکام مجازات) و خدمات دولتی (تعیین واجدین شرایط برای کمکها) ردیابی میکند.

او نگرانیهای عمیقی در مورد تقویت تبعیض بهویژه علیه اقلیتها، تخریب فرآیندهای دادرسی منصفانه و واگذاری تصمیمگیریهای حیاتی انسانی به ماشینهای غیرقابل توضیح مطرح میکند.

    • تحلیل فصل:  این فصل هشداردهندهترین پیامدهای جامعه جعبه سیاه را نشان میدهد:  نهادینهسازی بیعدالتی در قلب دولت و سیستم قضایی. پاسکواله استدلال میکند که اتوماسیون، در غیاب شفافیت و مسئولیتپذیری، به جای خنثیسازی، سوگیریهای انسانی و ساختاری موجود را تشدید و توجیه میکند، حقوق شهروندی را تضعیف و اعتماد به نهادهای عمومی را از بین میبرد.
  • فصل 5:  Toward an Intelligible Society به سوی جامعهای قابل فهم
    • خلاصه:  در فصل پایانی، پاسکواله مجموعهای از پیشنهادات اصلاحی را برای باز کردن جعبههای سیاه و ایجاد پاسخگویی ارائه میدهد. اینها شامل الزامات شفافیت هدفمند (توضیحپذیری الگوریتمها برای افراد تحت تأثیر و نهادهای نظارتی)، تقویت قوانین حفاظت از دادهها، ایجاد نهادهای نظارتی جدید با تخصص فنی، به رسمیت شناختن حق انسانها برای تصمیمگیری نهایی در موارد مهم (مانند استخدام، وام، عدالت کیفری)، و احیای قدرت چانهزنی جمعی در برابر انحصار دادهها است.
    • تحلیل فصل:  این فصل فراخوانی عملگرایانه و فوری برای اقدام است. پاسکواله بهجای رد فناوری، بر طراحی مجدد سیستمها و قوانین برای اطمینان از همسویی آنها با ارزشهای دموکراتیک مانند عدالت، برابری و پاسخگویی تأکید میکند. او استدلال میکند که دستیابی به یک "جامعه قابل فهم" نه تنها ممکن، بلکه برای بقای مردم سالاری، البته اگر وجود داشته باشد! ضروری است. پیشنهادات او چارچوبی حیاتی برای سیاستگذاری آینده ارائه میدهد.  

جملات کلیدی کتاب The Black Box Society (Pasquale)

1.     ما در حال ساختن یک جامعه جعبه سیاه هستیم.

 We are building a black box society.

2.     جعبه سیاهها در امور مالی و اطلاعات، قدرت را متمرکز و پاسخگویی را تضعیف میکنند.

Black boxes in finance and information concentrate power and undermine accountability.

3.     الگوریتمها، ناظران قدرتمند و غیرقابل نظارتی هستند.

Algorithms are powerful, unaccountable scrutineers

4.     نمرات اعتباری مخفی، فرصتهای زندگی را تعیین میکنند.

Secret credit scores determine life chances.

5.     منطقِ جستجو پنهان است و دید ما به جهان را شکل میدهد.

The logic of search is hidden and shapes our view of the world.

6.     گوگل یک قدرت فیلترینگ جهانی است.

Google is a global filtering power.

7.    الگوریتمهای مالی میتوانند بازارها را تخریب کنند.

Finance algorithms can wreck markets.

8.     معاملات فرکانس بالا، یک مزیت اطلاعاتی ناعادلانه ایجاد میکند.

High-frequency trading creates an unfair information advantage.

9.     پیشبینی جرم، تبعیض را نهادینه میکند.

Predictive policing institutionalizes discrimination.

10.                       الگوریتمهای ارزیابی ریسک در عدالت کیفری، تعصبات را تقویت میکنند.

Risk assessment algorithms in criminal justice reinforce biases.

11.                       اسرار تجاری به سپری برای پنهانکاری تبدیل شدهاند.

Trade secrets have become a shield for opacity.

12.                       پیچیدگی فنی نباید بهانهای برای عدم پاسخگویی باشد.

Technical complexity should not be an excuse for unaccountability.

13.                       ما به حق توضیح نیاز داریم.

We need a right to explanation.

14.                       دادهها منابع  جدید قدرت هستند.

Data is a new source of power.

15.                       انحصار داده، تهدیدی برای دموکراسی است.

Data monopoly is a threat to democracy.

16.                       الگوریتمها میتوانند اشتباه کنند و آسیبهای واقعی ایجاد کنند.

Algorithms can make mistakes and cause real harm.

17.                       شفافیتِ هدفمند ضروری است.

Targeted transparency is essential.

18.                       نهادهای نظارتی جدید با تخصص فنی مورد نیاز است.

New regulatory bodies with technical expertise are needed.

19.                       انسانها باید در تصمیمگیریهای مهم حرف آخر را بزنند.

Humans must have the final say in significant decisions.

20.                       قدرت چانهزنی جمعی در برابر غولهای داده باید احیا شود.

Collective bargaining power against data giants must be revived.

21.                       ما اغلب قربانیان امتیازدهی مخفی هستیم. Fa: 

We are often victims of secret scoring.

22.                       نتایج جستجو به شکلی پنهانی دستکاری میشوند. 

Search results are covertly manipulated.

23.                       فیلترهای شخصیسازی شده میتوانند حبابهای فکری ایجاد کنند. 

Personalized filters can create echo chambers.

24.                       وال استریت توسط الگوریتمها اداره میشود که کسی آنها را درک نمیکند. 

Wall Street is run by algorithms no one understands.

25.                       الگوریتمهای پلیس، محلههای فقیرنشین را هدف میگیرند و چرخه تبعیض را ادامه میدهند..

Police algorithms target poor neighborhoods, perpetuating cycles of discrimination.

26.                       نمرات ریسک، عدالت را به یک محاسبه مکانیکی تقلیل میدهند.

Risk scores reduce justice to a mechanical calculation.

27.                        سیستمهای امتیازدهی، افراد را به اعداد تقلیل میدهند.

Scoring systems reduce people to numbers.

28.                       : "پیشبینی" جرم، اغلب به معنای پیشداوری است.

"Predicting" crime often means prejudging it.

29.                       هوش مصنوعی بدون شفافیت، هوش مصنوعی غیرمسئول است. 

AI without transparency is unaccountable AI.

30.                       تصمیمات حیاتی نباید صرفاً به ماشینها واگذار شود.

Crucial decisions should not be delegated solely to machines.

31.                       دادههای شما، طلای دیجیتال شرکتها است.

Your data is companies' digital gold.

32.                       نمره اعتباری شما میتواند زندانی نامرئی شما باشد.

Your credit score can be your invisible prison.

33.                       شخصیسازی، اغلب به معنای پیشداوری است.

Personalization often means prejudice.

34.                       الگوریتمهای گوگل، ویراستاران جهانی ما هستند.

Google's algorithms are our global editors.

35.                       بحران مالی 2008 یک فاجعه جعبه سیاه بود.

The 2008 financial crisis was a black box disaster.

36.                       نظارت پلیس الگوریتمی، جوامع را نظامیتر میکند.

Algorithmic police surveillance militarizes communities.

37.                       ما در تاریکی الگوریتمی زندگی میکنیم

We live in algorithmic darkness.

38.                       تشخیص چهره، یک ابزار نظارتی قدرتمند و مستعد سوءاستفاده است.

Facial recognition is a powerful, abuse-prone surveillance tool.

39.                       الگوریتمهای پیشبینی جرم، اهداف انسانی را جایگزین شواهد میکنند.

Predictive policing algorithms substitute human targets for evidence.

40.                       سوگیری در دادهها به سوگیری در نتایج منجر میشود.

Bias in data leads to bias in outcomes.

41.                       دادههای رفتاری، سوخت موتورهای پیشبینی هستند.

Behavioral data is the fuel for prediction engines.

42.                       جامعه جعبه سیاه، جامعهای با شهروندان تحت نظارت و شرکتهای غیرپاسخگوست.

The black box society is one of monitored citizens and unaccountable corporations.

 


مرجعیت شناختی در حال انتقال از انسان به ماشین است

مرجعیت شناختی در حال انتقال از انسان به ماشین است

تقابل انسان و ماشین | نبرگاه علوم شناختی، سایبرنتیک، جنگ نرم و هوش مصنوعی

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

 

مقدمه

ما در آستانه دورهای تاریخی قرار گرفتهایم که در آن «مرجعیت شناختی» (Cognitive Authority) – یعنی اقتدار در تفسیر، تحلیل و هدایت ادراک انسان – بهطرزی بیسابقه در حال واگذاری به ماشینهاست. در این فرآیند، انسان نه تنها کارکرد اجرایی، بلکه حتی قدرت تأویل و داوری را نیز به الگوریتمهایی واگذار میکند که پشت درهای بسته شرکتهای فناوری غربی رشد کردهاند. این تغییر، صرفاً فناورانه نیست؛ بلکه ژئوپلیتیکی، ایدئولوژیک و رسانهای است. قدرتهایی که به ظاهر پرچمدار نوآوری هستند، در عمل پروژههایی با اهداف استعماری شناختی (Cognitive Colonialism) را هدایت میکنند که هدف نهایی آن، کنترل افکار، احساسات و رفتار جمعی جوامع از طریق ماشین است.


۱. علوم شناختی، هوش مصنوعی و فروپاشی اقتدار انسانی

علوم شناختی (Cognitive Science)، مطالعهی علمی ذهن، ادراک و پردازش اطلاعات در انسان و ماشین است. در دهههای اخیر، با گسترش هوش مصنوعی (Artificial Intelligence)، شرکتهای فناوری غربی به بازسازی ساختار شناختی انسان در قالب مدلهای الگوریتمی روی آوردهاند. اما پرسش کلیدی این است: آیا این بازسازی، نوعی تقلید است یا تلاش برای تسلط بر خودِ فرایند ادراک؟

پروژههایی مانند GPT، Bard  و Grok، با توانایی تولید زبان انسانی، قدرت روایتسازی، اقناع، تحلیل و حتی جهتدهی به افکار عمومی را در اختیار نهادهای فناوریمحور غربی قرار دادهاند. این فناوریها نهفقط ابزار تحلیل داده هستند، بلکه با تکرار گسترده، تدریجی و هدفمند ایدهها، در حال استقرار الگوهای شناختی جدید هستند.

در اینجا، ماشین صرفاً بازتابدهنده نیست، بلکه کنشگری فعال در صحنهی شناخت و معناست. به تعبیر شوشانا زوباف  Shoshana Zuboff  در کتاب The Age of Surveillance Capitalism  (عصر سرمایهداری نظارتی، ۲۰۱۹)، آنچه امروز در جریان است؛ فراگیر شدن قدرت بر ذهنهاست، نه صرفاً کنترل رفتار.


۲. سایبرنتیک، کنترل شناخت و الگوریتمهای قدرت

سایبرنتیک  (Cybernetics)، علمی است که به مطالعهی کنترل و ارتباط در سیستمهای پیچیده که به اعمال قدرت منجر میشود اشاره دارد یعنی سایبرنتیک ابزار نیست بلکه آن قدرت مطلقی است که اعمال قدرت را در دست دارد، برای فهم بهتر این مفهوم تعبیری از دکتر کاظم فولادی (دکترای هوش مصنوعی و رباتیک) را نقل قول می کنم؛ سایبرنتیک ابزار ا ، اعم از انسان یا ماشین، میپردازد. نوربرت وینر، بنیانگذار این رشته، هشدار داده بود که تفکر ماشینی بدون اخلاق، میتواند بدل به ابزاری خطرناک برای کنترل شود (Wiener, 1948).

امروزه الگوریتمهای یادگیری ماشین (Machine Learning) نه تنها پیشبینی میکنند، بلکه پیشاپیش ساختار کنش اجتماعی را شکل میدهند. آنها با دستهبندی افراد، فیلتر محتوا و اولویتبندی روایتها، به بازتعریف مرزهای حقیقت، اعتبار و حتی هویت میپردازند. این همان چیزی است که "اونیل" O'Neil (2016)  در کتابWeapons of Math Destruction  (سلاحهای کشتار ریاضی) بهعنوان خودکارسازی تبعیض معرفی میکند.


۳. جنگ نرم و استعمار هوش مصنوعی

قدرت نرم (Soft Power)، مفهومیست که توسط ژوزف نای (Joseph Nye) معرفی شد و به توانایی یک بازیگر برای تأثیرگذاری بر دیگران بدون اجبار نظامی، و از طریق جذابیت فرهنگی و اطلاعاتی، اطلاق میشود. در جهان امروز، ابزارهای هوش مصنوعی بهعنوان سلاحهای جنگ نرم عمل میکنند؛ رسانهها، شبکههای اجتماعی و موتورهای جستوجو، الگوهای خاصی از  سبک زندگی، واقعیت، ایدهآل و ترس را به ذهن کاربران تزریق میکنند.

شرکتهایی مانند Meta، Google و OpenAI ، با مالکیت بر دادههای میلیاردها کاربر، نه فقط اقتصاد دیجیتال، بلکه ساختار اندیشه جهانی را مهندسی میکنند. این پروژه، نه یک همزیستی، بلکه شکلی از بهرهکشی شناختیست که در آن انسان به ماده خام شناختی (Cognitive Raw Material) تبدیل شده است.

در این چارچوب، ما به عنوان کاربران فناوری، موارد، نمونهها و موضوعات بیارادهای هستیم که دادههایمان برای تغذیه الگوریتمهایی استفاده میشود که به نفع ساختارهای قدرت عمل میکنند.


۴. رسانه بهمثابه بستر الگوریتمی برای کنترل افکار

رسانههای اجتماعی، موتورهای جستوجو و حتی ابزارهای تولید محتوا، از هوش مصنوعی برای تقویت اثر طنین (Echo Chamber) و قطبیسازی شناختی استفاده میکنند. الگوریتمها با نمایش مداوم محتوای مشابه، تنوع فکری را کاهش و قطع ارتباط با دیگر نگرشها را تشویق میکنند. این وضعیت، به گفتهی اِلی پَریسیر Eli Pariser  در نظریهی Filter Bubble  (حباب فیلتر)، باعث «حبس شناختی» فرد در شبکهای از باورهای خودتأییدشونده میشود. ((اثر طنین (Echo Chamber) به وضعیتی اشاره دارد که افراد تنها در معرض اطلاعات، دیدگاهها و باورهایی قرار میگیرند که با عقاید پیشین آنها همراستا هستند، در نتیجه موجب تقویت سوگیریهای ذهنی میشود (Sunstein, 2001).قطبیسازی شناختی (Cognitive Polarization)  فرآیندی است که در آن اختلافهای فکری و ارزشی میان گروهها افزایش مییابد و باعث شکلگیری تفکیک شدید در درک واقعیت میشود (Iyengar & Westwood, 2015). این دو پدیده تحت تأثیر الگوریتمهای شبکههای اجتماعی و رسانهها، تهدیدی برای گفتوگوی آزاد و انسانی و تنوع فکری در جامعه محسوب میشوند.))

برای مثال، TikTok، Instagram و حتی YouTube با ساختار «Algorithmic Curation» (گزینش محتوا بهواسطه الگوریتم) نه فقط ذائقهی کاربران، بلکه رفتار سیاسی، سبک زندگی و حتی تصمیمگیریهای اقتصادی را مدیریت میکنند.


۵. بهرهبرداری سیاسی از هوش مصنوعی توسط قدرتهای خودکامه

کشورهایی چون آمریکا و چین، در حال تبدیل هوش مصنوعی به ابزاری برای نظارت انبوه، کنترل رفتار اجتماعی و تحلیل پیشگویانه هستند. پروژههایی مانندPRISM  در ایالات متحده یا سیستم اعتبار اجتماعی (Social Credit System) در چین، مثالهایی از بهرهگیری از هوش مصنوعی برای اعمال اقتدار هستند.

PRISM؛ پروژهای برای استثمار شناختی انسان در مقیاس جهانی

پروژهیPRISM  نه یک برنامهی امنیتی، بلکه یک طرح تمامعیار برای استعمار ذهن انسانها در قرن بیستویکم بود. برخلاف ادعای مقامات آمریکایی که آن را ابزاری برای مقابله با تروریسم معرفی کردند، PRISM  در واقع ماشین استخراج اطلاعات از زندگی خصوصی میلیاردها انسان بود—ماشینی که توسط غولهای فناوری مانند Google، Microsoft، Facebook و Apple تغذیه میشد و توسط آژانس امنیت ملی ایالات متحده (NSA) کنترل میگردید (Greenwald, 2013).

این پروژه عملاً جهان را به یک اتاق بازجویی دیجیتال بیپایان تبدیل کرد؛ جایی که همه چیز—از پیامهای عاشقانه تا افکار سیاسی و عادتهای خرید—در خدمت یک ماشین نامرئی قدرت قرار گرفت. هدف؟ نه صرفاً نظارت، بلکه مهندسی ذهن، کنترل رفتار، و ایجاد انسانهایی فرمانبردار، پیشبینیپذیر و بیقدرت.

پروژهیPRISM  گام مهمی در شکلگیری چیزی بود که میتوان آن را سرمایهداری نظارتی بردهساز (Surveillance Capitalism of Servitude)  نامید؛ سیستمی که در آن انسانها نه شهروند، بلکه ابزارهای زیستی تولید داده برای الگوریتمهای دولت و بازار هستند. انسان در این معماری جدید، نه کنشگر، بلکه یک «تابع درون معادلهای عظیم» است که تصمیماتش از قبل توسط دادهها طراحی شدهاند.

آنچه ترسناکتر است، جهانی شدن این مدل است: کشورها یکی پس از دیگری، با تقلید از PRISM، در حال تبدیل نظامهای سیاسی خود به دولتهای پنهانِ الگوریتممحور هستند. به بیان دیگر، ما شاهد طلوع دوران «استبداد دیجیتال» هستیم؛ دورانی که در آن، آزادی بهصورت بیسروصدا و بدون شلیک حتی یک گلوله، با یک توافقنامه کاربری (User Agreement) از انسان گرفته میشود.

این استفاده سیاسی از AI، نهتنها به نفع شهروندان نیست، بلکه بهتدریج شکل جدیدی از اقتدارگرایی و دیکتاتوری شناختی را شکل میدهد: حکمرانی بر ذهن، و کنترل جسم. انسانها دیگر نه فقط از بیرون و در سطح اجتماع، بلکه از درون ذهنشان و حتی در اتاق خوابشان هم کنترل میشوند. آنهم توسط واسطههای ماشینی که همزمان ناظر، تفسیرگر و هدایتگر هستند.


نتیجهگیری: بازیابی عاملیت انسانی در عصر الگوریتم

تقابل انسان و ماشین در عصر حاضر، دیگر صرفاً یک جدال فناورانه نیست، بلکه نبردی برای حفظ استقلال شناختی انسان است. اگر نتوانیم کنترل مرجعیت شناختی را دوباره به انسان بازگردانیم، با آیندهای مواجه خواهیم شد که در آن تصمیمات، باورها و حتی ارزشهای انسانی توسط سامانههایی طراحی میشود که نه شفافاند، نه پاسخگو، و نه انسانی.

ضروری است که رسانهها، دانشگاهها و نهادهای مدنی با تولید گفتمان انتقادی، آموزش سواد الگوریتمی، و مطالبهگری حقوق دیجیتال، در برابر این پروژه خاموش ایستادگی کنند. بازپسگیری مرجعیت شناختی، نه یک انتخاب، بلکه ضرورتی برای حفظ کرامت الهی انسان در قرن بیستویکم است.

سهیل سلیمی


منابع:

  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  • Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  • Noble, S. U. (2018). Algorithms of Oppression. NYU Press.
  • O'Neil, C. (2016). Weapons of Math Destruction. Crown Publishing.
  • Pariser, E. (2011). The Filter Bubble. Penguin Books.
  • Nye, J. S. (2004). Soft Power: The Means to Success in World Politics. PublicAffairs.
  • Bryson, J. J. (2018). The Artificial Intelligence of the Ethics of Artificial Intelligence. SSRN.
  • McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.
  • Andrejevic, M. (2007). iSpy: Surveillance and Power in the Interactive Era. University Press of Kansas.
  • Harari, Y. N. (2018). 21 Lessons for the 21st Century. Spiegel & Grau.
  • Shilton, K. (2018). Values and Ethics in Human-Computer Interaction. ACM Interactions.
  • Sunstein, C. R. (2001). Echo Chambers: Bush v. Gore, Impeachment, and Beyond. Princeton University Press.
  • Iyengar, S., & Westwood, S. J. (2015). Fear and Loathing Across Party Lines: New Evidence on Group Polarization. American Journal of Political Science.

آلبوم های موسیقی سهیل سلیمی در audiomack.com

https://audiomack.com/soheilsalimi

آلبوم های موسیقی سهیل سلیمی در audiomack.com
روی  کلیک کنید

https://audiomack.com/soheilsalimi

لینکها به تفکیک آلبوم:

https://audiomack.com/soheilsalimi/album/farthest-childhood-dream-composer-sohail-salimi-2005

https://audiomack.com/soheilsalimi/album/the-last-hot-summers-memories-1998

https://audiomack.com/soheilsalimi/album/lost-dream-of-flying

https://audiomack.com/soheilsalimi/album/cyborg-the-dark-future-soheil-salimi

https://audiomack.com/soheilsalimi/album/invisible-crime

https://audiomack.com/soheilsalimi/album/unfinished-spring

انسان ناگزیر از همزیستی با هوش مصنوعی

انسان ناگزیر از همزیستی با هوش مصنوعی

ارائهدهنده: سهیل سلیمی (مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

مقدمه

جهان در حال ورود به مرحلهای از تحولات فناورانه است که میتوان آن را نه صرفاً یک «دوران جدید»، بلکه «بازتعریف بنیادین» نقش انسان در نظامهای اجتماعی، اقتصادی، فرهنگی و حتی هستیشناسانه تلقی کرد.

هوش مصنوعی (AI) دیگر یک ابزار نیست؛ بلکه ساختاریست در حال تکامل که در حال بازنویسی منطق تصمیمگیری، اخلاق، آگاهی و حتی روابط انسانی است. درحالیکه دستیارهای مجازی چون Siri یا Grok تنها نوک کوه یخ هستند، آنچه در پسِ پرده در حال وقوع است، تغییر بنیادین در مفاهیم «کنترل»، «دانش»، و «عاملیت» است. این مقاله در پی آن است تا ضمن واکاوی علمی-انتقادی همزیستی انسان و هوش مصنوعی، روایتی چندلایه، پیچیده و انتقادی از فرصتها، تهدیدات، چالشها و ضرورتهای سیاستگذاری ارائه دهد.


بخش اول: مفهوم همزیستی انسان و هوش مصنوعی - از همکاری تا تقابل شناختی

تعریف رایج همزیستی انسان و هوش مصنوعی معمولاً نگاهی خوشبینانه به تعامل «مکمل» میان انسان و ماشین دارد. اما باید این تعریف را بازنگری کرد: آیا این تعامل واقعاً دوسویه و برابر است؟ یا شاهد نوعی استحاله تدریجی انسان به عنصری درون سامانهای گستردهتر هستیم که توسط منطق الگوریتمی اداره میشود؟ نوربرت وینر در اثر بنیادین خود، Cybernetics، ایده کنترل و بازخورد را نهفقط برای ماشین، بلکه برای فهم انسان در چارچوبی الگوریتمی مطرح کرد (Wiener, 1948).

ایزاک آسیموف، نویسنده برجسته علمی-تخیلی، در داستانهای خود مانند من، ربات (1950)  قوانین سهگانه رباتیک را معرفی کرد که بهعنوان چارچوبی اخلاقی برای تعامل انسان و ماشین طراحی شدهاند:

1.                   یک ربات نباید به انسان آسیب برساند یا با بیعملی اجازه دهد آسیبی به انسان برسد.

2.                 یک ربات باید از دستورات انسانها اطاعت کند، مگر اینکه این دستورات با قانون اول مغایرت داشته باشند.

3.                یک ربات باید از خود محافظت کند، به شرطی که این حفاظت با قوانین اول و دوم در تضاد نباشد (Asimov, 1950, p. 40).

این قوانین، اگرچه در داستانهای تخیلی او مطرح شدند، اما الهامبخش بحثهای امروزی درباره اخلاق در هوش مصنوعی هستند، زیرا از منظر آسیموف و بر مبنای نوشتههایش، رباتها تجلی بیرونی و فیزیکال هوش مصنوعی به شمار میروند.

ایزاک آسیموف با ارائهی قوانین سهگانه رباتیک کوشید اخلاق را در ماشین نهادینه کند، اما منتقدانی چون Joanna Bryson هشدار دادهاند که این قوانین بیشتر افسانهاند تا راهحل. زیرا در واقعیت، هیچ راهحل سادهای برای تزریق ارزشهای انسانی به الگوریتمها وجود ندارد (Bryson, 2018). همچنین ابزارهایی چون Grok، ChatGPT یا DeepSeek نهتنها تصمیمساز، بلکه در مواردی تصمیمگیر نیز شدهاند. پس آیا میتوان همچنان از مفهوم همزیستی صرف صحبت کرد، یا باید به مفهوم «تقابل شناختی» اندیشید؟

تقابل شناختی (Cognitive Confrontation) مفهومیست که فراتر از تعامل یا همزیستی انسان و ماشین، به تعارض بنیادین میان دو منطق ادراکی اشاره دارد: منطق انسانی که بر شهود، تجربهزیسته، اخلاق، و زمینههای دینی و فرهنگی استوار است، در برابر منطق ماشین که بر دادهمحوری، محاسبهپذیری و بهینهسازی ریاضی تکیه دارد. این تقابل زمانی پدیدار میشود که تصمیمگیریهای ماشینی به حوزههایی وارد میشوند که بهطور سنتی مختص قضاوت انسانی بودهاند—مانند قضاوت اخلاقی، عدالت، یا زیباییشناسی. الگوریتمها در این زمینهها نه فقط ابزار، بلکه رقیب معناشناختی انسان میشوند. در این وضعیت، انسان با موجودیتی مواجه است که نه میتوان آن را بهتمامی درک کرد، نه بهطور کامل کنترل. «تقابل شناختی» بهویژه در مواردی چون داوری خودکار، نظامهای پیشنهادگر محتوا، یا تحلیل رفتاری در پلتفرمهای آموزشی یا قضایی، بهوضوح قابل مشاهده است. این تقابل میتواند منجر به بحران اعتماد، احساس بیگانگی، و ازهمگسیختگی درک انسان از خود شود، چرا که مرجعیت شناختی در حال انتقال از انسان به ماشین است. در چنین شرایطی، سؤال اصلی دیگر صرفاً نحوهی استفاده از AI نیست، بلکه بازتعریف جایگاه انسان در نظم جدید شناختیست.


بخش دوم: فرصتهای هوش مصنوعی – پیشرفت یا استعمار دیجیتال؟

در نگاه نخست، هوش مصنوعی ابزاری بیبدیل برای پیشرفت تمدنیست:

  1. پزشکی دقیق:  ابزارهایی چون IBM Watson یا Google DeepMind در حال انقلابی در تشخیص زودهنگام بیماریها هستند. اما این انقلاب همزمان مالکیت دادههای زیستی انسان را نیز به شرکتهای فراملیتی واگذار میکند. پرسش مهم این است: چه کسی صاحب "داده زیستی" (Bio-Data)  است؟
  2. اقتصاد هوشمند؟ یا اقتصاد متمرکز؟ در حالی که شرکتهایی چون Amazon از AI برای بهینهسازی لجستیک بهره میبرند، کنترل کامل زنجیره تأمین جهانی توسط تعداد محدودی شرکت در حال وقوع است. (Zuboff, 2019) هوش مصنوعی در حال بازآرایی تمرکز ثروت و قدرت در مقیاسی بیسابقه است.
  3. آموزش شخصیسازیشده به نفع هوش مصنوعی:  اگرچه ابزارهایی چون Khan Academy یادگیری را شخصیسازی میکنند، اما منطق نهفته در آنها—بهینهسازی عملکرد آموزشی بر اساس معیارهای کمّی—ممکن است به زوال تفکر انتقادی منجر شود.
  4. محیط زیست:  پروژههایی مانند الگوریتم صرفهجویی انرژی Google DeepMind (2023) مؤثرند، اما باید از خود پرسید آیا AI راهحل واقعی بحرانهای زیستمحیطی است یا صرفاً تسکینی برای ادامهی وضع موجود؟ یا حتی بدتر سرپوشی برای بهره برداری و بهره کشی هوشمندانه تر از منابع زیست محیطی؟!

بخش سوم: تهدیدات همزیستی - استعمار الگوریتمی و بحران اخلاق

  1. بیکاری ساختاری:  بر خلاف انقلابهای صنعتی پیشین، هوش مصنوعی نه صرفاً جایگزین نیروی کار جسمی، بلکه رقیب توان شناختی انسان است. گزارش WEF (2023) نشان میدهد تا سال 2030، نه تنها مشاغل عمومی و تکرار پذیر، بلکه حتی مشاغل تحلیلی، خلاقانه و هنری، حقوقی و پزشکی نیز در خطر جدی جایگزینی هستند.
  2. بازتولید تبعیض:  الگوریتمها نهفقط سوگیریهای موجود را بازتولید میکنند بلکه آنها را نهادینه و تقویت نیز میکنند. کتاب: الگوریتمهای ستم Algorithms of Oppression   اثر: سافیا نوبل Safiya Nobl، نشان میدهد چگونه موتورهای جستوجو تبعیض نژادی را بازتولید میکنند (Noble, 2018).
  3. تهدید امنیتی ترکیبی:  در دنیای جدید، حمله سایبری به یک زیرساخت شهری توسط یک AI مستقل، صرفاً یک سناریوی تخیلی نیست. پروژههای نظامی مانند Project Maven نشان دادهاند که AI میتواند بهعنوان سلاح نیز عمل کند. ((Project Maven  (پروژه ماون) یک ابتکار نظامی پیشرفته توسط وزارت دفاع آمریکا (پنتاگون) است که از هوش مصنوعی (AI) و یادگیری ماشینی (ML) برای تجزیه و تحلیل دادههای پهپادی و تصاویر ماهوارهای استفاده میکند. این پروژه نشان میدهد که چگونه فناوریهای هوش مصنوعی میتوانند در عملیاتهای نظامی بهکار گرفته شوند و حتی به عنوان سلاح مورد استفاده قرار بگیرند. ))
  4. نقض حریم خصوصی در مقیاس فراگیر:  ChatGPT و سایر ابزارهای مشابه، از دادههای عظیم کاربران برای آموزش خود بهره میگیرند. این چرخه باعث خلق «الگوریتمهای خودتعلیمدیده» میشود که نظارتناپذیر و غیرقابل مهار هستند (Zuboff, 2019).

بخش چهارم: چالشها – از عدم شفافیت تا بحران مشروعیت

  1. اخلاق در سایهٔ پیچیدگی: پیچیدگی تصمیمگیری AI، مفهوم مسئولیت را دچار بحران کرده است. در تصادف خودروی خودران، مقصر کیست؟ طراح الگوریتم؟ استفادهکننده؟ یا الگوریتم خودمختار؟
  2. شکاف دیجیتال و استعمار هوش مصنوعی:  پروژههای  OpenAI،Google  و xAI عمدتاً در غرب توسعه مییابند، اما اثرات جهانی دارند. آیا ملتهای جنوب جهانی صرفاً مصرفکننده خواهند ماند؟ یا قربانی استخراج داده و "مواد خام شناختی" (Cognitive Raw Materials) خواهند شد؟
  3. بحران اعتماد: با گسترش دیپ فیکها مردمی که درک دقیقی از AI ندارند و امروز به سوی آن حمله ور هستند دچار بحران باور یا بحران اعتماد به محتوا خواهند شد.
  4. مرگ شفافیت:  الگوریتمهای یادگیری عمیق (Deep Learning) نهفقط غیرقابل فهم بلکه غیرقابل پیشبینی نیز هستند. این «جعبه سیاه» تهدیدی علیه اصل شفافیت در تصمیمگیریهای عمومیست.

بخش پنجم: راهکارهای پیشنهادی – آیا هنوز میتوان کنشگری کرد؟

  1. اخلاق الگوریتمی جهانی و الزامی:  تدوین اصول الزامآور جهانی فراتر از توصیهنامهها. شاید قانون AI اتحادیه اروپا (AI Act, 2024) گامی مهم بود، اما کافی نیست مگر با حمایت نهادهای بینالمللی و مشارکت فعال کشورهای دیگر، چرا که قطعا در این اصول ارزش های غربی و محافظت از آنها مد نظر بوده است.
  2. آموزش انتقادی، نه صرفاً فنی:  آموزش عمومی باید نهفقط بر مهارتهای فنی بلکه بر سواد الگوریتمی، فلسفه فناوری و قدرت دیجیتال متمرکز شود.
  3. دسترسی برابر به زیرساختها و دادهها:  باید مدلهای باز (Open Source) و مشارکتی در AI توسعه یابد تا همه کشورها حق مشارکت در توسعه و هدایت این فناوری را داشته باشند.
  4. سازمان های مردم نهاد و عدم کار کرد نهادهای نظارتی جهانی:  سازمان ملل و سازمان های جهانی اساسا تحت سیطره قدرت های بزرگ مادی جهان هستند، پس قوانین شان راحلی برای کشورهای مستقل نخواهد بود، باید کشورهای مستقل برای حمایت از  هویت فرهنگی و دینی و ملی شان هوش مصنوعی را در قالب های مختلف مورد پایش منظم قرار دهند و از ابزارهای حقوقی و فرهنگی تا نظامی و بخش های مردمی مستقل و دینی بهره ببرند. یعنی باید تمام فعالیت های هوش مصنوعی زیر ذره بین های تمام ارکان حاکمیتی باشد. البته قوانین جامع و نظارت جامع بر روند تمام این فعالیت ها باید تحت اختیار یک سازمان قدرتمند باشد، اما این سازمان و ساختارش باید طوری باشد که دچار خودکامگی و انحصار و  تمامیت خواهی تکنولوژیک نشود. این بخش کار واقعا حرکت در لبه تیغ است.

بخش ششم: نمونههای پیچیده و پارادوکسیکال همزیستی

Grok  ساختهی xAI مثالی از ترکیب تحلیل داده با شهود انسانمحور است. اما در عین حال، این ابزار میتواند به الگوریتمی برای فیلتر و قالببندی تفکر عمومی تبدیل شود. این دوگانگی در بیشتر ابزارهای هوش مصنوعی مشاهده میشود: Google Translate  میتواند تسهیلکننده گفتوگو باشد، اما در عین حال حامل ارزشهای زبانی و فرهنگی خاص نیز هست، و البته دیتای عظیمی که از زبانها مختلف دریافت کرده به عنوان خوراکی انبوه، از داده ها، برای توسعه الگوریتم های زبانی اش بهره گرفته است.


نتیجهگیری

هوش مصنوعی نهتنها واقعیتی فناورانه، بلکه نیرویی ایدئولوژیک و قدرتمند در بازتعریف هستی انسان است. همانگونه که ایزاک آسیموف اشاره کرده بود، کنترل و هدایت هوش مصنوعی نیازمند اخلاق، آگاهی، و نظارت است. اما اکنون زمان آن فرارسیده است که از «همزیستی منفعل» عبور کنیم و بهسمت «بازآفرینی نقش انسان» در اکوسیستم شناختی جدید حرکت کنیم. آینده به ما تعلق دارد، تنها اگر بتوانیم قواعد بازی را به نفع انسان بازنویسی کنیم.

ما ابزارهایی میسازیم و سپس آنها ما را بازتعریف میکنند.     Marshall McLuhan

سهیل سلیمی


منابع:

•          Asimov, I. (1950). I, Robot. Gnome Press.

•          Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

•          McCarthy, J. (1956). The Dartmouth Conference Proposal. Dartmouth College.

•          Musk, E. (2018). Interview with Axios on HBO.

•          Minsky, M. (1986). The Society of Mind. Simon & Schuster.

•          IBM. (2023). Watson Health Annual Report.

•          Amazon. (2020). Facial Recognition Technology Report.

•          Amazon. (2024). Logistics Optimization Report.

•          OECD. (2023). Future of Work Report.

•          Cybersecurity Ventures. (2022). AI in Cybercrime Report.

•          Reuters. (2023). Italy’s ChatGPT Ban.

•          UNESCO. (2024). AI Development in Africa Report.

•          Gallup. (2023). Public Perception of AI Survey.

•          MIT Technology Review. (2023). DeepFake Technology Analysis.

•          European Commission. (2024). AI Act Legislation.

•          Coursera. (2024). AI Education Impact Report.

•          UN. (2023). AI Governance Committee Report.

  • Bryson, J. (2018). The Artificial Intelligence of the Ethics of Artificial Intelligence: An Introductory Overview for Law and Regulation. SSRN.
  • Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  • World Economic Forum. (2023). Future of Jobs Report.


آیا صندوق بین‌المللی پول، بانک جهانی، FATF، CFT و کنوانسیون پالرمو اقتصاد ایران را به نابودی می‌کشانند؟

خودکشی اقتصادی

ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز

مقدمه

در دهه‌های اخیر، نهادهای بین‌المللی مانند صندوق بین‌المللی پول (IMF)، بانک جهانی (World Bank)، و گروه ویژه اقدام مالی (FATF) به همراه کنوانسیون‌هایی مانند پالرمو و CFT به عنوان ابزارهای تنظیم‌کننده اقتصاد جهانی مطرح شده‌اند. این نهادها و کنوانسیون‌ها، ظاهرا! با هدف ایجاد شفافیت مالی، مبارزه با جرایم سازمان‌یافته، و ارتقای همکاری اقتصادی بین‌المللی فعالیت می‌کنند. با این حال، در مورد ایران، این نهادها و تعهدات بین‌المللی به دلیل شرایط خاص سیاسی و اقتصادی این کشور، از جمله تحریم‌های گسترده، موضوع بحث‌های داغ و انتقادات شدیدی بوده است. این تحلیل به بررسی این ادعا می‌پردازد که آیا این نهادها و کنوانسیون‌ها می‌توانند اقتصاد ایران را به نابودی بکشانند یا خیر.

۱. صندوق بین‌المللی پول و بانک جهانی: ابزارهای نفوذ اقتصادی یا فرصت‌های توسعه؟

صندوق بین‌المللی پول و بانک جهانی به عنوان نهادهایی که وام و کمک‌های فنی ارائه می‌دهند، اغلب با شرط اصلاحات ساختاری اقتصادی (Structural Adjustment Programs) عمل می‌کنند. این اصلاحات ممکن است شامل کاهش یارانه‌ها، خصوصی‌سازی، و آزادسازی بازارها باشد که در بسیاری از کشورها منجر به افزایش نابرابری و فشار بر اقشار کم‌درآمد شده است. در مورد ایران، این نهادها به دلیل تحریم‌های آمریکا و نفوذ این کشور در ساختار تصمیم‌گیری آن‌ها (به‌ویژه با حق وتوی آمریکا در IMF) به ابزاری برای فشار بر اقتصاد ایران تبدیل شده‌اند.

برای مثال، دریافت وام از IMF یا بانک جهانی قطعا می‌تواند ایران را ملزم به ارائه اطلاعات اقتصادی حساس و پذیرش سیاست‌هایی کند که با منافع ملی همخوانی ندارند. این سیاست‌ها بی تردید به تضعیف استقلال اقتصادی ایران منجر میشوند، به‌ویژه در شرایطی که تحریم‌ها دسترسی به منابع ارزی را محدود کرده‌اند. در واقع این نهادها سرابی نشان میدهند که اقتصاد تشنه ی ایران را به آن سمت بکشانند و در نهایت فروپاشی اقتصاد را تسریع نمایند.

۲. FATF و کنوانسیون‌های پالرمو و CFT: شفافیت یا خودتحریمی؟

اف ای تی اف  با ارائه ۴۰ توصیه برای مبارزه با پول‌شویی و ۹ توصیه برای مقابله با تأمین مالی تروریسم، کشورها را ملزم به شفافیت مالی و همکاری بین‌المللی می‌کند. کنوانسیون‌های پالرمو و سی اف تی نیز به ترتیب بر جرم‌انگاری جرایم سازمان‌یافته و تأمین مالی تروریسم تمرکز دارند. ایران از سال ۲۰۲۰ به دلیل عدم تصویب این کنوانسیون‌ها در لیست سیاه اف ای تی اف قرار گرفته که تبعاتی  مانند قطع ارتباطات بانکی بین‌المللی، افزایش هزینه‌های مبادلات مالی، و کاهش اعتبار بین‌المللی را به دنبال داشته است.  پذیرش این کنوانسیون‌ها به معنای افشای اطلاعات حساس مالی ایران و محدود کردن توانایی این کشور برای دور زدن تحریم‌هاست. به عنوان مثال، الزام به شفافیت تراکنش‌های مالی ممکن است فعالیت‌های مالی نهادهایی مانند سپاه پاسداران یا گروه‌های مورد حمایت ایران (مانند حزب‌الله) را که در لیست تحریم‌های غربی قرار دارند، مختل کند. همچنین، تعریف متفاوت ایران و کشورهای غربی از "تروریسم"  منجر به سوءاستفاده از این کنوانسیون‌ها برای فشار بر ایران شده است. در شرایطی که غرب تمام قد علیه ایران، انواع جنگ های نظامی، فرهنگی، شناختی، اقتصادی و... را رقم زده است، پر واضح است که این شفافیت می‌تواند به ابزاری برای شناسایی و مسدود کردن کامل مسیرهای مالی ایران تبدیل شود. پس پذیرش چنین استعماری یعنی خود تحریمی و خودکشی اقتصادی!

۳. پیامدهای اقتصادی و سیاسی

الف) تضعیف استقلال اقتصادی: پذیرش الزامات این نهادها و کنوانسیون‌ها می‌تواند ایران را به سمت همسویی با استانداردهای غربی سوق دهد که با منافع ملی ایران در تضاد هستند.

ب) افزایش فشار تحریم‌ها: قرار گرفتن ایران در لیست سیاه FATF به تحریم‌های آمریکا مشروعیت بین‌المللی می‌بخشد و حتی کشورهای غیرمتخاصم را از همکاری مالی با ایران بازمی‌دارد.

ج) محدودیت در دور زدن تحریم‌ها: شفافیت مالی مورد تأکید FATF و کنوانسیون‌ها، توانایی ایران برای استفاده از روش‌های غیررسمی در تجارت بین‌المللی (مانند فعالیت‌های پوششی) را کاملا نابود می کند. این محدودیت در شرایط تحریم‌های شدید فعلی، به قطع و نه کاهش منابع ارزی و نابودی اقتصاد منجر می‌شود.

د) مزایای احتمالی همکاری: پذیرش این استانداردها می‌تواند به عادی‌سازی روابط مالی ایران با جهان و کاهش ریسک‌های اقتصادی در کوتاه مدت کمک کند. با این حال، این مزایا در شرایط تحریم‌های گسترده آمریکا و کنترل صد درصدی آمریکا بر این نهادها به سلطه غرب، منجر خواهد شد. و بعد از دستیابی به تمام اطلاعات مورد نیازش برای نابود کردن اقتصاد ایران، بلافاصله هم عادی سازی مقطعی را نیز از بین خواهد برد و بلافاصله با مسدودسازی گسترده ی دارای خای ایران تمام آنچه که ممکن است داده باشد و حتی صدها برابر بیشتر را پس خواهد گرفت.

نتیجه: از آنجا که این ترفندها تیغی دولبه هستند پذیرش و عدم پذیرش آنها اقتصاد ایران را نابود می کند و اینجاست که اهمیت اقتصاد مقاومتی و مقاوم سازی اقتصاد و رویکرد درون گرا در اقتصاد اهمیت می یابد که همواره مورد غفلت واقع شده است. این همان دو گانه دفاع یا تسلیم است. اقتصاد مقاوم و مدافع ایران یا اقتصاد تسلیم و نابود شده ای که با پذیرش این قواعد استعماری برده وار باید به خواسته های دشمن تن در دهد.

تعریف مفاهیم: (تمام این نهادها و قواعد زیر نظر آمریکایی‌ها تهیه ، تدوین و اعمال می‌شوند.)

  1. صندوق بین‌المللی پول (International Monetary Fund - IMF):
    صندوق بین‌المللی پول یک سازمان بین‌المللی است که در سال ۱۹۴۴ در کنفرانس برتون وودز تأسیس شد. هدف اصلی آن ارتقای همکاری مالی بین‌المللی، تثبیت نرخ‌های ارز، تسهیل تجارت جهانی، و کمک به کشورهای عضو برای مدیریت کسری تراز پرداخت‌ها است. این نهاد از طریق ارائه وام و مشاوره اقتصادی به کشورهای عضو، بر سیاست‌های اقتصادی آن‌ها تأثیر می‌گذارد.
  2. بانک جهانی (World Bank):
    بانک جهانی مجموعه‌ای از دو نهاد اصلی (بانک بین‌المللی ترمیم و توسعه و انجمن توسعه بین‌المللی) است که با هدف کاهش فقر و حمایت از توسعه اقتصادی از طریق ارائه وام و کمک‌های فنی به کشورهای در حال توسعه فعالیت می‌کند. این نهاد اغلب پروژه‌های زیرساختی و توسعه‌ای را تأمین مالی می‌کند.
  3. گروه ویژه اقدام مالی (Financial Action Task Force - FATF):
    FATF
    یک سازمان بین‌دولتی است که در سال ۱۹۸۹ توسط گروه G7 تأسیس شد. هدف آن تدوین استانداردهای جهانی برای مبارزه با پول‌شویی (Money Laundering) و تأمین مالی تروریسم (Terrorism Financing) است. این سازمان توصیه‌هایی ارائه می‌دهد که کشورهای عضو باید در قوانین داخلی خود اجرا کنند. عدم رعایت این استانداردها می‌تواند منجر به قرار گرفتن در لیست سیاه FATF شود که تبعات اقتصادی سنگینی دارد.
  4. کنوانسیون مبارزه با تأمین مالی تروریسم (Counter-Terrorism Financing - CFT):
    CFT
    کنوانسیونی بین‌المللی است که در سال ۱۹۹۹ توسط سازمان ملل متحد به تصویب رسید. این کنوانسیون کشورها را ملزم می‌کند تا اقداماتی برای جلوگیری از تأمین مالی فعالیت‌های تروریستی انجام دهند، از جمله جرم‌انگاری تأمین مالی تروریسم و ایجاد سیستم‌های نظارتی بر تراکنش‌های مالی.
  5. کنوانسیون پالرمو (Palermo Convention):
    کنوانسیون سازمان ملل متحد برای مبارزه با جرایم سازمان‌یافته فراملی در سال ۲۰۰۰ در پالرمو، ایتالیا به تصویب رسید. این کنوانسیون کشورها را به جرم‌انگاری فعالیت‌هایی مانند پول‌شویی، فساد مالی، و مشارکت در گروه‌های مجرمانه سازمان‌یافته ملزم می‌کند و همکاری بین‌المللی در این زمینه را تقویت می‌کند
    .

سایبرنتیک و هوش مصنوعی: مسئله این است؛ برده یا ارباب!

The Machine is a Great Slave But a Bad Master. Norbert Wiener

نوربرت وینر در کتاب سایبرنتیک می نویسند:
ماشین بنده ای عالی ست اما اربابی بد! در این متن به این نگاه وینر می پردازم که در آینده ای نزدیک به چالشی میان انسان و ماشین بدل خواهد شد.

سایبرنتیک و هوش مصنوعی: ماشین، بنده‌ای عالی‌ست اما اربابی بد !

ارائه دهند: سهیل سلیمی   (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

مقدمه

سایبرنتیک، به‌عنوان دانش کنترل و اعمال قدرت در انسان و ماشین، علمی میان‌رشته‌ای است که به مطالعه‌ی مکانیزم‌های تنظیم، بازخورد، و ارتباطات در سیستم‌های زیستی و مصنوعی می‌پردازد. این رشته، که توسط نوربرت وینر در دهه‌ی 1940 پایه‌گذاری شد، از واژه‌ی یونانی "kybernetes" به معنای «هدایت‌گر» یا «فرماندار» گرفته شده و بر چگونگی مدیریت و هدایت سیستم‌ها تمرکز دارد. سایبرنتیک به ما امکان می‌دهد تا تعادل و هماهنگی بین اجزای یک سیستم، چه انسانی و چه ماشینی، را درک کرده و از آن برای بهبود عملکرد استفاده کنیم.

هوش مصنوعی (AI)، در عین حال، شاخه‌ای از علوم کامپیوتر است که به خلق سیستم‌هایی اختصاص دارد که قادر به انجام وظایف شناختی مانند یادگیری، استدلال، حل مسئله، و تصمیم‌گیری هستند، وظایفی که به‌طور سنتی به هوش انسانی نسبت داده می‌شوند. هوش مصنوعی از اصول سایبرنتیک، به‌ویژه مفاهیم بازخورد و خودتنظیمی، برای توسعه‌ی الگوریتم‌هایی بهره می‌برد که می‌توانند از داده‌ها یاد بگیرند و به‌صورت خودکار عملکرد خود را بهبود بخشند. این فناوری، از تشخیص الگوهای پیچیده در داده‌ها تا خودمختاری در سیستم‌های پیشرفته، کاربردهای گسترده‌ای دارد.

نوربرت وینر، بنیان‌گذار سایبرنتیک، در جمله‌ی معروف خود اظهار داشت: «ماشین، بنده‌ای عالی‌ست اما اربابی بد.» این جمله نه‌تنها به نقش دوگانه‌ی فناوری در خدمت‌رسانی و سلطه اشاره دارد، بلکه چارچوبی فلسفی و عملی برای درک تعامل انسان و ماشین ارائه می‌دهد. این پژوهش به بررسی ارتباط سایبرنتیک و هوش مصنوعی، نقش ماشین به‌عنوان ابزار خدمت‌رسان، و خطرات بالقوه‌ی تبدیل آن به ارباب می‌پردازد.

سایبرنتیک: چارچوبی برای فهم سیستم‌های کنترلی

سایبرنتیک، با تمرکز بر کنترل و اعمال قدرت، اصول مشترکی بین سیستم‌های زیستی (مانند مغز انسان) و سیستم‌های مصنوعی (مانند ماشین‌های محاسباتی) ایجاد کرد. این علم بر مفاهیمی چون بازخورد (Feedback)، خودتنظیمی (Self-regulation)، و ارتباط بین اجزای یک سیستم تأکید دارد. برای مثال، مکانیزم بازخورد منفی در سایبرنتیک به سیستم‌ها اجازه می‌دهد تا با تنظیم خودکار، به حالت تعادل برسند. این مفهوم بعدها به یکی از پایه‌های توسعه‌ی هوش مصنوعی تبدیل شد.

هوش مصنوعی: از ابزار سایبرنتیک تا ماشین‌های خودمختار

هوش مصنوعی، با بهره‌گیری از اصول سایبرنتیک، سیستم‌هایی خلق کرده که قادر به انجام وظایف پیچیده هستند. شبکه‌های عصبی مصنوعی و الگوریتم‌های یادگیری عمیق، که از داده‌های عظیم برای بهبود عملکرد خود استفاده می‌کنند، نمونه‌هایی از این پیشرفت‌ها هستند. با این حال، پیشرفت هوش مصنوعی چالش‌هایی را نیز به همراه داشته است. جمله‌ی وینر به ما هشدار می‌دهد که اگرچه ماشین‌ها می‌توانند بندگان کارآمدی باشند، اما بدون کنترل مناسب، ممکن است به اربابانی تبدیل شوند که تصمیم‌گیری‌های انسان را تحت‌الشعاع قرار دهند. برای مثال، سیستم‌های هوش مصنوعی خودمختار در حوزه‌هایی مانند خودروهای خودران یا سیستم‌های مالی می‌توانند بدون نظارت کافی، به نتایج غیرمنتظره یا حتی خطرناک منجر شوند.

ماشین به‌عنوان بنده: کاربردهای سایبرنتیک و هوش مصنوعی

ماشین‌ها، هنگامی که به‌عنوان ابزار تحت کنترل انسان عمل می‌کنند، قابلیت‌های بی‌نظیری ارائه می‌دهند. در حوزه‌ی پزشکی، الگوریتم‌های هوش مصنوعی با تحلیل داده‌های تصویربرداری، تشخیص بیماری‌هایی مانند سرطان را با دقتی بالاتر از پزشکان انسانی انجام می‌دهند. در صنعت، سیستم‌های سایبرنتیک با استفاده از بازخورد و خودتنظیمی، فرآیندهای تولید را بهینه‌سازی کرده و هزینه‌ها را کاهش داده‌اند. این کاربردها نشان‌دهنده‌ی نقش ماشین به‌عنوان «بنده‌ای عالی» هستند که در خدمت اهداف انسانی عمل می‌کند.

خطر تبدیل ماشین به ارباب

با وجود مزایای فراوان، پیشرفت سریع هوش مصنوعی و پیچیدگی روزافزون سیستم‌های سایبرنتیک خطراتی را نیز به همراه دارد. یکی از نگرانی‌های اصلی، کاهش کنترل انسانی بر سیستم‌های خودمختار است. برای مثال، الگوریتم‌های یادگیری ماشین که در شبکه‌های اجتماعی استفاده می‌شوند، می‌توانند با تقویت محتوای جنجالی یا اطلاعات نادرست، به‌صورت غیرمستقیم رفتارهای اجتماعی را هدایت کنند. این پدیده نشان‌دهنده‌ی تبدیل شدن ماشین از یک ابزار خدمت‌رسان به نیرویی است که می‌تواند بر تصمیم‌گیری‌های انسانی تأثیر منفی بگذارد.

علاوه بر این، مسائل اخلاقی مرتبط با هوش مصنوعی، مانند سوگیری در الگوریتم‌ها یا فقدان شفافیت در تصمیم‌گیری‌های سیستم‌های خودمختار، چالش‌هایی هستند که نیاز به نظارت دقیق دارند. وینر در آثار خود بر اهمیت حفظ کنترل انسانی بر ماشین‌ها تأکید کرده و هشدار داده بود که عدم توجه به این موضوع می‌تواند به سلطه‌ی ماشین‌ها منجر شود.

راهکارها: حفظ تعادل بین انسان و ماشین

برای جلوگیری از تبدیل ماشین به ارباب، رویکردهای زیر پیشنهاد می‌شود:

  1. نظارت انسانی: طراحی سیستم‌های هوش مصنوعی باید به‌گونه‌ای باشد که امکان دخالت و نظارت انسانی در تصمیم‌گیری‌های حیاتی حفظ شود.
  2. شفافیت و پاسخگویی: الگوریتم‌های هوش مصنوعی باید قابل‌تفسیر باشند تا کاربران بتوانند دلایل تصمیم‌گیری‌های آنها را درک کنند.
  3. آموزش و آگاهی: توسعه‌دهندگان و کاربران باید از اصول سایبرنتیک و محدودیت‌های هوش مصنوعی آگاه باشند تا از کاربردهای نادرست جلوگیری شود.
  4. قوانین و مقررات: تدوین چارچوب‌های قانونی برای استفاده از هوش مصنوعی می‌تواند از سوءاستفاده‌های احتمالی جلوگیری کند.

نتیجه‌گیری

جمله‌ی نوربرت وینر نه‌تنها یک هشدار فلسفی، بلکه یک راهنمای عملی برای توسعه و استفاده از فناوری‌های سایبرنتیک و هوش مصنوعی است. سایبرنتیک، به‌عنوان دانش کنترل و اعمال قدرت در انسان و ماشین، چارچوبی برای درک تعاملات پیچیده‌ی این دو ارائه می‌دهد، در حالی که هوش مصنوعی ابزارهایی قدرتمند برای حل مسائل پیچیده فراهم می‌کند. با این حال، برای بهره‌برداری از مزایای این فناوری‌ها و جلوگیری از خطرات آنها، باید تعادل بین کنترل انسانی و خودمختاری ماشین حفظ شود. ماشین‌ها باید به‌عنوان بندگان انسان باقی بمانند، نه اربابانی که بر او مسلط شوند. سهیل سلیمی

منابع

  1. Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  2. Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach. Pearson.
  3. Ashby, W. R. (1956). An Introduction to Cybernetics. Chapman & Hall.

خلاصه کتاب قدرت رایانه و عقل انسانی – از قضاوت تا محاسبه

خلاصه کتاب: قدرت رایانه و عقل انسانی – از قضاوت تا محاسبه

نویسنده: سهیل سلیمی – پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی / مشاور رسانه‌ای آزمایشگاه فضای سایبر دانشگاه تهران / نویسنده و فیلمساز


مقدمه تحلیلی

در عصر انفجار محاسبات و رشد افسارگسیخته هوش مصنوعی، تمایز میان «محاسبه» و «قضاوت» به یکی از بنیادین‌ترین خطوط گسل در اندیشه فلسفی و تکنولوژیک معاصر بدل شده است. کتاب "قدرت رایانه و عقل انسانی: از قضاوت تا محاسبه" نوشته ژوزف وایزنباوم (Joseph Weizenbaum)، که در سال ۱۹۷۶ منتشر شد، یکی از نخستین و عمیق‌ترین تلاش‌ها برای ترسیم این خط تمایز است. وایزنباوم، برخلاف بسیاری از پیش‌کسوتان علم رایانه، نگاهی انتقادی به توانایی‌های فزاینده رایانه‌ها دارد و نسبت به واگذاری مسئولیت‌های انسانی به سامانه‌های محاسباتی هشدار می‌دهد.

او که خود خالق برنامه معروف ELIZA در دهه ۱۹۶۰ بود، در این اثر با صراحت اعلام می‌کند که انسان نه‌تنها نباید مسئولیت قضاوت اخلاقی را به رایانه‌ها واگذارد، بلکه اساساً این واگذاری از بنیان فاقد مشروعیت اخلاقی، هستی‌شناختی و معرفتی است. کتاب او نه یک متن فنی صرف، بلکه مانیفستی است اخلاقی–فلسفی علیه «تمامیت‌خواهی تکنیکی» که در آن علم رایانه در پی بلعیدن مفاهیم انسانی چون فهم، مسئولیت، معنا و خرد است. این نوشتار تلاش می‌کند ضمن ارائه خلاصه‌ای دقیق و ساخت‌یافته از محتوای کتاب، تحلیل انتقادی‌ای از نسبت میان آینده هوش مصنوعی و خطرهای ناشی از آن در پرتو اندیشه‌های وایزنباوم به دست دهد.


خلاصه فصل به فصل کتاب

فصل ۱: ابزارها و انسان (Tools and Human Beings)

در نخستین فصل، وایزنباوم به نسبت بنیادین انسان و ابزار می‌پردازد. او با الهام از سنت‌های پدیدارشناسی و اگزیستانسیالیسم، بر این نکته تأکید می‌کند که ابزار صرفاً امتداد دست انسان نیست، بلکه شیوه‌ای است که انسان به واسطه آن جهان را تجربه می‌کند. وایزنباوم هشدار می‌دهد که هرگاه ابزار، خصوصاً ابزارهای محاسباتی، تبدیل به واسطه اصلی در فهم و تفسیر واقعیت شوند، انسان در خطر بیگانگی با جهان و با خویشتن خویش قرار می‌گیرد. او استدلال می‌کند که فناوری‌های دیجیتال می‌توانند انسان را از مسئولیت اخلاقی و قضاوت شخصی تهی کنند، اگر تنها به کارایی و سودمندی آن‌ها اتکا شود.

فصل ۲: قدرت رایانه (The Power of the Computer)

در این فصل، نویسنده به توضیح قدرت فنی رایانه‌ها در انجام محاسبات پیچیده می‌پردازد اما به سرعت از تأکید صرف بر قدرت عددی فاصله می‌گیرد و می‌گوید: قدرت رایانه، قدرتی از سنخ درک، نیت، یا مسئولیت‌پذیری نیست. وایزنباوم اشاره می‌کند که جامعه علمی و حتی عموم مردم به سادگی در دام «ابهت عددی» می‌افتند و هر آن‌چه خروجی سیستم محاسباتی باشد را دارای ارزش معرفتی و حتی اخلاقی تلقی می‌کنند. این همان خطری است که او با واژه‌هایی چون "محاسبه‌زدگی" (calculative thinking) توصیف می‌کند.

فصل ۳: تصمیم‌گیری و انتخاب (Decision and Choice)

در این فصل، تمایزی کلیدی میان «تصمیم‌گیری» به‌مثابه خروجی فرایندهای الگوریتمیک، و «انتخاب» به‌مثابه کنش اخلاقی آگاهانه مطرح می‌شود. وایزنباوم می‌نویسد که انتخاب انسانی همواره با ارزش‌گذاری، پیش‌فرض‌های فرهنگی، مسئولیت و پاسخ‌گویی گره خورده است. در حالی که ماشین‌ها، حتی در پیچیده‌ترین اشکال یادگیری ماشین، صرفاً گزینه‌ای را براساس داده‌های ورودی بهینه می‌کنند، انسان‌ها قادر به شک‌کردن، پرسیدن و رد کلیت یک نظام هستند.

فصل ۴: پروژه الایزا (ELIZA)

اینجا وایزنباوم از تجربه شخصی‌اش در ساخت برنامه گفت‌وگوی ELIZA پرده‌برداری می‌کند؛ برنامه‌ای که قرار بود نمایشی از تعامل زبانی باشد، اما به سرعت تبدیل شد به پروژه‌ای که مردم با آن رابطه عاطفی برقرار کردند. وایزنباوم از شگفتی‌اش نسبت به کاربران می‌گوید که چگونه باور داشتند با یک موجود هوشمند در تعامل‌اند. از نظر او، این واکنش‌ها نه به هوش ELIZA بلکه به اسقاط عقلانی جامعه‌ای بازمی‌گردد که معیارهای تشخیص میان ظاهر و باطن، اصالت و سطحی‌نگری را از دست داده است. او می‌نویسد: «حتی دانشمندان هم مرز خیال و واقعیت را گم کرده‌اند.»

فصل ۵: اعتماد به فناوری و زوال ارزش‌ها (Trust in Technology and the Decline of Values)

وایزنباوم در این فصل وارد مباحث اخلاقی‌تر می‌شود. او معتقد است که استفاده گسترده از رایانه‌ها در تصمیم‌گیری‌های کلان – از پزشکی گرفته تا سیاست و اقتصاد – ممکن است جامعه را از قابلیت‌های بنیادین اخلاقی‌اش محروم کند. وقتی الگوریتم‌ها به قاضی، پزشک، معلم و مشاور تبدیل می‌شوند، نقش همدلی، اخلاق موقعیتی و درک زمینه‌ای به حاشیه می‌رود. این نوع اتوماسیون، او می‌گوید، همان چیزی است که «مرگ تدریجی قضاوت انسانی» را رقم خواهد زد.

فصل ۶: اخلاق و تکنولوژی (Ethics and Technology)

در این فصل، وایزنباوم از نیاز به اخلاق تکنولوژی‌محور سخن می‌گوید. او استدلال می‌کند که توسعه فناوری بدون گفت‌وگوهای اخلاقی و فرهنگی، منجر به شکل‌گیری یک ساختار تکنوکراتیک اقتدارگرا خواهد شد. وایزنباوم نقش روشنفکران، دانشمندان و فلاسفه را حیاتی می‌داند و بر این نکته پای می‌فشرد که علم، به‌ویژه علوم رایانه، باید از «خودبسندگی معرفتی» دست کشیده و به سمت گفت‌وگو با حوزه‌های انسانی‌تر میل کند.

فصل ۷: چشم‌انداز آینده هوش مصنوعی (AI and the Future of Humanity)

آخرین فصل کتاب، اوج هشدارهای وایزنباوم است. او می‌گوید فناوری، اگر به تنهایی و بدون ملاحظات اخلاقی رشد کند، به جایی می‌رسد که نه‌تنها انسان را بازتولید نمی‌کند، بلکه او را از درون تهی می‌سازد. او با پیش‌بینی ظهور سیستم‌هایی که تصمیم‌گیری‌های اخلاقی را برعهده خواهند گرفت، نسبت به ازبین‌رفتن توانایی انسان برای قضاوت، تردید و همدلی هشدار می‌دهد. به باور او، جامعه‌ای که به ماشین‌ها اعتماد مطلق دارد، در نهایت به اسارت ابزار خود درمی‌آید.


جملات کلیدی کتاب (با ترجمه)

  • "The computer programmer is a creator of universes for which he alone is the lawgiver. No playwright, no stage director, no emperor, however powerful, has ever exercised such absolute authority." ​«برنامه‌نویس رایانه، خالق جهانی است که در آن تنها او قانون‌گذار است. هیچ نمایشنامه‌نویس، کارگردان یا امپراتوری، هرچقدر هم قدرتمند، هرگز چنین اختیاری نداشته است.»

  • "Man is not a machine... although man most certainly processes information, he does not necessarily process it in the way computers do." ​«انسان ماشین نیست... اگرچه انسان اطلاعات را پردازش می‌کند، اما لزوماً به شیوه‌ای که رایانه‌ها انجام می‌دهند، این کار را نمی‌کند.»

  • "The salvation of the world depends only on the individual whose world it is. Every individual must act as if the whole future of the world depends on him." ​«نجات جهان تنها به فردی بستگی دارد که جهان اوست. هر فرد باید طوری عمل کند که گویی آینده کل جهان به او بستگی دارد.»

  • "No other organism, and certainly no computer, can be made to confront genuine human problems in human terms." ​«هیچ موجود زنده دیگری، و مطمئناً هیچ رایانه‌ای، نمی‌تواند با مسائل واقعی انسانی از منظر انسانی روبه‌رو شود.»

  • "To substitute a computer system for a human function that involves interpersonal respect is, in effect, to devalue the human capacity for empathy." ​«جایگزین کردن سامانه رایانه‌ای به جای یک کارکرد انسانی که احترام متقابل را در بر دارد، در اصل به معنای بی‌ارزش‌سازی توانایی انسانی برای همدلی است.»

  • "There are limits to what computers ought to be put to do, and we must be the ones who define those limits." ​«برای اینکه رایانه‌ها چه کارهایی را باید انجام دهند، محدودیت‌هایی وجود دارد و این ما هستیم که باید این حدود را تعریف کنیم.»

  • "The myth that computers can think serves as a convenient cover for the abdication of human responsibility." ​«افسانه‌ی اینکه رایانه‌ها می‌توانند بیندیشند، پوششی راحت برای کنار گذاشتن مسئولیت انسانی است.»

  • "Machines should not make decisions that affect human lives without human oversight." ​«ماشین‌ها نباید بدون نظارت انسانی، تصمیماتی بگیرند که بر زندگی انسان‌ها تأثیر می‌گذارد.»


 آینده هوش مصنوعی و مسئله تکینگی بر اساس دیدگاه‌های وایزنباوم

کتاب وایزنباوم نه‌تنها نقدی است بر وضعیت موجود، بلکه هشدارنامه‌ای است علیه آینده‌ای که در آن تکینگی هوش مصنوعی (Singularity) به‌عنوان یک آرمان تلقی می‌شود. وایزنباوم، برخلاف جریان‌های فناورانه‌ای که ظهور آگاهی ماشینی را محتمل و حتی مطلوب می‌دانند، بر این باور است که این تفکر نوعی «اُبژکتیویسم دیجیتال» است؛ تلاشی برای زدودن جایگاه انسان به‌عنوان کنشگر اخلاقی.

در پرتو کتاب وایزنباوم، مسئله تکینگی نه یک پیروزی تکنیکی، بلکه یک شکست تمدنی است؛ لحظه‌ای که در آن انسان قضاوت را واگذار می‌کند، مسئولیت را کنار می‌گذارد و اختیار را به ماشین می‌سپارد. ما امروز در برابر دو انتخاب قرار داریم: یا هوش مصنوعی را همچون ابزار ببینیم که باید در خدمت اخلاق انسانی باشد، یا اینکه بپذیریم تکنولوژی دیگر نه خادم، بلکه ارباب است. وایزنباوم با زبانی روشن هشدار می‌دهد: هیچ الگوریتمی نمی‌تواند جایگزین فضیلت شود.

اگر آینده‌ای بدون قضاوت انسانی را بپذیریم، آن‌گاه تکینگی نه یک جهش هوشمندانه، بلکه یک فروریزش اخلاقی است. کتاب او دعوتی است برای بازاندیشی، برای ایستادن در برابر اغوای قدرت دیجیتال، و برای بازگرداندن انسان به مرکز تصمیم‌گیری در جهانی که رو به محاسبه‌زدگی پیش می‌رود.

هوش مصنوعی در دو راهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی

کوتاه پیرامون فلسفه ی اخلاق در هوش مصنوعی


هوش مصنوعی در دو راهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی

مقدمه:

در عصر هوش مصنوعی، ما با پرسشی مواجه‌ایم که تا دیروز تنها در ساحت فلسفه، دین و اخلاق زیست می‌کرد: «چه کسی باید نجات یابد؟» این پرسش، وقتی رنگ و بوی واقعی به خود می‌گیرد که در یک وضعیت بحرانی ـ مثلاً سقوط یک خودرو حاوی پنج عضو یک خانواده به درون رودخانه‌ای یخ‌زده ـ روبات نجات‌گری مبتنی بر هوش مصنوعی، تنها توان نجات یک نفر را داشته باشد. کودک؟ مادر؟ سالخورده؟ یا آن که از نظر زیستی مقاوم‌تر است؟

آیا ماشین تصمیم خواهد گرفت؟ و اگر بله، با چه معیاری؟


۱. سایبرنتیک و بازآرایی مفهوم تصمیم

نخست باید به چیستی «تصمیم» در بستر سایبرنتیک نگاه کنیم. سایبرنتیک، به تعبیر نوربرت وینر، علم فرمان، کنترل و ارتباط در موجودات زنده و ماشین‌هاست. در این چارچوب، هر کنش، بازخوردی دارد؛ و هر تصمیم، حاصل شبکه‌ای از اطلاعات، وزن‌ها و حلقه‌های بازخوردی است.

در یک سیستم سایبرنتیکی، اولویت نه براساس «احساس» بلکه براساس الگوریتمی از ورودی‌ها و خروجی‌ها تعیین می‌شود. بنابراین روبات نجات‌گر، ممکن است تابعی از این جنس داشته باشد:

نجات کسی که کمترین انرژی برای نجاتش لازم است و بالاترین احتمال بقاء را دارد.

یا:

نجات فردی که در شبکه اطلاعاتی، دارای بیشترین ارزش اجتماعی یا ژنتیکی (بر اساس داده‌های آماری آموزش‌دیده) شناخته شده است.

در اینجا اخلاق، از درون شبکه تصمیم‌سازی به بیرون پرتاب می‌شود، مگر آن‌که اخلاق، خود به داده‌ای قابل ‌رمزگذاری تبدیل شده باشد.


۲. اخلاق به‌مثابه داده: آیا ممکن است؟

سؤال اساسی این است که آیا «اخلاق» را می‌توان به الگوریتم تبدیل کرد؟ اگر پاسخ منفی باشد، پس سیستم‌های مبتنی بر هوش مصنوعی هرگز اخلاقی تصمیم نخواهند گرفت، بلکه صرفاً بر اساس «اولویت‌هایی برنامه‌ریزی‌شده» عمل خواهند کرد.

اما اگر بپذیریم که می‌توان اخلاق را در قالب قواعدی فرمال و قابل ‌محاسبه فرموله کرد (نظیر اخلاق وظیفه‌گرای کانتی، یا اخلاق پیامدگرای بنتامی)، آنگاه شاید بتوان امید داشت که روبات نجات‌گر، تصمیمی «اخلاقی» بگیرد.

مثلاً، بر اساس اخلاق وظیفه‌گرا، نجات کودک به عنوان موجودی بی‌گناه و ناتوان، یک وظیفه اخلاقی بی‌قید و شرط است. اما در نگاه پیامدگرایانه، نجات مادر ممکن است توجیه‌پذیر باشد زیرا او می‌تواند فرزندان دیگر را در آینده تربیت کند.

در هر دو صورت، اخلاق دیگر حس یا الهام نیست، بلکه تابعی ریاضیاتی و سایبرنتیکی از اهداف سیستم است.


۳. احساسات: خطای سیستم یا سیگنالی فراتر از منطق؟

در انسان، احساسات نقش حیاتی در تصمیم‌گیری دارند. ما از روی شفقت، عشق، ترس، وفاداری یا اندوه تصمیم می‌گیریم؛ تصمیم‌هایی که اغلب در تضاد با منطق سرد هستند. سایبرنتیک در فرم کلاسیکش، احساس را اغلب به‌عنوان نویز یا اختلال در سیستم در نظر می‌گیرد، اما در نسخه‌های نوین و بینارشته‌ای، احساس به‌مثابه سیگنالی نرم برای تنظیم وزن‌های تصمیم دیده می‌شود.

هوش مصنوعی می‌تواند یاد بگیرد که احساسات را تقلید کند (همدل‌سازی)، اما نمی‌تواند واقعاً «احساس» داشته باشد. این تفاوت، در لحظه بحران، تعیین‌کننده است: روبات دچار تردید نمی‌شود، پشیمان نمی‌شود، و خاطره‌ای از آن لحظه در ضمیر ناخودآگاهش نمی‌سازد. این «نبود عذاب وجدان»، مزیت کارایی‌ست، اما خلأ اخلاقی را نیز آشکار می‌سازد.


۴. رسانه و بازنمایی انتخاب اخلاقی در هوش مصنوعی

در جهان امروز، رسانه‌ها نقش چشمگیری در شکل‌دادن به تصویر عمومی از هوش مصنوعی دارند. روایت‌هایی که از روبات‌های نجات‌گر در فیلم‌ها و داستان‌ها می‌بینیم، اغلب با ترس، تحسین یا پرسش همراه‌اند. رسانه با بازنمایی موقعیت‌های بحرانی، ما را با مسئله «انتخاب» در برابر چشم هوشمند و بی‌روح ماشین مواجه می‌کند. این بازنمایی‌ها نه‌تنها افکار عمومی، بلکه مسیر توسعه فناوری را نیز جهت می‌دهند. اگر جامعه بخواهد روبات نجات‌گر بر اساس «احساس» تصمیم بگیرد، توسعه‌دهندگان در پاسخ، احساس را شبیه‌سازی خواهند کرد.

اینجاست که «بازخورد رسانه‌ای» به بخشی از سیستم سایبرنتیکی توسعه فناوری تبدیل می‌شود.

در نهایت، باید بپذیریم که هوش مصنوعی، در وضعیت دو راهی اخلاقی، به گونه‌ای تصمیم خواهد گرفت که از پیش توسط ما ـ برنامه‌ریزان و طراحان ـ درون الگوریتم‌هایش کاشته شده است. اگر ما اخلاق را به زبان داده ترجمه نکنیم، ماشین تنها بر اساس اولویت‌های فنی تصمیم خواهد گرفت.

بنابراین، مسئولیت تصمیم هوش مصنوعی، نه با خودش، بلکه با ماست. و این، نه صرفاً مسئله‌ای فنی، بلکه عمیقاً رسانه‌ای، اخلاقی و سایبرنتیکی‌ست.


سایبرنتیک، هوش مصنوعی و بحران حقیقت در رسانه | کنترل گر آگاه یا مصرف کننده منفعل

سایبرنتیک، هوش مصنوعی و بحران حقیقت در رسانه

نویسنده: سهیل سلیمی

از میانه قرن بیستم، نظریه سایبرنتیک به عنوان علمی میان‌رشته‌ای در تبیین سیستم‌های کنترل، بازخورد و ارتباطات انسان و ماشین پا به عرصه گذاشت. نوربرت وینر، پدر علم سایبرنتیک، این علم را ناظر بر الگوهای ارتباط و کنترل در موجودات زنده و ماشین‌ها دانست. امروزه، با اوج‌گیری هوش مصنوعی، مفاهیم سایبرنتیک نه تنها جنبه نظری ندارند، بلکه به شکل ملموسی در بطن سیستم‌های هوشمند و الگوریتم‌های تولید محتوا بازتولید شده‌اند.

سایبرنتیک و هوش مصنوعی: از نظریه تا واقعیت

سایبرنتیک به‌واسطه تمرکز بر بازخورد، تطبیق‌پذیری و کنترل، بستر فکری و مفهومی مهمی برای توسعه هوش مصنوعی فراهم کرد. در واقع، الگوریتم‌های یادگیری ماشین و شبکه‌های عصبی مصنوعی امروز، بازتابی از مفاهیم سایبرنتیکی هستند: سیستم‌هایی که از داده‌ها بازخورد می‌گیرند، الگوها را شناسایی می‌کنند و رفتار خود را اصلاح می‌کنند.

در این چارچوب، رسانه‌ها نیز به عنوان سیستم‌هایی سایبرنتیکی قابل تحلیل‌اند. آن‌ها داده (توجه، کلیک، پسندیدن، بازنشر) دریافت می‌کنند، از طریق الگوریتم‌ها آن را پردازش می‌کنند و محتوای جدید تولید می‌نمایند—چرخه‌ای که به طور فزاینده‌ای توسط هوش مصنوعی تسهیل می‌شود.

آسیب‌شناسی استفاده گسترده از هوش مصنوعی در تولید رسانه

گرچه هوش مصنوعی توانسته در عرصه تولید محتوا کارایی و سرعت را بالا ببرد، اما این توسعه، بدون تبعات نیست. در ادامه برخی از مهم‌ترین آسیب‌های این پدیده را مرور می‌کنیم:

۱. زوال مرز میان واقعیت و خیال

با قدرت فزاینده هوش مصنوعی در تولید متن، صدا، تصویر و ویدیو، تفکیک میان محتوای واقعی و ساختگی دشوار شده است. فناوری‌هایی چون «دیپ‌فیک» یا متون ماشینی که شبیه نویسندگان واقعی نوشته می‌شوند، نوعی بحران اعتماد به رسانه‌ها پدید آورده‌اند.

۲. خودتقویتی الگوریتمی و پژواک‌خانه‌ها

الگوریتم‌های مبتنی بر هوش مصنوعی بر اساس بازخوردهای گذشته کار می‌کنند. اگر کاربری محتوایی خاص را بپسندد، سیستم محتواهای مشابه بیشتری به او ارائه می‌دهد. این پدیده که در سایبرنتیک با مفهوم بازخورد مثبت شناخته می‌شود، منجر به ایجاد "پژواک‌خانه‌های رسانه‌ای" می‌شود؛ محیط‌هایی که در آن تنها صداهای موافق شنیده می‌شود و فرد از مواجهه با دیدگاه‌های متفاوت محروم می‌گردد.

۳. تضعیف خلاقیت انسانی

هوش مصنوعی قادر به تقلید از سبک‌های نوشتاری، بصری و صوتی است؛ اما در اغلب موارد، فاقد شهود، تجربه و بینش انسانی است. تکیه صرف بر تولید ماشینی محتوا می‌تواند به فرسایش خلاقیت، اصالت و روایت‌گری انسانی در رسانه‌ها بینجامد.

۴. تسخیر میدان ارتباطی توسط پلتفرم‌ها

اکوسیستم رسانه‌ای امروز در دست چند پلتفرم بزرگ جهانی است که با استفاده از هوش مصنوعی، جریان اطلاعات را کنترل می‌کنند. این تمرکز قدرت، با اصول ارتباط آزاد و توزیع‌شده سایبرنتیک در تضاد است و موجب آسیب‌پذیری فرهنگی، سیاسی و اقتصادی جوامع می‌شود.

جمع‌بندی: بازگشت به سایبرنتیک برای فهم بهتر آینده

برای فهم بهتر مسیر پیش‌رو، بازگشت به مفاهیم سایبرنتیکی ضروری است. سایبرنتیک نه تنها در درک نحوه کار سیستم‌های هوش مصنوعی به ما کمک می‌کند، بلکه ابزار تحلیلی قدرتمندی برای نقد عملکرد رسانه‌ها، الگوریتم‌ها و ساختارهای قدرت در اختیار ما می‌گذارد.

هوش مصنوعی می‌تواند ابزار توانمندی برای تقویت خلاقیت انسانی و دسترسی عادلانه به اطلاعات باشد، اما تنها در صورتی که ما به نقش خود به عنوان کنترل‌گر آگاه در این سیستم توجه کنیم—نه صرفاً دریافت‌کننده منفعل محتوا.

Sun Tzu's Dream — A Documentary on Biological Warfare, Cybernetics, and Global Power Engineering

Sun Tzu's Dream — A Documentary on Biological Warfare, Cybernetics, and Global Power Engineering

Author & Producer & Director: Soheil Salimi
What you will see in the confidential documentary "Sun Tzu's Dream":

Table of Contents:

  1. Introduction: Sun Tzu's Dream in the Modern Era

  2. The Outbreak of COVID-19: Spark of a Silent War

  3. Cybernetics and Biocybernetics: The Science of Control over Life

  4. Strategy Redesign: From World War I to World War IV

  5. Modern History of Biological Warfare

  6. Health Commerce and the Economy of a Pandemic

  7. Media's Role in Inducing Fear and Social Control

  8. Classified Projects: From MK-Ultra to Project Corona

  9. Pre-COVID Simulations and Predictive Documents

  10. Science Control, Censorship, and the New World Order

  11. Conclusion: Has the Future War Already Begun?


1. Introduction: Sun Tzu's Dream in the Modern Era

Sun Tzu, the great Chinese strategist, wrote in "The Art of War": "The supreme art of war is to subdue the enemy without fighting." Today, this ideal has manifested in a modern form using viruses, media, fear, and control technologies. This documentary is an attempt to analyze this modern warfare.


2. The Outbreak of COVID-19: Spark of a Silent War

The spread of the coronavirus on the eve of Yalda night in 2019 marked the beginning of a new era. The world rapidly plunged into chaos, fear, and lockdown. Shortages of masks, medicines, and clashes among nations over medical supplies illustrated a global crisis. But was this pandemic accidental?


3. Cybernetics and Biocybernetics: The Science of Control over Life

Cybernetics is the science of control and guidance. When applied to biological phenomena such as viruses, it becomes biocybernetics: the domination of societies through biological control. From managing a virus to steering the economy, politics, and culture—everything can be engineered through this science.


4. Strategy Redesign: From World War I to World War IV

Throughout history, diseases have replaced guns and bombs in wars. The British, Japanese, and Americans have all used biological weapons to eliminate enemies. Now, the COVID pandemic may be a redesign of those historical strategies.


5. Modern History of Biological Warfare

From smallpox-contaminated blankets given to Native Americans to U.S. military tests on its citizens, history is full of examples of diseases being used as weapons. Iran, too, has been a victim of chemical warfare by the Ba'athist regime.


6. Health Commerce and the Economy of a Pandemic

The healthcare industry has become one of the most profitable sectors globally. Pharmaceutical companies, hospitals, vaccine manufacturers, and medical equipment suppliers all benefit from health crises. The conflict between public health and financial profit raises a critical question: should health be commercialized?


7. Media's Role in Inducing Fear and Social Control

Media holds immense power to instill fear. Fear that weakens the immune system and makes people vulnerable to disease. The COVID pandemic was a prime example of how media was used purposefully to instill fear and enforce collective compliance.


8. Classified Projects: From MK-Ultra to Project Corona

Numerous documents about projects like MK-Ultra, Japan's Unit 731, and U.S. experiments in Fort Detrick reveal hidden agendas behind scientific and technological advancements, using them to dominate and manipulate human behavior.


9. Pre-COVID Simulations and Predictive Documents

From the "Event 201" simulation to the Rockefeller Foundation's 2010 scenario report, several documents predicted a global pandemic with astonishing precision before COVID actually happened. These documents raise serious questions about prior planning.


10. Science Control, Censorship, and the New World Order

Scientific research during COVID faced intense censorship. Articles warning about vaccine risks or the virus's origins were often rejected or buried. Knowledge became a tool of power, not enlightenment. This censorship reflects the broader agenda of the new world order.


11. Conclusion: Has the Future War Already Begun?

This documentary offers a deep analysis of history, science, media, and politics to present a realistic portrait of the post-COVID world—a world where viruses, media, cybernetics, and economics are tools for engineering global dominance.


رویای سون تزو — Sun Tzu's Dream مستند جنگ بیولوژیک، سایبرنتیک و مهندسی جهانی قدرت

رویای سون تزو — مستند جنگ بیولوژیک، سایبرنتیک و مهندسی جهانی قدرت
نویسنده تهیه کننده و کارگردان: سهیل سلیمی

آنچه در رویای سون تزو خواهید دید:


۱. مقدمه: رویای سون تزو در عصر جدید

سون تزو، استراتژیست بزرگ چینی، در کتاب "هنر جنگ" می‌نویسد: «بهترین پیروزی آن است که بدون جنگ، دشمن را تسلیم کنی.» این آرمان امروز به‌گونه‌ای مدرن با ابزارهایی مانند ویروس‌ها، رسانه، ترس و تکنولوژی‌های کنترل محقق شده است. مستند پیش‌رو تلاشی است برای تحلیل این نبرد مدرن.


۲. آغاز کرونا: جرقه یک جنگ خاموش

شیوع ویروس کرونا در شب یلدای ۱۳۹۸ آغازگر دوران تازه‌ای بود. به‌سرعت، دنیا به سمت آشفتگی، ترس و تعطیلی کشیده شد. کمبود ماسک، دارو، و درگیری میان کشورها بر سر تجهیزات بهداشتی، چهره‌ای از بحران جهانی را نمایان کرد. اما آیا این پاندمی تصادفی بود؟


۳. سایبرنتیک و بایوسایبرنتیک: دانش سلطه بر حیات

سایبرنتیک دانش کنترل و هدایت است. وقتی این دانش بر پدیده‌های زیستی چون ویروس‌ها اعمال شود، بایوسایبرنتیک شکل می‌گیرد: سلطه بر جوامع از مسیر کنترل زیستی. از کنترل یک ویروس تا کنترل اقتصاد، سیاست و فرهنگ — همه می‌توانند بخشی از این مهندسی باشند.


۴. بازطراحی راهبردها: از جنگ جهانی اول تا جنگ جهانی چهارم

در تاریخ جنگ‌ها، گاه بیماری‌ها جایگزین توپ و تفنگ شده‌اند. انگلیس، ژاپن و آمریکا نمونه‌هایی از قدرت‌هایی هستند که از سلاح‌های بیولوژیک برای حذف دشمنان استفاده کردند. اکنون، جنگ بیولوژیک در قالب کرونا شاید بازطراحی همان راهبردهاست.


۵. جنگ‌های بیولوژیک در تاریخ معاصر

از پتوی آلوده به آبله که به بومیان آمریکا داده شد تا آزمایش‌های بیولوژیک ارتش آمریکا بر شهروندان خود، تاریخ مملو از استفاده از بیماری به عنوان سلاح است. ایران نیز قربانی سلاح‌های شیمیایی رژیم بعث عراق بوده است.


۶. تجارت سلامت و اقتصاد پاندمی

صنعت درمان به یکی از پرسودترین صنایع جهان بدل شده است. شرکت‌های داروسازی، بیمارستان‌ها، تولیدکنندگان واکسن و تجهیزات پزشکی، همگی از هر بحران سلامت جهانی سود می‌برند. تضاد منافع میان سود و سلامت عمومی، سوالی اساسی را ایجاد می‌کند: آیا سلامت باید تجارت باشد؟


۷. نقش رسانه در ایجاد ترس و کنترل اجتماعی

رسانه‌ها قدرتی بی‌نظیر در القای ترس دارند. ترسی که سیستم ایمنی بدن را تضعیف و مردم را در برابر بیماری آسیب‌پذیر می‌کند. پاندمی کرونا، نمونه‌ای از استفاده هدفمند از رسانه برای القای ترس و فرمانبرداری جمعی بود.


۸. پروژه‌های محرمانه: از ام کی اولترا تا پروژه کرونا

اسناد متعددی از پروژه‌هایی نظیر امک‌اولترا، واحد ۷۳۱ ژاپن، آزمایش‌های ارتش آمریکا در فورت دیتریک و پروژه‌های کنترل ذهن، پرده از اهداف پنهان قدرت‌های جهانی در بهره‌برداری از علم و تکنولوژی برای تسلط بر انسان‌ها برمی‌دارند.


۹. شبیه‌سازی‌های پیش از کرونا و اسناد آینده‌نگر

از رویداد شبیه‌سازی‌شده «ایونت ۲۰۱» تا پیش‌بینی بنیاد راکفلر در سال ۲۰۱۰، شواهدی وجود دارد که پاندمی کرونا سناریویی طراحی‌شده بوده است. سندهای فراوانی پیش از وقوع کرونا، وقوع چنین بحرانی را با دقت شگفت‌آور پیش‌بینی کرده بودند.


۱۰. کنترل علم، سانسور و نظم نوین جهانی

تحقیقات علمی در دوران کرونا دچار سانسور شدید شدند. مقالاتی که خطرات واکسن یا منشأ ویروس را بررسی می‌کردند، منتشر نمی‌شدند. دانش، ابزاری شده برای تحکیم قدرت، نه روشنگری. این سانسور علمی، بخشی از نظم نوین جهانی است.


۱۱. نتیجه‌گیری: آیا جنگ آینده از پیش آغاز شده؟

مستند حاضر با نگاهی عمیق به تاریخ، علم، رسانه و سیاست، سعی دارد تصویری واقع‌بینانه از دنیای پساکرونا ارائه دهد. دنیایی که در آن ویروس، رسانه، سایبرنتیک و اقتصاد ابزاری برای مهندسی جهانی قدرت هستند.



لینک تماشای مستند رویای سون تزو :     Sun Tzu's Dreamhttps://www.youtube.com/watch?v=c_tn33r3q_0 

طغیان کاربران ناآگاه | هوش مصنوعی و بحران بی خردی | در تمنای لایک

طغیان کاربران ناآگاه  | هوش مصنوعی و بحران بی خردی | در تمنای لایک

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

موضوعات این مقاله:

چگونه تودههای ناآگاه مدیاسایبرنتیک را از درون میخورند؟

هوش مصنوعی در میدان بیخردی: سقوط اخلاق در عصر تولید انبوه

سایبرنتیک و بحران تولید انبوه محتوا در طغیان کاربران ناآگاه

مقدمه: فروپاشی کنترل در دل کثرت نامنظم

سایبرنتیک، در بنیان خود، بر کنترل از طریق بازخورد استوار است؛ اینکه چگونه یک سیستم با مشاهده خروجیهای خود، مسیر را تصحیح کرده و به تعادل بازگردد. اما اگر آن خروجیها نه از منطق، بلکه از آشوب برخاسته باشند چه؟ اگر بازخوردها نه از آگاهی، بلکه از امواج خام هیجان، شایعه، و جهل جمعی شکل گرفته باشند؟ آنگاه سایبرنتیک دیگر فرمانده نیست؛ بلکه زندانی همان سیستمی میشود که روزی برای هدایت آن طراحی شده بود.

در این وضعیت، نهتنها اخلاق از میدان حذف میشود، بلکه حتی ساختار کنترلی رسانه نیز از کار میافتد. اینجا با نوعی «آنتیسایبرنتیک» مواجهیم: سامانهای که همچنان داده تولید میکند، اما این دادهها، سامانه را به سوی سقوط هدایت میکنند.


۱. سواد اطلاعاتی پایین، ضدسایبرنتیک است

در سیستمهای کلاسیک سایبرنتیکی، مخاطب باید بتواند پیام را دریافت، فهم، ارزیابی و بازخورددهی کند. این چهار مرحله، ستونهای پردازش رسانهای سالماند. اما در ساختارهای امروزیِ تولید انبوه محتوا در پلتفرمهای اجتماعی، اغلب افراد در همان مرحلهٔ اول گیر میافتند: یا پیام را بهدرستی دریافت نمیکنند، یا آن را بهصورت تحریفشده بازنشر میدهند.

آنجا که بازخورد کور شکل میگیرد، دیگر کنترلی وجود ندارد. نظامهای مبتنی بر الگوریتم و هوش مصنوعی، به جای فیلتر کردن این آشفتگی، آن را تقویت میکنند، چون معیارشان «تعامل» است، نه «محتوا».

پس همان کسی که فهم روشنی از دین، اخلاق یا علم ندارد، میتواند در بازتولید و ترویج شبهدانش، خرافه، یا نفرتگویی، اثرگذارتر از هر نهاد رسمی باشد — چرا که سایبرنتیک رسانهای، قربانی تعاملگرایی شده است.


۲. مردمسالاری بیفرهنگی: جمعیتی که رسانه را بلعیدند

در گذشته، فرآیند تولید محتوا دارای دروازهبانهای معرفتی بود: ناشر، سردبیر، استاد، نهاد دینی یا علمی. اما اکنون، هر گوشی هوشمند، یک ایستگاه تولید و پخش محتوا است.

آنچه که امروز خطرناک است،  انبوه مردمی هستند که بدون دانستن اصول اولیهٔ اخلاق و عقل، به تولید بینظم معنا میپردازند. این نوع مردمسالاریِ بیریشه، آنارشی نیست؛ شبهنظم است، نظم کاذبی که در ظاهر متنوع است اما در عمق، از الگوریتمهایی پیروی میکند که فقط تکرار و هیجان را پاداش میدهند. و انبوهی از ناآگاهی که در تمنای لایک هر محتوای ضد ارزش یا حتی بی ارزش را منتشر می کنند. این بی معرفتی ربطی به سواد یا سن و سال و یا حتی جایگاه علمی افراد ندارد. انسانی کع تولید محتوا می کند باید به پختگی رسیده باشد. چند سال قبل خاطره ای از استیون اسپیلبرگ خواندم که معیار دقیق این پختگی است. همواره برایم سوال بود، او که فیلمساز متبحر و توانمندی است چرا جایگاه پدر و فرزندی را در فیلم هایش رعایت نمیکند و حتی گاه این حس را منتقل می کند که پدرها، پسرهایشان را رها می کنند. او در آن خاطر می گفت؛ من آن زمان یک جوان بودم، ولی حالا پدر هفت فرزندم. در فیلمهای اول پدرها را آنطور می فهمیدم اما حالا میفهمم که یک پدر برای حفظ خانواده و فرزندانش باید هر کار بکند.

حالا تصور کنید چند جوان در جهان با دیدن فیلمهای اولیه او گمراه شده و با والدین و خصوصا پدرانشان دچار چالش و درگیری شدند! این در حالیست که اسپیلبرگ هنرمند بسیار توانمد و صاحب سبک و با سوادی است، ببیند انبوه آدم های نا آگاه که امروزه هریک با یک گوشی مشغول تولید انواع محتواهای بی ارزش و ضد ارزش هستند چه بلایی بر سر جامعه می آورند.

در چنین بستری، محتوای ژرف، اخلاقی یا علمی، دیده نمیشود، چون با ریتم تند و هیجانزدهٔ بازار اطلاعات همخوانی ندارد.  اخلاق، در زبالهدان محتوا بی ارزش دفن میشود، و هوش مصنوعی، همچون گورکنی فرز و سریع در حال  آماده سازی قبر اندیشه و معرفت انسان است.


۳. تولید ضداخلاق: بیسوادی ساختارمند در نظام بازخورد

وقتی اکثریت جامعه نسبت به مفاهیم فلسفی و دینی بیاطلاعاند، «اخلاق» دیگر مبنای داوری نمیشود. بلکه "احساس لحظهای" جایگزین "قضاوت تأملگر" میشود. این انتقال از فکر به واکنش، پایههای اخلاق در فضای سایبر  را فرو میریزد.

حال، وقتی این اکثریت شروع به تولید انبوه محتوا میکنند، تولیدشان نه حاصل خرد، که ترکیبی است از شایعه، فرافکنی، تمسخر، خشونت کلامی و نفرتپراکنی است. در این وضعیت، ضداخلاق نهفقط تولید میشود، بلکه پاداش میگیرد؛ زیرا واکنشبرانگیز است.

حالا نتیجه طبیعی ارتقا از طریق فهم الگوریتمی این است که «هر چه بیادبتر، موفقتر.» اینجا دیگر نه کنترل معنا دارد، نه بازخورد؛ تنها چیزی که میماند، شبیهسازی ضد ارزش ها بهمثابه تعامل است.


۴. قدرت در دستان بیقدرتان خطرناک: از آنتینخبگی تا تسخیر افکار عمومی

در بسیاری جوامع، فقدان آموزش فلسفی، دینی و عقلانی، نهفقط مسئلهای فردی، بلکه ساختاری است. سیاستگذاران، نظام آموزش عمومی، و رسانههای رسمی، در تضعیف تفکر تحلیلی نقش ایفا کردهاند. حالا، همان مردمی که ساختار به حال خود رهایشان کرده، خود به ساختار بدل شدهاند. یعنی آنجا که سایبرنتیک به معنای کنترل و اعمال قدرت در روند صحیح خودش کارکردش را از دست می دهد، حالا سایبرنتیک دیگری شکل می گیرد از عوامی که برای تصاحب لایک های بیشتر  و فالوور افزایی، به رواج بی ارزشی می پردازند. این طبقه جدید سلبریتی ها ، خوردن کثافات برای بیشتر دیده شدن تا حتی اقدام به خودکشی فریبکارانه آنهم آنلاین، هیچ ابایی ندارند! اینها محصول پوچگرایی و پوچ اندیشی و پوچ پنداری خویش هستتند. این طبقه ی بی ارزش، در واقع مبدع ارزش های جدیدی هستند که مخاطبانشان دوست بدارند، فالوورشان بشوند و لایک کنند.

افکار عمومی، که زمانی قرار بود حاصل گفتوگوی عقلانی باشد، اکنون زیر سلطهی صداهای بلند، خالی از معنا و تحقیر کننده و خشونتزاست. سایبرنتیک رسانهای  (مدیا سایبرنتیک)، که میتوانست در صورت استفاده صحیح، ابزار روشنگری باشند، اکنون زمینبازی آگاهیستیزان شدهاند. و بدترین قسمت این فاجعه آن است که نظم رسانهای توسط الگوریتم های هوش مصنوعی، بر پایهٔ آشفتگی آنها بهینهسازی میشود. یعنی، هوش مصنوعی یاد میگیرد که شورش جهل، سودمندتر از صدای دانایی است.


نتیجه: فروپاشی اخلاق سایبرنتیکی و ضرورت بازمهندسی آگاهی

ما اکنون با یک چرخش تلخ روبرو هستیم:

کنترل رسانه (مدیا سایبرنتیک) دیگر دست نخبگان یا حتی نظامهای عقلانی نیست، بلکه در دست بیساختاران پرصداست؛ کسانی که بدون آگاهی، نظام اخلاقی را به سخره گرفته اند و در فرآیند بازخورد رسانهای، ساختارهای معنایی را منهدم کرده اند.

بازسازی این وضعیت، با فیلتر کردن محتوا یا سانسور ممکن نیست. تنها راه، بازسازی آگاهی عمومی، و بازمهندسی ساختارهای آموزش، سواد رسانهای در سطح اجتماعی انسانی است که کاری ست بس دشوار، و در سوی دیگر ایجاد الگوریتمهاییست که هوش مصنوعی بتواند بر اساس آنها نه صرفاً تعامل، بلکه عمق و اخلاق را پاداش دهد، که در شرایط فعلی این اقدام قابل اجرا تر  به نظر می رسد. در بلند مدت برنامه ریزی روی هر دوی این روندها می تواند بشر را از قهقرای بی ارزشی نجات دهد.

سهیل سلیمی

مدیا سایبرنتیک و هوش مصنوعی

مدیا سایبرنتیک و هوش مصنوعی

رابطه سایبرنتیک، هوش مصنوعی، و رسانه: کنترل و اعمال قدرت  (سهیل سلیمی)

سایبرنتیک، به عنوان دانش کنترل و اعمال قدرت و ارتباطات در سیستم‌های پیچیده، از زمان طرح‌شدن توسط نوربرت وینر، تحولات عمیقی را در عرصه‌های علمی، فناوری، و اجتماعی ایجاد کرده است. امروزه، با ظهور هوش مصنوعی و گسترش رسانه‌های دیجیتال، این دانش به سطحی بی‌سابقه از کاربرد و تاثیرگذاری رسیده است. در این نوشته، به بررسی رابطه سه‌گانه سایبرنتیک، هوش مصنوعی، و رسانه می‌پردازم و نشان می‌دهم که چگونه این ترکیب، به ابزاری قدرتمند برای کنترل و اعمال قدرت در جوامع مدرن تبدیل شده است.  

سایبرنتیک و هوش مصنوعی: چارچوبی برای کنترل  

سایبرنتیک بر مفهوم بازخورد (Feedback) و خودتنظیمی سیستم‌ها تاکید دارد. هوش مصنوعی، با الهام از این اصول، سیستم‌هایی را طراحی می‌کند که قادر به یادگیری، تطبیق، و تصمیم‌گیری هستند. این سیستم‌ها از الگوریتم‌های پیچیده برای پردازش داده‌ها استفاده می‌کنند و با تحلیل رفتار کاربران، الگوهای کنترل را بهینه‌سازی می‌نمایند. برای مثال، شبکه‌های عصبی مصنوعی با شبیه‌سازی مغز انسان، توانایی پیش‌بینی و تاثیرگذاری بر رفتارهای اجتماعی را دارند.  

رسانه به عنوان ابزار تلقین و کنترل  

رسانه‌ها، به ویژه در عصر دیجیتال، نقش کلیدی در انتقال پیام‌های کنترل‌گرانه ایفا می‌کنند. با استفاده از هوش مصنوعی، رسانه‌ها قادر به شخصی‌سازی محتوا و هدف‌گیری دقیق مخاطبان هستند. این فرآیند، که به "مهندسی رضایت" معروف است، از طریق تحلیل داده‌های کاربران و ارائه محتوای متناسب با ترجیحات و باورهای آن‌ها انجام می‌شود. برای نمونه، الگوریتم‌های فیسبوک و گوگل با نمایش انتخابی اخبار و تبلیغات، می‌توانند افکار عمومی را جهت‌دهی کنند.  که در مجموع من این اعمال قدرت و کنترل از طریق رسانه را مدیاسایبرنتیک می دانم.

چرخه کنترل و اعمال قدرت

در این سیستم، یک چرخه دائمی بین سایبرنتیک، هوش مصنوعی، و رسانه وجود دارد:  

1. **جمع‌آوری داده‌ها**: هوش مصنوعی با رصد رفتار کاربران در رسانه‌های اجتماعی، داده‌های عظیمی را جمع‌آوری می‌کند.  

2. **تحلیل و پیش‌بینی**: این داده‌ها برای شناسایی الگوهای رفتاری و پیش‌بینی تمایلات آینده استفاده می‌شوند.  

3. **تلقین و کنترل**: رسانه‌ها با استفاده از این تحلیلها، محتوایی را منتشر می‌کنند که باورها و رفتارهای مخاطبان را شکل می‌دهد.  

4. **بازخورد و بهینه‌سازی**: نتایج این تاثیرگذاری، دوباره به سیستم بازگردانده می‌شود تا چرخه کنترل تقویت شود.  

پیامدهای اجتماعی و اخلاقی

این رابطه سه‌گانه، پیامدهای عمیقی برای آزادی فردی و دموکراسی دارد. از یک سو، هوش مصنوعی و رسانه‌ها می‌توانند به بهبود خدمات و رفاه اجتماعی کمک کنند، اما از سوی دیگر، خطر تبدیل شدن به ابزارهای نظارت و دستکاری افکار عمومی را نیز به همراه دارند. مثال بارز این موضوع، استفاده از رسانه‌های اجتماعی برای تاثیرگذاری بر نتایج انتخابات یا ایجاد قطبی‌سازی سیاسی است.  

نتیجه‌گیری 

ترکیب سایبرنتیک، هوش مصنوعی، و رسانه، یک سیستم کنترل قدرتمند را ایجاد کرده است که همزمان هم فرصت‌ها و هم تهدیدهایی را برای جامعه به ارمغان می‌آورد. درک این رابطه برای حفظ تعادل بین پیشرفت فناوری و حریم خصوصی افراد ضروری است. آینده این تعامل، به چگونگی تنظیم مقررات اخلاقی و قانونی برای استفاده از این فناوری‌ها بستگی خواهد داشت.  


سهیل سلیمی - مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران

این نوشته بخشی از سخنرانی من در کنفرانس فضای سایبر سال 1403 می باشد.

**کلمات کلیدی**: سایبرنتیک، هوش مصنوعی، رسانه، کنترل اطلاعاتی، مهندسی رضایت، نظارت دیجیتال، آزادی فردی.

رزومه‌ی سهیل سلیمی (از 1379 تا 1404) Resume of Soheil Salimi (from 2000 to 2025)

سهیل سلیمی  متولد 1357  تهران

 دارای مدرک کارگردانی مستند  از وزارت فرهنگ و ارشاد اسلامی 

دانش آموخته "کارگردانی سینما" از انجمن سینمای جوانان ایران

گواهینامه سطح دو استراتژی با گرایش سینمای استراتژیک از مرکز دکترینال اندیشکده یقین

مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبرِ دانشگاه تهران

پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی

گواهینامه "مدیریت منابع انسانی" از موسسه همایش فرازان زیر نظرِ کِیوین گَسکِل"Kevin Gaskel"، مدیر عامل اسبق شرکت های خودروسازی بی ام دابلیو BMW و پورشه آلمان، و لامبورگینی ایتالیا

Certificate: The Challenge of Business Leadership & Heroes 

گواهینامه "مدیریت ذهن" از موسسه همایش فرازان 

Certificate: Second World Management Forum2010 - World Memory Record Holder

گواهینامه دوره ی کوتاه مدت مدیریت کارآفرینی از دانشکده مدیریت دانشگاه تهران

نویسنده ی کتابِ؛ پول تو جیبیتو چطور خرج میکنی؟  در حوزه ی روانشناسی موفقیت

 

جـوایـز و افـتـخـارات:

برنده جایزه اول جشنواره فیلمِ "فیلماکاFiLMAKA" آمریکا، برای مستند "سفری به جنگ با یک بازیگر" 1398

کاندید مردمی "بهترین فیلمنامه نویسِ" چهارده دوره ی جشنواره ی فیلمِ مقاومت در بخش چهل سالگی    1397

تقدیر ویژه از طرف بسیج دانشجویی دانشگاه تهران 1397 برای کارگردانی فیلم سینمایی "فرشتگان قصاب"

دیپلم افتخار بهترین کارگردانی فیلمِ داستانی جشنواره فیلم عمار برای فیلم "روزداوری" 1393

دریافت جایزه ی جنگاور نور "Light Fighters" از دانشگاه بریتیش کلمبیا کانادا  1392 برای کارگردانیِ فیلم سینمایی "فرشتگان قصاب"

دریافت جایزه سرخپوستان کانادا "Musqeaom People" Solidarity Recognition / Indigenous Cultural Survival Award 1392 برای کارگردانیِ فیلم سینمایی "فرشتگان قصاب"

فانوس زرین بهترین فیلمنامه سینمایی جشنواره فیلم عمار برای فیلمنامه ی فیلم سینمایی "فرشتگان قصاب" 1392

ققنوس بلورین (جشنواره فیلم ققنوس) در سال 1391 برای کارگردانی فیلم سینمایی "فرشتگان قصاب"

دریافت لوح سپاس تجلی اراده ی ملی در جشنواره فیلم فجر سال 1391 از طرف انجمن حمایت از ملت فلسطین برای کارگردانی فیلم سینمایی "فرشتگان قصاب"

تقدیر ویژه از طرف گروه سینما اقتباس دانشگاه مازندران 1392 برای کارگردانی فیلم سینمایی "فرشتگان قصاب"

تقدیر ویژه از طرف دانشگاه علامه طباطبایی 1392 برای کارگردانی فیلم سینمایی "فرشتگان قصاب"

تقدیر ویژه از طرف دانشگاه علم و صنعت 1392 برای کارگردانی فیلم سینمایی "فرشتگان قصاب"

تقدیر ویژه توسط پایگاه خبری ، تحلیلی روایت فیلم شیراز 1392 برای کارگردانی فیلم سینمایی "فرشتگان قصاب"

تقدیر ویژه توسط شبکه فرهنگی کلام مطهر 1392 برای فیلم سینمایی "فرشتگان قصاب"

کار آفرین نمونه ی منطقه 22 در سال  1390

شهروند نمونه ی منطقه 22 تهران در سال  1389 

دریافت تندیس و لوح تقدیر شبکه ی 3 سیما برای تدوین مستند داستانی "برسکوی افتخار" برنامه ی منتخبِ گروه ورزش شبکه 3 با گرایش دفاع مقدس در سال 1388

دریافت لوح سپاس از اولین جشنواره ی موسیقی موسسه آموزندگان 1382

دریافت لوح یاد بود اولین جشنواره ی ایدهای نو 1380


منتخبِ رزومه ی فعالیتهای فیلمسازی:

کارگردانی، نویسندگی و تهیه‌کنندگی مستند بلند  "رویای سون‌تزو"    1403

 کارگردانی، نویسندگی و تهیه‌کنندگی مجموعه مستند بلند  "جنایت نامرئی"    1401 - 1399

کارگردانی، نویسندگی و تدوین مجموعه مستند "جاری چون رود"    1401 - 1400

کارگردانی و تدوین مجموعه مستند بلند  "رُخ"    1400 – 1397

کارگردانی و تدوین مستند "جهان فانتزی من"     1399

کارگردانی و تدوین مستند "دور از بی‌سیم"     1399

کارگردانی و تدوین مستند "ماه و پلنگ"     1399

کارگردانی و تدوین مستند "سفری به جنگ با یک بازیگر"     1398

کارگردانی و تدوین مستند "بانوی آیینه و ابریشم"     1398

کارگردانی و تدوین مجموعه مستند بلند  "یونیفورم"    1399 - 1398

کارگردانی و تدوین مستند "قصه امیر"     1398

کارگردانی فیلم داستانی تلویزیونی "روزنه" از مجموعه‌ی "روزگار"    1397

 کارگردانی مستند بلند  "خرمشهر امروز"       1396

کارگردانی و تدوین مجموعه مستند بلند  "دکوپاژ"     1395 - 1394

کارگردانی فیلم داستانی "روزداوری"           1393

نویسنده و گارکردان فیلم سینمایی "فرشتگان قصاب"   1391

کارگردانی فیلم مستند "جدال در عمق 30 متری"        1388

کارگردانی فیلم مستند "آخرِ دنیا ، اولِ بهشت "          1390

نویسندگی ، کارگردانی و تهیه کنندگی فیلم "روز تمرین "    1388 

نویسندگی ، کارگردانی و تهیه کنندگی فیلم "خط "            1389

کارگردانی و تهیه کنندگی فیلم مستند داستانی "بوکسر"      1386 

تدوین مجموعه تلویزیونی "پرواز بی پایان" 1393 - 1394

تدوین مستند داستانی "برسکوی افتخار" گروه ورزش شبکه3     1385 - 1389

تدوین فیلم مستند استاد نقش و نگار "مستند استاد فرشچیان" 1384

تدوین فیلم مستند صنعت چاپ "استاد هاشمی لیتوگرافیست برجسته شاهنامه"  1383

تدوین و کارگردانی آیتم های تلویزیونی شبکه2 "خانه و خانواده" دهه 80

عکاس صحنه و دستیار کارگردانِ فیلم کوتاه "پسرِ زشت" 1379

نویسندگی ، کارگردانی و تهیه کنندگی فیلم کوتاه "زندگی در 48+1 نما "  1379

 

 منتخبِ رزومه ی فعالیتهای صنعتی، کلیپ سازی و تبلیغات:

کارگردانی و تدوین تیزر "تن ماهی شصت وشش"   1395 

کارگردانی و تدوین مستند صنعتی "محورسازان ایران خودرو"   1392

کارگردانی و تدوین مستند صنعتی شرکت "نفت پاسارگاد" تهران   1391

کارگردانی تیزر "طرح تحول بنیادین آموزش و پرورش "  1391

کارگردانی و تدوین مستند "تله کام" 1390

کارگردانی، نویسندگی و تدوین مستند "بیمه امید"    1390

کارگردانی و تدوین مستند صنعتی "پتروشیمی تهران"    1390

کارگردانی و تدوین مستند صنعتی شرکت "نفت پاسارگاد" تبریز   1390

کارگردانی و تدوین معرفی قاریان مطرح ایران "دارالقرآن" امام علی(ع)    1390

کارگردانی و تدوین کلیپ "آه میکشم تا معراج"   1390

کارگردانی و تدوین تیزر "خمیر بازی توتو"   1389 

کارگردانی و تدوین تیزر "موسسه مطالعات تحصیلی خوارزمی"   1389 

کارگردانی و تدوین تیزر  و مستند"آموزشگاه تحصیلی نخبگان دانش"   1389 

کارگردانی و تدوین مستند آموزشی"شوکت"   1389 

کارگردانی و تدوین تیزر "جهان نیوز"   1389 

کارگردانی و تدوین مستند صنعتی "منطقه 6 عملیات انتقال گاز ایران"    1388

کارگردانی و تدوین مستند "مجتمع های تجاری ستارگان"    1388

کارگردانی و تدوین تیزر "بیلبورد هشت وجهی پاتریسا"    1387 

کلیپ " فرمانده قلبها " 1386

کارگردانی و تدوین تیزر "صنایع الکترونیک سایفیکس"   1386 

کارگردانی و تدوین مستند صنعتی "آیس پک"    1385

کارگردانی و تدوین مستند صنعتی "پوشاک مارال"    1385

کارگردانی و تدوین تیزر "روز ملی صنعت چاپ"   1384 

 

منتخبِ رزومه ی مدیریت و طراحی کمپین های تبلیغاتی:

 کمپین تبلیغاتی "برگ" : شورای شهر تهران  / خدمتگزاران آبادانی و پیشرفت   1390

کمپین تبلیغاتی "خط اصلی" : موسسه پتماکو     1388

کمپین تبلیغاتی "فاصله" : موسسه مطالعات درسی خوارزمی     1388

کمپین تبلیغاتی "تو راهی" : رهاورد هنر انتظار (مشاور BMW)    1386

 

Soheil Salimi
Born: 1978–1979, Tehran

  • Holder of a Documentary Directing certificate from the Ministry of Culture and Islamic Guidance

  • Graduate of Film Directing from the Iranian Youth Cinema Society

  • Level 2 Strategy Certificate with a focus on Strategic Cinema from the Doctrinal Center of Yaqin Think Tank

  • Media Advisor for the Cyberspace Research Lab at the University of Tehran

  • Human Resource Management Certificate from Hamayesh Farazan Institute, under Kevin Gaskell, former CEO of BMWPorsche (Germany), and Lamborghini (Italy)

  • Certificate: The Challenge of Business Leadership & Heroes

  • Mind Management Certificate from Hamayesh Farazan Institute

  • Certificate: Second World Management Forum 2010 – World Memory Record Holder

  • Short-Term Entrepreneurship Management Course Certificate from the Faculty of Management, University of Tehran

    Awards and Honors:

    • Winner of the 1st Prize at the FiLMAKA Film Festival (USA), for the documentary "A Journey to War with an Actor" (2019).

    • People’s Choice Nominee for "Best Screenwriter" at the 14th Resistance Film Festival (40th Anniversary Section) (2018).

    • Special Recognition by the Student Basij of Tehran University (2018) for directing the feature film "The Butcher Angels".

    • Honorary Diploma for Best Director (Narrative Film) at the Ammar Film Festival for "Judgment Day" (2014).

    • Light Fighters Award from the University of British Columbia (Canada) (2013) for directing "The Butcher Angels".

    • Musqueam People’s Solidarity Recognition / Indigenous Cultural Survival Award (Canada) (2013) for directing "The Butcher Angels".

    • Golden Lantern for Best Screenplay at the Ammar Film Festival for "The Butcher Angels" (2013).

    • Crystal Phoenix Award (Qoqnoos Film Festival) (2012) for directing "The Butcher Angels".

    • National Will Manifestation Plaque at the Fajr Film Festival (2012) from the Palestine Support Association for directing "The Butcher Angels".

    • Special Appreciation by the Cinematic Adaptation Group of Mazandaran University (2013) for directing "The Butcher Angels".

    • Special Appreciation by Allameh Tabataba’i University (2013) for directing "The Butcher Angels".

    • Special Appreciation by Iran University of Science and Technology (2013) for directing "The Butcher Angels".

    • Special Appreciation by the Ravayat Film News & Analysis Base (Shiraz) (2013) for directing "The Butcher Angels".

    • Special Appreciation by the Cultural Network of Mokalamah Mottahar (2013) for "The Butcher Angels".

    • Exemplary Entrepreneur of District 22 (Tehran) (2011).

    • Exemplary Citizen of District 22 (Tehran) (2010).

    • Trophy & Appreciation Plaque from Channel 3 TV for editing the docudrama "Barsuk-e Eftekhar" (Selected Program of the Sports Department, Sacred Defense Theme) (2009).

    • Certificate of Appreciation from the 1st Music Festival of Amoozandegan Institute (2003).

    • Memorial Plaque from the 1st Innovative Ideas Festival (2001).


    Selected Filmmaking Portfolio:

    Directing, Screenwriting & Production:

    • Feature Documentary "The Dream of Sun Tzu" (2024).

    • Feature Documentary Series "Invisible Crime" (2020–2022).

    • Documentary Series "Flowing Like a River" (2021–2022).

    • Feature Documentary Series "Face" (2018–2021).

    • Documentary "My Fantasy World" (2020).

    • Documentary "Far from the Wireless" (2020).

    • Documentary "The Moon and the Leopard" (2020).

    • Documentary "A Journey to War with an Actor" (2019).

    • Documentary "The Lady of Mirror and Silk" (2019).

    • Feature Documentary Series "Uniform" (2018–2020).

    • Documentary "Amir’s Story" (2019).

    • TV Drama "Roozneh" from the series "Roozgar" (2018).

    • Feature Documentary "Today’s Khorramshahr" (2017).

    • Feature Documentary Series "Decoupage" (2015–2016).

    • Short Film "Judgment Day" (2014).

    • Screenwriter & Director of "The Butcher Angels" (2012).

    • Documentary "Battle at 30 Meters Deep" (2009).

    • Documentary "The End of the World, The Beginning of Heaven" (2011).

    • Writer, Director & Producer of "Practice Day" (2009).

    • Writer, Director & Producer of "The Line" (2010).

    • Director & Producer of the Docudrama "Boxer" (2007).

    Editing:

    • TV Series "Endless Flight" (2014–2015).

    • Docudrama "Barsuk-e Eftekhar" (Sports Group, Channel 3) (2006–2010).

    • Documentary "Master of Miniatures" (About Master Farahchian) (2005).

    • Documentary "Printing Industry" (About Master Hashemi, Lithography Expert of Shahnameh) (2004).

    • Editor & Director of TV Segments for "Khanevade va Khanevadeh" (Channel 2, 2000s).

    Other Roles:

    • Still Photographer & Assistant Director for the Short Film "The Ugly Boy" (2000).

    • Writer, Director & Producer of the Short Film *"Life in 48+1 Shots"* (2000).