The Machine is a Great Slave But a Bad Master. Norbert Wiener
نوربرت وینر در کتاب سایبرنتیک می نویسند:ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
سایبرنتیک، بهعنوان دانش کنترل و اعمال قدرت در انسان و ماشین، علمی میانرشتهای است که به مطالعهی مکانیزمهای تنظیم، بازخورد، و ارتباطات در سیستمهای زیستی و مصنوعی میپردازد. این رشته، که توسط نوربرت وینر در دههی 1940 پایهگذاری شد، از واژهی یونانی "kybernetes" به معنای «هدایتگر» یا «فرماندار» گرفته شده و بر چگونگی مدیریت و هدایت سیستمها تمرکز دارد. سایبرنتیک به ما امکان میدهد تا تعادل و هماهنگی بین اجزای یک سیستم، چه انسانی و چه ماشینی، را درک کرده و از آن برای بهبود عملکرد استفاده کنیم.
هوش مصنوعی (AI)، در عین حال، شاخهای از علوم کامپیوتر است که به خلق سیستمهایی اختصاص دارد که قادر به انجام وظایف شناختی مانند یادگیری، استدلال، حل مسئله، و تصمیمگیری هستند، وظایفی که بهطور سنتی به هوش انسانی نسبت داده میشوند. هوش مصنوعی از اصول سایبرنتیک، بهویژه مفاهیم بازخورد و خودتنظیمی، برای توسعهی الگوریتمهایی بهره میبرد که میتوانند از دادهها یاد بگیرند و بهصورت خودکار عملکرد خود را بهبود بخشند. این فناوری، از تشخیص الگوهای پیچیده در دادهها تا خودمختاری در سیستمهای پیشرفته، کاربردهای گستردهای دارد.
نوربرت وینر، بنیانگذار سایبرنتیک، در جملهی معروف خود اظهار داشت: «ماشین، بندهای عالیست اما اربابی بد.» این جمله نهتنها به نقش دوگانهی فناوری در خدمترسانی و سلطه اشاره دارد، بلکه چارچوبی فلسفی و عملی برای درک تعامل انسان و ماشین ارائه میدهد. این پژوهش به بررسی ارتباط سایبرنتیک و هوش مصنوعی، نقش ماشین بهعنوان ابزار خدمترسان، و خطرات بالقوهی تبدیل آن به ارباب میپردازد.
سایبرنتیک، با تمرکز بر کنترل و اعمال قدرت، اصول مشترکی بین سیستمهای زیستی (مانند مغز انسان) و سیستمهای مصنوعی (مانند ماشینهای محاسباتی) ایجاد کرد. این علم بر مفاهیمی چون بازخورد (Feedback)، خودتنظیمی (Self-regulation)، و ارتباط بین اجزای یک سیستم تأکید دارد. برای مثال، مکانیزم بازخورد منفی در سایبرنتیک به سیستمها اجازه میدهد تا با تنظیم خودکار، به حالت تعادل برسند. این مفهوم بعدها به یکی از پایههای توسعهی هوش مصنوعی تبدیل شد.
هوش مصنوعی، با بهرهگیری از اصول سایبرنتیک، سیستمهایی خلق کرده که قادر به انجام وظایف پیچیده هستند. شبکههای عصبی مصنوعی و الگوریتمهای یادگیری عمیق، که از دادههای عظیم برای بهبود عملکرد خود استفاده میکنند، نمونههایی از این پیشرفتها هستند. با این حال، پیشرفت هوش مصنوعی چالشهایی را نیز به همراه داشته است. جملهی وینر به ما هشدار میدهد که اگرچه ماشینها میتوانند بندگان کارآمدی باشند، اما بدون کنترل مناسب، ممکن است به اربابانی تبدیل شوند که تصمیمگیریهای انسان را تحتالشعاع قرار دهند. برای مثال، سیستمهای هوش مصنوعی خودمختار در حوزههایی مانند خودروهای خودران یا سیستمهای مالی میتوانند بدون نظارت کافی، به نتایج غیرمنتظره یا حتی خطرناک منجر شوند.
ماشینها، هنگامی که بهعنوان ابزار تحت کنترل انسان عمل میکنند، قابلیتهای بینظیری ارائه میدهند. در حوزهی پزشکی، الگوریتمهای هوش مصنوعی با تحلیل دادههای تصویربرداری، تشخیص بیماریهایی مانند سرطان را با دقتی بالاتر از پزشکان انسانی انجام میدهند. در صنعت، سیستمهای سایبرنتیک با استفاده از بازخورد و خودتنظیمی، فرآیندهای تولید را بهینهسازی کرده و هزینهها را کاهش دادهاند. این کاربردها نشاندهندهی نقش ماشین بهعنوان «بندهای عالی» هستند که در خدمت اهداف انسانی عمل میکند.
با وجود مزایای فراوان، پیشرفت سریع هوش مصنوعی و پیچیدگی روزافزون سیستمهای سایبرنتیک خطراتی را نیز به همراه دارد. یکی از نگرانیهای اصلی، کاهش کنترل انسانی بر سیستمهای خودمختار است. برای مثال، الگوریتمهای یادگیری ماشین که در شبکههای اجتماعی استفاده میشوند، میتوانند با تقویت محتوای جنجالی یا اطلاعات نادرست، بهصورت غیرمستقیم رفتارهای اجتماعی را هدایت کنند. این پدیده نشاندهندهی تبدیل شدن ماشین از یک ابزار خدمترسان به نیرویی است که میتواند بر تصمیمگیریهای انسانی تأثیر منفی بگذارد.
علاوه بر این، مسائل اخلاقی مرتبط با هوش مصنوعی، مانند سوگیری در الگوریتمها یا فقدان شفافیت در تصمیمگیریهای سیستمهای خودمختار، چالشهایی هستند که نیاز به نظارت دقیق دارند. وینر در آثار خود بر اهمیت حفظ کنترل انسانی بر ماشینها تأکید کرده و هشدار داده بود که عدم توجه به این موضوع میتواند به سلطهی ماشینها منجر شود.
برای جلوگیری از تبدیل ماشین به ارباب، رویکردهای زیر پیشنهاد میشود:
جملهی نوربرت وینر نهتنها یک هشدار فلسفی، بلکه یک راهنمای عملی برای توسعه و استفاده از فناوریهای سایبرنتیک و هوش مصنوعی است. سایبرنتیک، بهعنوان دانش کنترل و اعمال قدرت در انسان و ماشین، چارچوبی برای درک تعاملات پیچیدهی این دو ارائه میدهد، در حالی که هوش مصنوعی ابزارهایی قدرتمند برای حل مسائل پیچیده فراهم میکند. با این حال، برای بهرهبرداری از مزایای این فناوریها و جلوگیری از خطرات آنها، باید تعادل بین کنترل انسانی و خودمختاری ماشین حفظ شود. ماشینها باید بهعنوان بندگان انسان باقی بمانند، نه اربابانی که بر او مسلط شوند. سهیل سلیمی
کوتاه پیرامون فلسفه ی اخلاق در هوش مصنوعی
مقدمه:
در عصر هوش مصنوعی، ما با پرسشی مواجهایم که تا دیروز تنها در ساحت فلسفه، دین و اخلاق زیست میکرد: «چه کسی باید نجات یابد؟» این پرسش، وقتی رنگ و بوی واقعی به خود میگیرد که در یک وضعیت بحرانی ـ مثلاً سقوط یک خودرو حاوی پنج عضو یک خانواده به درون رودخانهای یخزده ـ روبات نجاتگری مبتنی بر هوش مصنوعی، تنها توان نجات یک نفر را داشته باشد. کودک؟ مادر؟ سالخورده؟ یا آن که از نظر زیستی مقاومتر است؟
آیا ماشین تصمیم خواهد گرفت؟ و اگر بله، با چه معیاری؟
۱. سایبرنتیک و بازآرایی مفهوم تصمیم
نخست باید به چیستی «تصمیم» در بستر سایبرنتیک نگاه کنیم. سایبرنتیک، به تعبیر نوربرت وینر، علم فرمان، کنترل و ارتباط در موجودات زنده و ماشینهاست. در این چارچوب، هر کنش، بازخوردی دارد؛ و هر تصمیم، حاصل شبکهای از اطلاعات، وزنها و حلقههای بازخوردی است.
در یک سیستم سایبرنتیکی، اولویت نه براساس «احساس» بلکه براساس الگوریتمی از ورودیها و خروجیها تعیین میشود. بنابراین روبات نجاتگر، ممکن است تابعی از این جنس داشته باشد:
نجات کسی که کمترین انرژی برای نجاتش لازم است و بالاترین احتمال بقاء را دارد.
یا:
نجات فردی که در شبکه اطلاعاتی، دارای بیشترین ارزش اجتماعی یا ژنتیکی (بر اساس دادههای آماری آموزشدیده) شناخته شده است.
در اینجا اخلاق، از درون شبکه تصمیمسازی به بیرون پرتاب میشود، مگر آنکه اخلاق، خود به دادهای قابل رمزگذاری تبدیل شده باشد.
۲. اخلاق بهمثابه داده: آیا ممکن است؟
سؤال اساسی این است که آیا «اخلاق» را میتوان به الگوریتم تبدیل کرد؟ اگر پاسخ منفی باشد، پس سیستمهای مبتنی بر هوش مصنوعی هرگز اخلاقی تصمیم نخواهند گرفت، بلکه صرفاً بر اساس «اولویتهایی برنامهریزیشده» عمل خواهند کرد.
اما اگر بپذیریم که میتوان اخلاق را در قالب قواعدی فرمال و قابل محاسبه فرموله کرد (نظیر اخلاق وظیفهگرای کانتی، یا اخلاق پیامدگرای بنتامی)، آنگاه شاید بتوان امید داشت که روبات نجاتگر، تصمیمی «اخلاقی» بگیرد.
مثلاً، بر اساس اخلاق وظیفهگرا، نجات کودک به عنوان موجودی بیگناه و ناتوان، یک وظیفه اخلاقی بیقید و شرط است. اما در نگاه پیامدگرایانه، نجات مادر ممکن است توجیهپذیر باشد زیرا او میتواند فرزندان دیگر را در آینده تربیت کند.
در هر دو صورت، اخلاق دیگر حس یا الهام نیست، بلکه تابعی ریاضیاتی و سایبرنتیکی از اهداف سیستم است.
۳. احساسات: خطای سیستم یا سیگنالی فراتر از منطق؟
در انسان، احساسات نقش حیاتی در تصمیمگیری دارند. ما از روی شفقت، عشق، ترس، وفاداری یا اندوه تصمیم میگیریم؛ تصمیمهایی که اغلب در تضاد با منطق سرد هستند. سایبرنتیک در فرم کلاسیکش، احساس را اغلب بهعنوان نویز یا اختلال در سیستم در نظر میگیرد، اما در نسخههای نوین و بینارشتهای، احساس بهمثابه سیگنالی نرم برای تنظیم وزنهای تصمیم دیده میشود.
هوش مصنوعی میتواند یاد بگیرد که احساسات را تقلید کند (همدلسازی)، اما نمیتواند واقعاً «احساس» داشته باشد. این تفاوت، در لحظه بحران، تعیینکننده است: روبات دچار تردید نمیشود، پشیمان نمیشود، و خاطرهای از آن لحظه در ضمیر ناخودآگاهش نمیسازد. این «نبود عذاب وجدان»، مزیت کاراییست، اما خلأ اخلاقی را نیز آشکار میسازد.
۴. رسانه و بازنمایی انتخاب اخلاقی در هوش مصنوعی
در جهان امروز، رسانهها نقش چشمگیری در شکلدادن به تصویر عمومی از هوش مصنوعی دارند. روایتهایی که از روباتهای نجاتگر در فیلمها و داستانها میبینیم، اغلب با ترس، تحسین یا پرسش همراهاند. رسانه با بازنمایی موقعیتهای بحرانی، ما را با مسئله «انتخاب» در برابر چشم هوشمند و بیروح ماشین مواجه میکند. این بازنماییها نهتنها افکار عمومی، بلکه مسیر توسعه فناوری را نیز جهت میدهند. اگر جامعه بخواهد روبات نجاتگر بر اساس «احساس» تصمیم بگیرد، توسعهدهندگان در پاسخ، احساس را شبیهسازی خواهند کرد.
اینجاست که «بازخورد رسانهای» به بخشی از سیستم سایبرنتیکی توسعه فناوری تبدیل میشود.
در نهایت، باید بپذیریم که هوش مصنوعی، در وضعیت دو راهی اخلاقی، به گونهای تصمیم خواهد گرفت که از پیش توسط ما ـ برنامهریزان و طراحان ـ درون الگوریتمهایش کاشته شده است. اگر ما اخلاق را به زبان داده ترجمه نکنیم، ماشین تنها بر اساس اولویتهای فنی تصمیم خواهد گرفت.
بنابراین، مسئولیت تصمیم هوش مصنوعی، نه با خودش، بلکه با ماست. و این، نه صرفاً مسئلهای فنی، بلکه عمیقاً رسانهای، اخلاقی و سایبرنتیکیست.
نویسنده: سهیل سلیمی
از میانه قرن بیستم، نظریه سایبرنتیک به عنوان علمی میانرشتهای در تبیین سیستمهای کنترل، بازخورد و ارتباطات انسان و ماشین پا به عرصه گذاشت. نوربرت وینر، پدر علم سایبرنتیک، این علم را ناظر بر الگوهای ارتباط و کنترل در موجودات زنده و ماشینها دانست. امروزه، با اوجگیری هوش مصنوعی، مفاهیم سایبرنتیک نه تنها جنبه نظری ندارند، بلکه به شکل ملموسی در بطن سیستمهای هوشمند و الگوریتمهای تولید محتوا بازتولید شدهاند.
سایبرنتیک بهواسطه تمرکز بر بازخورد، تطبیقپذیری و کنترل، بستر فکری و مفهومی مهمی برای توسعه هوش مصنوعی فراهم کرد. در واقع، الگوریتمهای یادگیری ماشین و شبکههای عصبی مصنوعی امروز، بازتابی از مفاهیم سایبرنتیکی هستند: سیستمهایی که از دادهها بازخورد میگیرند، الگوها را شناسایی میکنند و رفتار خود را اصلاح میکنند.
در این چارچوب، رسانهها نیز به عنوان سیستمهایی سایبرنتیکی قابل تحلیلاند. آنها داده (توجه، کلیک، پسندیدن، بازنشر) دریافت میکنند، از طریق الگوریتمها آن را پردازش میکنند و محتوای جدید تولید مینمایند—چرخهای که به طور فزایندهای توسط هوش مصنوعی تسهیل میشود.
گرچه هوش مصنوعی توانسته در عرصه تولید محتوا کارایی و سرعت را بالا ببرد، اما این توسعه، بدون تبعات نیست. در ادامه برخی از مهمترین آسیبهای این پدیده را مرور میکنیم:
با قدرت فزاینده هوش مصنوعی در تولید متن، صدا، تصویر و ویدیو، تفکیک میان محتوای واقعی و ساختگی دشوار شده است. فناوریهایی چون «دیپفیک» یا متون ماشینی که شبیه نویسندگان واقعی نوشته میشوند، نوعی بحران اعتماد به رسانهها پدید آوردهاند.
الگوریتمهای مبتنی بر هوش مصنوعی بر اساس بازخوردهای گذشته کار میکنند. اگر کاربری محتوایی خاص را بپسندد، سیستم محتواهای مشابه بیشتری به او ارائه میدهد. این پدیده که در سایبرنتیک با مفهوم بازخورد مثبت شناخته میشود، منجر به ایجاد "پژواکخانههای رسانهای" میشود؛ محیطهایی که در آن تنها صداهای موافق شنیده میشود و فرد از مواجهه با دیدگاههای متفاوت محروم میگردد.
هوش مصنوعی قادر به تقلید از سبکهای نوشتاری، بصری و صوتی است؛ اما در اغلب موارد، فاقد شهود، تجربه و بینش انسانی است. تکیه صرف بر تولید ماشینی محتوا میتواند به فرسایش خلاقیت، اصالت و روایتگری انسانی در رسانهها بینجامد.
اکوسیستم رسانهای امروز در دست چند پلتفرم بزرگ جهانی است که با استفاده از هوش مصنوعی، جریان اطلاعات را کنترل میکنند. این تمرکز قدرت، با اصول ارتباط آزاد و توزیعشده سایبرنتیک در تضاد است و موجب آسیبپذیری فرهنگی، سیاسی و اقتصادی جوامع میشود.
برای فهم بهتر مسیر پیشرو، بازگشت به مفاهیم سایبرنتیکی ضروری است. سایبرنتیک نه تنها در درک نحوه کار سیستمهای هوش مصنوعی به ما کمک میکند، بلکه ابزار تحلیلی قدرتمندی برای نقد عملکرد رسانهها، الگوریتمها و ساختارهای قدرت در اختیار ما میگذارد.
هوش مصنوعی میتواند ابزار توانمندی برای تقویت خلاقیت انسانی و دسترسی عادلانه به اطلاعات باشد، اما تنها در صورتی که ما به نقش خود به عنوان کنترلگر آگاه در این سیستم توجه کنیم—نه صرفاً دریافتکننده منفعل محتوا.
Introduction: Sun Tzu's Dream in the Modern Era
The Outbreak of COVID-19: Spark of a Silent War
Cybernetics and Biocybernetics: The Science of Control over Life
Strategy Redesign: From World War I to World War IV
Modern History of Biological Warfare
Health Commerce and the Economy of a Pandemic
Media's Role in Inducing Fear and Social Control
Classified Projects: From MK-Ultra to Project Corona
Pre-COVID Simulations and Predictive Documents
Science Control, Censorship, and the New World Order
Conclusion: Has the Future War Already Begun?
Sun Tzu, the great Chinese strategist, wrote in "The Art of War": "The supreme art of war is to subdue the enemy without fighting." Today, this ideal has manifested in a modern form using viruses, media, fear, and control technologies. This documentary is an attempt to analyze this modern warfare.
The spread of the coronavirus on the eve of Yalda night in 2019 marked the beginning of a new era. The world rapidly plunged into chaos, fear, and lockdown. Shortages of masks, medicines, and clashes among nations over medical supplies illustrated a global crisis. But was this pandemic accidental?
Cybernetics is the science of control and guidance. When applied to biological phenomena such as viruses, it becomes biocybernetics: the domination of societies through biological control. From managing a virus to steering the economy, politics, and culture—everything can be engineered through this science.
Throughout history, diseases have replaced guns and bombs in wars. The British, Japanese, and Americans have all used biological weapons to eliminate enemies. Now, the COVID pandemic may be a redesign of those historical strategies.
From smallpox-contaminated blankets given to Native Americans to U.S. military tests on its citizens, history is full of examples of diseases being used as weapons. Iran, too, has been a victim of chemical warfare by the Ba'athist regime.
The healthcare industry has become one of the most profitable sectors globally. Pharmaceutical companies, hospitals, vaccine manufacturers, and medical equipment suppliers all benefit from health crises. The conflict between public health and financial profit raises a critical question: should health be commercialized?
Media holds immense power to instill fear. Fear that weakens the immune system and makes people vulnerable to disease. The COVID pandemic was a prime example of how media was used purposefully to instill fear and enforce collective compliance.
Numerous documents about projects like MK-Ultra, Japan's Unit 731, and U.S. experiments in Fort Detrick reveal hidden agendas behind scientific and technological advancements, using them to dominate and manipulate human behavior.
From the "Event 201" simulation to the Rockefeller Foundation's 2010 scenario report, several documents predicted a global pandemic with astonishing precision before COVID actually happened. These documents raise serious questions about prior planning.
Scientific research during COVID faced intense censorship. Articles warning about vaccine risks or the virus's origins were often rejected or buried. Knowledge became a tool of power, not enlightenment. This censorship reflects the broader agenda of the new world order.
This documentary offers a deep analysis of history, science, media, and politics to present a realistic portrait of the post-COVID world—a world where viruses, media, cybernetics, and economics are tools for engineering global dominance.
رویای سون تزو — مستند جنگ بیولوژیک، سایبرنتیک و مهندسی جهانی قدرت
نویسنده تهیه کننده و کارگردان: سهیل سلیمی
آنچه در رویای سون تزو خواهید دید:
سون تزو، استراتژیست بزرگ چینی، در کتاب "هنر جنگ" مینویسد: «بهترین پیروزی آن است که بدون جنگ، دشمن را تسلیم کنی.» این آرمان امروز بهگونهای مدرن با ابزارهایی مانند ویروسها، رسانه، ترس و تکنولوژیهای کنترل محقق شده است. مستند پیشرو تلاشی است برای تحلیل این نبرد مدرن.
شیوع ویروس کرونا در شب یلدای ۱۳۹۸ آغازگر دوران تازهای بود. بهسرعت، دنیا به سمت آشفتگی، ترس و تعطیلی کشیده شد. کمبود ماسک، دارو، و درگیری میان کشورها بر سر تجهیزات بهداشتی، چهرهای از بحران جهانی را نمایان کرد. اما آیا این پاندمی تصادفی بود؟
سایبرنتیک دانش کنترل و هدایت است. وقتی این دانش بر پدیدههای زیستی چون ویروسها اعمال شود، بایوسایبرنتیک شکل میگیرد: سلطه بر جوامع از مسیر کنترل زیستی. از کنترل یک ویروس تا کنترل اقتصاد، سیاست و فرهنگ — همه میتوانند بخشی از این مهندسی باشند.
در تاریخ جنگها، گاه بیماریها جایگزین توپ و تفنگ شدهاند. انگلیس، ژاپن و آمریکا نمونههایی از قدرتهایی هستند که از سلاحهای بیولوژیک برای حذف دشمنان استفاده کردند. اکنون، جنگ بیولوژیک در قالب کرونا شاید بازطراحی همان راهبردهاست.
از پتوی آلوده به آبله که به بومیان آمریکا داده شد تا آزمایشهای بیولوژیک ارتش آمریکا بر شهروندان خود، تاریخ مملو از استفاده از بیماری به عنوان سلاح است. ایران نیز قربانی سلاحهای شیمیایی رژیم بعث عراق بوده است.
صنعت درمان به یکی از پرسودترین صنایع جهان بدل شده است. شرکتهای داروسازی، بیمارستانها، تولیدکنندگان واکسن و تجهیزات پزشکی، همگی از هر بحران سلامت جهانی سود میبرند. تضاد منافع میان سود و سلامت عمومی، سوالی اساسی را ایجاد میکند: آیا سلامت باید تجارت باشد؟
رسانهها قدرتی بینظیر در القای ترس دارند. ترسی که سیستم ایمنی بدن را تضعیف و مردم را در برابر بیماری آسیبپذیر میکند. پاندمی کرونا، نمونهای از استفاده هدفمند از رسانه برای القای ترس و فرمانبرداری جمعی بود.
اسناد متعددی از پروژههایی نظیر امکاولترا، واحد ۷۳۱ ژاپن، آزمایشهای ارتش آمریکا در فورت دیتریک و پروژههای کنترل ذهن، پرده از اهداف پنهان قدرتهای جهانی در بهرهبرداری از علم و تکنولوژی برای تسلط بر انسانها برمیدارند.
از رویداد شبیهسازیشده «ایونت ۲۰۱» تا پیشبینی بنیاد راکفلر در سال ۲۰۱۰، شواهدی وجود دارد که پاندمی کرونا سناریویی طراحیشده بوده است. سندهای فراوانی پیش از وقوع کرونا، وقوع چنین بحرانی را با دقت شگفتآور پیشبینی کرده بودند.
تحقیقات علمی در دوران کرونا دچار سانسور شدید شدند. مقالاتی که خطرات واکسن یا منشأ ویروس را بررسی میکردند، منتشر نمیشدند. دانش، ابزاری شده برای تحکیم قدرت، نه روشنگری. این سانسور علمی، بخشی از نظم نوین جهانی است.
مستند حاضر با نگاهی عمیق به تاریخ، علم، رسانه و سیاست، سعی دارد تصویری واقعبینانه از دنیای پساکرونا ارائه دهد. دنیایی که در آن ویروس، رسانه، سایبرنتیک و اقتصاد ابزاری برای مهندسی جهانی قدرت هستند.
لینک تماشای مستند رویای سون تزو : Sun Tzu's Dreamhttps://www.youtube.com/watch?v=c_tn33r3q_0