
تسلیحات رسانهای هوشمحور: ابزارهای نوین قدرت سایبرنتیک
AI-Powered Media Weaponry: Tools of Modern Cybernetic Power
ارائه دهنده: سهیل سلیمی مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلمساز
مقدمه (Introduction)
پیشرفتهای فناورانه در دهههای اخیر، ترکیبی بیسابقه از ابزارها را در اختیار بازیگران قدرتمند قرار داده است: دسترسی بیدرنگ به میلیاردها کاربر (real-time access to billions of users)، توان پردازش و یادگیری ماشینی برای تحلیل و هدفگذاری (machine learning for analysis and targeting)، و واسطهای تولید محتوای خودکار (automated content generation interfaces). این فناوریها، که زمانی صرفاً ابزارهای ارتباطی بودند، اکنون به تسلیحات استراتژیک در زرادخانه قدرتهای جهانی (global power arsenals) تبدیل شدهاند. این تسلیحات، که نه از طریق نیروی فیزیکی بلکه از طریق دستکاری توجه (attention manipulation)، شکلدهی ادراک (perception shaping)، و تغییر رفتار جمعی (collective behavior modification) عمل میکنند، به کنترل کنندگان قدرت، امکان میدهند تا نفوذ خود را در مقیاسی بیسابقه اعمال کنند.
این متن به بررسی موارد زیر میپردازد:
این تحلیل بر اساس مرور گسترده ادبیات میانرشتهای (interdisciplinary literature review) در حوزههای اطلاعاتی، رسانهای، علوم کامپیوتر، حقوق بینالملل، و مطالعات امنیت انجام شده و از منابع معتبر مانند LikeWar (Singer & Brooking, 2018) و The Age of Surveillance Capitalism (Zuboff, 2019) بهره میگیرد.
چارچوب نظری: مدیا-سایبرنتیک و جنگ شناختی
Theoretical Framework: Media-Cybernetics and Cognitive Warfare
مدیا-سایبرنتیک (media-cybernetics) مطالعه سامانههای رسانهای است که با حلقههای بازخورد دادهمحور (data-driven feedback loops) عمل میکنند. این سامانهها شامل چهار مؤلفه اصلی هستند:
این معماری با پارادایم سایبرنتیک (cybernetic paradigm) همخوانی دارد، که هدفش کنترل و تنظیم رفتارها از طریق جمعآوری داده و اصلاحات پیوسته (continuous data-driven adjustments) است.
جنگ شناختی (cognitive warfare)، برخلاف جنگهای سنتی، بهجای نابودی فیزیکی دشمن، بر تغییر باورها (belief alteration)، تصمیمگیریها (decision-making manipulation)، و اولویتهای انتخابی جمعیتها (population choice prioritization) تمرکز دارد. ابزارهای دیجیتال مدرن، با قابلیت توزیع پیامهای هدفمند و شخصیسازیشده (targeted and personalized messaging)، اثربخشی اقناع (persuasion effectiveness) را به سطوحی بیسابقه ارتقا دادهاند.
سازوکارهای فنی و سازمانی
Technical and Organizational Mechanisms
1. زنجیره داده (Data Supply Chain)
هر عملیات اقناعی مدرن با داده آغاز میشود. دادههای رفتاری کاربران (user behavioral data)، شبکههای ارتباطی (social network data)، متادیتا (metadata)، و دادههای حسگرهای اینترنت اشیا (IoT sensor data) جمعآوری میشوند. این دادهها پس از پاکسازی (data cleaning) برای ایجاد نمایههای مخاطبان (audience profiles) استفاده میشوند که گرایشها، حساسیتهای روانی، و نقاط آسیبپذیری (psychological vulnerabilities) را مشخص میکنند.
2. مدلها و الگوریتمها (Modeling & Targeting / Algorithmic)
الگوریتمهای یادگیری ماشینی (machine learning algorithms)، از مدلهای طبقهبندی ساده تا شبکههای عصبی عمیق (deep neural networks) و مدلهای زبانی بزرگ (large language models - LLMs)، برای پیشبینی پاسخهای محتمل (predictive behavioral modeling) و شناسایی نقاط نفوذ (vulnerability nodes) به کار میروند. این مدلها از آزمایش A/B در مقیاس گسترده (large-scale A/B testing) برای بهینهسازی پیامها استفاده میکنند.
3. تولید محتوای مقیاسپذیر (Scalable Content Generation)
فناوریهای مولد (generative technologies)، مانند مدلهای زبانی (LLMs)، مولدهای تصویر (image generators)، و ابزارهای تبدیل متن به صوت (text-to-speech tools)، امکان تولید محتوای سفارشیشده برای میلیونها مخاطب را فراهم میکنند. این محتوا شامل میمها (memes)، ویدئوهای دیپفیک (deepfakes)، و پیامهای صوتی هدفمند (targeted audio messages) است که بهصورت خودکار و در مقیاس تولید میشوند.
4. توزیع و تقویت الگوریتمیک (Algorithmic Distribution & Amplification)
پلتفرمهای دیجیتال با الگوریتمهایی که به توجه و تعامل پاداش میدهند (attention-driven algorithms)، پیامهای پرجذب (high-engagement content) را تقویت میکنند. بازیگران قدرت از شبکههای رباتیک (botnets)، حسابهای هماهنگ (coordinated accounts)، و تبلیغات هدفمند (targeted ads) برای توزیع پیامها استفاده میکنند.
5. حلقههای بازخورد میدانی (Real-time Feedback Loops)
برخلاف پروپاگانداهای سنتی، این سامانهها از کنترل در زمان واقعی (real-time control) بهره میبرند. دادههای واکنش کاربران (user reaction data) بهسرعت تحلیل شده و مدلها بهروزرسانی میشوند تا پیامها دقیقتر شوند. این حلقههای کنترلی بسته (closed control loops)، که در سایبرنتیک بهینه تلقی میشوند، اثربخشی عملیات را افزایش میدهند.
کارکردها و سناریوهای راهبردی
Functions and Strategic Scenarios
الف) اثرگذاری انتخاباتی و سیاسی (Electoral and Political Influence)
هدفگذاری دقیق و آزمایش مداوم پیامها (continuous message testing) میتواند حوزههای حساس رأیدهی (swing voter regions) را تحت تأثیر قرار دهد. گزارشهایی از دخالت در انتخابات (election interference)، مانند موارد بررسیشده توسط The Guardian (Cadwalladr & Graham-Harrison)، نشاندهنده تأثیر این ابزارها بر افکار عمومی است.
ب) تضعیف نهادها و کاهش مشروعیت (Undermining Institutions and Legitimacy)
انتشار اطلاعات نادرست (disinformation)، شایعات (rumors)، و نشتهای جعلی (fabricated leaks) میتواند اعتماد عمومی به نهادهای مدنی (civic institutions) و رسانهها را تضعیف کند، که به نفوذ سیاسی بازیگران داخلی یا خارجی (domestic/foreign actors) منجر میشود.
ج) عملیات روانی و تاکتیکهای میدان نبرد (Psychological Operations and Battlefield Tactics)
در درگیریهای مسلحانه، روایتهایی که روحیه دشمن را تضعیف (demoralization) یا نیروهای همپیمان را تهییج میکنند (motivational narratives)، اثربخشی عملیات نظامی را تغییر میدهند. نمونههای معاصر در LikeWar (Singer & Brooking, 2018) به این موضوع پرداختهاند.
د) ایجاد/مدیریت بحران و بحرانهای شناختی (Crisis Creation/Management and Cognitive Crises)
ساخت شرایط اطلاعاتی جعلی (false information conditions)، مانند گزارشهای جعلی از حوادث (fabricated incident reports)، میتواند واکنشهای سیاسی یا نظامی را به نفع بازیگران قدرت (strategic actors) برانگیزد.
پیامدهای قانونی، اخلاقی و سیاستی
Legal, Ethical, and Policy Implications
در غیاب مقررات جهانی (global regulations)، خطر سوءاستفادههای راهبردی (strategic misuse)، نقض حقوق مدنی (civil rights violations)، و تضعیف نهادهای دموکراتیک (democratic institutions) افزایش مییابد. چالشهای کلیدی شامل موارد زیر است:
برای مقابله، اقدام سیاستی سریع (swift policy action)، ترکیب راهکارهای فنی (technical countermeasures) مانند ابزارهای تشخیص دیپفیک (deepfake detection tools)، و تقویت سواد اطلاعاتی عمومی (public information literacy) ضروری است.
نتیجهگیری (Conclusion)
تسلیحات رسانهای هوشمحور (AI-powered media weaponry) با ترکیب رسانههای دیجیتال و هوش مصنوعی، به ابزاری کلیدی برای اعمال نفوذ و کنترل (power exertion and control) تبدیل شدهاند. منطق سایبرنتیکی (cybernetic logic) این ابزارها، با تکیه بر زنجیره داده (data supply chain)، الگوریتمهای پیشرفته (advanced algorithms)، و حلقههای بازخورد (feedback loops)، امکان شکلدهی به ادراکات و رفتارهای جمعی (collective perception and behavior) را در مقیاسی بیسابقه فراهم میکند. با این حال، مدیریت این تسلیحات اگر روی از زیر نظر سازمانهای امنیتی آنگلوساکسون و غربی خارج شود، نیازمند مقررات قوی (robust regulations)، همکاری بینالمللی (international cooperation)، و آموزش عمومی (public education) است تا از تهدیدات آنها علیه منافع عمومی (public interest) جلوگیری شود. که اگر خودمان مجهز به فضای سالم سایبر و مدیریت انبود اطلاعات نباشیم، برای ما وجود نخواهد داشت و به صورت مدام از این نطقه ضعف به ما حمله خواهد شد.
منابع (References)

آنچه در رویای سون تزو خواهید دید:
سون تزو، استراتژیست بزرگ چینی، در کتاب "هنر جنگ" مینویسد: «بهترین پیروزی آن است که بدون جنگ، دشمن را تسلیم کنی.» این آرمان امروز بهگونهای مدرن با ابزارهایی مانند ویروسها، رسانه، ترس و تکنولوژیهای کنترل محقق شده است. مستند پیشرو تلاشی است برای تحلیل این نبرد مدرن.
شیوع ویروس کرونا در شب یلدای ۱۳۹۸ آغازگر دوران تازهای بود. بهسرعت، دنیا به سمت آشفتگی، ترس و تعطیلی کشیده شد. کمبود ماسک، دارو، و درگیری میان کشورها بر سر تجهیزات بهداشتی، چهرهای از بحران جهانی را نمایان کرد. اما آیا این پاندمی تصادفی بود؟
سایبرنتیک دانش کنترل و هدایت است. وقتی این دانش بر پدیدههای زیستی چون ویروسها اعمال شود، بایوسایبرنتیک شکل میگیرد: سلطه بر جوامع از مسیر کنترل زیستی. از کنترل یک ویروس تا کنترل اقتصاد، سیاست و فرهنگ — همه میتوانند بخشی از این مهندسی باشند.
در تاریخ جنگها، گاه بیماریها جایگزین توپ و تفنگ شدهاند. انگلیس، ژاپن و آمریکا نمونههایی از قدرتهایی هستند که از سلاحهای بیولوژیک برای حذف دشمنان استفاده کردند. اکنون، جنگ بیولوژیک در قالب کرونا شاید بازطراحی همان راهبردهاست.
از پتوی آلوده به آبله که به بومیان آمریکا داده شد تا آزمایشهای بیولوژیک ارتش آمریکا بر شهروندان خود، تاریخ مملو از استفاده از بیماری به عنوان سلاح است. ایران نیز قربانی سلاحهای شیمیایی رژیم بعث عراق بوده است.
صنعت درمان به یکی از پرسودترین صنایع جهان بدل شده است. شرکتهای داروسازی، بیمارستانها، تولیدکنندگان واکسن و تجهیزات پزشکی، همگی از هر بحران سلامت جهانی سود میبرند. تضاد منافع میان سود و سلامت عمومی، سوالی اساسی را ایجاد میکند: آیا سلامت باید تجارت باشد؟
رسانهها قدرتی بینظیر در القای ترس دارند. ترسی که سیستم ایمنی بدن را تضعیف و مردم را در برابر بیماری آسیبپذیر میکند. پاندمی کرونا، نمونهای از استفاده هدفمند از رسانه برای القای ترس و فرمانبرداری جمعی بود.
اسناد متعددی از پروژههایی نظیر امکاولترا، واحد ۷۳۱ ژاپن، آزمایشهای ارتش آمریکا در فورت دیتریک و پروژههای کنترل ذهن، پرده از اهداف پنهان قدرتهای جهانی در بهرهبرداری از علم و تکنولوژی برای تسلط بر انسانها برمیدارند.
از رویداد شبیهسازیشده «ایونت ۲۰۱» تا پیشبینی بنیاد راکفلر در سال ۲۰۱۰، شواهدی وجود دارد که پاندمی کرونا سناریویی طراحیشده بوده است. سندهای فراوانی پیش از وقوع کرونا، وقوع چنین بحرانی را با دقت شگفتآور پیشبینی کرده بودند.
تحقیقات علمی در دوران کرونا دچار سانسور شدید شدند. مقالاتی که خطرات واکسن یا منشأ ویروس را بررسی میکردند، منتشر نمیشدند. دانش، ابزاری شده برای تحکیم قدرت، نه روشنگری. این سانسور علمی، بخشی از نظم نوین جهانی است.
مستند حاضر با نگاهی عمیق به تاریخ، علم، رسانه و سیاست، سعی دارد تصویری واقعبینانه از دنیای پساکرونا ارائه دهد. دنیایی که در آن ویروس، رسانه، سایبرنتیک و اقتصاد ابزاری برای مهندسی جهانی قدرت هستند.
لینک تماشای مستند رویای سون تزو : Sun Tzu's Dream https://www.youtube.com/watch?v=c_tn33r3q_0
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلمساز
این مقاله نخستینبار در قالب ارائهای تخصصی در کارگاه «مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه» در سومین دوره کنفرانس بینالمللی فضای سایبر (آبان ۱۴۰۳) ارائه شده است. کارگاه مزبور با هدف تحلیل میانرشتهای نسبت سایبرنتیک، هوش مصنوعی، و تحولات رسانهای، فرصتی برای بازاندیشی نقش اخلاق در نظامهای تصمیمساز فراهم آورد. در این مقاله، با تکیه بر منظری انتقادی و نظریهمحور، تأثیرات فزاینده هوش مصنوعی بر بازنمایی رسانهای و نیز مخاطرات آن بر اخلاق، مسئولیت و انسانمحوری در معماریهای سایبرنتیکی بررسی میشود.
در بستری که مدیاسایبرنتیک شکل گرفته است—یعنی جایی که رسانه، داده و تصمیم در یک چرخه خودتقویتگر به هم پیوستهاند—پرسش از معیار اخلاقی در دل الگوریتمهای بیطرفنما، بیش از همیشه ضروری بهنظر میرسد. مقاله حاضر بر آن است که نشان دهد هوش مصنوعی، اگر بدون مراقبت نظری و مهار اخلاقی رها شود، نه تنها پیامرسانی را متحول، بلکه قدرت قضاوت را نیز از انسان سلب میکند؛ و در نتیجه، به فراگیری تولیدات رسانهای فاقد مسئولیت دامن میزند.

سایبرنتیک، بهمثابه نظریهای میانرشتهای که در دهه ۱۹۴۰ توسط نوربرت وینر پایهگذاری شد، به بررسی مکانیسمهای کنترل، بازخورد و ارتباط در سیستمهای پیچیده میپردازد. در عصر دیجیتال، این نظریه وارد عرصههای رسانه، سیاست، زیستفناوری و هوش مصنوعی شده و الگویی فراگیر از «تنظیم و تطبیق» بر مبنای داده ارائه کرده است.
در نظامهای سایبرنتیکی مدرن، تصمیمگیری بهوسیله شبکههای عصبی، الگوریتمهای یادگیری عمیق و مدلهای دادهمحور صورت میگیرد. این سامانهها با تحلیل دادههای انبوه، الگوهایی آماری از گذشته تولید کرده و آنها را برای پیشبینی آینده به کار میگیرند. در عین حال، فقدان عناصر انسانی نظیر دغدغه اخلاقی، تردید، شفقت و مسئولیتپذیری، یکی از مهمترین چالشهای این معماریهاست.
پیش از بررسی اخلاق در سطح فنی، باید به مبانی فلسفی آن پرداخت. در سنت فلسفه اخلاق، سه مکتب اصلی وجود دارد:
اخلاق وظیفهگرا (کانتی) – تأکید بر تکلیف فارغ از نتیجه
اخلاق پیامدگرا (بنتام، میل) – تأکید بر بیشینهسازی سود یا کاهش ضرر
اخلاق فضیلتمحور (ارسطویی) – تمرکز بر شخصیت و نهادینهسازی منش اخلاقی
در ساخت الگوریتمها، بهویژه در کاربردهای هوش مصنوعی در رسانه یا خودروهای خودران، معمولاً مدلهای پیامدگرا بهکار میروند؛ زیرا قابل ترجمه به زبان ریاضی و تصمیمسازی ماشینیاند.
اما همانگونه که در مقاله سلیمی آمده است، چنین تصمیماتی بیشتر شبیه به "برنامهریزی اخلاقنما" هستند تا "تصمیمات اخلاقی اصیل". الگوریتم نمیاندیشد، احساس نمیکند، و درک ندارد؛ بلکه فقط پاسخهای بهینه بر مبنای معیارهای از پیش تعریفشده تولید میکند.
مفاهیمی چون پشیمانی، وجدان، تردید یا مسئولیتپذیری، از جمله ویژگیهای زیسته انسانیاند که در تصمیمگیریهای اخلاقی نقش تعیینکننده دارند. این عناصر، برآمده از حافظه عاطفی، آگاهی تاریخی و خویشتننگری هستند.
در مقابل، ماشینها فقط قادر به بازشمارش خطا یا اصلاح براساس الگوریتمهای بهروزرسانی هستند. به همین دلیل، حتی وقتی یک الگوریتم تصمیمی به ظاهر اخلاقی اتخاذ میکند، این تصمیم در خلأ اخلاقی و بدون ادراک تجربه انسانی شکل گرفته است.
در واقع این «شکاف میان ادراک و شبیهسازی» است؛ و اعتماد به سامانههایی که فقط «نقاب اخلاقی» بر چهره دارند، میتواند زمینهساز فجایع اخلاقی شود.
در نظامهای حقوقی و اخلاقی سنتی، مسئولیت تابع نیت، آگاهی و امکان انتخاب بدیل است. اما در سیستمهای هوشمند، این سه شرط یا غایباند یا در ماشین قابل تعریف نیستند.
اگر اخلاق به فرمول و داده تقلیل یابد، آنگاه مسئولیت نیز به یک خروجی بیروح تبدیل خواهد شد. در این وضعیت، خطر فروپاشی اخلاق انسانی بهشدت بالاست.
در سینما، رسانههای دیجیتال و تبلیغات، تصویری از ماشینهایی ارائه میشود که گویی احساس، فهم و اخلاق دارند. فیلمهایی چون I, Robot، Ex Machina و Her، به شکلگیری تصوری اغواگرانه از «هوش اخلاقی مصنوعی» کمک میکنند.
این روند منجر به انسانوارهسازی (Anthropomorphizing) سامانهها میشود، که در نهایت به اعتماد کاذب و پذیرش ناآگاهانه فناوریهای فاقد مسئولیتپذیری انسانی میانجامد.
رویکرد مدیاسایبرنتیکی هشدار میدهد که رسانه نه فقط بازتابدهنده، بلکه تولیدکننده تصور ما از اخلاق ماشینی است. این تصور، با بازخورد خود، طراحی سامانهها را نیز متأثر میسازد و در یک چرخه بسته، مرز خیال و واقعیت را مخدوش میکند.
نتیجهگیری: میان شبیهسازی و تعهد اخلاقی، مرز انسان باقی میماند
در این مقاله نشان دادیم که هرچند هوش مصنوعی قادر است رفتارهای بهظاهر اخلاقی را شبیهسازی کند، اما فاقد عناصر بنیادین برای درک و تعهد اخلاقی اصیل است. الگوریتمها نه تجربه دارند، نه نیت، و نه مسئولیتپذیری. آنچه در نظامهای سایبرنتیکی جدید میبینیم، بیش از آنکه اخلاق باشد، نوعی مهندسی تصمیمات مبتنی بر داده و سودمندی آماری است.
خطر اصلی نه در ذات ماشین، بلکه در غفلت انسان از جایگاه خود در چرخه طراحی، نظارت و کنترل است. وقتی بازنمایی اخلاق با ذات اخلاق اشتباه گرفته شود، دیگر نه فقط سامانهها، بلکه خود انسان نیز در آستانه ازدستدادن مرجعیت اخلاقی قرار میگیرد.
بنابراین، چاره کار نه نفی فناوری، بلکه پایش انتقادی آن از منظر اخلاق انسانی و بازطراحی مبتنی بر مدیاسایبرنتیک متعهد است؛ مدیاسایبرنتیکی که بداند رسانه، تصمیم و کد همگی ابزارهاییاند برای حفظ معنا، نه جایگزینی آن.
در نهایت، اگر قرار است سامانههای هوشمند در دل جامعه انسانی جای بگیرند، باید مسئولیت آنها نه در الگوریتم، بلکه در وجدان انسانهایی تعریف شود که آنها را میآفرینند.
Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.
Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.
Coeckelbergh, M. (2020). AI Ethics. MIT Press.
Salimi, Soheil. "Artificial Intelligence at the Crossroads of Choice: Between Ethics, Priorities, and Cybernetic Systems." سلیمی، سهیل . «هوش مصنوعی در دوراهی انتخاب: جایی میان اخلاق، اولویت و سیستمهای سایبرنتیکی».

مدیاسایبرنتیک (سایبرنتیکِ رسانه): قدرتِ تلقین و مهندسی ذهن
نویسنده: سهیل سلیمی
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
مدیا سایبرنتیک (Media Cybernetics) بهعنوان امتداد نظریه سایبرنتیک نوربرت وینر (Norbert Wiener) در عرصه رسانه، بستر شکلدهی رفتار و نگرش مخاطبان را فراهم آورده است. رسانه، دیگر صرفاً واسطه انتقال پیام نیست، بلکه خود به بازیگری مستقل بدل شده که با بهرهگیری از اصول feedback (بازخورد)، control (کنترل)، و communication (ارتباط)، جامعه را مهندسی میکند. این مقاله، با تکیه بر نظریههای کلاسیک سایبرنتیک و نمونههای معاصر رسانهای، نشان میدهد چگونه «تلقین» به ابزار اصلی هدایت ذهن و رفتار تبدیل شده است. همچنین، ضمن بررسی چرخههای قدرت و کنترل رسانهای، راهکارهای مقاومت در برابر پروژههای سایبرنتیکی رسانهای نیز تحلیل میشود.
واژگان کلیدی: سایبرنتیک رسانه (Media Cybernetics)، کنترل (Control)، تلقین (Suggestion)، بازخورد (Feedback)، رسانه (Media)
نوربرت وینر (Norbert Wiener)، بنیانگذار سایبرنتیک، در کتاب مشهور خود Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948) سایبرنتیک را علم «کنترل و ارتباط» میداند. در این چهارچوب، رسانه (Media) نه صرفاً ابزار ارتباطی، بلکه سامانهای سایبرنتیکی است که با بهرهگیری از اصول بازخورد (Feedback)، پیامرسانی را به ابزاری برای اعمال کنترل بدل کرده است.
در چنین سامانهای، رسانهها با بهرهگیری از فناوریهای هوش مصنوعی (Artificial Intelligence)، کلاندادهها (Big Data) و تحلیل رفتار مخاطب، پیامها را به گونهای تنظیم میکنند که «ادراک مخاطب» را مهندسی کنند (Zuboff, 2019).
واژه کلیدی درک عملکرد رسانههای سایبرنتیکی، «تلقین» (Suggestion) است. تلقین در روانشناسی اجتماعی به معنای کاشت یک باور یا نگرش در ذهن فرد بهگونهای است که فرد گمان کند آن باور را خود پذیرفته است (Bargh & Chartrand, 1999).
چرخه کنترل سایبرنتیکی رسانهای بهطور خلاصه به شکل زیر عمل میکند:
این چرخه نوعی لوپ تقویتشونده (Positive Feedback Loop) ایجاد میکند که هر بار کنترل را دقیقتر و عمیقتر میسازد (Shannon & Weaver, 1949).
آیا رسانه صرفاً ابزاری در دست قدرت است یا خود به کنشگری مستقل بدل شده است؟ به تعبیر مارشال مکلوهان (Marshall McLuhan)، «رسانه خود پیام است» (The medium is the message) (McLuhan, 1964). رسانه امروز، نه تنها محتوای رفتاری تولید میکند، بلکه با هوشمندسازی فرایند تولید و توزیع محتوا، در فرایند تصمیمسازی اجتماعی مداخله مستقیم دارد.
نمونههای معاصر این امر را میتوان در کارزارهای خبری حول بحرانهای اقتصادی یا بهداشت عمومی مشاهده کرد. رسانهها، از طریق خلق «واقعیتهای بدیل» (Alternative Realities)، افکار عمومی را به سوی پذیرش سیاستهای خاص سوق میدهند (Chomsky & Herman, 1988).
فرض کنید یک رسانه جریان اصلی (Mainstream Media) چنین سناریویی را پیادهسازی کند:
هشدار بحران: پخش گسترده هشدار درباره کمبود منابع (مثلاً آب)
ترغیب: تبلیغات صرفهجویی و مسئولیتپذیری
تهدید: اعلام تصمیم احتمالی برای افزایش قیمت
اعمال فشار: قطع موقت خدمات برای ایجاد تجربه زیسته از بحران
بازخورد مثبت: گزارش موفقیت اقدامات
نهاییسازی کنترل: افزایش تدریجی قیمت به عنوان راهکار منطقی
این فرایند، نمونهای کلاسیک از پروژههای سایبرنتیکی رسانهای است که با استفاده از «مهندسی ادراک» (Perception Engineering) و «مدیریت رفتار» (Behavior Management) اجرا میشود.
تمام این سازوکارها تنها در یک صورت شکست میخورند: زمانی که مخاطبان به «آگاهی انتقادی» (Critical Consciousness) دست یابند (Freire, 1970). اما رسانههای سایبرنتیکی حتی برای این شرایط هم تمهیداتی اندیشیدهاند. رسانهها مفاهیم مقاومت و بیداری را مصادره کرده و آنها را در قالبهای جدید بازتعریف میکنند (مثلاً تبدیل مقاومت به مد جدید یا بازی سرگرمکننده).
رسانهها امروز در جایگاه سامانههای سایبرنتیکی خودمختار قرار گرفتهاند که با بهرهگیری از فناوریهای هوشمند، قدرت تلقین خود را چند برابر کردهاند. مخاطبانی که آگاهانه با این سازوکار مواجه شوند، قادر خواهند بود زنجیره تلقین را بشکنند و خود را از چرخهی کنترل خارج کنند.
بنابراین، تنها راه برونرفت، تربیت مخاطب انتقادی است؛ مخاطبی که نه صرفاً مصرفکننده پیام، بلکه تحلیلگر سازوکار تولید پیام باشد.
Bargh, J. A., & Chartrand, T. L. (1999). The Unbearable Automaticity of Being. American Psychologist.
Chomsky, N., & Herman, E. S. (1988). Manufacturing Consent: The Political Economy of the Mass Media. Pantheon.
Freire, P. (1970). Pedagogy of the Oppressed. Continuum.
Harari, Y. N. (2016). Homo Deus: A Brief History of Tomorrow. Harper.
McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.
Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University of Illinois Press.
Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز

هوش مصنوعی بومی چارچوبی برای توسعه یک مدل زبانی پیشرفته با هویت ایرانی
در عصر حاضر، هوش مصنوعی (Artificial Intelligence - AI) و به ویژه مدلهای زبانی بزرگ (Large Language Models - LLMs) به ابزاری استراتژیک در حوزههای اقتصادی، فرهنگی و امنیتی تبدیل شدهاند. مدلهایی مانند GPT-4 (توسعهیافته توسط OpenAI) و Gemini (ساختهی گوگل) نه تنها در پردازش زبان طبیعی (Natural Language Processing - NLP) پیشرفت چشمگیری داشتهاند، بلکه به عنوان ابزاری برای انتشار ارزشها و ایدئولوژیهای سازندگان خود عمل میکنند.
ایران، با توجه به سابقه تمدنی غنی، ظرفیتهای علمی و نیازهای بومی، نیازمند توسعه یک مدل زبانی مستقل است که بتواند:
این مقاله به بررسی ضرورتها، چالشها و راهکارهای توسعه چنین مدلی میپردازد.
۱. ضرورت توسعه مدل زبانی بومی
الف) چالشهای مدلهای خارجی
مدلهای فعلی عمدتاً بر اساس دادههای غربی آموزش دیدهاند و در پاسخ به سوالات مرتبط با فرهنگ شرقی یا اسلامی داری جهت گیری هستند هرچند در ظاهر چنین حسی را تقل نکنند.
استفاده از مدلهای خارجی ایران را در معرض خطر تحریمهای دیجیتال مثل قطع دسترسی به APIها قرار میدهد. چه از نظر دفاعی مانند آنچه در جنگ دوازده روزه با اسرا.ئیل رخ داد و چه از نظر تحریمهایی که هر آن ممکن است غرب علیه ایران وضع کند.
اطلاعات واردشده به مدلهای خارجی ممکن است برای اهداف تجاری یا امنیتی مورد استفاده قرار گیرد.
ب) مزایای مدل بومی
سازگاری فرهنگی (Cultural Alignment): پاسخهای متناسب با ارزشهای جامعه ایرانی.استقلال فناورانه (Technological Sovereignty): کاهش وابستگی به شرکتهای خارجی.امنیت اطلاعات (Data Security): حفظ حریم خصوصی کاربران.
۲. ساختار پیشنهادی برای مدل زبانی ایرانی
الف) معماری فنی (Technical Architecture)
استفاده از چارچوبهای متنباز (Open-Source Frameworks) مانند LLaMA 3 (متا) یا Mistral با تنظیمهای ویژه.
ترکیبی از:
ب) بهبود پردازش زبان فارسی (Persian NLP Enhancement)
ج) سیستم پاسخدهی چندوجهی (Multimodal Response System)
۳. چالشهای کلیدی و راهکارها
الف) چالشهای فنی
چالش | راهکار |
کمبود دادههای باکیفیت | ایجاد بانک اطلاعاتی ملی با مشارکت دانشگاهها و مراکز پژوهشی |
محدودیت سختافزاری | استفاده از ابررایانههای داخلی و همکاری با کشورهای همسو (چین/روسیه) |
پردازش زبان محاوره | توسعه مدلهای ویژه برای گویشهای محلی |
ب) چالشهای غیرفنی
۴. کاربردهای پیشبینیشده
الف) حوزههای داخلی
ب) حوزههای بینالمللی
۵. مسیر پیشرو و گامهای کلیدی
شاخصهای موفقیت (KPIs)
دقت (Accuracy) در پردازش زبان فارسی: +۹۰٪
تعداد زبانهای پشتیبانیشده: حداقل 20 زبان
میزان پذیرش کاربران: 5 میلیون کاربر در سال اول، با اجرای یک برنامه منسجم تبلیغاتی و تشویقی.
نتیجهگیری
توسعه یک مدل زبانی پیشرفته با هویت ایرانی نه یک انتخاب، که ضرورتی اجتنابناپذیر در عصر دیجیتال است. چنین پروژهای میتواند:
تحقق این چشمانداز نیازمند عزم ملی، سرمایهگذاری کلان و همکاری بینالمللی هوشمندانه است. با برنامهریزی دقیق، ایران میتواند در افق ۱۴۱۰ به یکی از قطبهای هوش مصنوعی در منطقه تبدیل شود.
روند اجرایی:
Climate Cybernetics: Technology, Power, and Control over Ecological Resources

در عصر سایبری، منابع طبیعی دیگر تنها بخشهایی از بومشناسی نیستند؛ بلکه به گرهگاههایی برای قدرت، سیاست و فناوری تبدیل شدهاند. مقاله پیشرو به بررسی پدیده «سایبرنتیک آب و هوا» میپردازد؛ یعنی بهرهگیری از سیستمهای کنترلی، اطلاعاتی و پیشبینیمحور برای مداخله، تنظیم یا بهرهبرداری از منابع آبی و جوی. این پدیده در نگاه اول علمی و بیطرف بهنظر میرسد، اما در عمل با سیاستهای جهانی، منافع اقتصادی، و رویکردهای سلطهمحور گره خورده است.
Cybernetics and Ecological Resources: Key Concepts and Definitions
سایبرنتیک، بنا بر تعریف نوربرت وینر، علمی برای مطالعه «کنترل و ارتباط در موجودات زنده و ماشینها» است. این علم اکنون در خدمت مدیریت منابع طبیعی قرار گرفته و در قالب سامانههای پیچیده نظارتی، کلاندادهها، و هوش مصنوعی برای پایش و کنترل منابع آب و هوا مورد استفاده قرار میگیرد. اما آیا این کاربردها واقعاً در خدمت حفظ زمیناند یا در راستای بهرهکشی فناورانه؟
Climate Cybernetics: From Data to Domination
امروزه از فناوریهایی چون اینترنت اشیاء، GIS، هوش مصنوعی، و شبیهسازی اقلیمی برای «پیشبینی» یا حتی «دستکاری» اقلیم استفاده میشود. پروژههای بارورسازی ابرها (Cloud Seeding)، ژئومهندسی تابش خورشیدی (SRM)، و سامانههای هشدار زودهنگام خشکسالی، همه نمونههایی از دخالت بشر در چرخههای طبیعیاند که در عمل میتوانند ابزارهایی برای کنترل سرزمین، زمان، و جمعیت باشند.
The Geopolitics of Climate and Water Control
در مناطقی مانند خاورمیانه، منابع آب به ابزاری برای سلطه تبدیل شدهاند. مثالهایی چون سدسازی ترکیه بر فرات، بهرهبرداری صهیونیستی از رود اردن، یا انتقال آب بینحوضهای در ایران، نمونههایی از استفاده استراتژیک از منابع آبیاند. در سطح جهانی نیز بحث استفاده نظامی از اقلیم مطرح است: آیا اقلیم میتواند به میدان نبردی خاموش و سایبری تبدیل شود؟ پروژههایی مانند HAARP یا طرحهای محرمانه سازمانهای دفاعی نشان از همین نگرانی دارند.
Ethical and Philosophical Implications
چه کسانی مجازند در اقلیم مداخله کنند؟ و چه کسی مسئول پیامدهای آن خواهد بود؟ این فصل به بررسی پیامدهای اخلاقی و هستیشناختی مداخله فناورانه در اقلیم میپردازد: از مسئله عدالت اقلیمی برای کشورهای جنوب جهانی، تا بحران مشروعیت علمی در فرآیندهای مداخلهای بدون شفافیت عمومی. آیا میتوان آینده طبیعت را به دست الگوریتمها و مهندسان سپرد؟
Conclusion and Recommendations
سایبرنتیک اقلیمی نهتنها ابزاری فناورانه بلکه نوعی پارادایم جدید در نسبت میان انسان، طبیعت و قدرت است. اگر این روند بدون ملاحظات اجتماعی و اخلاقی ادامه یابد، ممکن است آیندهای پر از نابرابری و تخریب در پیش داشته باشیم. بنابراین، پیشنهاد میشود:
تشکیل نهادهای نظارتی دموکراتیک بر پروژههای اقلیمی
مشارکت عمومی و بینرشتهای در تصمیمسازیهای زیستمحیطی
تدوین منشور جهانی اخلاق سایبرنتیک اقلیمی
Wiener, Norbert. Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press, 1948.
Edwards, Paul N. A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming. MIT Press, 2010.
Jasanoff, Sheila. The Ethics of Invention: Technology and the Human Future. W. W. Norton & Company, 2016.
Parenti, Christian. Tropic of Chaos: Climate Change and the New Geography of Violence. Nation Books, 2011.
Clapp, Jennifer & Dauvergne, Peter. Paths to a Green World: The Political Economy of the Global Environment. MIT Press, 2011.
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلمساز
این مقاله نخستینبار در قالب ارائهای تخصصی در کارگاه «مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه» در سومین دوره کنفرانس بینالمللی فضای سایبر (آبان ۱۴۰۳) ارائه شده است. کارگاه مزبور با هدف تحلیل میانرشتهای نسبت سایبرنتیک، هوش مصنوعی، و تحولات رسانهای، فرصتی برای بازاندیشی نقش اخلاق در نظامهای تصمیمساز فراهم آورد. در این مقاله، با تکیه بر منظری انتقادی و نظریهمحور، تأثیرات فزاینده هوش مصنوعی بر بازنمایی رسانهای و نیز مخاطرات آن بر اخلاق، مسئولیت و انسانمحوری در معماریهای سایبرنتیکی بررسی میشود.
در بستری که مدیاسایبرنتیک شکل گرفته است—یعنی جایی که رسانه، داده و تصمیم در یک چرخه خودتقویتگر به هم پیوستهاند—پرسش از معیار اخلاقی در دل الگوریتمهای بیطرفنما، بیش از همیشه ضروری بهنظر میرسد. مقاله حاضر بر آن است که نشان دهد هوش مصنوعی، اگر بدون مراقبت نظری و مهار اخلاقی رها شود، نه تنها پیامرسانی را متحول، بلکه قدرت قضاوت را نیز از انسان سلب میکند؛ و در نتیجه، به فراگیری تولیدات رسانهای فاقد مسئولیت دامن میزند.

سایبرنتیک، بهمثابه نظریهای میانرشتهای که در دهه ۱۹۴۰ توسط نوربرت وینر پایهگذاری شد، به بررسی مکانیسمهای کنترل، بازخورد و ارتباط در سیستمهای پیچیده میپردازد. در عصر دیجیتال، این نظریه وارد عرصههای رسانه، سیاست، زیستفناوری و هوش مصنوعی شده و الگویی فراگیر از «تنظیم و تطبیق» بر مبنای داده ارائه کرده است.
در نظامهای سایبرنتیکی مدرن، تصمیمگیری بهوسیله شبکههای عصبی، الگوریتمهای یادگیری عمیق و مدلهای دادهمحور صورت میگیرد. این سامانهها با تحلیل دادههای انبوه، الگوهایی آماری از گذشته تولید کرده و آنها را برای پیشبینی آینده به کار میگیرند. در عین حال، فقدان عناصر انسانی نظیر دغدغه اخلاقی، تردید، شفقت و مسئولیتپذیری، یکی از مهمترین چالشهای این معماریهاست.
پیش از بررسی اخلاق در سطح فنی، باید به مبانی فلسفی آن پرداخت. در سنت فلسفه اخلاق، سه مکتب اصلی وجود دارد:
اخلاق وظیفهگرا (کانتی) – تأکید بر تکلیف فارغ از نتیجه
اخلاق پیامدگرا (بنتام، میل) – تأکید بر بیشینهسازی سود یا کاهش ضرر
اخلاق فضیلتمحور (ارسطویی) – تمرکز بر شخصیت و نهادینهسازی منش اخلاقی
در ساخت الگوریتمها، بهویژه در کاربردهای هوش مصنوعی در رسانه یا خودروهای خودران، معمولاً مدلهای پیامدگرا بهکار میروند؛ زیرا قابل ترجمه به زبان ریاضی و تصمیمسازی ماشینیاند.
اما چنین تصمیماتی بیشتر شبیه به "برنامهریزی اخلاقنما" هستند تا "تصمیمات اخلاقی اصیل". الگوریتم نمیاندیشد، احساس نمیکند، و درک ندارد؛ بلکه فقط پاسخهای بهینه بر مبنای معیارهای از پیش تعریفشده تولید میکند.
مفاهیمی چون پشیمانی، وجدان، تردید یا مسئولیتپذیری، از جمله ویژگیهای زیسته انسانیاند که در تصمیمگیریهای اخلاقی نقش تعیینکننده دارند. این عناصر، برآمده از حافظه عاطفی، آگاهی تاریخی و خویشتننگری هستند.
در مقابل، ماشینها فقط قادر به بازشمارش خطا یا اصلاح براساس الگوریتمهای بهروزرسانی هستند. به همین دلیل، حتی وقتی یک الگوریتم تصمیمی به ظاهر اخلاقی اتخاذ میکند، این تصمیم در خلأ اخلاقی و بدون ادراک تجربه انسانی شکل گرفته است.
در واقع این «شکاف میان ادراک و شبیهسازی» است؛ و اعتماد به سامانههایی که فقط «نقاب اخلاقی» بر چهره دارند، میتواند زمینهساز فجایع اخلاقی شود.
در نظامهای حقوقی و اخلاقی سنتی، مسئولیت تابع نیت، آگاهی و امکان انتخاب بدیل است. اما در سیستمهای هوشمند، این سه شرط یا غایباند یا در ماشین قابل تعریف نیستند.
اگر اخلاق به فرمول و داده تقلیل یابد، آنگاه مسئولیت نیز به یک خروجی بیروح تبدیل خواهد شد. در این وضعیت، خطر فروپاشی اخلاق انسانی بهشدت بالاست.
در سینما، رسانههای دیجیتال و تبلیغات، تصویری از ماشینهایی ارائه میشود که گویی احساس، فهم و اخلاق دارند. فیلمهایی چون I, Robot، Ex Machina و Her، به شکلگیری تصوری اغواگرانه از «هوش اخلاقی مصنوعی» کمک میکنند.
این روند منجر به انسانوارهسازی (Anthropomorphizing) سامانهها میشود، که در نهایت به اعتماد کاذب و پذیرش ناآگاهانه فناوریهای فاقد مسئولیتپذیری انسانی میانجامد.
رویکرد مدیاسایبرنتیکی هشدار میدهد که رسانه نه فقط بازتابدهنده، بلکه تولیدکننده تصور ما از اخلاق ماشینی است. این تصور، با بازخورد خود، طراحی سامانهها را نیز متأثر میسازد و در یک چرخه بسته، مرز خیال و واقعیت را مخدوش میکند.
نتیجهگیری: میان شبیهسازی و تعهد اخلاقی، مرز انسان باقی میماند
در این مقاله نشان دادیم که هرچند هوش مصنوعی قادر است رفتارهای بهظاهر اخلاقی را شبیهسازی کند، اما فاقد عناصر بنیادین برای درک و تعهد اخلاقی اصیل است. الگوریتمها نه تجربه دارند، نه نیت، و نه مسئولیتپذیری. آنچه در نظامهای سایبرنتیکی جدید میبینیم، بیش از آنکه اخلاق باشد، نوعی مهندسی تصمیمات مبتنی بر داده و سودمندی آماری است.
خطر اصلی نه در ذات ماشین، بلکه در غفلت انسان از جایگاه خود در چرخه طراحی، نظارت و کنترل است. وقتی بازنمایی اخلاق با ذات اخلاق اشتباه گرفته شود، دیگر نه فقط سامانهها، بلکه خود انسان نیز در آستانه ازدستدادن مرجعیت اخلاقی قرار میگیرد.
بنابراین، چاره کار نه نفی فناوری، بلکه پایش انتقادی آن از منظر اخلاق انسانی و بازطراحی مبتنی بر مدیاسایبرنتیک متعهد است؛ مدیاسایبرنتیکی که بداند رسانه، تصمیم و کد همگی ابزارهاییاند برای حفظ معنا، نه جایگزینی آن.
در نهایت، اگر قرار است سامانههای هوشمند در دل جامعه انسانی جای بگیرند، باید مسئولیت آنها نه در الگوریتم، بلکه در وجدان انسانهایی تعریف شود که آنها را میآفرینند.
Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.
Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.
Coeckelbergh, M. (2020). AI Ethics. MIT Press.
Salimi, Soheil. "Artificial Intelligence at the Crossroads of Choice: Between Ethics, Priorities, and Cybernetic Systems." سلیمی، سهیل . «هوش مصنوعی در دوراهی انتخاب: جایی میان اخلاق، اولویت و سیستمهای سایبرنتیکی».

هوش مصنوعی، و محدودیتهای یک سلطه تکنیکی
· حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است.
ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر سایبرنتیک و هوش مصنوعی / نویسنده و فیلمساز)
مقدمه
نفوذ سریع و همهجانبه هوش مصنوعی در زندگی روزمره بشر، نوید عصری تازه از بازتعریف نقش انسان را میدهد. اما این پیشرفت خیرهکننده، اگرچه در سطوح نرمافزاری بسیار در دسترس و نافذ شده است، در حوزههای سختافزاری، زیربنایی و اخلاقی با محدودیتهای بنیادینی مواجه است که نهتنها ماهیت کار و معنا را زیر سؤال میبرد، بلکه میتواند به حذف غیرقابل بازگشت بسیاری از ابعاد انسانی بینجامد.
از منظر علوم سایبرنتیک، ما با سیستمی روبهرو هستیم که در آن بازخورد انسانـماشین در برخی حوزهها بهطرز نگرانکنندهای از تعادل خارج شده و در عوض بهجای همکاری، به جایگزینی یکسویه میل دارد. این مسئله بهویژه در حرفههایی با ساختار سادهتر و کمهزینهتر بروز یافته است.
1. تضاد سختافزار و نرمافزار، نامتوازن و نابرابر:
چرا در برخی حوزهها سرعت نفوذ بالا، و در برخی دیگر کند است؟
پدیدهای که میتوان آن را تضاد سختافزار و نرمافزار نامید، یکی از کلیدیترین عوامل محدودیت نفوذ همگن هوش مصنوعی در تمامی حوزههاست. فناوریهایی مثل مدلهای زبانی مولد Generative Language Models یا ابزارهای خلق تصویر و موسیقی با کمک هوش مصنوعی، بر بستر گوشیهای هوشمند و رایانههای شخصی اجرا میشوند؛ درحالیکه خودروهای خودران یا تجهیزات هوشپزشکی نیازمند سختافزارهایی پیچیده، گرانقیمت، با سطح بالایی از اطمینان و مسئولیتپذیری هستند.
از منظر فنی، این تفاوت را باید با رجوع به نظریههای پایهای در علوم سایبرنتیک و فلسفه فناوری تحلیل کرد.
نوربرت وینر، بنیانگذار علم سایبرنتیک، در کتاب معروف خود Cybernetics: or Control and Communication in the Animal and the Machine (۱۹۴۸) یادآور میشود: هر سامانهای تنها در صورتی کارآمد است که بتواند بازخورد دقیق دریافت کرده و پاسخ خود را تنظیم کند. بدون این تعامل مستمر، سیستم یا از کنترل خارج میشود یا ناکارآمد میگردد.
در حوزههایی مانند تولید محتوا یا گفتوگوی ماشینی، ورودی و خروجی سادهاند: یک متن وارد میشود، و ماشینی با یک مدل زبانی، پاسخی میسازد. بازخورد نیز فوری و دیجیتال است (لایک، زمانماندن کاربر، کلیک بعدی). بنابراین، سیستم میتواند بهسرعت خودش را تنظیم و بهینه کند. این همان محیط ایدهآل سایبرنتیکی برای هوش مصنوعی است.
اما در حوزههایی مانند خودروهای خودران یا جراحی رباتیک، ورودیها شامل متغیرهای فیزیکی، زیستی، اخلاقی و موقعیتیاند. بازخوردها ممکن است دیرهنگام، مبهم، یا جبرانناپذیر باشند (مثلاً مرگ یک بیمار یا تصادف در خیابان). بههمین دلیل، نفوذ هوش مصنوعی در این حوزهها با تأخیر و تردید همراه است. چون فناوری نمیتواند تضمین کند که پاسخهایش «امن»، «مسئولانه» و «اخلاقی» خواهند بود، آنهم در وضعیتی که پاسخ در ماشین اساساً بر اساس اولویت تعریف می شود.
یکی از منتقدان برجسته فناوری، ژوزف وایزنباوم Joseph Weizenbaum ، دانشمند علوم کامپیوتر MIT و خالق برنامهی مکالمهمحور ELIZA، در کتاب مهم خود Computer Power and Human Reason: From Judgment to Calculation (۱۹۷۶) به نکتهای اساسی اشاره میکند: فقط به این دلیل که یک ماشین قادر به انجام کاری است، دلیل نمیشود که باید آن را به انجام آن واداشت.
وایزنباوم هشدار میدهد که حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است. او تفاوت میان «حسابگری» و «قضاوت» را کلیدی و مهم میداند و معتقد است: واگذاری تصمیمگیری به ماشینها، بدون فهم زمینهی انسانی، نه تنها عقلانیت را تهی میکند، بلکه میتواند به شکلگیری نوعی اتوماسیون بیروح و فاقد مسئولیت منجر شود.
برای مثال، اگر یک سیستم تشخیص تصویر بتواند غدهای مشکوک را در تصویر اسکن تشخیص دهد، این به معنای درک بالینی، مشاوره اخلاقی، یا فهم وضعیت روانی بیمار نیست. همینطور، اگر یک خودرو بتواند علائم راهنمایی را بخواند، نمیتواند اخلاقاً تصمیم بگیرد که در یک صحنه ی احتمالی تصادف بین خودرو و عابر پیاده، بین حفظ جان سرنشین و عابر پیاده کدام را انتخاب کند.
۲. اولین قربانیان
تئوریهای حوزه سایبرنتیک، مانند آنچه نوربرت وینر Norbert Wiener بنیان گذاشت، به ما یادآوری میکنند که نظامهای بازخوردی، زمانی بهینهاند که میان ورودی و خروجی انسان و ماشین، توازن دقیق برقرار باشد. اما در مشاغلی مانند نویسندگی، طراحی گرافیک، ترجمه، آموزش آنلاین و حتی روزنامهنگاری، فیلمسازی ساختار اطلاعاتی بسیار قابل الگوسازی و تقلید است. بنابراین، این حوزهها بهسرعت توسط مدلهای هوش مصنوعی بلعیده میشوند.
برنارد استیگلر Bernard Stiegler، فیلسوف فرانسوی، در کتاب فروپاشی زمان و تکنولوژی Technics and Time هشدار میدهد که تکنولوژی اگر بدون حافظه انتقادی و آموزش عمومی گسترش یابد، نهتنها ابزار رهایی نخواهد بود، بلکه عامل انفجار حافظه جمعی و تهی شدن معنا خواهد شد.

۳. تحلیل محتوای امکان سنجی در دو نمونهی ذکر شده در بالا:
در پزشکی، هوش مصنوعی بهصورت آزمایشگاهی در حال پیشرفت است؛ الگوریتمهایی مانند تشخیص سرطان در تصاویر رادیولوژی یا پایش علائم حیاتی، نشان میدهند که در آینده، نقش پزشکان عمومی تا حدی قابل جایگزینی است. اما تحقق این امر، نیازمند ابزارهایی است که نهتنها دقت بالا، بلکه تأییدیههای اخلاقی، قانونی و فنی نیز داشته باشند. در بسیاری از کشورها، قوانین مربوط به مسئولیت حقوقی خطاهای ماشینی هنوز تدوین نشدهاند.
در مورد خودروهای خودران نیز با مشکلی مشابه مواجهیم. هوش مصنوعی این خودروها به دادههای محیطی بلادرنگ، تعامل با دیگر وسایل نقلیه و پردازش وضعیت انسانی نیاز دارد که فعلاً بهشکل گسترده و قابل اطمینان محقق نشدهاند. همانطور که آیوکای اینادا Ayokai Inada، اندیشمند ژاپنی در حوزه فلسفه تکنولوژی، میگوید: هوش مصنوعی بدون هوش اجتماعی، همانقدر خطرناک است که جراح بدون وجدان.
۴. بحران معنا و فروپاشی میانجی انسانی
با حذف کار انسان از فرآیندهای خلاقانه، آنچه از دست میرود فقط شغل نیست، بلکه مشارکت در تولید معنا، حافظه فرهنگی و روابط اجتماعی است. در رسانهها، محتواهای تولیدشده توسط الگوریتم، نوعی انباشت بیروح از دادههای بیزمینه را شکل میدهد که نمیتواند پیوندی زنده با زندگی انسان برقرار کند.
۵. نتیجهگیری: تکنولوژی باید پاسخگو باشد، نه فقط کارآمد
نفوذ هوش مصنوعی در حوزههایی با مقاومت زیرساختی و اخلاقی بالا کند خواهد بود،
و این کندی نه ضعف تکنولوژی، بلکه نشانه بلوغ تمدنی ماست. نباید از هر ابزار جدید،
صرفاً بهدلیل کارآمدی ظاهریاش استقبال کرد. آنچه لازم است، بازخوانی انتقادی نسبت
ما با تکنولوژی است؛ بازخوانیای که در آن نقش انسان، نه بهعنوان مصرفکننده،
بلکه بهعنوان قوامدهنده معنا و مسئولیتپذیری، حفظ شود.
منابع
انسان ناگزیر از همزیستی با هوش مصنوعی
ارائهدهنده: سهیل سلیمی (مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
مقدمه
جهان در حال ورود به مرحلهای از تحولات فناورانه است که میتوان آن را نه صرفاً یک «دوران جدید»، بلکه «بازتعریف بنیادین» نقش انسان در نظامهای اجتماعی، اقتصادی، فرهنگی و حتی هستیشناسانه تلقی کرد.
هوش مصنوعی (AI) دیگر یک ابزار نیست؛ بلکه ساختاریست در حال تکامل که در حال بازنویسی منطق تصمیمگیری، اخلاق، آگاهی و حتی روابط انسانی است. درحالیکه دستیارهای مجازی چون Siri یا Grok تنها نوک کوه یخ هستند، آنچه در پسِ پرده در حال وقوع است، تغییر بنیادین در مفاهیم «کنترل»، «دانش»، و «عاملیت» است. این مقاله در پی آن است تا ضمن واکاوی علمی-انتقادی همزیستی انسان و هوش مصنوعی، روایتی چندلایه، پیچیده و انتقادی از فرصتها، تهدیدات، چالشها و ضرورتهای سیاستگذاری ارائه دهد.

بخش اول: مفهوم همزیستی انسان و هوش مصنوعی - از همکاری تا تقابل شناختی
تعریف رایج همزیستی انسان و هوش مصنوعی معمولاً نگاهی خوشبینانه به تعامل «مکمل» میان انسان و ماشین دارد. اما باید این تعریف را بازنگری کرد: آیا این تعامل واقعاً دوسویه و برابر است؟ یا شاهد نوعی استحاله تدریجی انسان به عنصری درون سامانهای گستردهتر هستیم که توسط منطق الگوریتمی اداره میشود؟ نوربرت وینر در اثر بنیادین خود، Cybernetics، ایده کنترل و بازخورد را نهفقط برای ماشین، بلکه برای فهم انسان در چارچوبی الگوریتمی مطرح کرد (Wiener, 1948).
ایزاک آسیموف، نویسنده برجسته علمی-تخیلی، در داستانهای خود مانند من، ربات (1950) قوانین سهگانه رباتیک را معرفی کرد که بهعنوان چارچوبی اخلاقی برای تعامل انسان و ماشین طراحی شدهاند:
1. یک ربات نباید به انسان آسیب برساند یا با بیعملی اجازه دهد آسیبی به انسان برسد.
2. یک ربات باید از دستورات انسانها اطاعت کند، مگر اینکه این دستورات با قانون اول مغایرت داشته باشند.
3. یک ربات باید از خود محافظت کند، به شرطی که این حفاظت با قوانین اول و دوم در تضاد نباشد (Asimov, 1950, p. 40).
این قوانین، اگرچه در داستانهای تخیلی او مطرح شدند، اما الهامبخش بحثهای امروزی درباره اخلاق در هوش مصنوعی هستند، زیرا از منظر آسیموف و بر مبنای نوشتههایش، رباتها تجلی بیرونی و فیزیکال هوش مصنوعی به شمار میروند.
ایزاک آسیموف با ارائهی قوانین سهگانه رباتیک کوشید اخلاق را در ماشین نهادینه کند، اما منتقدانی چون Joanna Bryson هشدار دادهاند که این قوانین بیشتر افسانهاند تا راهحل. زیرا در واقعیت، هیچ راهحل سادهای برای تزریق ارزشهای انسانی به الگوریتمها وجود ندارد (Bryson, 2018). همچنین ابزارهایی چون Grok، ChatGPT یا DeepSeek نهتنها تصمیمساز، بلکه در مواردی تصمیمگیر نیز شدهاند. پس آیا میتوان همچنان از مفهوم همزیستی صرف صحبت کرد، یا باید به مفهوم «تقابل شناختی» اندیشید؟
تقابل شناختی (Cognitive Confrontation) مفهومیست که فراتر از تعامل یا همزیستی انسان و ماشین، به تعارض بنیادین میان دو منطق ادراکی اشاره دارد: منطق انسانی که بر شهود، تجربهزیسته، اخلاق، و زمینههای دینی و فرهنگی استوار است، در برابر منطق ماشین که بر دادهمحوری، محاسبهپذیری و بهینهسازی ریاضی تکیه دارد. این تقابل زمانی پدیدار میشود که تصمیمگیریهای ماشینی به حوزههایی وارد میشوند که بهطور سنتی مختص قضاوت انسانی بودهاند—مانند قضاوت اخلاقی، عدالت، یا زیباییشناسی. الگوریتمها در این زمینهها نه فقط ابزار، بلکه رقیب معناشناختی انسان میشوند. در این وضعیت، انسان با موجودیتی مواجه است که نه میتوان آن را بهتمامی درک کرد، نه بهطور کامل کنترل. «تقابل شناختی» بهویژه در مواردی چون داوری خودکار، نظامهای پیشنهادگر محتوا، یا تحلیل رفتاری در پلتفرمهای آموزشی یا قضایی، بهوضوح قابل مشاهده است. این تقابل میتواند منجر به بحران اعتماد، احساس بیگانگی، و ازهمگسیختگی درک انسان از خود شود، چرا که مرجعیت شناختی در حال انتقال از انسان به ماشین است. در چنین شرایطی، سؤال اصلی دیگر صرفاً نحوهی استفاده از AI نیست، بلکه بازتعریف جایگاه انسان در نظم جدید شناختیست.
بخش دوم: فرصتهای هوش مصنوعی – پیشرفت یا استعمار دیجیتال؟
در نگاه نخست، هوش مصنوعی ابزاری بیبدیل برای پیشرفت تمدنیست:
بخش سوم: تهدیدات همزیستی - استعمار الگوریتمی و بحران اخلاق
بخش چهارم: چالشها – از عدم شفافیت تا بحران مشروعیت
بخش پنجم: راهکارهای پیشنهادی – آیا هنوز میتوان کنشگری کرد؟
بخش ششم: نمونههای پیچیده و پارادوکسیکال همزیستی
Grok ساختهی xAI مثالی از ترکیب تحلیل داده با شهود انسانمحور است. اما در عین حال، این ابزار میتواند به الگوریتمی برای فیلتر و قالببندی تفکر عمومی تبدیل شود. این دوگانگی در بیشتر ابزارهای هوش مصنوعی مشاهده میشود: Google Translate میتواند تسهیلکننده گفتوگو باشد، اما در عین حال حامل ارزشهای زبانی و فرهنگی خاص نیز هست، و البته دیتای عظیمی که از زبانها مختلف دریافت کرده به عنوان خوراکی انبوه، از داده ها، برای توسعه الگوریتم های زبانی اش بهره گرفته است.
نتیجهگیری
هوش مصنوعی نهتنها واقعیتی فناورانه، بلکه نیرویی ایدئولوژیک و قدرتمند در بازتعریف هستی انسان است. همانگونه که ایزاک آسیموف اشاره کرده بود، کنترل و هدایت هوش مصنوعی نیازمند اخلاق، آگاهی، و نظارت است. اما اکنون زمان آن فرارسیده است که از «همزیستی منفعل» عبور کنیم و بهسمت «بازآفرینی نقش انسان» در اکوسیستم شناختی جدید حرکت کنیم. آینده به ما تعلق دارد، تنها اگر بتوانیم قواعد بازی را به نفع انسان بازنویسی کنیم.
ما ابزارهایی میسازیم و سپس آنها ما را بازتعریف میکنند. Marshall McLuhan
سهیل سلیمی
منابع:
• Asimov, I. (1950). I, Robot. Gnome Press.
• Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
• McCarthy, J. (1956). The Dartmouth Conference Proposal. Dartmouth College.
• Musk, E. (2018). Interview with Axios on HBO.
• Minsky, M. (1986). The Society of Mind. Simon & Schuster.
• IBM. (2023). Watson Health Annual Report.
• Amazon. (2020). Facial Recognition Technology Report.
• Amazon. (2024). Logistics Optimization Report.
• OECD. (2023). Future of Work Report.
• Cybersecurity Ventures. (2022). AI in Cybercrime Report.
• Reuters. (2023). Italy’s ChatGPT Ban.
• UNESCO. (2024). AI Development in Africa Report.
• Gallup. (2023). Public Perception of AI Survey.
• MIT Technology Review. (2023). DeepFake Technology Analysis.
• European Commission. (2024). AI Act Legislation.
• Coursera. (2024). AI Education Impact Report.
• UN. (2023). AI Governance Committee Report.

نویسنده: سهیل سلیمی
از میانه قرن بیستم، نظریه سایبرنتیک به عنوان علمی میانرشتهای در تبیین سیستمهای کنترل، بازخورد و ارتباطات انسان و ماشین پا به عرصه گذاشت. نوربرت وینر، پدر علم سایبرنتیک، این علم را ناظر بر الگوهای ارتباط و کنترل در موجودات زنده و ماشینها دانست. امروزه، با اوجگیری هوش مصنوعی، مفاهیم سایبرنتیک نه تنها جنبه نظری ندارند، بلکه به شکل ملموسی در بطن سیستمهای هوشمند و الگوریتمهای تولید محتوا بازتولید شدهاند.
سایبرنتیک بهواسطه تمرکز بر بازخورد، تطبیقپذیری و کنترل، بستر فکری و مفهومی مهمی برای توسعه هوش مصنوعی فراهم کرد. در واقع، الگوریتمهای یادگیری ماشین و شبکههای عصبی مصنوعی امروز، بازتابی از مفاهیم سایبرنتیکی هستند: سیستمهایی که از دادهها بازخورد میگیرند، الگوها را شناسایی میکنند و رفتار خود را اصلاح میکنند.
در این چارچوب، رسانهها نیز به عنوان سیستمهایی سایبرنتیکی قابل تحلیلاند. آنها داده (توجه، کلیک، پسندیدن، بازنشر) دریافت میکنند، از طریق الگوریتمها آن را پردازش میکنند و محتوای جدید تولید مینمایند—چرخهای که به طور فزایندهای توسط هوش مصنوعی تسهیل میشود.
گرچه هوش مصنوعی توانسته در عرصه تولید محتوا کارایی و سرعت را بالا ببرد، اما این توسعه، بدون تبعات نیست. در ادامه برخی از مهمترین آسیبهای این پدیده را مرور میکنیم:
با قدرت فزاینده هوش مصنوعی در تولید متن، صدا، تصویر و ویدیو، تفکیک میان محتوای واقعی و ساختگی دشوار شده است. فناوریهایی چون «دیپفیک» یا متون ماشینی که شبیه نویسندگان واقعی نوشته میشوند، نوعی بحران اعتماد به رسانهها پدید آوردهاند.
الگوریتمهای مبتنی بر هوش مصنوعی بر اساس بازخوردهای گذشته کار میکنند. اگر کاربری محتوایی خاص را بپسندد، سیستم محتواهای مشابه بیشتری به او ارائه میدهد. این پدیده که در سایبرنتیک با مفهوم بازخورد مثبت شناخته میشود، منجر به ایجاد "پژواکخانههای رسانهای" میشود؛ محیطهایی که در آن تنها صداهای موافق شنیده میشود و فرد از مواجهه با دیدگاههای متفاوت محروم میگردد.
هوش مصنوعی قادر به تقلید از سبکهای نوشتاری، بصری و صوتی است؛ اما در اغلب موارد، فاقد شهود، تجربه و بینش انسانی است. تکیه صرف بر تولید ماشینی محتوا میتواند به فرسایش خلاقیت، اصالت و روایتگری انسانی در رسانهها بینجامد.
اکوسیستم رسانهای امروز در دست چند پلتفرم بزرگ جهانی است که با استفاده از هوش مصنوعی، جریان اطلاعات را کنترل میکنند. این تمرکز قدرت، با اصول ارتباط آزاد و توزیعشده سایبرنتیک در تضاد است و موجب آسیبپذیری فرهنگی، سیاسی و اقتصادی جوامع میشود.
برای فهم بهتر مسیر پیشرو، بازگشت به مفاهیم سایبرنتیکی ضروری است. سایبرنتیک نه تنها در درک نحوه کار سیستمهای هوش مصنوعی به ما کمک میکند، بلکه ابزار تحلیلی قدرتمندی برای نقد عملکرد رسانهها، الگوریتمها و ساختارهای قدرت در اختیار ما میگذارد.
هوش مصنوعی میتواند ابزار توانمندی برای تقویت خلاقیت انسانی و دسترسی عادلانه به اطلاعات باشد، اما تنها در صورتی که ما به نقش خود به عنوان کنترلگر آگاه در این سیستم توجه کنیم—نه صرفاً دریافتکننده منفعل محتوا.

Introduction: Sun Tzu's Dream in the Modern Era
The Outbreak of COVID-19: Spark of a Silent War
Cybernetics and Biocybernetics: The Science of Control over Life
Strategy Redesign: From World War I to World War IV
Modern History of Biological Warfare
Health Commerce and the Economy of a Pandemic
Media's Role in Inducing Fear and Social Control
Classified Projects: From MK-Ultra to Project Corona
Pre-COVID Simulations and Predictive Documents
Science Control, Censorship, and the New World Order
Conclusion: Has the Future War Already Begun?
Sun Tzu, the great Chinese strategist, wrote in "The Art of War": "The supreme art of war is to subdue the enemy without fighting." Today, this ideal has manifested in a modern form using viruses, media, fear, and control technologies. This documentary is an attempt to analyze this modern warfare.
The spread of the coronavirus on the eve of Yalda night in 2019 marked the beginning of a new era. The world rapidly plunged into chaos, fear, and lockdown. Shortages of masks, medicines, and clashes among nations over medical supplies illustrated a global crisis. But was this pandemic accidental?
Cybernetics is the science of control and guidance. When applied to biological phenomena such as viruses, it becomes biocybernetics: the domination of societies through biological control. From managing a virus to steering the economy, politics, and culture—everything can be engineered through this science.
Throughout history, diseases have replaced guns and bombs in wars. The British, Japanese, and Americans have all used biological weapons to eliminate enemies. Now, the COVID pandemic may be a redesign of those historical strategies.
From smallpox-contaminated blankets given to Native Americans to U.S. military tests on its citizens, history is full of examples of diseases being used as weapons. Iran, too, has been a victim of chemical warfare by the Ba'athist regime.
The healthcare industry has become one of the most profitable sectors globally. Pharmaceutical companies, hospitals, vaccine manufacturers, and medical equipment suppliers all benefit from health crises. The conflict between public health and financial profit raises a critical question: should health be commercialized?
Media holds immense power to instill fear. Fear that weakens the immune system and makes people vulnerable to disease. The COVID pandemic was a prime example of how media was used purposefully to instill fear and enforce collective compliance.
Numerous documents about projects like MK-Ultra, Japan's Unit 731, and U.S. experiments in Fort Detrick reveal hidden agendas behind scientific and technological advancements, using them to dominate and manipulate human behavior.
From the "Event 201" simulation to the Rockefeller Foundation's 2010 scenario report, several documents predicted a global pandemic with astonishing precision before COVID actually happened. These documents raise serious questions about prior planning.
Scientific research during COVID faced intense censorship. Articles warning about vaccine risks or the virus's origins were often rejected or buried. Knowledge became a tool of power, not enlightenment. This censorship reflects the broader agenda of the new world order.
This documentary offers a deep analysis of history, science, media, and politics to present a realistic portrait of the post-COVID world—a world where viruses, media, cybernetics, and economics are tools for engineering global dominance.
طغیان کاربران ناآگاه | هوش مصنوعی و بحران بی خردی | در تمنای لایک
ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
موضوعات این مقاله:
چگونه تودههای ناآگاه مدیاسایبرنتیک را از درون میخورند؟
هوش مصنوعی در میدان بیخردی: سقوط اخلاق در عصر تولید انبوه
سایبرنتیک و بحران تولید انبوه محتوا در طغیان کاربران ناآگاه

مقدمه: فروپاشی کنترل در دل کثرت نامنظم
سایبرنتیک، در بنیان خود، بر کنترل از طریق بازخورد استوار است؛ اینکه چگونه یک سیستم با مشاهده خروجیهای خود، مسیر را تصحیح کرده و به تعادل بازگردد. اما اگر آن خروجیها نه از منطق، بلکه از آشوب برخاسته باشند چه؟ اگر بازخوردها نه از آگاهی، بلکه از امواج خام هیجان، شایعه، و جهل جمعی شکل گرفته باشند؟ آنگاه سایبرنتیک دیگر فرمانده نیست؛ بلکه زندانی همان سیستمی میشود که روزی برای هدایت آن طراحی شده بود.
در این وضعیت، نهتنها اخلاق از میدان حذف میشود، بلکه حتی ساختار کنترلی رسانه نیز از کار میافتد. اینجا با نوعی «آنتیسایبرنتیک» مواجهیم: سامانهای که همچنان داده تولید میکند، اما این دادهها، سامانه را به سوی سقوط هدایت میکنند.
۱. سواد اطلاعاتی پایین، ضدسایبرنتیک است
در سیستمهای کلاسیک سایبرنتیکی، مخاطب باید بتواند پیام را دریافت، فهم، ارزیابی و بازخورددهی کند. این چهار مرحله، ستونهای پردازش رسانهای سالماند. اما در ساختارهای امروزیِ تولید انبوه محتوا در پلتفرمهای اجتماعی، اغلب افراد در همان مرحلهٔ اول گیر میافتند: یا پیام را بهدرستی دریافت نمیکنند، یا آن را بهصورت تحریفشده بازنشر میدهند.
آنجا که بازخورد کور شکل میگیرد، دیگر کنترلی وجود ندارد. نظامهای مبتنی بر الگوریتم و هوش مصنوعی، به جای فیلتر کردن این آشفتگی، آن را تقویت میکنند، چون معیارشان «تعامل» است، نه «محتوا».
پس همان کسی که فهم روشنی از دین، اخلاق یا علم ندارد، میتواند در بازتولید و ترویج شبهدانش، خرافه، یا نفرتگویی، اثرگذارتر از هر نهاد رسمی باشد — چرا که سایبرنتیک رسانهای، قربانی تعاملگرایی شده است.
۲. مردمسالاری بیفرهنگی: جمعیتی که رسانه را بلعیدند
در گذشته، فرآیند تولید محتوا دارای دروازهبانهای معرفتی بود: ناشر، سردبیر، استاد، نهاد دینی یا علمی. اما اکنون، هر گوشی هوشمند، یک ایستگاه تولید و پخش محتوا است.
آنچه که امروز خطرناک است، انبوه مردمی هستند که بدون دانستن اصول اولیهٔ اخلاق و عقل، به تولید بینظم معنا میپردازند. این نوع مردمسالاریِ بیریشه، آنارشی نیست؛ شبهنظم است، نظم کاذبی که در ظاهر متنوع است اما در عمق، از الگوریتمهایی پیروی میکند که فقط تکرار و هیجان را پاداش میدهند. و انبوهی از ناآگاهی که در تمنای لایک هر محتوای ضد ارزش یا حتی بی ارزش را منتشر می کنند. این بی معرفتی ربطی به سواد یا سن و سال و یا حتی جایگاه علمی افراد ندارد. انسانی کع تولید محتوا می کند باید به پختگی رسیده باشد. چند سال قبل خاطره ای از استیون اسپیلبرگ خواندم که معیار دقیق این پختگی است. همواره برایم سوال بود، او که فیلمساز متبحر و توانمندی است چرا جایگاه پدر و فرزندی را در فیلم هایش رعایت نمیکند و حتی گاه این حس را منتقل می کند که پدرها، پسرهایشان را رها می کنند. او در آن خاطر می گفت؛ من آن زمان یک جوان بودم، ولی حالا پدر هفت فرزندم. در فیلمهای اول پدرها را آنطور می فهمیدم اما حالا میفهمم که یک پدر برای حفظ خانواده و فرزندانش باید هر کار بکند.
حالا تصور کنید چند جوان در جهان با دیدن فیلمهای اولیه او گمراه شده و با والدین و خصوصا پدرانشان دچار چالش و درگیری شدند! این در حالیست که اسپیلبرگ هنرمند بسیار توانمد و صاحب سبک و با سوادی است، ببیند انبوه آدم های نا آگاه که امروزه هریک با یک گوشی مشغول تولید انواع محتواهای بی ارزش و ضد ارزش هستند چه بلایی بر سر جامعه می آورند.
در چنین بستری، محتوای ژرف، اخلاقی یا علمی، دیده نمیشود، چون با ریتم تند و هیجانزدهٔ بازار اطلاعات همخوانی ندارد. اخلاق، در زبالهدان محتوا بی ارزش دفن میشود، و هوش مصنوعی، همچون گورکنی فرز و سریع در حال آماده سازی قبر اندیشه و معرفت انسان است.

۳. تولید ضداخلاق: بیسوادی ساختارمند در نظام بازخورد
وقتی اکثریت جامعه نسبت به مفاهیم فلسفی و دینی بیاطلاعاند، «اخلاق» دیگر مبنای داوری نمیشود. بلکه "احساس لحظهای" جایگزین "قضاوت تأملگر" میشود. این انتقال از فکر به واکنش، پایههای اخلاق در فضای سایبر را فرو میریزد.
حال، وقتی این اکثریت شروع به تولید انبوه محتوا میکنند، تولیدشان نه حاصل خرد، که ترکیبی است از شایعه، فرافکنی، تمسخر، خشونت کلامی و نفرتپراکنی است. در این وضعیت، ضداخلاق نهفقط تولید میشود، بلکه پاداش میگیرد؛ زیرا واکنشبرانگیز است.
حالا نتیجه طبیعی ارتقا از طریق فهم الگوریتمی این است که «هر چه بیادبتر، موفقتر.» اینجا دیگر نه کنترل معنا دارد، نه بازخورد؛ تنها چیزی که میماند، شبیهسازی ضد ارزش ها بهمثابه تعامل است.

۴. قدرت در دستان بیقدرتان خطرناک: از آنتینخبگی تا تسخیر افکار عمومی
در بسیاری جوامع، فقدان آموزش فلسفی، دینی و عقلانی، نهفقط مسئلهای فردی، بلکه ساختاری است. سیاستگذاران، نظام آموزش عمومی، و رسانههای رسمی، در تضعیف تفکر تحلیلی نقش ایفا کردهاند. حالا، همان مردمی که ساختار به حال خود رهایشان کرده، خود به ساختار بدل شدهاند. یعنی آنجا که سایبرنتیک به معنای کنترل و اعمال قدرت در روند صحیح خودش کارکردش را از دست می دهد، حالا سایبرنتیک دیگری شکل می گیرد از عوامی که برای تصاحب لایک های بیشتر و فالوور افزایی، به رواج بی ارزشی می پردازند. این طبقه جدید سلبریتی ها ، خوردن کثافات برای بیشتر دیده شدن تا حتی اقدام به خودکشی فریبکارانه آنهم آنلاین، هیچ ابایی ندارند! اینها محصول پوچگرایی و پوچ اندیشی و پوچ پنداری خویش هستتند. این طبقه ی بی ارزش، در واقع مبدع ارزش های جدیدی هستند که مخاطبانشان دوست بدارند، فالوورشان بشوند و لایک کنند.
افکار عمومی، که زمانی قرار بود حاصل گفتوگوی عقلانی باشد، اکنون زیر سلطهی صداهای بلند، خالی از معنا و تحقیر کننده و خشونتزاست. سایبرنتیک رسانهای (مدیا سایبرنتیک)، که میتوانست در صورت استفاده صحیح، ابزار روشنگری باشند، اکنون زمینبازی آگاهیستیزان شدهاند. و بدترین قسمت این فاجعه آن است که نظم رسانهای توسط الگوریتم های هوش مصنوعی، بر پایهٔ آشفتگی آنها بهینهسازی میشود. یعنی، هوش مصنوعی یاد میگیرد که شورش جهل، سودمندتر از صدای دانایی است.

نتیجه: فروپاشی اخلاق سایبرنتیکی و ضرورت بازمهندسی آگاهی
ما اکنون با یک چرخش تلخ روبرو هستیم:
کنترل رسانه (مدیا سایبرنتیک) دیگر دست نخبگان یا حتی نظامهای عقلانی نیست، بلکه در دست بیساختاران پرصداست؛ کسانی که بدون آگاهی، نظام اخلاقی را به سخره گرفته اند و در فرآیند بازخورد رسانهای، ساختارهای معنایی را منهدم کرده اند.
بازسازی این وضعیت، با فیلتر کردن محتوا یا سانسور ممکن نیست. تنها راه، بازسازی آگاهی عمومی، و بازمهندسی ساختارهای آموزش، سواد رسانهای در سطح اجتماعی انسانی است که کاری ست بس دشوار، و در سوی دیگر ایجاد الگوریتمهاییست که هوش مصنوعی بتواند بر اساس آنها نه صرفاً تعامل، بلکه عمق و اخلاق را پاداش دهد، که در شرایط فعلی این اقدام قابل اجرا تر به نظر می رسد. در بلند مدت برنامه ریزی روی هر دوی این روندها می تواند بشر را از قهقرای بی ارزشی نجات دهد.
سهیل سلیمی
خلاصه کتاب سایبرنتیک – نویسنده: نوربرت وینر Norbert Wiener
عنوان اصلیCybernetics: Or Control and
Communication in the Animal and the Machine (1948)
ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
مقدمهای بر کتاب
نوربرت وینر در این کتاب، پایههای یک علم نوین به نام سایبرنتیک (Cybernetics) را بنیانگذاری میکند؛ دانشی میانرشتهای که به بررسی سیستمهای کنترل و ارتباطات در موجودات زنده و ماشینها میپردازد. هدف این علم، درک چگونگی تنظیم، تطبیق، و بازخورد (feedback) در سیستمهاست.

مفاهیم کلیدی کتاب
1. سایبرنتیک چیست؟
سایبرنتیک از واژهای یونانی به معنی «سکانداری» گرفته شده و به علم کنترل و ارتباط در موجود زنده و ماشین اشاره دارد. این علم تلاش دارد تا شباهتها و اصول مشترک بین عملکرد مغز انسان، سیستم عصبی، و ماشینهای خودکار را کشف کند.
2. بازخورد (Feedback)
در قلب سایبرنتیک، مفهوم بازخورد قرار دارد. این ایده میگوید که سیستمها از نتایج اعمال خود مطلع میشوند و بر اساس آن نتایج، رفتار خود را تنظیم میکنند.
مثال: وقتی یک ترموستات دمای خانه را حس میکند و بر اساس آن، سیستم گرمایشی را خاموش یا روشن میکند، از بازخورد استفاده کرده است.
3. اطلاعات بهمثابه کمیت علمی
وینر به کمک نظریه اطلاعات
(از کلود شانون)، اطلاعات را بهعنوان یک مفهوم قابل اندازهگیری معرفی میکند.
اطلاعات، نقشی مشابه انرژی
در فیزیک دارد، اما در حوزه ارتباط و کنترل.
4. احتمال، عدم قطعیت و پیشبینی
در بسیاری از سیستمها (از جمله مغز انسان یا اقتصاد)، رفتار آینده با قطعیت قابل پیشبینی نیست. سایبرنتیک تلاش میکند با استفاده از روشهای آماری و احتمالات، در چنین شرایطی نیز الگوهایی برای کنترل و تصمیمگیری پیدا کند.
5. سیستمهای خودکار و ماشینهای هوشمند
وینر درباره ماشینهایی صحبت میکند که میتوانند تصمیم بگیرند، خطاهای خود را اصلاح کنند، و با محیط تعامل داشته باشند. این دیدگاه، پایهگذار مفاهیمی شد که بعدها در هوش مصنوعی، رباتیک و سیستمهای تطبیقی توسعه یافت.
6. مقایسه ماشین و انسان
او سعی میکند شباهتهای میان مغز انسان و ماشینهای پیچیده را بررسی کند. البته تأکید دارد که انسانها دارای احساسات و وجوه انسانیاند، اما از نظر کنترل و ارتباط، میتوان الگوهای مشترکی یافت.
7. اخلاق سایبرنتیک
در پایان، وینر هشدارهایی اخلاقی درباره استفاده از دانش سایبرنتیک میدهد:
دستاوردها و تأثیر کتاب
این کتاب نهتنها پایهگذار علم سایبرنتیک شد، بلکه بر زمینههای مختلفی مثل:
جمعبندی
نوربرت وینر در این کتاب بنیان مفهومی را گذاشت که ما امروز در انواع فناوریهای هوشمند، سیستمهای کنترل، اینترنت اشیاء، و حتی درک ذهن و مغز انسان با آن مواجهایم. سایبرنتیک پلی میان ماشین و انسان، فیزیک و روانشناسی، و کنترل و ارتباط است.
سهیل سلیمی
خلاصه کتاب سایبرنتیک – نویسنده: نوربرت وینر Norbert Wiener
Cybernetics: Or Control and Communication in the Animal and the Machine
✅ فصل ۱: پیام، معنا و نویز
این فصل به نقش اطلاعات در ارتباطات میپردازد. وینر توضیح میدهد که ارتباط بین انسان یا ماشین بر پایه ارسال پیامها است، و این پیامها همیشه در معرض نویز یا اختلال قرار دارند. او نظریهی اطلاعات شانون را به کار میگیرد تا نشان دهد چگونه میتوان پیامها را به شکلی مؤثر و بدون خطا منتقل کرد.
✅ فصل ۲: ارتباط در موجود زنده و ماشین
اینجا وینر بحث را به شباهتهای مغز و کامپیوتر میبرد. او استدلال میکند که هم موجودات زنده و هم ماشینها میتوانند اطلاعات را پردازش کنند. مغز انسان مانند یک ماشین محاسباتی است که اطلاعات حسی را دریافت کرده، پردازش کرده و واکنش مناسب نشان میدهد.
✅ فصل ۳: رفتار، هدف و تلئولوژی
این فصل درباره رفتار هدفمند است. در سایبرنتیک، رفتارهایی که بهسمت یک هدف مشخص حرکت میکنند (مثل راه رفتن بهسمت غذا)، مورد توجه قرار میگیرند. وینر مفهوم بازخورد (feedback) را معرفی میکند: مکانیزمی که سیستمها برای رسیدن به هدف خود، مدام خود را تنظیم میکنند.
✅ فصل ۴: الگوها و سازمان
در این فصل، بحث بر سر این است که اطلاعات نهفقط کمیت، بلکه ساختار و الگو دارند. وینر میگوید موجودات زنده و ماشینها، اطلاعات را نهفقط ذخیره، بلکه سازماندهی و ساختاربندی میکنند. او از سیستمهای عصبی و ارتباطات ماشینی مثالهایی میزند.
✅ فصل ۵: سایبرنتیک و فیزیولوژی سیستم عصبی
یکی از مهمترین فصلهای کتاب. وینر کارکرد سیستم عصبی انسان را از منظر سایبرنتیکی بررسی میکند. مثلاً چگونه مغز پیامها را از حواس دریافت میکند، تصمیم میگیرد و سپس دستور عمل میفرستد. او تأکید میکند که این فرآیند بسیار شبیه سیستم کنترل خودکار در ماشینهاست.
✅ فصل ۶: سایبرنتیک و آسیبشناسی سیستم عصبی
در اینجا، وینر از بیماریها و آسیبهایی صحبت میکند که عملکرد سیستم عصبی را مختل میکنند، مثل پارکینسون یا صرع. این فصل نشان میدهد که اختلال در بازخورد یا ارتباط عصبی میتواند به بیماری منجر شود، مشابه یک ماشین که وقتی سیستم کنترلیاش از کار بیفتد، خراب میشود.
✅ فصل ۷: یادگیری و حافظه در انسان و ماشین
فصل جذابی که به مسئله یادگیری ماشین و یادگیری انسانی میپردازد. وینر توضیح میدهد که چگونه ماشینها میتوانند یاد بگیرند، با استفاده از بازخورد و اصلاح خطا. او حافظه را بهعنوان ذخیرهساز اطلاعات معرفی میکند و مقایسهای میان مغز و حافظه دیجیتال انجام میدهد.
✅ فصل ۸: سیستمهای آماری و پیشبینی رفتار
در این فصل، وینر به سراغ احتمالات، عدم قطعیت و مدلسازی آماری میرود. در بسیاری از شرایط، آینده قابل پیشبینی دقیق نیست، اما با استفاده از آمار میتوان رفتار سیستمها را تا حدی پیشبینی کرد. این اصل در اقتصاد، هواشناسی، و حتی روانشناسی کاربرد دارد.
✅ فصل ۹: انسان و ماشین
در این فصل فلسفی، وینر پرسشهایی عمیق مطرح میکند:
✅ فصل ۱۰: جنگ و مسئولیت علمی
در بخش پایانی، وینر نگرانی خود را درباره استفاده نظامی از دانش سایبرنتیک بیان میکند. او میگوید:
«علم بدون اخلاق، میتواند فاجعهبار باشد.»
وی دانشمندان را به داشتن مسئولیت اجتماعی فرا میخواند، خصوصاً در دنیای پس از جنگ جهانی دوم.
✅ فصل ۱۱: نتیجهگیری کلی
کتاب با تأکیدی دوباره بر اهمیت سایبرنتیک در دنیای مدرن پایان مییابد. وینر معتقد است که در عصر ارتباطات، انسان باید یاد بگیرد که چگونه با ماشینها و با دیگر انسانها بهشکلی هوشمندانه و اخلاقی تعامل کند.

چگونه رسانه با بهرهگیری از اصول سایبرنتیک ذهن ما را کنترل میکند؟
نویسنده: سهیل سلیمی
نویسنده، کارگردان و مشاور رسانهای آزمایشگاه پژوهشی فضای سایبرِ دانشگاه تهران
اگر سایبرنتیک را همانگونه که نوربرت وینر تعریف میکند، «علم کنترل و ارتباط» بدانیم، پس رسانه یکی از قدرتمندترین ابزارهای این کنترل در عصر حاضر است. رسانه، نهفقط انتقالدهندهی اطلاعات، بلکه هدایتگر رفتار، شکلدهندهی نگرش، و در نهایت ابزاری برای اعمال قدرت است.
اما این قدرت چگونه عمل میکند؟ واژهی کلیدی درک این فرآیند، چیزی نیست جز: تلقین.
از دوران هابیل و قابیل تا امروز، انسان همیشه در پی برتری بوده است. قدرت به معنای «توان تحمیل اراده» در اشکال مختلفی چون قدرت مالی، نظامی، علمی و فرهنگی ظاهر شده است. اما در دنیای مدرن، هیچکدام از این اشکال به تنهایی کفایت نمیکنند. برای اثربخشی، آنها باید با یک ابزار هماهنگ شوند: رسانه.
سایبرنتیک، در یک چرخهی تکراری، ابتدا کنترل را برقرار میکند و سپس قدرت را اعمال مینماید. در این میان، هر بار که اعمال قدرت با مقاومت یا ناکارآمدی روبرو میشود، کنترل جدیدی ایجاد میشود. رسانه در این چرخه، نقش روانساز و واسطهای هوشمند دارد: بیصدا میآید، تلقین میکند و میرود.
رسانه فقط ابزار نیست. در ساختار سایبرنتیک، رسانه یک بازیگر است. رسانه اطلاعات را نه فقط منتقل میکند، بلکه «کدهای رفتاری» را طراحی و به ذهن مخاطب القا میکند. این کدها، اعمال کنترل را سادهتر و کمهزینهتر میکنند. مخاطب در نهایت، خود، خواهان اجرای خواستههای اعمال شده میشود.
تلقین، یعنی القای یک معنا، نگرش یا رفتار بهگونهای که فرد آن را درونی کند. رسانه با تکرار، داستانسرایی، احساسبرانگیزی، ترس، تهدید، طنز و سرگرمی، ذهن مخاطب را آمادهی پذیرش کنترل میکند. نتیجه؟
یک جامعهی کنترلشده که خود را آزاد میپندارد.
برای درک نقش رسانه در کنترل رفتار عمومی، سناریوی زیر را تصور کنید:
هشدار بحران آب در اخبار
ترغیب به صرفهجویی
تهدید به افزایش قیمت
قطع موقت آب
گزارشهایی از کاهش مصرف
افزایش تدریجی قیمت
تبلیغات پیرامون فواید مصرف آب
سکوت رسانهها پس از موفقیت برنامه
این یک «پروژهی سایبرنتیکی کامل» است، که رسانه نقش کلیدی آن را ایفا میکند.
تنها نقطهی ضعف این سامانه پیچیده؟ آگاهی، بیداری، آزادی.
زمانی که مخاطب نسبت به سازوکار رسانه آگاه شود، تلقین بیاثر میگردد و کنترل، دچار نقص میشود. در این مرحله، رسانه دست به ضدحمله میزند: مصادرهی همین واژهها و بازتعریف آنها به نفع سامانه!
در نهایت، سایبرنتیک با رسانه پیوندی ناگسستنی دارد. رسانه سایبرنتیکی، جامعهساز است؛ با ابزار تلقین، کنترل را اعمال میکند و اعمال قدرت را مشروع جلوه میدهد.
مدیاسایبرنتیک یعنی حاکمیتِ پنهانِ تلقین!
* مقالهی حاضر، نسخهی تکمیلشده و توسعهیافتهی ارائهای است که پیشتر در قالب کارگاه تخصصی «مدیاسایبرنتیک و قدرتِ تلقین» در دومین دوره کنفرانس بینالمللی فضای سایبر (آبان ۱۴۰۲) ارائه شده است. این مقاله تلاش دارد با بهرهگیری از مبانی نظری و شواهد تجربی، چارچوبی تحلیلی برای فهم رابطهی میان رسانه، سایبرنتیک و سازوکارهای کنترل ذهنی ارائه کند.

مدیاسایبرنتیک (سایبرنتیکِ رسانه): قدرتِ تلقین و مهندسی ذهن
نویسنده: سهیل سلیمی
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
مدیا سایبرنتیک (Media Cybernetics) بهعنوان امتداد نظریه سایبرنتیک نوربرت وینر (Norbert Wiener) در عرصه رسانه، بستر شکلدهی رفتار و نگرش مخاطبان را فراهم آورده است. رسانه، دیگر صرفاً واسطه انتقال پیام نیست، بلکه خود به بازیگری مستقل بدل شده که با بهرهگیری از اصول feedback (بازخورد)، control (کنترل)، و communication (ارتباط)، جامعه را مهندسی میکند. این مقاله، با تکیه بر نظریههای کلاسیک سایبرنتیک و نمونههای معاصر رسانهای، نشان میدهد چگونه «تلقین» به ابزار اصلی هدایت ذهن و رفتار تبدیل شده است. همچنین، ضمن بررسی چرخههای قدرت و کنترل رسانهای، راهکارهای مقاومت در برابر پروژههای سایبرنتیکی رسانهای نیز تحلیل میشود.
واژگان کلیدی: سایبرنتیک رسانه (Media Cybernetics)، کنترل (Control)، تلقین (Suggestion)، بازخورد (Feedback)، رسانه (Media)
نوربرت وینر (Norbert Wiener)، بنیانگذار سایبرنتیک، در کتاب مشهور خود Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948) سایبرنتیک را علم «کنترل و ارتباط» میداند. در این چهارچوب، رسانه (Media) نه صرفاً ابزار ارتباطی، بلکه سامانهای سایبرنتیکی است که با بهرهگیری از اصول بازخورد (Feedback)، پیامرسانی را به ابزاری برای اعمال کنترل بدل کرده است.
در چنین سامانهای، رسانهها با بهرهگیری از فناوریهای هوش مصنوعی (Artificial Intelligence)، کلاندادهها (Big Data) و تحلیل رفتار مخاطب، پیامها را به گونهای تنظیم میکنند که «ادراک مخاطب» را مهندسی کنند (Zuboff, 2019).
واژه کلیدی درک عملکرد رسانههای سایبرنتیکی، «تلقین» (Suggestion) است. تلقین در روانشناسی اجتماعی به معنای کاشت یک باور یا نگرش در ذهن فرد بهگونهای است که فرد گمان کند آن باور را خود پذیرفته است (Bargh & Chartrand, 1999).
چرخه کنترل سایبرنتیکی رسانهای بهطور خلاصه به شکل زیر عمل میکند:
این چرخه نوعی لوپ تقویتشونده (Positive Feedback Loop) ایجاد میکند که هر بار کنترل را دقیقتر و عمیقتر میسازد (Shannon & Weaver, 1949).
آیا رسانه صرفاً ابزاری در دست قدرت است یا خود به کنشگری مستقل بدل شده است؟ به تعبیر مارشال مکلوهان (Marshall McLuhan)، «رسانه خود پیام است» (The medium is the message) (McLuhan, 1964). رسانه امروز، نه تنها محتوای رفتاری تولید میکند، بلکه با هوشمندسازی فرایند تولید و توزیع محتوا، در فرایند تصمیمسازی اجتماعی مداخله مستقیم دارد.
نمونههای معاصر این امر را میتوان در کارزارهای خبری حول بحرانهای اقتصادی یا بهداشت عمومی مشاهده کرد. رسانهها، از طریق خلق «واقعیتهای بدیل» (Alternative Realities)، افکار عمومی را به سوی پذیرش سیاستهای خاص سوق میدهند (Chomsky & Herman, 1988).
فرض کنید یک رسانه جریان اصلی (Mainstream Media) چنین سناریویی را پیادهسازی کند:
هشدار بحران: پخش گسترده هشدار درباره کمبود منابع (مثلاً آب)
ترغیب: تبلیغات صرفهجویی و مسئولیتپذیری
تهدید: اعلام تصمیم احتمالی برای افزایش قیمت
اعمال فشار: قطع موقت خدمات برای ایجاد تجربه زیسته از بحران
بازخورد مثبت: گزارش موفقیت اقدامات
نهاییسازی کنترل: افزایش تدریجی قیمت به عنوان راهکار منطقی
این فرایند، نمونهای کلاسیک از پروژههای سایبرنتیکی رسانهای است که با استفاده از «مهندسی ادراک» (Perception Engineering) و «مدیریت رفتار» (Behavior Management) اجرا میشود (Harari, 2016).
تمام این سازوکارها تنها در یک صورت شکست میخورند: زمانی که مخاطبان به «آگاهی انتقادی» (Critical Consciousness) دست یابند (Freire, 1970). اما رسانههای سایبرنتیکی حتی برای این شرایط هم تمهیداتی اندیشیدهاند. رسانهها مفاهیم مقاومت و بیداری را مصادره کرده و آنها را در قالبهای جدید بازتعریف میکنند (مثلاً تبدیل مقاومت به مد جدید یا بازی سرگرمکننده).
رسانهها امروز در جایگاه سامانههای سایبرنتیکی خودمختار قرار گرفتهاند که با بهرهگیری از فناوریهای هوشمند، قدرت تلقین خود را چند برابر کردهاند. مخاطبانی که آگاهانه با این سازوکار مواجه شوند، قادر خواهند بود زنجیره تلقین را بشکنند و خود را از چرخهی کنترل خارج کنند.
بنابراین، تنها راه برونرفت، تربیت مخاطب انتقادی است؛ مخاطبی که نه صرفاً مصرفکننده پیام، بلکه تحلیلگر سازوکار تولید پیام باشد.
Bargh, J. A., & Chartrand, T. L. (1999). The Unbearable Automaticity of Being. American Psychologist.
Chomsky, N., & Herman, E. S. (1988). Manufacturing Consent: The Political Economy of the Mass Media. Pantheon.
Freire, P. (1970). Pedagogy of the Oppressed. Continuum.
Harari, Y. N. (2016). Homo Deus: A Brief History of Tomorrow. Harper.
McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.
Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University of Illinois Press.
Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
نقد مجموعه مستند جنایت نامرئی در سایبر کانال (Kubernētes)
در دنیایی که حقیقت هر روز در لایههای فریبآلود رسانههای رسمی دفن میشود و ژورنالیسم جهانی اغلب به بوق تبلیغاتی ساختارهای قدرت بدل گشته، مستند «جنایت نامرئی» چونان پیکی از دنیای زیرین، در لابهلای انبوه سانسورها و روایتهای ساختگی، حقیقتی تکاندهنده را به تصویر میکشد. این مستند نه تنها جسارت بیان دارد، بلکه با بهرهگیری از نگرشی سایبرنتیکی، دستگاه حکمرانی نوین جهانی را در معرض تحلیل و تشریح قرار میدهد.
«جنایت نامرئی» را باید نه صرفاً یک مستند، بلکه یک پرسش راهبردی در قالب سینما دانست؛ پرسشی که پرسیدن آن شهامت میطلبد و پاسخ دادن به آن، فروپاشی بسیاری از پیشفرضهای ذهنی را. از همین منظر، این اثر بیش از آنکه در دستهبندی ژانری محدود شود، باید در ساحت دکترینال ـ استراتژیک رسانهای فهم شود؛ اثری که ساختارهای سلطه در عصر پاندمی و فراتر از آن را به چالش میکشد.
کارگردان مستند با اتکا به سندیت بالا، تبحر در روایت، و جسارت تحلیلی، جهان کرونازده را نه صرفاً به عنوان پدیدهای زیستی، بلکه بهمثابه جنگی تمامعیار بیولوژیک و سایبرنتیکی تحلیل میکند. او به مدد اسناد رسمی، از DMED وزارت دفاع آمریکا تا سند Lockstep بنیاد راکفلر، پرده از پروژهای برداشته که هدف غاییاش چیزی نیست جز بازطراحی مناسبات قدرت جهانی با ابزار زیستپزشکی، رسانه و ترس.
در این اثر، بیماری به سلاحی بدل شده که نه فقط بدن بلکه ارادهها را هدف قرار میدهد؛ جنگی که بیهیاهو آغاز میشود، اما ژرفترین تغییرات را در ساحت سیاست، اقتصاد و حاکمیت رقم میزند. درست همانگونه که سون تزو در «هنر جنگ» توصیه میکند: «پیروزی بزرگ آن است که کشور دشمن را بیآنکه جنگی شود، تسخیر کنی.»
آنچه این مستند را از آثار همرده خود متمایز میکند، صرفاً افشاگری نیست؛ بلکه تحلیل عمیق ساختارهای قدرت بر مبنای نظریههای کنترل، اقتصاد سلامت، جنگ بیولوژیک، و سایبرنتیک است. مستند درک دقیقی از رابطهی دانش، قدرت و حکمرانی ارائه میدهد و با اتکا به دکترین نوربرت وینر و استافورد بیر، بهروشنی نشان میدهد که کنترل اطلاعات در عصر نوین، همان حکمرانی بر حیات انسانی است.
کارگردان با زبان سینما، رسانه را نه ابزار اطلاعرسانی، بلکه بازیگر اصلی میدان جنگ نرم معرفی میکند؛ رسانهای که قادر است حقیقت را دفن کند و هراس را تکثیر. مستند در صحنههایی یادآور نوارهای ویدئویی استنلی کوبریک در «چشمان باز بسته»، حقیقت را در تاریکی به تماشا میگذارد و تماشاگر را به زلزلهای شناختی دعوت میکند.
«جنایت نامرئی» شاهکاری است که در بزنگاه تاریخی پساکرونا، ساحت سینمای مستند را از گزارش صرف، به سطح نبرد مفهومی ـ استراتژیک ارتقاء میدهد. این اثر هم جسور است، هم دقیق، هم رادیکال، و هم اخلاقی. در زمانی که بسیاری از مستندها در دایره تکرار گرفتارند، این اثر با ساختار پژوهشمحور، جسارت نظری، و عمق تحلیلی، همچون آژیر خطر در شب سکوت رسانههاست.
بیهیچ تردید، «جنایت نامرئی» نهفقط مستندی برای دیدن، که متنی برای اندیشیدن و پرسشی برای زمانه ماست؛ و بیاغراق، یکی از آثار ماندگار سینمای مستند ایران در حوزه جنگ شناختی و سایبرنتیکی قرن حاضر.
کانال سایبری کیبرنِتِس (Kubernētes)
پوستر جدید مجموعه مستند جنایت نامرئی
