|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |
|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |

تسلیحات رسانه‌ای هوش‌محور: ابزارهای نوین قدرت سایبرنتیک

تسلیحات رسانهای هوشمحور: ابزارهای نوین قدرت سایبرنتیک

AI-Powered Media Weaponry: Tools of Modern Cybernetic Power

ارائه دهنده: سهیل سلیمی  مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلم‌ساز

مقدمه (Introduction)

پیشرفتهای فناورانه در دهههای اخیر، ترکیبی بیسابقه از ابزارها را در اختیار بازیگران قدرتمند قرار داده است: دسترسی بیدرنگ به میلیاردها کاربر (real-time access to billions of users)، توان پردازش و یادگیری ماشینی برای تحلیل و هدفگذاری (machine learning for analysis and targeting)، و واسطهای تولید محتوای خودکار (automated content generation interfaces). این فناوریها، که زمانی صرفاً ابزارهای ارتباطی بودند، اکنون به تسلیحات استراتژیک در زرادخانه قدرتهای جهانی (global power arsenals) تبدیل شدهاند. این تسلیحات، که نه از طریق نیروی فیزیکی بلکه از طریق دستکاری توجه (attention manipulation)، شکلدهی ادراک (perception shaping)، و تغییر رفتار جمعی (collective behavior modification) عمل میکنند، به کنترل کنندگان قدرت، امکان میدهند تا نفوذ خود را در مقیاسی بیسابقه اعمال کنند.

این متن به بررسی موارد زیر میپردازد:

  1. سازوکارهای فنی و سازمانی تسلیحات رسانهای هوشمحور (technical and organizational mechanisms of AI-powered media weaponry)
  2. نقش حلقههای بازخورد سایبرنتیکی (cybernetic feedback loops) در تثبیت قدرت
  3. شواهد و نمونههای عملیاتی این ابزارها در جنگ شناختی (cognitive warfare)
  4. پیامدهای قانونی، اخلاقی و سیاستی (legal, ethical, and policy implications)

این تحلیل بر اساس مرور گسترده ادبیات میانرشتهای (interdisciplinary literature review) در حوزههای اطلاعاتی، رسانهای، علوم کامپیوتر، حقوق بینالملل، و مطالعات امنیت انجام شده و از منابع معتبر مانند LikeWar (Singer & Brooking, 2018) و The Age of Surveillance Capitalism (Zuboff, 2019) بهره میگیرد.

چارچوب نظری: مدیا-سایبرنتیک و جنگ شناختی

Theoretical Framework: Media-Cybernetics and Cognitive Warfare

مدیا-سایبرنتیک (media-cybernetics) مطالعه سامانههای رسانهای است که با حلقههای بازخورد دادهمحور (data-driven feedback loops) عمل میکنند. این سامانهها شامل چهار مؤلفه اصلی هستند:

  • رسانه بهعنوان حسگر (Media as Sensor): اندازهگیری واکنشها و سنجههای تعامل کاربران (user engagement metrics).
  • رسانه بهعنوان پردازشگر (Media as Processor): تحلیل دادهها و مدلسازی رفتار (data analysis and behavior modeling).
  • رسانه بهعنوان عملگر (Media as Actuator): تولید و توزیع روایتها و محتوا (narrative and content production/distribution).
  • رسانه بهعنوان سازوکار بازخورد (Media as Feedback Mechanism): بهینهسازی الگوریتمی بر اساس نتایج (algorithmic optimization).

این معماری با پارادایم سایبرنتیک (cybernetic paradigm) همخوانی دارد، که هدفش کنترل و تنظیم رفتارها از طریق جمعآوری داده و اصلاحات پیوسته (continuous data-driven adjustments) است.

جنگ شناختی (cognitive warfare)، برخلاف جنگهای سنتی، بهجای نابودی فیزیکی دشمن، بر تغییر باورها (belief alteration)، تصمیمگیریها (decision-making manipulation)، و اولویتهای انتخابی جمعیتها (population choice prioritization) تمرکز دارد. ابزارهای دیجیتال مدرن، با قابلیت توزیع پیامهای هدفمند و شخصیسازیشده (targeted and personalized messaging)، اثربخشی اقناع (persuasion effectiveness) را به سطوحی بیسابقه ارتقا دادهاند.

سازوکارهای فنی و سازمانی

Technical and Organizational Mechanisms

1. زنجیره داده (Data Supply Chain)

هر عملیات اقناعی مدرن با داده آغاز میشود. دادههای رفتاری کاربران (user behavioral data)، شبکههای ارتباطی (social network data)، متادیتا (metadata)، و دادههای حسگرهای اینترنت اشیا (IoT sensor data) جمعآوری میشوند. این دادهها پس از پاکسازی (data cleaning) برای ایجاد نمایههای مخاطبان (audience profiles) استفاده میشوند که گرایشها، حساسیتهای روانی، و نقاط آسیبپذیری (psychological vulnerabilities) را مشخص میکنند.

2. مدلها و الگوریتمها (Modeling & Targeting / Algorithmic)

الگوریتمهای یادگیری ماشینی (machine learning algorithms)، از مدلهای طبقهبندی ساده تا شبکههای عصبی عمیق (deep neural networks) و مدلهای زبانی بزرگ (large language models - LLMs)، برای پیشبینی پاسخهای محتمل (predictive behavioral modeling) و شناسایی نقاط نفوذ (vulnerability nodes) به کار میروند. این مدلها از آزمایش A/B در مقیاس گسترده (large-scale A/B testing) برای بهینهسازی پیامها استفاده میکنند.

3. تولید محتوای مقیاسپذیر (Scalable Content Generation)

فناوریهای مولد (generative technologies)، مانند مدلهای زبانی (LLMs)، مولدهای تصویر (image generators)، و ابزارهای تبدیل متن به صوت (text-to-speech tools)، امکان تولید محتوای سفارشیشده برای میلیونها مخاطب را فراهم میکنند. این محتوا شامل میمها (memes)، ویدئوهای دیپفیک (deepfakes)، و پیامهای صوتی هدفمند (targeted audio messages) است که بهصورت خودکار و در مقیاس تولید میشوند.

4. توزیع و تقویت الگوریتمیک (Algorithmic Distribution & Amplification)

پلتفرمهای دیجیتال با الگوریتمهایی که به توجه و تعامل پاداش میدهند (attention-driven algorithms)، پیامهای پرجذب (high-engagement content) را تقویت میکنند. بازیگران قدرت از شبکههای رباتیک (botnets)، حسابهای هماهنگ (coordinated accounts)، و تبلیغات هدفمند (targeted ads) برای توزیع پیامها استفاده میکنند.

5. حلقههای بازخورد میدانی (Real-time Feedback Loops)

برخلاف پروپاگانداهای سنتی، این سامانهها از کنترل در زمان واقعی (real-time control) بهره میبرند. دادههای واکنش کاربران (user reaction data) بهسرعت تحلیل شده و مدلها بهروزرسانی میشوند تا پیامها دقیقتر شوند. این حلقههای کنترلی بسته (closed control loops)، که در سایبرنتیک بهینه تلقی میشوند، اثربخشی عملیات را افزایش میدهند.

کارکردها و سناریوهای راهبردی

Functions and Strategic Scenarios

الف) اثرگذاری انتخاباتی و سیاسی (Electoral and Political Influence)

هدفگذاری دقیق و آزمایش مداوم پیامها (continuous message testing) میتواند حوزههای حساس رأیدهی (swing voter regions) را تحت تأثیر قرار دهد. گزارشهایی از دخالت در انتخابات (election interference)، مانند موارد بررسیشده توسط The Guardian (Cadwalladr & Graham-Harrison)، نشاندهنده تأثیر این ابزارها بر افکار عمومی است.

ب) تضعیف نهادها و کاهش مشروعیت (Undermining Institutions and Legitimacy)

انتشار اطلاعات نادرست (disinformation)، شایعات (rumors)، و نشتهای جعلی (fabricated leaks) میتواند اعتماد عمومی به نهادهای مدنی (civic institutions) و رسانهها را تضعیف کند، که به نفوذ سیاسی بازیگران داخلی یا خارجی (domestic/foreign actors) منجر میشود.

ج) عملیات روانی و تاکتیکهای میدان نبرد (Psychological Operations and Battlefield Tactics)

در درگیریهای مسلحانه، روایتهایی که روحیه دشمن را تضعیف (demoralization) یا نیروهای همپیمان را تهییج میکنند (motivational narratives)، اثربخشی عملیات نظامی را تغییر میدهند. نمونههای معاصر در LikeWar (Singer & Brooking, 2018) به این موضوع پرداختهاند.

د) ایجاد/مدیریت بحران و بحرانهای شناختی (Crisis Creation/Management and Cognitive Crises)

ساخت شرایط اطلاعاتی جعلی (false information conditions)، مانند گزارشهای جعلی از حوادث (fabricated incident reports)، میتواند واکنشهای سیاسی یا نظامی را به نفع بازیگران قدرت (strategic actors) برانگیزد.

پیامدهای قانونی، اخلاقی و سیاستی

Legal, Ethical, and Policy Implications

در غیاب مقررات جهانی (global regulations)، خطر سوءاستفادههای راهبردی (strategic misuse)، نقض حقوق مدنی (civil rights violations)، و تضعیف نهادهای دموکراتیک (democratic institutions) افزایش مییابد. چالشهای کلیدی شامل موارد زیر است:

  • حریم خصوصی (Privacy): جمعآوری دادهها بدون رضایت (non-consensual data collection) اعتماد عمومی را تضعیف میکند (Zuboff, 2019).
  • اخلاقیات (Ethics): استفاده از دیپفیکها و محتوای دستکاریشده (manipulated content) مسائل اخلاقی جدی را مطرح میکند.
  • قطبیسازی (Polarization): الگوریتمهای توجهمحور (attention-driven algorithms) میتوانند تنشهای اجتماعی را تشدید کنند (Tufekci, 2017).

برای مقابله، اقدام سیاستی سریع (swift policy action)، ترکیب راهکارهای فنی (technical countermeasures) مانند ابزارهای تشخیص دیپفیک (deepfake detection tools)، و تقویت سواد اطلاعاتی عمومی (public information literacy) ضروری است.

نتیجهگیری (Conclusion)

تسلیحات رسانهای هوشمحور (AI-powered media weaponry) با ترکیب رسانههای دیجیتال و هوش مصنوعی، به ابزاری کلیدی برای اعمال نفوذ و کنترل (power exertion and control) تبدیل شدهاند. منطق سایبرنتیکی (cybernetic logic) این ابزارها، با تکیه بر زنجیره داده (data supply chain)، الگوریتمهای پیشرفته (advanced algorithms)، و حلقههای بازخورد (feedback loops)، امکان شکلدهی به ادراکات و رفتارهای جمعی (collective perception and behavior) را در مقیاسی بیسابقه فراهم میکند. با این حال، مدیریت این تسلیحات اگر روی از زیر نظر سازمانهای امنیتی آنگلوساکسون و غربی خارج شود، نیازمند مقررات قوی (robust regulations)، همکاری بینالمللی (international cooperation)، و آموزش عمومی (public education) است تا از تهدیدات آنها علیه منافع عمومی (public interest) جلوگیری شود. که اگر خودمان مجهز به فضای سالم سایبر  و مدیریت انبود اطلاعات نباشیم، برای ما وجود نخواهد داشت و به صورت مدام از این نطقه ضعف به ما حمله خواهد شد.


منابع (
References)

  1. Singer, P. W., & Brooking, E. T. (2018). LikeWar: The Weaponization of Social Media. Houghton Mifflin Harcourt.
  2. Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  3. Tufekci, Z. (2017). Twitter and Tear Gas: The Power and Fragility of Networked Protest. Yale University Press.
  4. Morozov, E. (2011). The Net Delusion: The Dark Side of Internet Freedom. PublicAffairs.
  5. Woolley, S., & Howard, P. N. (2018). Computational Propaganda. Oxford University Press.

رویای سون تزو — مستند جنگ بیولوژیک، سایبرنتیک و مهندسی جهانی قدرت | نویسنده تهیه کننده و کارگردان: سهیل سلیمی

آنچه در رویای سون تزو خواهید دید:


۱. مقدمه: رویای سون تزو در عصر جدید

سون تزو، استراتژیست بزرگ چینی، در کتاب "هنر جنگ" می‌نویسد: «بهترین پیروزی آن است که بدون جنگ، دشمن را تسلیم کنی.» این آرمان امروز به‌گونه‌ای مدرن با ابزارهایی مانند ویروس‌ها، رسانه، ترس و تکنولوژی‌های کنترل محقق شده است. مستند پیش‌رو تلاشی است برای تحلیل این نبرد مدرن.


۲. آغاز کرونا: جرقه یک جنگ خاموش

شیوع ویروس کرونا در شب یلدای ۱۳۹۸ آغازگر دوران تازه‌ای بود. به‌سرعت، دنیا به سمت آشفتگی، ترس و تعطیلی کشیده شد. کمبود ماسک، دارو، و درگیری میان کشورها بر سر تجهیزات بهداشتی، چهره‌ای از بحران جهانی را نمایان کرد. اما آیا این پاندمی تصادفی بود؟


۳. سایبرنتیک و بایوسایبرنتیک: دانش سلطه بر حیات

سایبرنتیک دانش کنترل و هدایت است. وقتی این دانش بر پدیده‌های زیستی چون ویروس‌ها اعمال شود، بایوسایبرنتیک شکل می‌گیرد: سلطه بر جوامع از مسیر کنترل زیستی. از کنترل یک ویروس تا کنترل اقتصاد، سیاست و فرهنگ — همه می‌توانند بخشی از این مهندسی باشند.


۴. بازطراحی راهبردها: از جنگ جهانی اول تا جنگ جهانی چهارم

در تاریخ جنگ‌ها، گاه بیماری‌ها جایگزین توپ و تفنگ شده‌اند. انگلیس، ژاپن و آمریکا نمونه‌هایی از قدرت‌هایی هستند که از سلاح‌های بیولوژیک برای حذف دشمنان استفاده کردند. اکنون، جنگ بیولوژیک در قالب کرونا شاید بازطراحی همان راهبردهاست.


۵. جنگ‌های بیولوژیک در تاریخ معاصر

از پتوی آلوده به آبله که به بومیان آمریکا داده شد تا آزمایش‌های بیولوژیک ارتش آمریکا بر شهروندان خود، تاریخ مملو از استفاده از بیماری به عنوان سلاح است. ایران نیز قربانی سلاح‌های شیمیایی رژیم بعث عراق بوده است.


۶. تجارت سلامت و اقتصاد پاندمی

صنعت درمان به یکی از پرسودترین صنایع جهان بدل شده است. شرکت‌های داروسازی، بیمارستان‌ها، تولیدکنندگان واکسن و تجهیزات پزشکی، همگی از هر بحران سلامت جهانی سود می‌برند. تضاد منافع میان سود و سلامت عمومی، سوالی اساسی را ایجاد می‌کند: آیا سلامت باید تجارت باشد؟


۷. نقش رسانه در ایجاد ترس و کنترل اجتماعی

رسانه‌ها قدرتی بی‌نظیر در القای ترس دارند. ترسی که سیستم ایمنی بدن را تضعیف و مردم را در برابر بیماری آسیب‌پذیر می‌کند. پاندمی کرونا، نمونه‌ای از استفاده هدفمند از رسانه برای القای ترس و فرمانبرداری جمعی بود.


۸. پروژه‌های محرمانه: از ام کی اولترا تا پروژه کرونا

اسناد متعددی از پروژه‌هایی نظیر امک‌اولترا، واحد ۷۳۱ ژاپن، آزمایش‌های ارتش آمریکا در فورت دیتریک و پروژه‌های کنترل ذهن، پرده از اهداف پنهان قدرت‌های جهانی در بهره‌برداری از علم و تکنولوژی برای تسلط بر انسان‌ها برمی‌دارند.


۹. شبیه‌سازی‌های پیش از کرونا و اسناد آینده‌نگر

از رویداد شبیه‌سازی‌شده «ایونت ۲۰۱» تا پیش‌بینی بنیاد راکفلر در سال ۲۰۱۰، شواهدی وجود دارد که پاندمی کرونا سناریویی طراحی‌شده بوده است. سندهای فراوانی پیش از وقوع کرونا، وقوع چنین بحرانی را با دقت شگفت‌آور پیش‌بینی کرده بودند.


۱۰. کنترل علم، سانسور و نظم نوین جهانی

تحقیقات علمی در دوران کرونا دچار سانسور شدید شدند. مقالاتی که خطرات واکسن یا منشأ ویروس را بررسی می‌کردند، منتشر نمی‌شدند. دانش، ابزاری شده برای تحکیم قدرت، نه روشنگری. این سانسور علمی، بخشی از نظم نوین جهانی است.


۱۱. نتیجه‌گیری: آیا جنگ آینده از پیش آغاز شده؟

مستند حاضر با نگاهی عمیق به تاریخ، علم، رسانه و سیاست، سعی دارد تصویری واقع‌بینانه از دنیای پساکرونا ارائه دهد. دنیایی که در آن ویروس، رسانه، سایبرنتیک و اقتصاد ابزاری برای مهندسی جهانی قدرت هستند.



لینک تماشای مستند رویای سون تزو :     Sun Tzu's Dream  https://www.youtube.com/watch?v=c_tn33r3q_0

بازخوانی اخلاقی "مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه " ارائه شده در سومین کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۳)

هوش مصنوعی و مسأله اخلاق در نظام‌های سایبرنتیکی

از الگوریتم تا مسئولیت انسانی

ارائه‌دهنده: سهیل سلیمی

مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلم‌ساز

نسخه دوم با تمرکز بر: مدیاسایبرنتیک، تهدیدات فراگیر تولیدات رسانه‌ای، و اخلاق در معماری هوش مصنوعی


مقدمه

این مقاله نخستین‌بار در قالب ارائه‌ای تخصصی در کارگاه «مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه» در سومین دوره کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۳) ارائه شده است. کارگاه مزبور با هدف تحلیل میان‌رشته‌ای نسبت سایبرنتیک، هوش مصنوعی، و تحولات رسانه‌ای، فرصتی برای بازاندیشی نقش اخلاق در نظام‌های تصمیم‌ساز فراهم آورد. در این مقاله، با تکیه بر منظری انتقادی و نظریه‌محور، تأثیرات فزاینده هوش مصنوعی بر بازنمایی رسانه‌ای و نیز مخاطرات آن بر اخلاق، مسئولیت و انسان‌محوری در معماری‌های سایبرنتیکی بررسی می‌شود.

در بستری که مدیاسایبرنتیک شکل گرفته است—یعنی جایی که رسانه، داده و تصمیم در یک چرخه خودتقویت‌گر به هم پیوسته‌اند—پرسش از معیار اخلاقی در دل الگوریتم‌های بی‌طرف‌نما، بیش از همیشه ضروری به‌نظر می‌رسد. مقاله حاضر بر آن است که نشان دهد هوش مصنوعی، اگر بدون مراقبت نظری و مهار اخلاقی رها شود، نه تنها پیام‌رسانی را متحول، بلکه قدرت قضاوت را نیز از انسان سلب می‌کند؛ و در نتیجه، به فراگیری تولیدات رسانه‌ای فاقد مسئولیت دامن می‌زند.


۱. نظام سایبرنتیکی و معماری تصمیم‌گیری هوشمند

سایبرنتیک، به‌مثابه نظریه‌ای میان‌رشته‌ای که در دهه ۱۹۴۰ توسط نوربرت وینر پایه‌گذاری شد، به بررسی مکانیسم‌های کنترل، بازخورد و ارتباط در سیستم‌های پیچیده می‌پردازد. در عصر دیجیتال، این نظریه وارد عرصه‌های رسانه، سیاست، زیست‌فناوری و هوش مصنوعی شده و الگویی فراگیر از «تنظیم و تطبیق» بر مبنای داده ارائه کرده است.

در نظام‌های سایبرنتیکی مدرن، تصمیم‌گیری به‌وسیله شبکه‌های عصبی، الگوریتم‌های یادگیری عمیق و مدل‌های داده‌محور صورت می‌گیرد. این سامانه‌ها با تحلیل داده‌های انبوه، الگوهایی آماری از گذشته تولید کرده و آن‌ها را برای پیش‌بینی آینده به کار می‌گیرند. در عین حال، فقدان عناصر انسانی نظیر دغدغه اخلاقی، تردید، شفقت و مسئولیت‌پذیری، یکی از مهم‌ترین چالش‌های این معماری‌هاست.


۲. آیا اخلاق قابل الگوریتمی‌سازی است؟

پیش از بررسی اخلاق در سطح فنی، باید به مبانی فلسفی آن پرداخت. در سنت فلسفه اخلاق، سه مکتب اصلی وجود دارد:

  1. اخلاق وظیفه‌گرا (کانتی) – تأکید بر تکلیف فارغ از نتیجه

  2. اخلاق پیامدگرا (بنتام، میل) – تأکید بر بیشینه‌سازی سود یا کاهش ضرر

  3. اخلاق فضیلت‌محور (ارسطویی) – تمرکز بر شخصیت و نهادینه‌سازی منش اخلاقی

در ساخت الگوریتم‌ها، به‌ویژه در کاربردهای هوش مصنوعی در رسانه یا خودروهای خودران، معمولاً مدل‌های پیامدگرا به‌کار می‌روند؛ زیرا قابل ترجمه به زبان ریاضی و تصمیم‌سازی ماشینی‌اند.

اما همان‌گونه که در مقاله سلیمی آمده است، چنین تصمیماتی بیشتر شبیه به "برنامه‌ریزی اخلاق‌نما" هستند تا "تصمیمات اخلاقی اصیل". الگوریتم نمی‌اندیشد، احساس نمی‌کند، و درک ندارد؛ بلکه فقط پاسخ‌های بهینه بر مبنای معیارهای از پیش تعریف‌شده تولید می‌کند.


۳. شکاف میان ادراک و شبیه‌سازی اخلاق

مفاهیمی چون پشیمانی، وجدان، تردید یا مسئولیت‌پذیری، از جمله ویژگی‌های زیسته انسانی‌اند که در تصمیم‌گیری‌های اخلاقی نقش تعیین‌کننده دارند. این عناصر، برآمده از حافظه عاطفی، آگاهی تاریخی و خویشتن‌نگری هستند.

در مقابل، ماشین‌ها فقط قادر به بازشمارش خطا یا اصلاح براساس الگوریتم‌های به‌روزرسانی هستند. به همین دلیل، حتی وقتی یک الگوریتم تصمیمی به ظاهر اخلاقی اتخاذ می‌کند، این تصمیم در خلأ اخلاقی و بدون ادراک تجربه انسانی شکل گرفته است.

در واقع این «شکاف میان ادراک و شبیه‌سازی» است؛ و اعتماد به سامانه‌هایی که فقط «نقاب اخلاقی» بر چهره دارند، می‌تواند زمینه‌ساز فجایع اخلاقی شود.


۴. مسئولیت اخلاقی در عصر الگوریتم‌ها

در نظام‌های حقوقی و اخلاقی سنتی، مسئولیت تابع نیت، آگاهی و امکان انتخاب بدیل است. اما در سیستم‌های هوشمند، این سه شرط یا غایب‌اند یا در ماشین قابل تعریف نیستند.

پرسش اساسی این است: اگر یک سامانه مبتنی بر هوش مصنوعی تصمیمی فاجعه‌بار بگیرد، مسئول کیست؟ توسعه‌دهنده؟ ناظر؟ کاربر؟ یا سیستم خودش؟
سند "AI Act" اتحادیه اروپا تلاش می‌کند مسئولیت را بر عهده انسان بگذارد، اما در عمل، با پیچیده‌تر شدن سامانه‌ها، ردیابی تصمیم و مرجع اخلاقی آن دشوارتر می‌شود.

اگر اخلاق به فرمول و داده تقلیل یابد، آنگاه مسئولیت نیز به یک خروجی بی‌روح تبدیل خواهد شد. در این وضعیت، خطر فروپاشی اخلاق انسانی به‌شدت بالاست.


۵. بازنمایی اخلاق در رسانه و مخاطره انسان‌واره‌سازی

در سینما، رسانه‌های دیجیتال و تبلیغات، تصویری از ماشین‌هایی ارائه می‌شود که گویی احساس، فهم و اخلاق دارند. فیلم‌هایی چون I, Robot، Ex Machina و Her، به شکل‌گیری تصوری اغواگرانه از «هوش اخلاقی مصنوعی» کمک می‌کنند.

این روند منجر به انسان‌واره‌سازی (Anthropomorphizing) سامانه‌ها می‌شود، که در نهایت به اعتماد کاذب و پذیرش ناآگاهانه فناوری‌های فاقد مسئولیت‌پذیری انسانی می‌انجامد.

رویکرد مدیاسایبرنتیکی هشدار می‌دهد که رسانه نه فقط بازتاب‌دهنده، بلکه تولیدکننده تصور ما از اخلاق ماشینی است. این تصور، با بازخورد خود، طراحی سامانه‌ها را نیز متأثر می‌سازد و در یک چرخه بسته، مرز خیال و واقعیت را مخدوش می‌کند.


نتیجه‌گیری: میان شبیه‌سازی و تعهد اخلاقی، مرز انسان باقی می‌ماند

در این مقاله نشان دادیم که هرچند هوش مصنوعی قادر است رفتارهای به‌ظاهر اخلاقی را شبیه‌سازی کند، اما فاقد عناصر بنیادین برای درک و تعهد اخلاقی اصیل است. الگوریتم‌ها نه تجربه دارند، نه نیت، و نه مسئولیت‌پذیری. آنچه در نظام‌های سایبرنتیکی جدید می‌بینیم، بیش از آن‌که اخلاق باشد، نوعی مهندسی تصمیمات مبتنی بر داده و سودمندی آماری است.

خطر اصلی نه در ذات ماشین، بلکه در غفلت انسان از جایگاه خود در چرخه طراحی، نظارت و کنترل است. وقتی بازنمایی اخلاق با ذات اخلاق اشتباه گرفته شود، دیگر نه فقط سامانه‌ها، بلکه خود انسان نیز در آستانه از‌دست‌دادن مرجعیت اخلاقی قرار می‌گیرد.

بنابراین، چاره کار نه نفی فناوری، بلکه پایش انتقادی آن از منظر اخلاق انسانی و بازطراحی مبتنی بر مدیاسایبرنتیک متعهد است؛ مدیاسایبرنتیکی که بداند رسانه، تصمیم و کد همگی ابزارهایی‌اند برای حفظ معنا، نه جایگزینی آن.

در نهایت، اگر قرار است سامانه‌های هوشمند در دل جامعه انسانی جای بگیرند، باید مسئولیت آن‌ها نه در الگوریتم، بلکه در وجدان انسان‌هایی تعریف شود که آن‌ها را می‌آفرینند.


منابع

  • Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.

  • Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

  • Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.

  • Coeckelbergh, M. (2020). AI Ethics. MIT Press.

  • Salimi, Soheil. "Artificial Intelligence at the Crossroads of Choice: Between Ethics, Priorities, and Cybernetic Systems." سلیمی، سهیل . «هوش مصنوعی در دوراهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی».


مدیاسایبرنتیک: قدرتِ تلقین

* مقاله‌ی حاضر، نسخه‌ی تکمیل‌شده و توسعه‌یافته‌ی ارائه‌ای است که پیش‌تر در قالب کارگاه تخصصی «مدیاسایبرنتیک و قدرتِ تلقین» در دومین دوره کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۲) ارائه شده است. این مقاله تلاش دارد با بهره‌گیری از مبانی نظری و شواهد تجربی، چارچوبی تحلیلی برای فهم رابطه‌ی میان رسانه، سایبرنتیک و سازوکارهای کنترل ذهنی ارائه کند.

مدیاسایبرنتیک (سایبرنتیکِ رسانه): قدرتِ تلقین و مهندسی ذهن

Media Cybernetics: The Power of Suggestion and Mind Engineering

نویسنده: سهیل سلیمی
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران


چکیده

مدیا سایبرنتیک (Media Cybernetics) به‌عنوان امتداد نظریه سایبرنتیک نوربرت وینر (Norbert Wiener) در عرصه رسانه، بستر شکل‌دهی رفتار و نگرش مخاطبان را فراهم آورده است. رسانه، دیگر صرفاً واسطه انتقال پیام نیست، بلکه خود به بازیگری مستقل بدل شده که با بهره‌گیری از اصول feedback (بازخورد)، control (کنترل)، و communication (ارتباط)، جامعه را مهندسی می‌کند. این مقاله، با تکیه بر نظریه‌های کلاسیک سایبرنتیک و نمونه‌های معاصر رسانه‌ای، نشان می‌دهد چگونه «تلقین» به ابزار اصلی هدایت ذهن و رفتار تبدیل شده است. همچنین، ضمن بررسی چرخه‌های قدرت و کنترل رسانه‌ای، راهکارهای مقاومت در برابر پروژه‌های سایبرنتیکی رسانه‌ای نیز تحلیل می‌شود.

واژگان کلیدی: سایبرنتیک رسانه (Media Cybernetics)، کنترل (Control)، تلقین (Suggestion)، بازخورد (Feedback)، رسانه (Media)


۱. مقدمه: رسانه به مثابه سامانه سایبرنتیکی

نوربرت وینر (Norbert Wiener)، بنیان‌گذار سایبرنتیک، در کتاب مشهور خود Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948) سایبرنتیک را علم «کنترل و ارتباط» می‌داند. در این چهارچوب، رسانه (Media) نه صرفاً ابزار ارتباطی، بلکه سامانه‌ای سایبرنتیکی است که با بهره‌گیری از اصول بازخورد (Feedback)، پیام‌رسانی را به ابزاری برای اعمال کنترل بدل کرده است.

در چنین سامانه‌ای، رسانه‌ها با بهره‌گیری از فناوری‌های هوش مصنوعی (Artificial Intelligence)، کلان‌داده‌ها (Big Data) و تحلیل رفتار مخاطب، پیام‌ها را به گونه‌ای تنظیم می‌کنند که «ادراک مخاطب» را مهندسی کنند (Zuboff, 2019).


۲. قدرتِ تلقین (Suggestion) و چرخه کنترل رسانه‌ای

واژه کلیدی درک عملکرد رسانه‌های سایبرنتیکی، «تلقین» (Suggestion) است. تلقین در روانشناسی اجتماعی به معنای کاشت یک باور یا نگرش در ذهن فرد به‌گونه‌ای است که فرد گمان کند آن باور را خود پذیرفته است (Bargh & Chartrand, 1999).

۲.۱. چرخه سایبرنتیکی قدرت

چرخه کنترل سایبرنتیکی رسانه‌ای به‌طور خلاصه به شکل زیر عمل می‌کند:

۱. ورود پیام (Input): تولید محتوای رسانه‌ای متناسب با اهداف کنترلی
۲. بازخورد (Feedback): تحلیل واکنش مخاطبان (لایک، کامنت، بازنشر، نظرسنجی‌ها)
۳. اصلاح پیام (Adaptation): بهینه‌سازی پیام‌ها براساس داده‌های دریافتی
۴. اعمال قدرت (Control): هدایت رفتار مخاطبان به سوی اهداف خاص

این چرخه نوعی لوپ تقویت‌شونده (Positive Feedback Loop) ایجاد می‌کند که هر بار کنترل را دقیق‌تر و عمیق‌تر می‌سازد (Shannon & Weaver, 1949).


۳. رسانه؛ ابزار یا بازیگر؟

آیا رسانه صرفاً ابزاری در دست قدرت است یا خود به کنشگری مستقل بدل شده است؟ به تعبیر مارشال مک‌لوهان (Marshall McLuhan)، «رسانه خود پیام است» (The medium is the message) (McLuhan, 1964). رسانه امروز، نه تنها محتوای رفتاری تولید می‌کند، بلکه با هوشمندسازی فرایند تولید و توزیع محتوا، در فرایند تصمیم‌سازی اجتماعی مداخله مستقیم دارد.

نمونه‌های معاصر این امر را می‌توان در کارزارهای خبری حول بحران‌های اقتصادی یا بهداشت عمومی مشاهده کرد. رسانه‌ها، از طریق خلق «واقعیت‌های بدیل» (Alternative Realities)، افکار عمومی را به سوی پذیرش سیاست‌های خاص سوق می‌دهند (Chomsky & Herman, 1988).


۴. پروژه‌های سایبرنتیکی رسانه‌ای: نمونه‌کاوی

۴.۱. بحران ساختگی برای کنترل رفتار جمعی

فرض کنید یک رسانه جریان اصلی (Mainstream Media) چنین سناریویی را پیاده‌سازی کند:

  • هشدار بحران: پخش گسترده هشدار درباره کمبود منابع (مثلاً آب)

  • ترغیب: تبلیغات صرفه‌جویی و مسئولیت‌پذیری

  • تهدید: اعلام تصمیم احتمالی برای افزایش قیمت

  • اعمال فشار: قطع موقت خدمات برای ایجاد تجربه زیسته از بحران

  • بازخورد مثبت: گزارش موفقیت اقدامات

  • نهایی‌سازی کنترل: افزایش تدریجی قیمت به عنوان راهکار منطقی

این فرایند، نمونه‌ای کلاسیک از پروژه‌های سایبرنتیکی رسانه‌ای است که با استفاده از «مهندسی ادراک» (Perception Engineering) و «مدیریت رفتار» (Behavior Management) اجرا می‌شود.


۵. نقطه شکست سامانه‌های رسانه‌ای: آگاهی انتقادی

تمام این سازوکارها تنها در یک صورت شکست می‌خورند: زمانی که مخاطبان به «آگاهی انتقادی» (Critical Consciousness) دست یابند (Freire, 1970). اما رسانه‌های سایبرنتیکی حتی برای این شرایط هم تمهیداتی اندیشیده‌اند. رسانه‌ها مفاهیم مقاومت و بیداری را مصادره کرده و آن‌ها را در قالب‌های جدید بازتعریف می‌کنند (مثلاً تبدیل مقاومت به مد جدید یا بازی سرگرم‌کننده).


۶. نتیجه‌گیری: مسئولیت انسانی در عصر سایبرنتیک رسانه‌ای

رسانه‌ها امروز در جایگاه سامانه‌های سایبرنتیکی خودمختار قرار گرفته‌اند که با بهره‌گیری از فناوری‌های هوشمند، قدرت تلقین خود را چند برابر کرده‌اند. مخاطبانی که آگاهانه با این سازوکار مواجه شوند، قادر خواهند بود زنجیره تلقین را بشکنند و خود را از چرخه‌ی کنترل خارج کنند.

بنابراین، تنها راه برون‌رفت، تربیت مخاطب انتقادی است؛ مخاطبی که نه صرفاً مصرف‌کننده پیام، بلکه تحلیل‌گر سازوکار تولید پیام باشد.


منابع

Bargh, J. A., & Chartrand, T. L. (1999). The Unbearable Automaticity of Being. American Psychologist.

Chomsky, N., & Herman, E. S. (1988). Manufacturing Consent: The Political Economy of the Mass Media. Pantheon.

Freire, P. (1970). Pedagogy of the Oppressed. Continuum.

Harari, Y. N. (2016). Homo Deus: A Brief History of Tomorrow. Harper.

McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.

Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University of Illinois Press.

Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

هوش مصنوعی بومی | چارچوبی برای توسعه یک مدل زبانی پیشرفته با هویت ایرانی

ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز

هوش مصنوعی بومی چارچوبی برای توسعه یک مدل زبانی پیشرفته با هویت ایرانی

در عصر حاضر، هوش مصنوعی (Artificial Intelligence - AI) و به ویژه مدلهای زبانی بزرگ (Large Language Models - LLMs)  به ابزاری استراتژیک در حوزههای اقتصادی، فرهنگی و امنیتی تبدیل شدهاند. مدلهایی مانند GPT-4 (توسعهیافته توسط OpenAI) و Gemini (ساختهی گوگل) نه تنها در پردازش زبان طبیعی (Natural Language Processing - NLP) پیشرفت چشمگیری داشتهاند، بلکه به عنوان ابزاری برای انتشار ارزشها و ایدئولوژیهای سازندگان خود عمل میکنند.

ایران، با توجه به سابقه تمدنی غنی، ظرفیتهای علمی و نیازهای بومی، نیازمند توسعه یک مدل زبانی مستقل است که بتواند:

  1. نیازهای کاربران ایرانی را به طور کامل پوشش دهد.
  2. قابلیت رقابت در سطح جهانی را داشته باشد.
  3. از وابستگی به پلتفرمهای خارجی جلوگیری کند.

این مقاله به بررسی ضرورتها، چالشها و راهکارهای توسعه چنین مدلی میپردازد.


۱ضرورت توسعه مدل زبانی بومی

الف) چالشهای مدلهای خارجی

  • سوگیری فرهنگی (Cultural Bias):

مدلهای فعلی عمدتاً بر اساس دادههای غربی آموزش دیدهاند و در پاسخ به سوالات مرتبط با فرهنگ شرقی یا اسلامی داری جهت گیری هستند هرچند در ظاهر چنین حسی را تقل نکنند.

    • مثال: وقتی کاربری از "عاشورا" میپرسد، ممکن است پاسخ ناقص یا غیردقیق دریافت کند. یا بی آنکه کاربر بداند، روایت های مختلطی از شیعه و سنی را با هم درآمیزد.
  • وابستگی فناورانه (Technological Dependency):

استفاده از مدلهای خارجی ایران را در معرض خطر تحریمهای دیجیتال مثل قطع دسترسی به APIها قرار میدهد. چه از نظر دفاعی مانند آنچه در جنگ دوازده روزه با اسرا.ئیل رخ داد و چه از نظر تحریمهایی که هر آن ممکن است غرب علیه ایران وضع کند.

  • تهدید امنیت دادهها (Data Privacy Risks):

اطلاعات واردشده به مدلهای خارجی ممکن است برای اهداف تجاری یا امنیتی مورد استفاده قرار گیرد.

ب) مزایای مدل بومی

سازگاری فرهنگی (Cultural Alignment): پاسخهای متناسب با ارزشهای جامعه ایرانی.استقلال فناورانه (Technological Sovereignty): کاهش وابستگی به شرکتهای خارجی.امنیت اطلاعات (Data Security): حفظ حریم خصوصی کاربران.


۲ساختار پیشنهادی برای مدل زبانی ایرانی

الف) معماری فنی (Technical Architecture)

  • پایه مدل (Base Model):

استفاده از چارچوبهای متنباز (Open-Source Frameworks) مانند LLaMA 3  (متا) یا Mistral  با تنظیمهای ویژه.

  • دادههای آموزشی (Training Data):

ترکیبی از:

    • متون فارسی کلاسیک و مدرن (تمامی متون اسلامی تشیع، تمامی متون فارسی و عربی و هندی ایرانی در گستره فلات ایران از شرق چین تا فلسطین و از روسیه تا هندوستان و شال آفریقا، مقالات علمی و...).
    • منابع موجود کل جهان برای بهبود کارایی بین المللی.
    • دانشهای تخصصی بر پایه اندیشه ایرانی_اسلامی (پزشکی ایرانی_اسلامی ، حقوق ایرانی_اسلامی ، انسان شناسی ایرانی_اسلامی و...).

ب) بهبود پردازش زبان فارسی (Persian NLP Enhancement)

  • بهینهسازی توکنایزر (Tokenizer Optimization):
    • زبان فارسی دارای پیچیدگیهای صرفی (Morphological Complexity) است که نیازمند الگوریتمهای ویژه است.
  • درک گفتار محاورهای (Colloquial Understanding):
    • بسیاری از مدلهای فعلی در فهم اصطلاحات روزمره و محلی فارسی ضعیف هستند.

ج) سیستم پاسخدهی چندوجهی (Multimodal Response System)

  • پشتیبانی از متن، صدا و تصویر.
  • یکپارچهسازی با سرویسهای داخلی . مثل سامانههای دولتی، بانکها.

۳چالشهای کلیدی و راهکارها

الف) چالشهای فنی

چالش

راهکار

کمبود دادههای باکیفیت

ایجاد بانک اطلاعاتی ملی با مشارکت دانشگاهها و مراکز پژوهشی

محدودیت سختافزاری

استفاده از ابررایانههای داخلی و همکاری با کشورهای همسو (چین/روسیه)

پردازش زبان محاوره

توسعه مدلهای ویژه برای گویشهای محلی

ب) چالشهای غیرفنی

  • مسائل حقوقی (Legal Issues):
    • تنظیم مقررات ایرانی_اسلامی برای استفاده اخلاقی از AI.
  • پذیرش کاربران (User Adoption):
    • طراحی رابط کاربری (User Interface - UI) جذاب و رقابتی.

۴کاربردهای پیشبینیشده

الف) حوزههای داخلی

  • آموزش (Education):
    • توسعه سیستمهای آموزش هوشمند (Intelligent Tutoring Systems - ITS).
  • سلامت دیجیتال (Digital Health):
    • کمک به تشخیص بیماریها بر اساس توصیف بیمار.

ب) حوزههای بینالمللی

  • ترجمه چندزبانه (Multilingual Translation):
    • پل ارتباطی بین فارسی و زبانهای کممنبع (مانند کردی، پشتو).
  • دیپلماسی رسانهای مبتنی بر هوش مصنوعی (AI-Powered Media Diplomacy):
  • ارائه روایت ایرانی از تحولات جهانی. با توجه به محاصرهی رسانهای ایران با رسانههای معاند و شبکهی وسیع رسانههای غربی و در جنگ روایتها که امروزه گریبان گیر ایران است دیپلماسی دیجیتال  (AI-Powered Media Diplomacy) از اهمیت و جایگاه ویژه ای بر خوردار است.

۵مسیر پیشرو و گامهای کلیدی

  1. تشکیل کنسرسیوم ملی با مشارکت دانشگاهها، شرکتهای فناوری و نهادهای حاکمیتی.
  2. توسعه نمونه اولیه (Prototype) در بازه ۲-۳ ساله.
  3. عرضه نسخه تجاری با قابلیت رقابت در بازارهای منطقهای.

شاخصهای موفقیت (KPIs)

دقت (Accuracy) در پردازش زبان فارسی: +۹۰٪

تعداد زبانهای پشتیبانیشده: حداقل 20 زبان

میزان پذیرش کاربران: 5 میلیون کاربر در سال اول، با اجرای یک برنامه منسجم تبلیغاتی و تشویقی.


نتیجهگیری

توسعه یک مدل زبانی پیشرفته با هویت ایرانی نه یک انتخاب، که ضرورتی اجتنابناپذیر در عصر دیجیتال است. چنین پروژهای میتواند:

  • وابستگی در حوزه فناورانیها را کاهش دهد.
  • حفظ هویت فرهنگی را تضمین کند.
  • فرصتهای اقتصادی جدیدی ایجاد نماید.

تحقق این چشمانداز نیازمند عزم ملی، سرمایهگذاری کلان و همکاری بینالمللی هوشمندانه است. با برنامهریزی دقیق، ایران میتواند در افق ۱۴۱۰ به یکی از قطبهای هوش مصنوعی در منطقه تبدیل شود.

روند اجرایی:

  • اختصاص بودجه ویژه در قانون بودجه سنواتی برای یک مرکز ویژه و تمام پروژههای کلان  AI .
  • ساختار این سیستم باید از یک مرکز امنیتی_نظامی_فناوری مانند اِن اس اِی آمریکا در بالا آغاز شود و سپس در زیر مجموعه به ابَر شرکتهای فناوری و بعد اکوسیستم استارتاپی و خرده ارائه دهندگان خدمات هوش مصنوعی منشعب شود.
  • ایجاد رشتههای دانشگاهی تخصصی در حوزه پردازش زبان فارسی با رویکرد خاص ایرانی_اسلامی و تولید علم دینی، در تمام زیر شاخههای موجود در جهان و ایران.
  • توسعه اکوسیستم استارتآپی حول این فناوری.
  • با فراگیر شدن هوش مصنوعی و با توجه به روند حرکت به سمت تغییر مفهوم کار، باید حوز های شغلی جدید مبتنی بر هوش مصنوعی به سرعت تعریف شود تا در کمتر از ده سال آینده با بحران بیکاری مواجه نشویم و بتوانیم روند این تحول را حوزه های مختلف تسهیل کنیم و از این تهدید بزرگ فرصتی استثنایی برای فردای ایران بزرگ خلق نماییم.

سایبرنتیک آب و هوا / Climate Cybernetics

سایبرنتیک آب و هوا: فناوری، قدرت و کنترل بر منابع زیستی

Climate Cybernetics: Technology, Power, and Control over Ecological Resources


۱. مقدمه – Introduction

در عصر سایبری، منابع طبیعی دیگر تنها بخش‌هایی از بوم‌شناسی نیستند؛ بلکه به گره‌گاه‌هایی برای قدرت، سیاست و فناوری تبدیل شده‌اند. مقاله پیش‌رو به بررسی پدیده «سایبرنتیک آب و هوا» می‌پردازد؛ یعنی بهره‌گیری از سیستم‌های کنترلی، اطلاعاتی و پیش‌بینی‌محور برای مداخله، تنظیم یا بهره‌برداری از منابع آبی و جوی. این پدیده در نگاه اول علمی و بی‌طرف به‌نظر می‌رسد، اما در عمل با سیاست‌های جهانی، منافع اقتصادی، و رویکردهای سلطه‌محور گره خورده است.


۲. سایبرنتیک و منابع زیستی: تعاریف و مفاهیم پایه

Cybernetics and Ecological Resources: Key Concepts and Definitions

سایبرنتیک، بنا بر تعریف نوربرت وینر، علمی برای مطالعه «کنترل و ارتباط در موجودات زنده و ماشین‌ها» است. این علم اکنون در خدمت مدیریت منابع طبیعی قرار گرفته و در قالب سامانه‌های پیچیده نظارتی، کلان‌داده‌ها، و هوش مصنوعی برای پایش و کنترل منابع آب و هوا مورد استفاده قرار می‌گیرد. اما آیا این کاربردها واقعاً در خدمت حفظ زمین‌اند یا در راستای بهره‌کشی فناورانه؟


۳. سایبرنتیک آب و هوا: از داده تا سلطه

Climate Cybernetics: From Data to Domination

امروزه از فناوری‌هایی چون اینترنت اشیاء، GIS، هوش مصنوعی، و شبیه‌سازی اقلیمی برای «پیش‌بینی» یا حتی «دستکاری» اقلیم استفاده می‌شود. پروژه‌های بارورسازی ابرها (Cloud Seeding)، ژئومهندسی تابش خورشیدی (SRM)، و سامانه‌های هشدار زودهنگام خشکسالی، همه نمونه‌هایی از دخالت بشر در چرخه‌های طبیعی‌اند که در عمل می‌توانند ابزارهایی برای کنترل سرزمین، زمان، و جمعیت باشند.


۴. ژئوپلیتیک کنترل آب و هوا

The Geopolitics of Climate and Water Control

در مناطقی مانند خاورمیانه، منابع آب به ابزاری برای سلطه تبدیل شده‌اند. مثال‌هایی چون سدسازی ترکیه بر فرات، بهره‌برداری صهیونیستی از رود اردن، یا انتقال آب بین‌حوضه‌ای در ایران، نمونه‌هایی از استفاده استراتژیک از منابع آبی‌اند. در سطح جهانی نیز بحث استفاده نظامی از اقلیم مطرح است: آیا اقلیم می‌تواند به میدان نبردی خاموش و سایبری تبدیل شود؟ پروژه‌هایی مانند HAARP یا طرح‌های محرمانه سازمان‌های دفاعی نشان از همین نگرانی دارند.


۵. پیامدهای اخلاقی و فلسفی

Ethical and Philosophical Implications

چه کسانی مجازند در اقلیم مداخله کنند؟ و چه کسی مسئول پیامدهای آن خواهد بود؟ این فصل به بررسی پیامدهای اخلاقی و هستی‌شناختی مداخله فناورانه در اقلیم می‌پردازد: از مسئله عدالت اقلیمی برای کشورهای جنوب جهانی، تا بحران مشروعیت علمی در فرآیندهای مداخله‌ای بدون شفافیت عمومی. آیا می‌توان آینده طبیعت را به دست الگوریتم‌ها و مهندسان سپرد؟


۶. نتیجه‌گیری و پیشنهادها

Conclusion and Recommendations

سایبرنتیک اقلیمی نه‌تنها ابزاری فناورانه بلکه نوعی پارادایم جدید در نسبت میان انسان، طبیعت و قدرت است. اگر این روند بدون ملاحظات اجتماعی و اخلاقی ادامه یابد، ممکن است آینده‌ای پر از نابرابری و تخریب در پیش داشته باشیم. بنابراین، پیشنهاد می‌شود:

  • تشکیل نهادهای نظارتی دموکراتیک بر پروژه‌های اقلیمی

  • مشارکت عمومی و بین‌رشته‌ای در تصمیم‌سازی‌های زیست‌محیطی

  • تدوین منشور جهانی اخلاق سایبرنتیک اقلیمی


۷. منابع و رفرنس‌ها | References and Bibliography


  1. Wiener, Norbert. Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press, 1948.

  2. Edwards, Paul N. A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming. MIT Press, 2010.

  3. Jasanoff, Sheila. The Ethics of Invention: Technology and the Human Future. W. W. Norton & Company, 2016.

  4. Parenti, Christian. Tropic of Chaos: Climate Change and the New Geography of Violence. Nation Books, 2011.

  5. Clapp, Jennifer & Dauvergne, Peter. Paths to a Green World: The Political Economy of the Global Environment. MIT Press, 2011.


بازخوانی اخلاقی "مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه " ارائه شده در سومین کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۳)

هوش مصنوعی و مسأله اخلاق در نظام‌های سایبرنتیکی

از الگوریتم تا مسئولیت انسانی

ارائه‌دهنده: سهیل سلیمی

مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلم‌ساز

نسخه دوم با تمرکز بر: مدیاسایبرنتیک، تهدیدات فراگیر تولیدات رسانه‌ای، و اخلاق در معماری هوش مصنوعی


مقدمه

این مقاله نخستین‌بار در قالب ارائه‌ای تخصصی در کارگاه «مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه» در سومین دوره کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۳) ارائه شده است. کارگاه مزبور با هدف تحلیل میان‌رشته‌ای نسبت سایبرنتیک، هوش مصنوعی، و تحولات رسانه‌ای، فرصتی برای بازاندیشی نقش اخلاق در نظام‌های تصمیم‌ساز فراهم آورد. در این مقاله، با تکیه بر منظری انتقادی و نظریه‌محور، تأثیرات فزاینده هوش مصنوعی بر بازنمایی رسانه‌ای و نیز مخاطرات آن بر اخلاق، مسئولیت و انسان‌محوری در معماری‌های سایبرنتیکی بررسی می‌شود.

در بستری که مدیاسایبرنتیک شکل گرفته است—یعنی جایی که رسانه، داده و تصمیم در یک چرخه خودتقویت‌گر به هم پیوسته‌اند—پرسش از معیار اخلاقی در دل الگوریتم‌های بی‌طرف‌نما، بیش از همیشه ضروری به‌نظر می‌رسد. مقاله حاضر بر آن است که نشان دهد هوش مصنوعی، اگر بدون مراقبت نظری و مهار اخلاقی رها شود، نه تنها پیام‌رسانی را متحول، بلکه قدرت قضاوت را نیز از انسان سلب می‌کند؛ و در نتیجه، به فراگیری تولیدات رسانه‌ای فاقد مسئولیت دامن می‌زند.


۱. نظام سایبرنتیکی و معماری تصمیم‌گیری هوشمند

سایبرنتیک، به‌مثابه نظریه‌ای میان‌رشته‌ای که در دهه ۱۹۴۰ توسط نوربرت وینر پایه‌گذاری شد، به بررسی مکانیسم‌های کنترل، بازخورد و ارتباط در سیستم‌های پیچیده می‌پردازد. در عصر دیجیتال، این نظریه وارد عرصه‌های رسانه، سیاست، زیست‌فناوری و هوش مصنوعی شده و الگویی فراگیر از «تنظیم و تطبیق» بر مبنای داده ارائه کرده است.

در نظام‌های سایبرنتیکی مدرن، تصمیم‌گیری به‌وسیله شبکه‌های عصبی، الگوریتم‌های یادگیری عمیق و مدل‌های داده‌محور صورت می‌گیرد. این سامانه‌ها با تحلیل داده‌های انبوه، الگوهایی آماری از گذشته تولید کرده و آن‌ها را برای پیش‌بینی آینده به کار می‌گیرند. در عین حال، فقدان عناصر انسانی نظیر دغدغه اخلاقی، تردید، شفقت و مسئولیت‌پذیری، یکی از مهم‌ترین چالش‌های این معماری‌هاست.


۲. آیا اخلاق قابل الگوریتمی‌سازی است؟

پیش از بررسی اخلاق در سطح فنی، باید به مبانی فلسفی آن پرداخت. در سنت فلسفه اخلاق، سه مکتب اصلی وجود دارد:

  1. اخلاق وظیفه‌گرا (کانتی) – تأکید بر تکلیف فارغ از نتیجه

  2. اخلاق پیامدگرا (بنتام، میل) – تأکید بر بیشینه‌سازی سود یا کاهش ضرر

  3. اخلاق فضیلت‌محور (ارسطویی) – تمرکز بر شخصیت و نهادینه‌سازی منش اخلاقی

در ساخت الگوریتم‌ها، به‌ویژه در کاربردهای هوش مصنوعی در رسانه یا خودروهای خودران، معمولاً مدل‌های پیامدگرا به‌کار می‌روند؛ زیرا قابل ترجمه به زبان ریاضی و تصمیم‌سازی ماشینی‌اند.

اما چنین تصمیماتی بیشتر شبیه به "برنامه‌ریزی اخلاق‌نما" هستند تا "تصمیمات اخلاقی اصیل". الگوریتم نمی‌اندیشد، احساس نمی‌کند، و درک ندارد؛ بلکه فقط پاسخ‌های بهینه بر مبنای معیارهای از پیش تعریف‌شده تولید می‌کند.


۳. شکاف میان ادراک و شبیه‌سازی اخلاق

مفاهیمی چون پشیمانی، وجدان، تردید یا مسئولیت‌پذیری، از جمله ویژگی‌های زیسته انسانی‌اند که در تصمیم‌گیری‌های اخلاقی نقش تعیین‌کننده دارند. این عناصر، برآمده از حافظه عاطفی، آگاهی تاریخی و خویشتن‌نگری هستند.

در مقابل، ماشین‌ها فقط قادر به بازشمارش خطا یا اصلاح براساس الگوریتم‌های به‌روزرسانی هستند. به همین دلیل، حتی وقتی یک الگوریتم تصمیمی به ظاهر اخلاقی اتخاذ می‌کند، این تصمیم در خلأ اخلاقی و بدون ادراک تجربه انسانی شکل گرفته است.

در واقع این «شکاف میان ادراک و شبیه‌سازی» است؛ و اعتماد به سامانه‌هایی که فقط «نقاب اخلاقی» بر چهره دارند، می‌تواند زمینه‌ساز فجایع اخلاقی شود.


۴. مسئولیت اخلاقی در عصر الگوریتم‌ها

در نظام‌های حقوقی و اخلاقی سنتی، مسئولیت تابع نیت، آگاهی و امکان انتخاب بدیل است. اما در سیستم‌های هوشمند، این سه شرط یا غایب‌اند یا در ماشین قابل تعریف نیستند.

پرسش اساسی این است: اگر یک سامانه مبتنی بر هوش مصنوعی تصمیمی فاجعه‌بار بگیرد، مسئول کیست؟ توسعه‌دهنده؟ ناظر؟ کاربر؟ یا سیستم خودش؟
سند "AI Act" اتحادیه اروپا تلاش می‌کند مسئولیت را بر عهده انسان بگذارد، اما در عمل، با پیچیده‌تر شدن سامانه‌ها، ردیابی تصمیم و مرجع اخلاقی آن دشوارتر می‌شود.

اگر اخلاق به فرمول و داده تقلیل یابد، آنگاه مسئولیت نیز به یک خروجی بی‌روح تبدیل خواهد شد. در این وضعیت، خطر فروپاشی اخلاق انسانی به‌شدت بالاست.


۵. بازنمایی اخلاق در رسانه و مخاطره انسان‌واره‌سازی

در سینما، رسانه‌های دیجیتال و تبلیغات، تصویری از ماشین‌هایی ارائه می‌شود که گویی احساس، فهم و اخلاق دارند. فیلم‌هایی چون I, Robot، Ex Machina و Her، به شکل‌گیری تصوری اغواگرانه از «هوش اخلاقی مصنوعی» کمک می‌کنند.

این روند منجر به انسان‌واره‌سازی (Anthropomorphizing) سامانه‌ها می‌شود، که در نهایت به اعتماد کاذب و پذیرش ناآگاهانه فناوری‌های فاقد مسئولیت‌پذیری انسانی می‌انجامد.

رویکرد مدیاسایبرنتیکی هشدار می‌دهد که رسانه نه فقط بازتاب‌دهنده، بلکه تولیدکننده تصور ما از اخلاق ماشینی است. این تصور، با بازخورد خود، طراحی سامانه‌ها را نیز متأثر می‌سازد و در یک چرخه بسته، مرز خیال و واقعیت را مخدوش می‌کند.


نتیجه‌گیری: میان شبیه‌سازی و تعهد اخلاقی، مرز انسان باقی می‌ماند

در این مقاله نشان دادیم که هرچند هوش مصنوعی قادر است رفتارهای به‌ظاهر اخلاقی را شبیه‌سازی کند، اما فاقد عناصر بنیادین برای درک و تعهد اخلاقی اصیل است. الگوریتم‌ها نه تجربه دارند، نه نیت، و نه مسئولیت‌پذیری. آنچه در نظام‌های سایبرنتیکی جدید می‌بینیم، بیش از آن‌که اخلاق باشد، نوعی مهندسی تصمیمات مبتنی بر داده و سودمندی آماری است.

خطر اصلی نه در ذات ماشین، بلکه در غفلت انسان از جایگاه خود در چرخه طراحی، نظارت و کنترل است. وقتی بازنمایی اخلاق با ذات اخلاق اشتباه گرفته شود، دیگر نه فقط سامانه‌ها، بلکه خود انسان نیز در آستانه از‌دست‌دادن مرجعیت اخلاقی قرار می‌گیرد.

بنابراین، چاره کار نه نفی فناوری، بلکه پایش انتقادی آن از منظر اخلاق انسانی و بازطراحی مبتنی بر مدیاسایبرنتیک متعهد است؛ مدیاسایبرنتیکی که بداند رسانه، تصمیم و کد همگی ابزارهایی‌اند برای حفظ معنا، نه جایگزینی آن.

در نهایت، اگر قرار است سامانه‌های هوشمند در دل جامعه انسانی جای بگیرند، باید مسئولیت آن‌ها نه در الگوریتم، بلکه در وجدان انسان‌هایی تعریف شود که آن‌ها را می‌آفرینند.


منابع

  • Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.

  • Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

  • Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.

  • Coeckelbergh, M. (2020). AI Ethics. MIT Press.

  • Salimi, Soheil. "Artificial Intelligence at the Crossroads of Choice: Between Ethics, Priorities, and Cybernetic Systems." سلیمی، سهیل . «هوش مصنوعی در دوراهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی».

هوش مصنوعی، و محدودیت‌های یک سلطه تکنیکی

هوش مصنوعی، و محدودیتهای یک سلطه تکنیکی

·         حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است.

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر سایبرنتیک و هوش مصنوعی / نویسنده و فیلمساز)

مقدمه

نفوذ سریع و همهجانبه هوش مصنوعی در زندگی روزمره بشر، نوید عصری تازه از بازتعریف نقش انسان را میدهد. اما این پیشرفت خیرهکننده، اگرچه در سطوح نرمافزاری بسیار در دسترس و نافذ شده است، در حوزههای سختافزاری، زیربنایی و اخلاقی با محدودیتهای بنیادینی مواجه است که نهتنها ماهیت کار و معنا را زیر سؤال میبرد، بلکه میتواند به حذف غیرقابل بازگشت بسیاری از ابعاد انسانی بینجامد.

از منظر علوم سایبرنتیک، ما با سیستمی روبهرو هستیم که در آن بازخورد انسانـماشین در برخی حوزهها بهطرز نگرانکنندهای از تعادل خارج شده و در عوض بهجای همکاری، به جایگزینی یکسویه میل دارد. این مسئله بهویژه در حرفههایی با ساختار سادهتر و کمهزینهتر بروز یافته است.


1.  تضاد سختافزار و نرمافزار، نامتوازن و نابرابر:

چرا در برخی حوزهها سرعت نفوذ بالا، و در برخی دیگر کند است؟

پدیدهای که میتوان آن را تضاد سختافزار و نرمافزار نامید، یکی از کلیدیترین عوامل محدودیت نفوذ همگن هوش مصنوعی در تمامی حوزههاست. فناوریهایی مثل مدلهای زبانی مولد Generative Language Models یا ابزارهای خلق تصویر و موسیقی با کمک هوش مصنوعی، بر بستر گوشیهای هوشمند و رایانههای شخصی اجرا میشوند؛ درحالیکه خودروهای خودران یا تجهیزات هوشپزشکی نیازمند سختافزارهایی پیچیده، گرانقیمت، با سطح بالایی از اطمینان و مسئولیتپذیری هستند.

از منظر فنی، این تفاوت را باید با رجوع به نظریههای پایهای در علوم سایبرنتیک و فلسفه فناوری تحلیل کرد.

نوربرت وینر، بنیانگذار علم سایبرنتیک، در کتاب معروف خود Cybernetics: or Control and Communication in the Animal and the Machine (۱۹۴۸) یادآور میشود: هر سامانهای تنها در صورتی کارآمد است که بتواند بازخورد دقیق دریافت کرده و پاسخ خود را تنظیم کند. بدون این تعامل مستمر، سیستم یا از کنترل خارج میشود یا ناکارآمد میگردد.

در حوزههایی مانند تولید محتوا یا گفتوگوی ماشینی، ورودی و خروجی سادهاند: یک متن وارد میشود، و ماشینی با یک مدل زبانی، پاسخی میسازد. بازخورد نیز فوری و دیجیتال است (لایک، زمانماندن کاربر، کلیک بعدی). بنابراین، سیستم میتواند بهسرعت خودش را تنظیم و بهینه کند. این همان محیط ایدهآل سایبرنتیکی برای هوش مصنوعی است.

اما در حوزههایی مانند خودروهای خودران یا جراحی رباتیک، ورودیها شامل متغیرهای فیزیکی، زیستی، اخلاقی و موقعیتیاند. بازخوردها ممکن است دیرهنگام، مبهم، یا جبرانناپذیر باشند (مثلاً مرگ یک بیمار یا تصادف در خیابان). بههمین دلیل، نفوذ هوش مصنوعی در این حوزهها با تأخیر و تردید همراه است. چون فناوری نمیتواند تضمین کند که پاسخهایش «امن»، «مسئولانه» و «اخلاقی» خواهند بود، آنهم در وضعیتی که پاسخ در ماشین اساساً بر اساس اولویت تعریف می شود.

یکی از منتقدان برجسته فناوری، ژوزف وایزنباوم Joseph Weizenbaum ، دانشمند علوم کامپیوتر MIT و خالق برنامهی مکالمهمحور ELIZA، در کتاب مهم خود Computer Power and Human Reason: From Judgment to Calculation (۱۹۷۶) به نکتهای اساسی اشاره میکند: فقط به این دلیل که یک ماشین قادر به انجام کاری است، دلیل نمیشود که باید آن را به انجام آن واداشت.

وایزنباوم هشدار میدهد که حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است. او تفاوت میان «حسابگری» و «قضاوت» را کلیدی و مهم میداند و معتقد است: واگذاری تصمیمگیری به ماشینها، بدون فهم زمینهی انسانی، نه تنها عقلانیت را تهی میکند، بلکه میتواند به شکلگیری نوعی اتوماسیون بیروح و فاقد مسئولیت منجر شود.

برای مثال، اگر یک سیستم تشخیص تصویر بتواند غدهای مشکوک را در تصویر اسکن تشخیص دهد، این به معنای درک بالینی، مشاوره اخلاقی، یا فهم وضعیت روانی بیمار نیست. همینطور، اگر یک خودرو بتواند علائم راهنمایی را بخواند، نمیتواند اخلاقاً تصمیم بگیرد که در یک صحنه ی احتمالی تصادف بین خودرو و عابر پیاده، بین حفظ جان سرنشین و عابر پیاده کدام را انتخاب کند.


۲. اولین قربانیان

تئوریهای حوزه سایبرنتیک، مانند آنچه نوربرت وینر Norbert Wiener بنیان گذاشت، به ما یادآوری میکنند که نظامهای بازخوردی، زمانی بهینهاند که میان ورودی و خروجی انسان و ماشین، توازن دقیق برقرار باشد. اما در مشاغلی مانند نویسندگی، طراحی گرافیک، ترجمه، آموزش آنلاین و حتی روزنامهنگاری، فیلمسازی ساختار اطلاعاتی بسیار قابل الگوسازی و تقلید است. بنابراین، این حوزهها بهسرعت توسط مدلهای هوش مصنوعی بلعیده میشوند.

برنارد استیگلر Bernard Stiegler، فیلسوف فرانسوی، در کتاب فروپاشی زمان و تکنولوژی Technics and Time  هشدار میدهد که تکنولوژی اگر بدون حافظه انتقادی و آموزش عمومی گسترش یابد، نهتنها ابزار رهایی نخواهد بود، بلکه عامل انفجار حافظه جمعی و تهی شدن معنا خواهد شد.


۳. تحلیل محتوای امکان سنجی در دو نمونهی ذکر شده در بالا:

در پزشکی، هوش مصنوعی بهصورت آزمایشگاهی در حال پیشرفت است؛ الگوریتمهایی مانند تشخیص سرطان در تصاویر رادیولوژی یا پایش علائم حیاتی، نشان میدهند که در آینده، نقش پزشکان عمومی تا حدی قابل جایگزینی است. اما تحقق این امر، نیازمند ابزارهایی است که نهتنها دقت بالا، بلکه تأییدیههای اخلاقی، قانونی و فنی نیز داشته باشند. در بسیاری از کشورها، قوانین مربوط به مسئولیت حقوقی خطاهای ماشینی هنوز تدوین نشدهاند.

در مورد خودروهای خودران نیز با مشکلی مشابه مواجهیم. هوش مصنوعی این خودروها به دادههای محیطی بلادرنگ، تعامل با دیگر وسایل نقلیه و پردازش وضعیت انسانی نیاز دارد که فعلاً بهشکل گسترده و قابل اطمینان محقق نشدهاند. همانطور که آیوکای اینادا  Ayokai Inada، اندیشمند ژاپنی در حوزه فلسفه تکنولوژی، میگوید: هوش مصنوعی بدون هوش اجتماعی، همانقدر خطرناک است که جراح بدون وجدان.


۴. بحران معنا و فروپاشی میانجی انسانی

با حذف کار انسان از فرآیندهای خلاقانه، آنچه از دست میرود فقط شغل نیست، بلکه مشارکت در تولید معنا، حافظه فرهنگی و روابط اجتماعی است. در رسانهها، محتواهای تولیدشده توسط الگوریتم، نوعی انباشت بیروح از دادههای بیزمینه را شکل میدهد که نمیتواند پیوندی زنده با زندگی انسان برقرار کند.


۵. نتیجهگیری: تکنولوژی باید پاسخگو باشد، نه فقط کارآمد

نفوذ هوش مصنوعی در حوزههایی با مقاومت زیرساختی و اخلاقی بالا کند خواهد بود، و این کندی نه ضعف تکنولوژی، بلکه نشانه بلوغ تمدنی ماست. نباید از هر ابزار جدید، صرفاً بهدلیل کارآمدی ظاهریاش استقبال کرد. آنچه لازم است، بازخوانی انتقادی نسبت ما با تکنولوژی است؛ بازخوانیای که در آن نقش انسان، نه بهعنوان مصرفکننده، بلکه بهعنوان قوامدهنده معنا و مسئولیتپذیری، حفظ شود.

سهیل سلیمی


منابع


  1. Martin Heidegger, The Question Concerning Technology, 1954
    مقالهای فلسفی درباره ماهیت تکنولوژی و نگاه وجودی به ابزار
  2. Bernard Stiegler, Technics and Time, Vol.1–3
    سهگانهای درباره نسبت حافظه، فرهنگ و فناوری
  3. Norbert Wiener, Cybernetics: Or Control and Communication in the Animal and the Machine, 1948
    کتاب بنیادین در نظریه سایبرنتیک و تعامل سیستمها
  4. Shoshana Zuboff, The Age of Surveillance Capitalism, 2019
    تحلیل ساختارهای قدرت در فناوریهای مبتنی بر داده
  5. Ayokai Inada, Ethics in Autonomous Systems, Tokyo Tech Press
    بحث فلسفی درباره مسئولیت و هوش مصنوعی در شرق آسیا
  6. Nicholas Carr, The Shallows: What the Internet Is Doing to Our Brains, 2010
    تحلیلی روانشناختی درباره تأثیر فناوری بر تفکر انسان

انسان ناگزیر از همزیستی با هوش مصنوعی

انسان ناگزیر از همزیستی با هوش مصنوعی

ارائهدهنده: سهیل سلیمی (مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

مقدمه

جهان در حال ورود به مرحلهای از تحولات فناورانه است که میتوان آن را نه صرفاً یک «دوران جدید»، بلکه «بازتعریف بنیادین» نقش انسان در نظامهای اجتماعی، اقتصادی، فرهنگی و حتی هستیشناسانه تلقی کرد.

هوش مصنوعی (AI) دیگر یک ابزار نیست؛ بلکه ساختاریست در حال تکامل که در حال بازنویسی منطق تصمیمگیری، اخلاق، آگاهی و حتی روابط انسانی است. درحالیکه دستیارهای مجازی چون Siri یا Grok تنها نوک کوه یخ هستند، آنچه در پسِ پرده در حال وقوع است، تغییر بنیادین در مفاهیم «کنترل»، «دانش»، و «عاملیت» است. این مقاله در پی آن است تا ضمن واکاوی علمی-انتقادی همزیستی انسان و هوش مصنوعی، روایتی چندلایه، پیچیده و انتقادی از فرصتها، تهدیدات، چالشها و ضرورتهای سیاستگذاری ارائه دهد.


بخش اول: مفهوم همزیستی انسان و هوش مصنوعی - از همکاری تا تقابل شناختی

تعریف رایج همزیستی انسان و هوش مصنوعی معمولاً نگاهی خوشبینانه به تعامل «مکمل» میان انسان و ماشین دارد. اما باید این تعریف را بازنگری کرد: آیا این تعامل واقعاً دوسویه و برابر است؟ یا شاهد نوعی استحاله تدریجی انسان به عنصری درون سامانهای گستردهتر هستیم که توسط منطق الگوریتمی اداره میشود؟ نوربرت وینر در اثر بنیادین خود، Cybernetics، ایده کنترل و بازخورد را نهفقط برای ماشین، بلکه برای فهم انسان در چارچوبی الگوریتمی مطرح کرد (Wiener, 1948).

ایزاک آسیموف، نویسنده برجسته علمی-تخیلی، در داستانهای خود مانند من، ربات (1950)  قوانین سهگانه رباتیک را معرفی کرد که بهعنوان چارچوبی اخلاقی برای تعامل انسان و ماشین طراحی شدهاند:

1.                   یک ربات نباید به انسان آسیب برساند یا با بیعملی اجازه دهد آسیبی به انسان برسد.

2.                 یک ربات باید از دستورات انسانها اطاعت کند، مگر اینکه این دستورات با قانون اول مغایرت داشته باشند.

3.                یک ربات باید از خود محافظت کند، به شرطی که این حفاظت با قوانین اول و دوم در تضاد نباشد (Asimov, 1950, p. 40).

این قوانین، اگرچه در داستانهای تخیلی او مطرح شدند، اما الهامبخش بحثهای امروزی درباره اخلاق در هوش مصنوعی هستند، زیرا از منظر آسیموف و بر مبنای نوشتههایش، رباتها تجلی بیرونی و فیزیکال هوش مصنوعی به شمار میروند.

ایزاک آسیموف با ارائهی قوانین سهگانه رباتیک کوشید اخلاق را در ماشین نهادینه کند، اما منتقدانی چون Joanna Bryson هشدار دادهاند که این قوانین بیشتر افسانهاند تا راهحل. زیرا در واقعیت، هیچ راهحل سادهای برای تزریق ارزشهای انسانی به الگوریتمها وجود ندارد (Bryson, 2018). همچنین ابزارهایی چون Grok، ChatGPT یا DeepSeek نهتنها تصمیمساز، بلکه در مواردی تصمیمگیر نیز شدهاند. پس آیا میتوان همچنان از مفهوم همزیستی صرف صحبت کرد، یا باید به مفهوم «تقابل شناختی» اندیشید؟

تقابل شناختی (Cognitive Confrontation) مفهومیست که فراتر از تعامل یا همزیستی انسان و ماشین، به تعارض بنیادین میان دو منطق ادراکی اشاره دارد: منطق انسانی که بر شهود، تجربهزیسته، اخلاق، و زمینههای دینی و فرهنگی استوار است، در برابر منطق ماشین که بر دادهمحوری، محاسبهپذیری و بهینهسازی ریاضی تکیه دارد. این تقابل زمانی پدیدار میشود که تصمیمگیریهای ماشینی به حوزههایی وارد میشوند که بهطور سنتی مختص قضاوت انسانی بودهاند—مانند قضاوت اخلاقی، عدالت، یا زیباییشناسی. الگوریتمها در این زمینهها نه فقط ابزار، بلکه رقیب معناشناختی انسان میشوند. در این وضعیت، انسان با موجودیتی مواجه است که نه میتوان آن را بهتمامی درک کرد، نه بهطور کامل کنترل. «تقابل شناختی» بهویژه در مواردی چون داوری خودکار، نظامهای پیشنهادگر محتوا، یا تحلیل رفتاری در پلتفرمهای آموزشی یا قضایی، بهوضوح قابل مشاهده است. این تقابل میتواند منجر به بحران اعتماد، احساس بیگانگی، و ازهمگسیختگی درک انسان از خود شود، چرا که مرجعیت شناختی در حال انتقال از انسان به ماشین است. در چنین شرایطی، سؤال اصلی دیگر صرفاً نحوهی استفاده از AI نیست، بلکه بازتعریف جایگاه انسان در نظم جدید شناختیست.


بخش دوم: فرصتهای هوش مصنوعی – پیشرفت یا استعمار دیجیتال؟

در نگاه نخست، هوش مصنوعی ابزاری بیبدیل برای پیشرفت تمدنیست:

  1. پزشکی دقیق:  ابزارهایی چون IBM Watson یا Google DeepMind در حال انقلابی در تشخیص زودهنگام بیماریها هستند. اما این انقلاب همزمان مالکیت دادههای زیستی انسان را نیز به شرکتهای فراملیتی واگذار میکند. پرسش مهم این است: چه کسی صاحب "داده زیستی" (Bio-Data)  است؟
  2. اقتصاد هوشمند؟ یا اقتصاد متمرکز؟ در حالی که شرکتهایی چون Amazon از AI برای بهینهسازی لجستیک بهره میبرند، کنترل کامل زنجیره تأمین جهانی توسط تعداد محدودی شرکت در حال وقوع است. (Zuboff, 2019) هوش مصنوعی در حال بازآرایی تمرکز ثروت و قدرت در مقیاسی بیسابقه است.
  3. آموزش شخصیسازیشده به نفع هوش مصنوعی:  اگرچه ابزارهایی چون Khan Academy یادگیری را شخصیسازی میکنند، اما منطق نهفته در آنها—بهینهسازی عملکرد آموزشی بر اساس معیارهای کمّی—ممکن است به زوال تفکر انتقادی منجر شود.
  4. محیط زیست:  پروژههایی مانند الگوریتم صرفهجویی انرژی Google DeepMind (2023) مؤثرند، اما باید از خود پرسید آیا AI راهحل واقعی بحرانهای زیستمحیطی است یا صرفاً تسکینی برای ادامهی وضع موجود؟ یا حتی بدتر سرپوشی برای بهره برداری و بهره کشی هوشمندانه تر از منابع زیست محیطی؟!

بخش سوم: تهدیدات همزیستی - استعمار الگوریتمی و بحران اخلاق

  1. بیکاری ساختاری:  بر خلاف انقلابهای صنعتی پیشین، هوش مصنوعی نه صرفاً جایگزین نیروی کار جسمی، بلکه رقیب توان شناختی انسان است. گزارش WEF (2023) نشان میدهد تا سال 2030، نه تنها مشاغل عمومی و تکرار پذیر، بلکه حتی مشاغل تحلیلی، خلاقانه و هنری، حقوقی و پزشکی نیز در خطر جدی جایگزینی هستند.
  2. بازتولید تبعیض:  الگوریتمها نهفقط سوگیریهای موجود را بازتولید میکنند بلکه آنها را نهادینه و تقویت نیز میکنند. کتاب: الگوریتمهای ستم Algorithms of Oppression   اثر: سافیا نوبل Safiya Nobl، نشان میدهد چگونه موتورهای جستوجو تبعیض نژادی را بازتولید میکنند (Noble, 2018).
  3. تهدید امنیتی ترکیبی:  در دنیای جدید، حمله سایبری به یک زیرساخت شهری توسط یک AI مستقل، صرفاً یک سناریوی تخیلی نیست. پروژههای نظامی مانند Project Maven نشان دادهاند که AI میتواند بهعنوان سلاح نیز عمل کند. ((Project Maven  (پروژه ماون) یک ابتکار نظامی پیشرفته توسط وزارت دفاع آمریکا (پنتاگون) است که از هوش مصنوعی (AI) و یادگیری ماشینی (ML) برای تجزیه و تحلیل دادههای پهپادی و تصاویر ماهوارهای استفاده میکند. این پروژه نشان میدهد که چگونه فناوریهای هوش مصنوعی میتوانند در عملیاتهای نظامی بهکار گرفته شوند و حتی به عنوان سلاح مورد استفاده قرار بگیرند. ))
  4. نقض حریم خصوصی در مقیاس فراگیر:  ChatGPT و سایر ابزارهای مشابه، از دادههای عظیم کاربران برای آموزش خود بهره میگیرند. این چرخه باعث خلق «الگوریتمهای خودتعلیمدیده» میشود که نظارتناپذیر و غیرقابل مهار هستند (Zuboff, 2019).

بخش چهارم: چالشها – از عدم شفافیت تا بحران مشروعیت

  1. اخلاق در سایهٔ پیچیدگی: پیچیدگی تصمیمگیری AI، مفهوم مسئولیت را دچار بحران کرده است. در تصادف خودروی خودران، مقصر کیست؟ طراح الگوریتم؟ استفادهکننده؟ یا الگوریتم خودمختار؟
  2. شکاف دیجیتال و استعمار هوش مصنوعی:  پروژههای  OpenAI،Google  و xAI عمدتاً در غرب توسعه مییابند، اما اثرات جهانی دارند. آیا ملتهای جنوب جهانی صرفاً مصرفکننده خواهند ماند؟ یا قربانی استخراج داده و "مواد خام شناختی" (Cognitive Raw Materials) خواهند شد؟
  3. بحران اعتماد: با گسترش دیپ فیکها مردمی که درک دقیقی از AI ندارند و امروز به سوی آن حمله ور هستند دچار بحران باور یا بحران اعتماد به محتوا خواهند شد.
  4. مرگ شفافیت:  الگوریتمهای یادگیری عمیق (Deep Learning) نهفقط غیرقابل فهم بلکه غیرقابل پیشبینی نیز هستند. این «جعبه سیاه» تهدیدی علیه اصل شفافیت در تصمیمگیریهای عمومیست.

بخش پنجم: راهکارهای پیشنهادی – آیا هنوز میتوان کنشگری کرد؟

  1. اخلاق الگوریتمی جهانی و الزامی:  تدوین اصول الزامآور جهانی فراتر از توصیهنامهها. شاید قانون AI اتحادیه اروپا (AI Act, 2024) گامی مهم بود، اما کافی نیست مگر با حمایت نهادهای بینالمللی و مشارکت فعال کشورهای دیگر، چرا که قطعا در این اصول ارزش های غربی و محافظت از آنها مد نظر بوده است.
  2. آموزش انتقادی، نه صرفاً فنی:  آموزش عمومی باید نهفقط بر مهارتهای فنی بلکه بر سواد الگوریتمی، فلسفه فناوری و قدرت دیجیتال متمرکز شود.
  3. دسترسی برابر به زیرساختها و دادهها:  باید مدلهای باز (Open Source) و مشارکتی در AI توسعه یابد تا همه کشورها حق مشارکت در توسعه و هدایت این فناوری را داشته باشند.
  4. سازمان های مردم نهاد و عدم کار کرد نهادهای نظارتی جهانی:  سازمان ملل و سازمان های جهانی اساسا تحت سیطره قدرت های بزرگ مادی جهان هستند، پس قوانین شان راحلی برای کشورهای مستقل نخواهد بود، باید کشورهای مستقل برای حمایت از  هویت فرهنگی و دینی و ملی شان هوش مصنوعی را در قالب های مختلف مورد پایش منظم قرار دهند و از ابزارهای حقوقی و فرهنگی تا نظامی و بخش های مردمی مستقل و دینی بهره ببرند. یعنی باید تمام فعالیت های هوش مصنوعی زیر ذره بین های تمام ارکان حاکمیتی باشد. البته قوانین جامع و نظارت جامع بر روند تمام این فعالیت ها باید تحت اختیار یک سازمان قدرتمند باشد، اما این سازمان و ساختارش باید طوری باشد که دچار خودکامگی و انحصار و  تمامیت خواهی تکنولوژیک نشود. این بخش کار واقعا حرکت در لبه تیغ است.

بخش ششم: نمونههای پیچیده و پارادوکسیکال همزیستی

Grok  ساختهی xAI مثالی از ترکیب تحلیل داده با شهود انسانمحور است. اما در عین حال، این ابزار میتواند به الگوریتمی برای فیلتر و قالببندی تفکر عمومی تبدیل شود. این دوگانگی در بیشتر ابزارهای هوش مصنوعی مشاهده میشود: Google Translate  میتواند تسهیلکننده گفتوگو باشد، اما در عین حال حامل ارزشهای زبانی و فرهنگی خاص نیز هست، و البته دیتای عظیمی که از زبانها مختلف دریافت کرده به عنوان خوراکی انبوه، از داده ها، برای توسعه الگوریتم های زبانی اش بهره گرفته است.


نتیجهگیری

هوش مصنوعی نهتنها واقعیتی فناورانه، بلکه نیرویی ایدئولوژیک و قدرتمند در بازتعریف هستی انسان است. همانگونه که ایزاک آسیموف اشاره کرده بود، کنترل و هدایت هوش مصنوعی نیازمند اخلاق، آگاهی، و نظارت است. اما اکنون زمان آن فرارسیده است که از «همزیستی منفعل» عبور کنیم و بهسمت «بازآفرینی نقش انسان» در اکوسیستم شناختی جدید حرکت کنیم. آینده به ما تعلق دارد، تنها اگر بتوانیم قواعد بازی را به نفع انسان بازنویسی کنیم.

ما ابزارهایی میسازیم و سپس آنها ما را بازتعریف میکنند.     Marshall McLuhan

سهیل سلیمی


منابع:

•          Asimov, I. (1950). I, Robot. Gnome Press.

•          Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

•          McCarthy, J. (1956). The Dartmouth Conference Proposal. Dartmouth College.

•          Musk, E. (2018). Interview with Axios on HBO.

•          Minsky, M. (1986). The Society of Mind. Simon & Schuster.

•          IBM. (2023). Watson Health Annual Report.

•          Amazon. (2020). Facial Recognition Technology Report.

•          Amazon. (2024). Logistics Optimization Report.

•          OECD. (2023). Future of Work Report.

•          Cybersecurity Ventures. (2022). AI in Cybercrime Report.

•          Reuters. (2023). Italy’s ChatGPT Ban.

•          UNESCO. (2024). AI Development in Africa Report.

•          Gallup. (2023). Public Perception of AI Survey.

•          MIT Technology Review. (2023). DeepFake Technology Analysis.

•          European Commission. (2024). AI Act Legislation.

•          Coursera. (2024). AI Education Impact Report.

•          UN. (2023). AI Governance Committee Report.

  • Bryson, J. (2018). The Artificial Intelligence of the Ethics of Artificial Intelligence: An Introductory Overview for Law and Regulation. SSRN.
  • Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  • World Economic Forum. (2023). Future of Jobs Report.


سایبرنتیک، هوش مصنوعی و بحران حقیقت در رسانه | کنترل گر آگاه یا مصرف کننده منفعل

سایبرنتیک، هوش مصنوعی و بحران حقیقت در رسانه

نویسنده: سهیل سلیمی

از میانه قرن بیستم، نظریه سایبرنتیک به عنوان علمی میان‌رشته‌ای در تبیین سیستم‌های کنترل، بازخورد و ارتباطات انسان و ماشین پا به عرصه گذاشت. نوربرت وینر، پدر علم سایبرنتیک، این علم را ناظر بر الگوهای ارتباط و کنترل در موجودات زنده و ماشین‌ها دانست. امروزه، با اوج‌گیری هوش مصنوعی، مفاهیم سایبرنتیک نه تنها جنبه نظری ندارند، بلکه به شکل ملموسی در بطن سیستم‌های هوشمند و الگوریتم‌های تولید محتوا بازتولید شده‌اند.

سایبرنتیک و هوش مصنوعی: از نظریه تا واقعیت

سایبرنتیک به‌واسطه تمرکز بر بازخورد، تطبیق‌پذیری و کنترل، بستر فکری و مفهومی مهمی برای توسعه هوش مصنوعی فراهم کرد. در واقع، الگوریتم‌های یادگیری ماشین و شبکه‌های عصبی مصنوعی امروز، بازتابی از مفاهیم سایبرنتیکی هستند: سیستم‌هایی که از داده‌ها بازخورد می‌گیرند، الگوها را شناسایی می‌کنند و رفتار خود را اصلاح می‌کنند.

در این چارچوب، رسانه‌ها نیز به عنوان سیستم‌هایی سایبرنتیکی قابل تحلیل‌اند. آن‌ها داده (توجه، کلیک، پسندیدن، بازنشر) دریافت می‌کنند، از طریق الگوریتم‌ها آن را پردازش می‌کنند و محتوای جدید تولید می‌نمایند—چرخه‌ای که به طور فزاینده‌ای توسط هوش مصنوعی تسهیل می‌شود.

آسیب‌شناسی استفاده گسترده از هوش مصنوعی در تولید رسانه

گرچه هوش مصنوعی توانسته در عرصه تولید محتوا کارایی و سرعت را بالا ببرد، اما این توسعه، بدون تبعات نیست. در ادامه برخی از مهم‌ترین آسیب‌های این پدیده را مرور می‌کنیم:

۱. زوال مرز میان واقعیت و خیال

با قدرت فزاینده هوش مصنوعی در تولید متن، صدا، تصویر و ویدیو، تفکیک میان محتوای واقعی و ساختگی دشوار شده است. فناوری‌هایی چون «دیپ‌فیک» یا متون ماشینی که شبیه نویسندگان واقعی نوشته می‌شوند، نوعی بحران اعتماد به رسانه‌ها پدید آورده‌اند.

۲. خودتقویتی الگوریتمی و پژواک‌خانه‌ها

الگوریتم‌های مبتنی بر هوش مصنوعی بر اساس بازخوردهای گذشته کار می‌کنند. اگر کاربری محتوایی خاص را بپسندد، سیستم محتواهای مشابه بیشتری به او ارائه می‌دهد. این پدیده که در سایبرنتیک با مفهوم بازخورد مثبت شناخته می‌شود، منجر به ایجاد "پژواک‌خانه‌های رسانه‌ای" می‌شود؛ محیط‌هایی که در آن تنها صداهای موافق شنیده می‌شود و فرد از مواجهه با دیدگاه‌های متفاوت محروم می‌گردد.

۳. تضعیف خلاقیت انسانی

هوش مصنوعی قادر به تقلید از سبک‌های نوشتاری، بصری و صوتی است؛ اما در اغلب موارد، فاقد شهود، تجربه و بینش انسانی است. تکیه صرف بر تولید ماشینی محتوا می‌تواند به فرسایش خلاقیت، اصالت و روایت‌گری انسانی در رسانه‌ها بینجامد.

۴. تسخیر میدان ارتباطی توسط پلتفرم‌ها

اکوسیستم رسانه‌ای امروز در دست چند پلتفرم بزرگ جهانی است که با استفاده از هوش مصنوعی، جریان اطلاعات را کنترل می‌کنند. این تمرکز قدرت، با اصول ارتباط آزاد و توزیع‌شده سایبرنتیک در تضاد است و موجب آسیب‌پذیری فرهنگی، سیاسی و اقتصادی جوامع می‌شود.

جمع‌بندی: بازگشت به سایبرنتیک برای فهم بهتر آینده

برای فهم بهتر مسیر پیش‌رو، بازگشت به مفاهیم سایبرنتیکی ضروری است. سایبرنتیک نه تنها در درک نحوه کار سیستم‌های هوش مصنوعی به ما کمک می‌کند، بلکه ابزار تحلیلی قدرتمندی برای نقد عملکرد رسانه‌ها، الگوریتم‌ها و ساختارهای قدرت در اختیار ما می‌گذارد.

هوش مصنوعی می‌تواند ابزار توانمندی برای تقویت خلاقیت انسانی و دسترسی عادلانه به اطلاعات باشد، اما تنها در صورتی که ما به نقش خود به عنوان کنترل‌گر آگاه در این سیستم توجه کنیم—نه صرفاً دریافت‌کننده منفعل محتوا.

Sun Tzu's Dream — A Documentary on Biological Warfare, Cybernetics, and Global Power Engineering

Sun Tzu's Dream — A Documentary on Biological Warfare, Cybernetics, and Global Power Engineering

Author & Producer & Director: Soheil Salimi
What you will see in the confidential documentary "Sun Tzu's Dream":

Table of Contents:

  1. Introduction: Sun Tzu's Dream in the Modern Era

  2. The Outbreak of COVID-19: Spark of a Silent War

  3. Cybernetics and Biocybernetics: The Science of Control over Life

  4. Strategy Redesign: From World War I to World War IV

  5. Modern History of Biological Warfare

  6. Health Commerce and the Economy of a Pandemic

  7. Media's Role in Inducing Fear and Social Control

  8. Classified Projects: From MK-Ultra to Project Corona

  9. Pre-COVID Simulations and Predictive Documents

  10. Science Control, Censorship, and the New World Order

  11. Conclusion: Has the Future War Already Begun?


1. Introduction: Sun Tzu's Dream in the Modern Era

Sun Tzu, the great Chinese strategist, wrote in "The Art of War": "The supreme art of war is to subdue the enemy without fighting." Today, this ideal has manifested in a modern form using viruses, media, fear, and control technologies. This documentary is an attempt to analyze this modern warfare.


2. The Outbreak of COVID-19: Spark of a Silent War

The spread of the coronavirus on the eve of Yalda night in 2019 marked the beginning of a new era. The world rapidly plunged into chaos, fear, and lockdown. Shortages of masks, medicines, and clashes among nations over medical supplies illustrated a global crisis. But was this pandemic accidental?


3. Cybernetics and Biocybernetics: The Science of Control over Life

Cybernetics is the science of control and guidance. When applied to biological phenomena such as viruses, it becomes biocybernetics: the domination of societies through biological control. From managing a virus to steering the economy, politics, and culture—everything can be engineered through this science.


4. Strategy Redesign: From World War I to World War IV

Throughout history, diseases have replaced guns and bombs in wars. The British, Japanese, and Americans have all used biological weapons to eliminate enemies. Now, the COVID pandemic may be a redesign of those historical strategies.


5. Modern History of Biological Warfare

From smallpox-contaminated blankets given to Native Americans to U.S. military tests on its citizens, history is full of examples of diseases being used as weapons. Iran, too, has been a victim of chemical warfare by the Ba'athist regime.


6. Health Commerce and the Economy of a Pandemic

The healthcare industry has become one of the most profitable sectors globally. Pharmaceutical companies, hospitals, vaccine manufacturers, and medical equipment suppliers all benefit from health crises. The conflict between public health and financial profit raises a critical question: should health be commercialized?


7. Media's Role in Inducing Fear and Social Control

Media holds immense power to instill fear. Fear that weakens the immune system and makes people vulnerable to disease. The COVID pandemic was a prime example of how media was used purposefully to instill fear and enforce collective compliance.


8. Classified Projects: From MK-Ultra to Project Corona

Numerous documents about projects like MK-Ultra, Japan's Unit 731, and U.S. experiments in Fort Detrick reveal hidden agendas behind scientific and technological advancements, using them to dominate and manipulate human behavior.


9. Pre-COVID Simulations and Predictive Documents

From the "Event 201" simulation to the Rockefeller Foundation's 2010 scenario report, several documents predicted a global pandemic with astonishing precision before COVID actually happened. These documents raise serious questions about prior planning.


10. Science Control, Censorship, and the New World Order

Scientific research during COVID faced intense censorship. Articles warning about vaccine risks or the virus's origins were often rejected or buried. Knowledge became a tool of power, not enlightenment. This censorship reflects the broader agenda of the new world order.


11. Conclusion: Has the Future War Already Begun?

This documentary offers a deep analysis of history, science, media, and politics to present a realistic portrait of the post-COVID world—a world where viruses, media, cybernetics, and economics are tools for engineering global dominance.


طغیان کاربران ناآگاه | هوش مصنوعی و بحران بی خردی | در تمنای لایک

طغیان کاربران ناآگاه  | هوش مصنوعی و بحران بی خردی | در تمنای لایک

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

موضوعات این مقاله:

چگونه تودههای ناآگاه مدیاسایبرنتیک را از درون میخورند؟

هوش مصنوعی در میدان بیخردی: سقوط اخلاق در عصر تولید انبوه

سایبرنتیک و بحران تولید انبوه محتوا در طغیان کاربران ناآگاه

مقدمه: فروپاشی کنترل در دل کثرت نامنظم

سایبرنتیک، در بنیان خود، بر کنترل از طریق بازخورد استوار است؛ اینکه چگونه یک سیستم با مشاهده خروجیهای خود، مسیر را تصحیح کرده و به تعادل بازگردد. اما اگر آن خروجیها نه از منطق، بلکه از آشوب برخاسته باشند چه؟ اگر بازخوردها نه از آگاهی، بلکه از امواج خام هیجان، شایعه، و جهل جمعی شکل گرفته باشند؟ آنگاه سایبرنتیک دیگر فرمانده نیست؛ بلکه زندانی همان سیستمی میشود که روزی برای هدایت آن طراحی شده بود.

در این وضعیت، نهتنها اخلاق از میدان حذف میشود، بلکه حتی ساختار کنترلی رسانه نیز از کار میافتد. اینجا با نوعی «آنتیسایبرنتیک» مواجهیم: سامانهای که همچنان داده تولید میکند، اما این دادهها، سامانه را به سوی سقوط هدایت میکنند.


۱. سواد اطلاعاتی پایین، ضدسایبرنتیک است

در سیستمهای کلاسیک سایبرنتیکی، مخاطب باید بتواند پیام را دریافت، فهم، ارزیابی و بازخورددهی کند. این چهار مرحله، ستونهای پردازش رسانهای سالماند. اما در ساختارهای امروزیِ تولید انبوه محتوا در پلتفرمهای اجتماعی، اغلب افراد در همان مرحلهٔ اول گیر میافتند: یا پیام را بهدرستی دریافت نمیکنند، یا آن را بهصورت تحریفشده بازنشر میدهند.

آنجا که بازخورد کور شکل میگیرد، دیگر کنترلی وجود ندارد. نظامهای مبتنی بر الگوریتم و هوش مصنوعی، به جای فیلتر کردن این آشفتگی، آن را تقویت میکنند، چون معیارشان «تعامل» است، نه «محتوا».

پس همان کسی که فهم روشنی از دین، اخلاق یا علم ندارد، میتواند در بازتولید و ترویج شبهدانش، خرافه، یا نفرتگویی، اثرگذارتر از هر نهاد رسمی باشد — چرا که سایبرنتیک رسانهای، قربانی تعاملگرایی شده است.


۲. مردمسالاری بیفرهنگی: جمعیتی که رسانه را بلعیدند

در گذشته، فرآیند تولید محتوا دارای دروازهبانهای معرفتی بود: ناشر، سردبیر، استاد، نهاد دینی یا علمی. اما اکنون، هر گوشی هوشمند، یک ایستگاه تولید و پخش محتوا است.

آنچه که امروز خطرناک است،  انبوه مردمی هستند که بدون دانستن اصول اولیهٔ اخلاق و عقل، به تولید بینظم معنا میپردازند. این نوع مردمسالاریِ بیریشه، آنارشی نیست؛ شبهنظم است، نظم کاذبی که در ظاهر متنوع است اما در عمق، از الگوریتمهایی پیروی میکند که فقط تکرار و هیجان را پاداش میدهند. و انبوهی از ناآگاهی که در تمنای لایک هر محتوای ضد ارزش یا حتی بی ارزش را منتشر می کنند. این بی معرفتی ربطی به سواد یا سن و سال و یا حتی جایگاه علمی افراد ندارد. انسانی کع تولید محتوا می کند باید به پختگی رسیده باشد. چند سال قبل خاطره ای از استیون اسپیلبرگ خواندم که معیار دقیق این پختگی است. همواره برایم سوال بود، او که فیلمساز متبحر و توانمندی است چرا جایگاه پدر و فرزندی را در فیلم هایش رعایت نمیکند و حتی گاه این حس را منتقل می کند که پدرها، پسرهایشان را رها می کنند. او در آن خاطر می گفت؛ من آن زمان یک جوان بودم، ولی حالا پدر هفت فرزندم. در فیلمهای اول پدرها را آنطور می فهمیدم اما حالا میفهمم که یک پدر برای حفظ خانواده و فرزندانش باید هر کار بکند.

حالا تصور کنید چند جوان در جهان با دیدن فیلمهای اولیه او گمراه شده و با والدین و خصوصا پدرانشان دچار چالش و درگیری شدند! این در حالیست که اسپیلبرگ هنرمند بسیار توانمد و صاحب سبک و با سوادی است، ببیند انبوه آدم های نا آگاه که امروزه هریک با یک گوشی مشغول تولید انواع محتواهای بی ارزش و ضد ارزش هستند چه بلایی بر سر جامعه می آورند.

در چنین بستری، محتوای ژرف، اخلاقی یا علمی، دیده نمیشود، چون با ریتم تند و هیجانزدهٔ بازار اطلاعات همخوانی ندارد.  اخلاق، در زبالهدان محتوا بی ارزش دفن میشود، و هوش مصنوعی، همچون گورکنی فرز و سریع در حال  آماده سازی قبر اندیشه و معرفت انسان است.


۳. تولید ضداخلاق: بیسوادی ساختارمند در نظام بازخورد

وقتی اکثریت جامعه نسبت به مفاهیم فلسفی و دینی بیاطلاعاند، «اخلاق» دیگر مبنای داوری نمیشود. بلکه "احساس لحظهای" جایگزین "قضاوت تأملگر" میشود. این انتقال از فکر به واکنش، پایههای اخلاق در فضای سایبر  را فرو میریزد.

حال، وقتی این اکثریت شروع به تولید انبوه محتوا میکنند، تولیدشان نه حاصل خرد، که ترکیبی است از شایعه، فرافکنی، تمسخر، خشونت کلامی و نفرتپراکنی است. در این وضعیت، ضداخلاق نهفقط تولید میشود، بلکه پاداش میگیرد؛ زیرا واکنشبرانگیز است.

حالا نتیجه طبیعی ارتقا از طریق فهم الگوریتمی این است که «هر چه بیادبتر، موفقتر.» اینجا دیگر نه کنترل معنا دارد، نه بازخورد؛ تنها چیزی که میماند، شبیهسازی ضد ارزش ها بهمثابه تعامل است.


۴. قدرت در دستان بیقدرتان خطرناک: از آنتینخبگی تا تسخیر افکار عمومی

در بسیاری جوامع، فقدان آموزش فلسفی، دینی و عقلانی، نهفقط مسئلهای فردی، بلکه ساختاری است. سیاستگذاران، نظام آموزش عمومی، و رسانههای رسمی، در تضعیف تفکر تحلیلی نقش ایفا کردهاند. حالا، همان مردمی که ساختار به حال خود رهایشان کرده، خود به ساختار بدل شدهاند. یعنی آنجا که سایبرنتیک به معنای کنترل و اعمال قدرت در روند صحیح خودش کارکردش را از دست می دهد، حالا سایبرنتیک دیگری شکل می گیرد از عوامی که برای تصاحب لایک های بیشتر  و فالوور افزایی، به رواج بی ارزشی می پردازند. این طبقه جدید سلبریتی ها ، خوردن کثافات برای بیشتر دیده شدن تا حتی اقدام به خودکشی فریبکارانه آنهم آنلاین، هیچ ابایی ندارند! اینها محصول پوچگرایی و پوچ اندیشی و پوچ پنداری خویش هستتند. این طبقه ی بی ارزش، در واقع مبدع ارزش های جدیدی هستند که مخاطبانشان دوست بدارند، فالوورشان بشوند و لایک کنند.

افکار عمومی، که زمانی قرار بود حاصل گفتوگوی عقلانی باشد، اکنون زیر سلطهی صداهای بلند، خالی از معنا و تحقیر کننده و خشونتزاست. سایبرنتیک رسانهای  (مدیا سایبرنتیک)، که میتوانست در صورت استفاده صحیح، ابزار روشنگری باشند، اکنون زمینبازی آگاهیستیزان شدهاند. و بدترین قسمت این فاجعه آن است که نظم رسانهای توسط الگوریتم های هوش مصنوعی، بر پایهٔ آشفتگی آنها بهینهسازی میشود. یعنی، هوش مصنوعی یاد میگیرد که شورش جهل، سودمندتر از صدای دانایی است.


نتیجه: فروپاشی اخلاق سایبرنتیکی و ضرورت بازمهندسی آگاهی

ما اکنون با یک چرخش تلخ روبرو هستیم:

کنترل رسانه (مدیا سایبرنتیک) دیگر دست نخبگان یا حتی نظامهای عقلانی نیست، بلکه در دست بیساختاران پرصداست؛ کسانی که بدون آگاهی، نظام اخلاقی را به سخره گرفته اند و در فرآیند بازخورد رسانهای، ساختارهای معنایی را منهدم کرده اند.

بازسازی این وضعیت، با فیلتر کردن محتوا یا سانسور ممکن نیست. تنها راه، بازسازی آگاهی عمومی، و بازمهندسی ساختارهای آموزش، سواد رسانهای در سطح اجتماعی انسانی است که کاری ست بس دشوار، و در سوی دیگر ایجاد الگوریتمهاییست که هوش مصنوعی بتواند بر اساس آنها نه صرفاً تعامل، بلکه عمق و اخلاق را پاداش دهد، که در شرایط فعلی این اقدام قابل اجرا تر  به نظر می رسد. در بلند مدت برنامه ریزی روی هر دوی این روندها می تواند بشر را از قهقرای بی ارزشی نجات دهد.

سهیل سلیمی

خلاصه کتاب سایبرنتیک – نوربرت وینر Norbert Wiener: Cybernetics: Or Control and Communication in the Animal and the Machine

خلاصه کتاب سایبرنتیک  نویسنده: نوربرت وینر Norbert Wiener

عنوان اصلیCybernetics: Or Control and Communication in the Animal and the Machine (1948)

ارائه دهند: سهیل سلیمی   (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)


مقدمهای بر کتاب

نوربرت وینر در این کتاب، پایههای یک علم نوین به نام سایبرنتیک (Cybernetics) را بنیانگذاری میکند؛ دانشی میانرشتهای که به بررسی سیستمهای کنترل و ارتباطات در موجودات زنده و ماشینها میپردازد. هدف این علم، درک چگونگی تنظیم، تطبیق، و بازخورد (feedback) در سیستمهاست.


مفاهیم کلیدی کتاب

1. سایبرنتیک چیست؟

سایبرنتیک از واژهای یونانی به معنی «سکانداری» گرفته شده و به علم کنترل و ارتباط در موجود زنده و ماشین اشاره دارد. این علم تلاش دارد تا شباهتها و اصول مشترک بین عملکرد مغز انسان، سیستم عصبی، و ماشینهای خودکار را کشف کند.

2. بازخورد (Feedback)

در قلب سایبرنتیک، مفهوم بازخورد قرار دارد. این ایده میگوید که سیستمها از نتایج اعمال خود مطلع میشوند و بر اساس آن نتایج، رفتار خود را تنظیم میکنند.

مثال: وقتی یک ترموستات دمای خانه را حس میکند و بر اساس آن، سیستم گرمایشی را خاموش یا روشن میکند، از بازخورد استفاده کرده است.

3. اطلاعات بهمثابه کمیت علمی

وینر به کمک نظریه اطلاعات (از کلود شانون)، اطلاعات را بهعنوان یک مفهوم قابل اندازهگیری معرفی میکند.
اطلاعات، نقشی مشابه انرژی در فیزیک دارد، اما در حوزه ارتباط و کنترل.

4. احتمال، عدم قطعیت و پیشبینی

در بسیاری از سیستمها (از جمله مغز انسان یا اقتصاد)، رفتار آینده با قطعیت قابل پیشبینی نیست. سایبرنتیک تلاش میکند با استفاده از روشهای آماری و احتمالات، در چنین شرایطی نیز الگوهایی برای کنترل و تصمیمگیری پیدا کند.

5. سیستمهای خودکار و ماشینهای هوشمند

وینر درباره ماشینهایی صحبت میکند که میتوانند تصمیم بگیرند، خطاهای خود را اصلاح کنند، و با محیط تعامل داشته باشند. این دیدگاه، پایهگذار مفاهیمی شد که بعدها در هوش مصنوعی، رباتیک و سیستمهای تطبیقی توسعه یافت.

6. مقایسه ماشین و انسان

او سعی میکند شباهتهای میان مغز انسان و ماشینهای پیچیده را بررسی کند. البته تأکید دارد که انسانها دارای احساسات و وجوه انسانیاند، اما از نظر کنترل و ارتباط، میتوان الگوهای مشترکی یافت.

7. اخلاق سایبرنتیک

در پایان، وینر هشدارهایی اخلاقی درباره استفاده از دانش سایبرنتیک میدهد:

  • باید از این علم برای تقویت تواناییهای انسان استفاده شود، نه جایگزینی او.
  • خطر سوءاستفاده از تکنولوژی برای کنترل اجتماعی یا جنگ وجود دارد.
  • مسئولیت علمی و اخلاقی دانشمندان برجسته است.

دستاوردها و تأثیر کتاب

این کتاب نهتنها پایهگذار علم سایبرنتیک شد، بلکه بر زمینههای مختلفی مثل:

  • هوش مصنوعی
  • مدارهای کنترل خودکار
  • علوم شناختی و مغز
  • زیستشناسی سامانهای
  • و حتی اقتصاد و جامعهشناسی تأثیر گذاشت.

جمعبندی

نوربرت وینر در این کتاب بنیان مفهومی را گذاشت که ما امروز در انواع فناوریهای هوشمند، سیستمهای کنترل، اینترنت اشیاء، و حتی درک ذهن و مغز انسان با آن مواجهایم. سایبرنتیک پلی میان ماشین و انسان، فیزیک و روانشناسی، و کنترل و ارتباط است.

 

سهیل سلیمی


خلاصه کتاب سایبرنتیک  نویسنده: نوربرت وینر Norbert Wiener

Cybernetics: Or Control and Communication in the Animal and the Machine

 

فصل ۱: پیام، معنا و نویز

این فصل به نقش اطلاعات در ارتباطات میپردازد. وینر توضیح میدهد که ارتباط بین انسان یا ماشین بر پایه ارسال پیامها است، و این پیامها همیشه در معرض نویز یا اختلال قرار دارند. او نظریهی اطلاعات شانون را به کار میگیرد تا نشان دهد چگونه میتوان پیامها را به شکلی مؤثر و بدون خطا منتقل کرد.


فصل ۲: ارتباط در موجود زنده و ماشین

اینجا وینر بحث را به شباهتهای مغز و کامپیوتر میبرد. او استدلال میکند که هم موجودات زنده و هم ماشینها میتوانند اطلاعات را پردازش کنند. مغز انسان مانند یک ماشین محاسباتی است که اطلاعات حسی را دریافت کرده، پردازش کرده و واکنش مناسب نشان میدهد.


فصل ۳: رفتار، هدف و تلئولوژی

این فصل درباره رفتار هدفمند است. در سایبرنتیک، رفتارهایی که بهسمت یک هدف مشخص حرکت میکنند (مثل راه رفتن بهسمت غذا)، مورد توجه قرار میگیرند. وینر مفهوم بازخورد (feedback) را معرفی میکند: مکانیزمی که سیستمها برای رسیدن به هدف خود، مدام خود را تنظیم میکنند.


فصل ۴: الگوها و سازمان

در این فصل، بحث بر سر این است که اطلاعات نهفقط کمیت، بلکه ساختار و الگو دارند. وینر میگوید موجودات زنده و ماشینها، اطلاعات را نهفقط ذخیره، بلکه سازماندهی و ساختاربندی میکنند. او از سیستمهای عصبی و ارتباطات ماشینی مثالهایی میزند.


فصل ۵: سایبرنتیک و فیزیولوژی سیستم عصبی

یکی از مهمترین فصلهای کتاب. وینر کارکرد سیستم عصبی انسان را از منظر سایبرنتیکی بررسی میکند. مثلاً چگونه مغز پیامها را از حواس دریافت میکند، تصمیم میگیرد و سپس دستور عمل میفرستد. او تأکید میکند که این فرآیند بسیار شبیه سیستم کنترل خودکار در ماشینهاست.


فصل ۶: سایبرنتیک و آسیبشناسی سیستم عصبی

در اینجا، وینر از بیماریها و آسیبهایی صحبت میکند که عملکرد سیستم عصبی را مختل میکنند، مثل پارکینسون یا صرع. این فصل نشان میدهد که اختلال در بازخورد یا ارتباط عصبی میتواند به بیماری منجر شود، مشابه یک ماشین که وقتی سیستم کنترلیاش از کار بیفتد، خراب میشود.


فصل ۷: یادگیری و حافظه در انسان و ماشین

فصل جذابی که به مسئله یادگیری ماشین و یادگیری انسانی میپردازد. وینر توضیح میدهد که چگونه ماشینها میتوانند یاد بگیرند، با استفاده از بازخورد و اصلاح خطا. او حافظه را بهعنوان ذخیرهساز اطلاعات معرفی میکند و مقایسهای میان مغز و حافظه دیجیتال انجام میدهد.


فصل ۸: سیستمهای آماری و پیشبینی رفتار

در این فصل، وینر به سراغ احتمالات، عدم قطعیت و مدلسازی آماری میرود. در بسیاری از شرایط، آینده قابل پیشبینی دقیق نیست، اما با استفاده از آمار میتوان رفتار سیستمها را تا حدی پیشبینی کرد. این اصل در اقتصاد، هواشناسی، و حتی روانشناسی کاربرد دارد.


فصل ۹: انسان و ماشین

در این فصل فلسفی، وینر پرسشهایی عمیق مطرح میکند:

  • آیا ماشینها میتوانند جای انسان را بگیرند؟
  • آیا باید از تکنولوژی بترسیم؟
  • او نتیجه میگیرد که ماشینها باید ابزار انسان باقی بمانند، و اخلاق، تصمیمگیری و احساسات، ویژگیهایی هستند که هنوز مختص انساناند.

فصل ۱۰: جنگ و مسئولیت علمی

در بخش پایانی، وینر نگرانی خود را درباره استفاده نظامی از دانش سایبرنتیک بیان میکند. او میگوید:

«علم بدون اخلاق، میتواند فاجعهبار باشد

وی دانشمندان را به داشتن مسئولیت اجتماعی فرا میخواند، خصوصاً در دنیای پس از جنگ جهانی دوم.


فصل ۱۱: نتیجهگیری کلی

کتاب با تأکیدی دوباره بر اهمیت سایبرنتیک در دنیای مدرن پایان مییابد. وینر معتقد است که در عصر ارتباطات، انسان باید یاد بگیرد که چگونه با ماشینها و با دیگر انسانها بهشکلی هوشمندانه و اخلاقی تعامل کند.


مدیاسایبرنتیک: قدرتِ تلقین


مدیاسایبرنتیک: قدرتِ تلقین

چگونه رسانه با بهره‌گیری از اصول سایبرنتیک ذهن ما را کنترل می‌کند؟

نویسنده: سهیل سلیمی
نویسنده، کارگردان و مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبرِ دانشگاه تهران


مقدمه: وقتی کنترل در قالب پیام شکل می‌گیرد

اگر سایبرنتیک را همان‌گونه که نوربرت وینر تعریف می‌کند، «علم کنترل و ارتباط» بدانیم، پس رسانه یکی از قدرتمندترین ابزارهای این کنترل در عصر حاضر است. رسانه، نه‌فقط انتقال‌دهنده‌ی اطلاعات، بلکه هدایتگر رفتار، شکل‌دهنده‌ی نگرش، و در نهایت ابزاری برای اعمال قدرت است.

اما این قدرت چگونه عمل می‌کند؟ واژه‌ی کلیدی درک این فرآیند، چیزی نیست جز: تلقین.


انسان و میل به برتری: ریشه‌ی نیاز به کنترل

از دوران هابیل و قابیل تا امروز، انسان همیشه در پی برتری بوده است. قدرت به معنای «توان تحمیل اراده» در اشکال مختلفی چون قدرت مالی، نظامی، علمی و فرهنگی ظاهر شده است. اما در دنیای مدرن، هیچ‌کدام از این اشکال به تنهایی کفایت نمی‌کنند. برای اثربخشی، آن‌ها باید با یک ابزار هماهنگ شوند: رسانه.


چرخه کنترل و قدرت: لوپ بی‌پایان سایبرنتیک

سایبرنتیک، در یک چرخه‌ی تکراری، ابتدا کنترل را برقرار می‌کند و سپس قدرت را اعمال می‌نماید. در این میان، هر بار که اعمال قدرت با مقاومت یا ناکارآمدی روبرو می‌شود، کنترل جدیدی ایجاد می‌شود. رسانه در این چرخه، نقش روان‌ساز و واسطه‌ای هوشمند دارد: بی‌صدا می‌آید، تلقین می‌کند و می‌رود.


رسانه؛ ابزار یا بازیگر اصلی؟

رسانه فقط ابزار نیست. در ساختار سایبرنتیک، رسانه یک بازیگر است. رسانه اطلاعات را نه فقط منتقل می‌کند، بلکه «کدهای رفتاری» را طراحی و به ذهن مخاطب القا می‌کند. این کدها، اعمال کنترل را ساده‌تر و کم‌هزینه‌تر می‌کنند. مخاطب در نهایت، خود، خواهان اجرای خواسته‌های اعمال شده می‌شود.


رسانه، تلقین و جامعه‌سازی

تلقین، یعنی القای یک معنا، نگرش یا رفتار به‌گونه‌ای که فرد آن را درونی کند. رسانه با تکرار، داستان‌سرایی، احساس‌برانگیزی، ترس، تهدید، طنز و سرگرمی، ذهن مخاطب را آماده‌ی پذیرش کنترل می‌کند. نتیجه؟
یک جامعه‌ی کنترل‌شده که خود را آزاد می‌پندارد.


مثال کاربردی: بحران ساختگی برای افزایش قیمت

برای درک نقش رسانه در کنترل رفتار عمومی، سناریوی زیر را تصور کنید:

  1. هشدار بحران آب در اخبار

  2. ترغیب به صرفه‌جویی

  3. تهدید به افزایش قیمت

  4. قطع موقت آب

  5. گزارش‌هایی از کاهش مصرف

  6. افزایش تدریجی قیمت

  7. تبلیغات پیرامون فواید مصرف آب

  8. سکوت رسانه‌ها پس از موفقیت برنامه

این یک «پروژه‌ی سایبرنتیکی کامل» است، که رسانه نقش کلیدی آن را ایفا می‌کند.


نقطه‌ی شکست سامانه

تنها نقطه‌ی ضعف این سامانه پیچیده؟ آگاهی، بیداری، آزادی.
زمانی که مخاطب نسبت به سازوکار رسانه آگاه شود، تلقین بی‌اثر می‌گردد و کنترل، دچار نقص می‌شود. در این مرحله، رسانه دست به ضدحمله می‌زند: مصادره‌ی همین واژه‌ها و بازتعریف آن‌ها به نفع سامانه!


جمع‌بندی

در نهایت، سایبرنتیک با رسانه پیوندی ناگسستنی دارد. رسانه سایبرنتیکی، جامعه‌ساز است؛ با ابزار تلقین، کنترل را اعمال می‌کند و اعمال قدرت را مشروع جلوه می‌دهد.

مدیاسایبرنتیک یعنی حاکمیتِ پنهانِ تلقین!



مدیاسایبرنتیک: قدرتِ تلقین

* مقاله‌ی حاضر، نسخه‌ی تکمیل‌شده و توسعه‌یافته‌ی ارائه‌ای است که پیش‌تر در قالب کارگاه تخصصی «مدیاسایبرنتیک و قدرتِ تلقین» در دومین دوره کنفرانس بین‌المللی فضای سایبر (آبان ۱۴۰۲) ارائه شده است. این مقاله تلاش دارد با بهره‌گیری از مبانی نظری و شواهد تجربی، چارچوبی تحلیلی برای فهم رابطه‌ی میان رسانه، سایبرنتیک و سازوکارهای کنترل ذهنی ارائه کند.

مدیاسایبرنتیک (سایبرنتیکِ رسانه): قدرتِ تلقین و مهندسی ذهن

Media Cybernetics: The Power of Suggestion and Mind Engineering

نویسنده: سهیل سلیمی
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
مشاور رسانه‌ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران


چکیده

مدیا سایبرنتیک (Media Cybernetics) به‌عنوان امتداد نظریه سایبرنتیک نوربرت وینر (Norbert Wiener) در عرصه رسانه، بستر شکل‌دهی رفتار و نگرش مخاطبان را فراهم آورده است. رسانه، دیگر صرفاً واسطه انتقال پیام نیست، بلکه خود به بازیگری مستقل بدل شده که با بهره‌گیری از اصول feedback (بازخورد)، control (کنترل)، و communication (ارتباط)، جامعه را مهندسی می‌کند. این مقاله، با تکیه بر نظریه‌های کلاسیک سایبرنتیک و نمونه‌های معاصر رسانه‌ای، نشان می‌دهد چگونه «تلقین» به ابزار اصلی هدایت ذهن و رفتار تبدیل شده است. همچنین، ضمن بررسی چرخه‌های قدرت و کنترل رسانه‌ای، راهکارهای مقاومت در برابر پروژه‌های سایبرنتیکی رسانه‌ای نیز تحلیل می‌شود.

واژگان کلیدی: سایبرنتیک رسانه (Media Cybernetics)، کنترل (Control)، تلقین (Suggestion)، بازخورد (Feedback)، رسانه (Media)


۱. مقدمه: رسانه به مثابه سامانه سایبرنتیکی

نوربرت وینر (Norbert Wiener)، بنیان‌گذار سایبرنتیک، در کتاب مشهور خود Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948) سایبرنتیک را علم «کنترل و ارتباط» می‌داند. در این چهارچوب، رسانه (Media) نه صرفاً ابزار ارتباطی، بلکه سامانه‌ای سایبرنتیکی است که با بهره‌گیری از اصول بازخورد (Feedback)، پیام‌رسانی را به ابزاری برای اعمال کنترل بدل کرده است.

در چنین سامانه‌ای، رسانه‌ها با بهره‌گیری از فناوری‌های هوش مصنوعی (Artificial Intelligence)، کلان‌داده‌ها (Big Data) و تحلیل رفتار مخاطب، پیام‌ها را به گونه‌ای تنظیم می‌کنند که «ادراک مخاطب» را مهندسی کنند (Zuboff, 2019).


۲. قدرتِ تلقین (Suggestion) و چرخه کنترل رسانه‌ای

واژه کلیدی درک عملکرد رسانه‌های سایبرنتیکی، «تلقین» (Suggestion) است. تلقین در روانشناسی اجتماعی به معنای کاشت یک باور یا نگرش در ذهن فرد به‌گونه‌ای است که فرد گمان کند آن باور را خود پذیرفته است (Bargh & Chartrand, 1999).

۲.۱. چرخه سایبرنتیکی قدرت

چرخه کنترل سایبرنتیکی رسانه‌ای به‌طور خلاصه به شکل زیر عمل می‌کند:

۱. ورود پیام (Input): تولید محتوای رسانه‌ای متناسب با اهداف کنترلی
۲. بازخورد (Feedback): تحلیل واکنش مخاطبان (لایک، کامنت، بازنشر، نظرسنجی‌ها)
۳. اصلاح پیام (Adaptation): بهینه‌سازی پیام‌ها براساس داده‌های دریافتی
۴. اعمال قدرت (Control): هدایت رفتار مخاطبان به سوی اهداف خاص

این چرخه نوعی لوپ تقویت‌شونده (Positive Feedback Loop) ایجاد می‌کند که هر بار کنترل را دقیق‌تر و عمیق‌تر می‌سازد (Shannon & Weaver, 1949).


۳. رسانه؛ ابزار یا بازیگر؟

آیا رسانه صرفاً ابزاری در دست قدرت است یا خود به کنشگری مستقل بدل شده است؟ به تعبیر مارشال مک‌لوهان (Marshall McLuhan)، «رسانه خود پیام است» (The medium is the message) (McLuhan, 1964). رسانه امروز، نه تنها محتوای رفتاری تولید می‌کند، بلکه با هوشمندسازی فرایند تولید و توزیع محتوا، در فرایند تصمیم‌سازی اجتماعی مداخله مستقیم دارد.

نمونه‌های معاصر این امر را می‌توان در کارزارهای خبری حول بحران‌های اقتصادی یا بهداشت عمومی مشاهده کرد. رسانه‌ها، از طریق خلق «واقعیت‌های بدیل» (Alternative Realities)، افکار عمومی را به سوی پذیرش سیاست‌های خاص سوق می‌دهند (Chomsky & Herman, 1988).


۴. پروژه‌های سایبرنتیکی رسانه‌ای: نمونه‌کاوی

۴.۱. بحران ساختگی برای کنترل رفتار جمعی

فرض کنید یک رسانه جریان اصلی (Mainstream Media) چنین سناریویی را پیاده‌سازی کند:

  • هشدار بحران: پخش گسترده هشدار درباره کمبود منابع (مثلاً آب)

  • ترغیب: تبلیغات صرفه‌جویی و مسئولیت‌پذیری

  • تهدید: اعلام تصمیم احتمالی برای افزایش قیمت

  • اعمال فشار: قطع موقت خدمات برای ایجاد تجربه زیسته از بحران

  • بازخورد مثبت: گزارش موفقیت اقدامات

  • نهایی‌سازی کنترل: افزایش تدریجی قیمت به عنوان راهکار منطقی

این فرایند، نمونه‌ای کلاسیک از پروژه‌های سایبرنتیکی رسانه‌ای است که با استفاده از «مهندسی ادراک» (Perception Engineering) و «مدیریت رفتار» (Behavior Management) اجرا می‌شود (Harari, 2016).


۵. نقطه شکست سامانه‌های رسانه‌ای: آگاهی انتقادی

تمام این سازوکارها تنها در یک صورت شکست می‌خورند: زمانی که مخاطبان به «آگاهی انتقادی» (Critical Consciousness) دست یابند (Freire, 1970). اما رسانه‌های سایبرنتیکی حتی برای این شرایط هم تمهیداتی اندیشیده‌اند. رسانه‌ها مفاهیم مقاومت و بیداری را مصادره کرده و آن‌ها را در قالب‌های جدید بازتعریف می‌کنند (مثلاً تبدیل مقاومت به مد جدید یا بازی سرگرم‌کننده).


۶. نتیجه‌گیری: مسئولیت انسانی در عصر سایبرنتیک رسانه‌ای

رسانه‌ها امروز در جایگاه سامانه‌های سایبرنتیکی خودمختار قرار گرفته‌اند که با بهره‌گیری از فناوری‌های هوشمند، قدرت تلقین خود را چند برابر کرده‌اند. مخاطبانی که آگاهانه با این سازوکار مواجه شوند، قادر خواهند بود زنجیره تلقین را بشکنند و خود را از چرخه‌ی کنترل خارج کنند.

بنابراین، تنها راه برون‌رفت، تربیت مخاطب انتقادی است؛ مخاطبی که نه صرفاً مصرف‌کننده پیام، بلکه تحلیل‌گر سازوکار تولید پیام باشد.


منابع

Bargh, J. A., & Chartrand, T. L. (1999). The Unbearable Automaticity of Being. American Psychologist.

Chomsky, N., & Herman, E. S. (1988). Manufacturing Consent: The Political Economy of the Mass Media. Pantheon.

Freire, P. (1970). Pedagogy of the Oppressed. Continuum.

Harari, Y. N. (2016). Homo Deus: A Brief History of Tomorrow. Harper.

McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.

Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University of Illinois Press.

Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

نقدی بر شاهکار مستند: «جنایت نامرئی» + پوستر جدید مجموعه مستند جنایت نامرئی

نقد مجموعه مستند جنایت نامرئی در سایبر کانال (Kubernētes)


نقدی بر شاهکار مستند «جنایت نامرئی»

نقاب حقیقت در عصر پساپاندمی

در دنیایی که حقیقت هر روز در لایه‌های فریب‌آلود رسانه‌های رسمی دفن می‌شود و ژورنالیسم جهانی اغلب به بوق تبلیغاتی ساختارهای قدرت بدل گشته، مستند «جنایت نامرئی» چونان پیکی از دنیای زیرین، در لابه‌لای انبوه سانسورها و روایت‌های ساختگی، حقیقتی تکان‌دهنده را به تصویر می‌کشد. این مستند نه تنها جسارت بیان دارد، بلکه با بهره‌گیری از نگرشی سایبرنتیکی، دستگاه حکمرانی نوین جهانی را در معرض تحلیل و تشریح قرار می‌دهد.

«جنایت نامرئی» را باید نه صرفاً یک مستند، بلکه یک پرسش راهبردی در قالب سینما دانست؛ پرسشی که پرسیدن آن شهامت می‌طلبد و پاسخ دادن به آن، فروپاشی بسیاری از پیش‌فرض‌های ذهنی را. از همین منظر، این اثر بیش از آنکه در دسته‌بندی ژانری محدود شود، باید در ساحت دکترینال ـ استراتژیک رسانه‌ای فهم شود؛ اثری که ساختارهای سلطه در عصر پاندمی و فراتر از آن را به چالش می‌کشد.

زیست‌سیاست در میدان جنگ خاموش

کارگردان مستند با اتکا به سندیت بالا، تبحر در روایت، و جسارت تحلیلی، جهان کرونازده را نه صرفاً به عنوان پدیده‌ای زیستی، بلکه به‌مثابه جنگی تمام‌عیار بیولوژیک و سایبرنتیکی تحلیل می‌کند. او به مدد اسناد رسمی، از DMED وزارت دفاع آمریکا تا سند Lockstep بنیاد راکفلر، پرده از پروژه‌ای برداشته که هدف غایی‌اش چیزی نیست جز بازطراحی مناسبات قدرت جهانی با ابزار زیست‌پزشکی، رسانه و ترس.

در این اثر، بیماری به سلاحی بدل شده که نه فقط بدن بلکه اراده‌ها را هدف قرار می‌دهد؛ جنگی که بی‌هیاهو آغاز می‌شود، اما ژرف‌ترین تغییرات را در ساحت سیاست، اقتصاد و حاکمیت رقم می‌زند. درست همانگونه که سون تزو در «هنر جنگ» توصیه می‌کند: «پیروزی بزرگ آن است که کشور دشمن را بی‌آنکه جنگی شود، تسخیر کنی.»

سینما به‌مثابه سلاح بیدارسازی

آنچه این مستند را از آثار هم‌رده خود متمایز می‌کند، صرفاً افشاگری نیست؛ بلکه تحلیل عمیق ساختارهای قدرت بر مبنای نظریه‌های کنترل، اقتصاد سلامت، جنگ بیولوژیک، و سایبرنتیک است. مستند درک دقیقی از رابطه‌ی دانش، قدرت و حکمرانی ارائه می‌دهد و با اتکا به دکترین نوربرت وینر و استافورد بیر، به‌روشنی نشان می‌دهد که کنترل اطلاعات در عصر نوین، همان حکمرانی بر حیات انسانی است.

کارگردان با زبان سینما، رسانه را نه ابزار اطلاع‌رسانی، بلکه بازیگر اصلی میدان جنگ نرم معرفی می‌کند؛ رسانه‌ای که قادر است حقیقت را دفن کند و هراس را تکثیر. مستند در صحنه‌هایی یادآور نوارهای ویدئویی استنلی کوبریک در «چشمان باز بسته»، حقیقت را در تاریکی به تماشا می‌گذارد و تماشاگر را به زلزله‌ای شناختی دعوت می‌کند.

جمع‌بندی: شورش یک دوربین علیه امپراتوری خاموش

«جنایت نامرئی» شاهکاری است که در بزنگاه تاریخی پساکرونا، ساحت سینمای مستند را از گزارش صرف، به سطح نبرد مفهومی ـ استراتژیک ارتقاء می‌دهد. این اثر هم جسور است، هم دقیق، هم رادیکال، و هم اخلاقی. در زمانی که بسیاری از مستندها در دایره تکرار گرفتارند، این اثر با ساختار پژوهش‌محور، جسارت نظری، و عمق تحلیلی، همچون آژیر خطر در شب سکوت رسانه‌هاست.

بی‌هیچ تردید، «جنایت نامرئی» نه‌فقط مستندی برای دیدن، که متنی برای اندیشیدن و پرسشی برای زمانه ماست؛ و بی‌اغراق، یکی از آثار ماندگار سینمای مستند ایران در حوزه جنگ شناختی و سایبرنتیکی قرن حاضر.


کانال سایبری کیبرنِتِس (Kubernētes)


پوستر جدید مجموعه مستند جنایت نامرئی