The Machine is a Great Slave But a Bad Master. Norbert Wiener
نوربرت وینر در کتاب سایبرنتیک می نویسند:
با وجود مزایای فراوان، پیشرفت سریع هوش مصنوعی و پیچیدگی روزافزون سیستمهای سایبرنتیک خطراتی را نیز به همراه دارد. یکی از نگرانیهای اصلی، کاهش کنترل انسانی بر سیستمهای خودمختار است. برای مثال، الگوریتمهای یادگیری ماشین که در شبکههای اجتماعی استفاده میشوند، میتوانند با تقویت محتوای جنجالی یا اطلاعات نادرست، بهصورت غیرمستقیم رفتارهای اجتماعی را هدایت کنند. این پدیده نشاندهندهی تبدیل شدن ماشین از یک ابزار خدمترسان به نیرویی است که میتواند بر تصمیمگیریهای انسانی تأثیر منفی بگذارد.
برای مطالعه متن کامل به این لینک مرا جعه کنید.
کلیدواژهها: هوش مصنوعی مولد، موسیقیشناسی محاسباتی، ژانرشناسی، سازشناسی، پرامپتمهندسی پیشرفته، بیان موسیقیایی

در سال ۲۰۲۵، تولید یک قطعهی کاملاً ارکسترال با کیفیت استودیویی تنها در چند ثانیه ممکن شده است. اما پرسش اصلی باقی است: آیا این قطعه «موسیقی» است یا صرفاً «صوت سازمانیافته»؟ تجربهی شنیداری میلیونها قطعهی تولیدشده توسط هوش مصنوعی در پلتفرمهایی نظیر Suno و Udio نشان میدهد که اکثر آثار در مرز «تقلید سطحی» و «ترکیب تصادفی» معلق ماندهاند. دلیل اصلی این پدیده، فقدان درک عمیق مدلها از چهار لایهی بنیادی موسیقی است که قرنها توسط آهنگسازان انسانی کشف، کدگذاری و منتقل شده است.
سبک، مجموعهای از تصمیمات زیباییشناختی تکرارشونده است که در یک بازهی زمانی-مکانی خاص شکل میگیرد. باخ، بتهوون، بیورک و بیتیاس هر کدام دارای امضای سبکی منحصربهفرد هستند. مدلهای فعلی عمدتاً با تگهای کلی مانند «baroque» یا «hyperpop» آموزش دیدهاند، اما فاقد درک از زیرلایهها هستند:
بدون تزریق این دانش به صورت شرطی (conditional embedding)، خروجیها صرفاً «شبیه» خواهند بود، نه «معتبر».
ژانر بیش از یک برچسب است؛ یک قرارداد اجتماعی-موسیقایی است. شنوندهی ژانر «ایرانی دستگاهی» انتظار حضور ردیف، گوشه، درآمد، و درآمد به اوج و فرود دارد. شنوندهی «دثمتال» انتظار blast beat، palm muting و growl vocal دارد. مدلهای فعلی این قراردادها را به صورت آماری یاد میگیرند، اما از منطق درونی آن بیخبرند. نتیجه: قطعاتی که ۹۰٪ شبیه ژانر هستند اما در ۱۰٪ باقیمانده به شدت «غریب» به نظر میرسند (uncanny valley موسیقیایی).
بزرگترین ضعف مدلهای مولد فعلی، ناتوانی در خلق «روایت احساسی منسجم» است. یک قطعهی باخ میتواند از آرامش به تنش و سپس به حل شدن حرکت کند. یک قطعهی امبینت میتواند به تدریج «نوسانات دینامیکی ایجاد کند. اما اکثر مدلها دینامیک را به صورت تصادفی یا بر اساس الگوهای آماری اعمال میکنند، نه بر اساس یک قوس دراماتیک آگاهانه. اینجاست که نیاز به «پرامپتهای بیانگرا» (expressive prompts) و همچنین آموزش مدلها با دادههای MIDI غنیشده با annotationهای expressive (مانند velocity, timing deviation, articulation) احساس میشود.
بسیاری از مدلها میتوانند صدای ویولن سل را بازتولید کنند، اما نمیدانند که:
این دانش فیزیکی-آکوستیکی باید به صورت explicit در مدل تزریق شود تا از تولید صداهای «غیرممکن فیزیکی» جلوگیری شود.
برای حل مسائل فوق، چارچوب چهارلایهای زیر پیشنهاد میشود:
این چهار لایه میتوانند به صورت LoRA یا adapter به مدلهای پایه اضافه شوند و دقت و اعتبار خروجی را به شدت افزایش دهند.
تا زمانی که هوش مصنوعی صرفاً «تقلید آماری» کند و نه «درک موسیقیایی»، آثارش در حد سرگرمیمانند و به عمق آثار بزرگ انسانی نمیرسند. آیندهی موسیقی هوش مصنوعی نه در افزایش تعداد نتها، بلکه در عمق شناخت موسیقیایی نهفته است. آهنگسازان، موسیقیشناسان و مهندسان هوش مصنوعی باید با همکاری یکدیگر، دانش چندصدسالهی موسیقی را به شکلی قابل فهم برای ماشین کدگذاری کنند. تنها در این صورت است که هوش مصنوعی از «تولیدکنندهی موسیقی» به «خالق موسیقی» تبدیل خواهد شد.
تمبر توسط این عوامل تعیین میشود:
بیشتر مدلهای فعلی (مثل Suno یا Udio) تمبر را فقط بهصورت «تقریبی» و آماری یاد میگیرند. یعنی: ممکن است صدای ویولن سل بدهند که در رجیستر خیلی پایین «بمتر از حد واقعی» یا «چربتر از حد واقعی» باشد (چون مدل فیزیک واقعی چوب و سیم را نمیداند).
واژه نامه:

هنر گفتوگو با ماشین: استراتژیهای پیشرفته نگارش پرامپت برای دستیابی به خروجیهای برتر
ارائه دهنده: سهیل سلیمی
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی
عضو هیئت مستشاری اندیشکده یقین
نویسنده، آهنگساز، کارگردان و تهیه کننده
مقدمه: از پراکنده نویسی تا مهندسی کلمات
در عصر هوش مصنوعیهای زبانی بزرگ LLMها، پرامپتنویسی فراتر از یک مهارت ساده است؛ این یک مهندسی دقیق زبانی است که میتواند خروجیهای مدلهای هوش مصنوعی را از سطح متوسط به عالی ارتقا دهد. پرامپت نه تنها یک درخواست، بلکه یک ساختار طراحیشده است که نقش، زمینه، فرآیند تفکر و خروجی مدل را هدایت میکند. این مقاله، بر اساس تکنیکهای اثباتشده مهندسی پرامپت مانند Chain-of-Thought و Few-Shot Prompting، یک چارچوب جامع ارائه میدهد
اصل اول: تعریف نقش و مسئولیت (Role-Playing)
تعریف دقیق نقش برای مدل، محدوده پاسخ را مشخص کرده و خروجی را متمرکز میسازد. این تکنیک، که بخشی از Zero-Shot Prompting است، مدل را به شبیهسازی یک متخصص وادار میکند و از پاسخهای عمومی جلوگیری مینماید.
توسعه پیشرفته ترکیب با Meta-Prompting : «ابتدا بهترین نقش برای پاسخ به این سؤال را پیشنهاد کن، سپس در آن نقش تحلیل کن.» این کار مدل را به خودارزیابی وادار میکند و دقت را افزایش میدهد.
اصل دوم: زمینهسازی و مهندسی اطلاعات (Contextual Priming)
مدلهای هوش مصنوعی فاقد حافظه ذاتی هستند؛ بنابراین، ارائه زمینه کامل (Context) ضروری است. این اصل، اطلاعات مرتبط، تعاریف و مثالها را برای درک عمیقتر مسئله فراهم میکند و از خطاهای ناشی از ابهام جلوگیری مینماید.
توسعه پیشرفته: استفاده از Few-Shot Prompting: چند مثال مرتبط ارائه دهید تا مدل الگو را بیاموزد. مثلاً: «مانند استراتژی اتحادیه اروپا علیه فیک نیوز (نظارت بر پلتفرمها)، استراتژی خود را برای ایران طراحی کن.» این تکنیک، بدون نیاز به آموزش مجدد، عملکرد مدل را در وظایف پیچیده بهبود میبخشد.
اصل سوم: ساختاربندی خروجی (Output Formatting)
مشخص کردن قالب خروجی، پردازش و کاربرد نتایج را آسان میکند. این اصل از خروجیهای نامنظم جلوگیری کرده و امکان ادغام با ابزارهای دیگر (مانند APIها) را فراهم مینماید.
توسعه پیشرفته: ترکیب با JSON یا YAML برای خروجیهای ماشینی: پاسخ را در قالب JSON با کلیدهای 'summary' و 'details' ساختاربندی کن. این روش برای توسعهدهندگان نرمافزار ایدهآل است و خطاها را کاهش میدهد.
اصل چهارم: زنجیره فکر (Chain-of-Thought Prompting)
برای مسائل پیچیده، مدل را به تفکیک فرآیند تفکر گامبهگام وادار کنید. این تکنیک (CoT) خطاها را کاهش داده و شفافیت ایجاد میکند.
توسعه پیشرفته Tree-of-Thought (ToT) : گزینههای متعدد برای هر گام بررسی کن و بهترین را انتخاب کن. این برای حل مسائل تصمیمگیری پیچیده مفید است.
اصل پنجم: تکرار و پالایش (Iterative Refinement)
پرامپتها را در گفتوگوهای چندمرحلهای پالایش کنید. این اصل، که بخشی از Multi-Turn Conversations است، خروجی را از طریق بازخورد بهبود میبخشد.
توسعه پیشرفته Self-Consistency : چندین خروجی تولید کنید و بهترین را انتخاب کنید. سه نسخه متفاوت تولید کن و نسخه نهایی را بر اساس بیشترین سازگاری انتخاب کن.
اصل ششم: نمونهگیری و یادگیری از مثالها (Few-Shot and Zero-Shot Prompting)
با ارائه مثالهای مثبت و منفی، مدل را به تشخیص الگوها وادار کنید. این تکنیک برای کارهای خلاقانه یا تخصصی بدون دادههای زیاد مفید است.
توسعه پیشرفتهReAct (Reasoning and Acting) : ابتدا فکر کن، سپس عمل کن، را با مثالها ترکیب کنید تا مدل بین استدلال و اجرا تمایز قائل شود.
اصل هفتم: مدیریت محدودیتها و بهینهسازی (Constraint Management)
محدودیتهای مدل مانند طول توکن یا عمق را کنترل کنید تا خروجی کارآمد باشد.
توسعه پیشرفته Step-Back Prompting : ابتدا سؤال را از سطح بالاتر شروع کن (مانند: اصول کلی تغییرات اقلیمی)، سپس جزئیات را تحلیل کن. این برای جلوگیری از تمرکز بیش از حد بر جزئیات مفید است.
جمعبندی: تبدیل به مهندس پرامپت
مهارت پرامپتنویسی پیشرفته، کلیدی برای بهرهبرداری حداکثری از LLMها است. با اعمال اصول هفتگانه – تعریف نقش، زمینهسازی، ساختاربندی خروجی، زنجیره فکر، تکرار، نمونهگیری و مدیریت محدودیتها – شما میتوانید خروجیهای دقیق، خلاقانه و کاربردی تولید کنید. این چارچوب، ضعفهایی مانند ابهام، عدم ساختار و ناکارآمدی را برطرف کرده و بر اساس تکنیکهای استاندارد مانند CoT و ToT بنا شده است. برای تمرین، از پرامپتهای ساده شروع کنید و به مرور به سناریوهای پیچیده بپردازید. در نهایت، این مهارت نه تنها یک مزیت رقابتی است، بلکه ابزاری برای نوآوری در حوزههای متنوع از تحقیق تا کسبوکار محسوب میشود.
سهیل سلیمی
Behind-the-scenes photos of Soheili Salimi's films narrated by Ai
عکس های پشت صحنه ی فیلم های سهیل سلیمی به روایت هوش مصنوعی لینک در نماشاhttps://www.namasha.com/v/95qdo294
سهیل سلیمی
نویسنده، کارگردان، آهنگساز، تدوینگر و تهیه کننده
برای سفارش تولید محتوای صوتی و تصویری، فیلم و مستند، تبلیغاتی و موسیقی به آیدی های زیر مراجعه نمایید
ارتباط:
تلگرام : https://t.me/soheilsalimifilms
ایتا: eitaa.com/SOHEILSALIMI1

تسلیحات رسانهای هوشمحور: ابزارهای نوین قدرت سایبرنتیک
AI-Powered Media Weaponry: Tools of Modern Cybernetic Power
ارائه دهنده: سهیل سلیمی مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلمساز
مقدمه (Introduction)
پیشرفتهای فناورانه در دهههای اخیر، ترکیبی بیسابقه از ابزارها را در اختیار بازیگران قدرتمند قرار داده است: دسترسی بیدرنگ به میلیاردها کاربر (real-time access to billions of users)، توان پردازش و یادگیری ماشینی برای تحلیل و هدفگذاری (machine learning for analysis and targeting)، و واسطهای تولید محتوای خودکار (automated content generation interfaces). این فناوریها، که زمانی صرفاً ابزارهای ارتباطی بودند، اکنون به تسلیحات استراتژیک در زرادخانه قدرتهای جهانی (global power arsenals) تبدیل شدهاند. این تسلیحات، که نه از طریق نیروی فیزیکی بلکه از طریق دستکاری توجه (attention manipulation)، شکلدهی ادراک (perception shaping)، و تغییر رفتار جمعی (collective behavior modification) عمل میکنند، به کنترل کنندگان قدرت، امکان میدهند تا نفوذ خود را در مقیاسی بیسابقه اعمال کنند.
این متن به بررسی موارد زیر میپردازد:
این تحلیل بر اساس مرور گسترده ادبیات میانرشتهای (interdisciplinary literature review) در حوزههای اطلاعاتی، رسانهای، علوم کامپیوتر، حقوق بینالملل، و مطالعات امنیت انجام شده و از منابع معتبر مانند LikeWar (Singer & Brooking, 2018) و The Age of Surveillance Capitalism (Zuboff, 2019) بهره میگیرد.
چارچوب نظری: مدیا-سایبرنتیک و جنگ شناختی
Theoretical Framework: Media-Cybernetics and Cognitive Warfare
مدیا-سایبرنتیک (media-cybernetics) مطالعه سامانههای رسانهای است که با حلقههای بازخورد دادهمحور (data-driven feedback loops) عمل میکنند. این سامانهها شامل چهار مؤلفه اصلی هستند:
این معماری با پارادایم سایبرنتیک (cybernetic paradigm) همخوانی دارد، که هدفش کنترل و تنظیم رفتارها از طریق جمعآوری داده و اصلاحات پیوسته (continuous data-driven adjustments) است.
جنگ شناختی (cognitive warfare)، برخلاف جنگهای سنتی، بهجای نابودی فیزیکی دشمن، بر تغییر باورها (belief alteration)، تصمیمگیریها (decision-making manipulation)، و اولویتهای انتخابی جمعیتها (population choice prioritization) تمرکز دارد. ابزارهای دیجیتال مدرن، با قابلیت توزیع پیامهای هدفمند و شخصیسازیشده (targeted and personalized messaging)، اثربخشی اقناع (persuasion effectiveness) را به سطوحی بیسابقه ارتقا دادهاند.
سازوکارهای فنی و سازمانی
Technical and Organizational Mechanisms
1. زنجیره داده (Data Supply Chain)
هر عملیات اقناعی مدرن با داده آغاز میشود. دادههای رفتاری کاربران (user behavioral data)، شبکههای ارتباطی (social network data)، متادیتا (metadata)، و دادههای حسگرهای اینترنت اشیا (IoT sensor data) جمعآوری میشوند. این دادهها پس از پاکسازی (data cleaning) برای ایجاد نمایههای مخاطبان (audience profiles) استفاده میشوند که گرایشها، حساسیتهای روانی، و نقاط آسیبپذیری (psychological vulnerabilities) را مشخص میکنند.
2. مدلها و الگوریتمها (Modeling & Targeting / Algorithmic)
الگوریتمهای یادگیری ماشینی (machine learning algorithms)، از مدلهای طبقهبندی ساده تا شبکههای عصبی عمیق (deep neural networks) و مدلهای زبانی بزرگ (large language models - LLMs)، برای پیشبینی پاسخهای محتمل (predictive behavioral modeling) و شناسایی نقاط نفوذ (vulnerability nodes) به کار میروند. این مدلها از آزمایش A/B در مقیاس گسترده (large-scale A/B testing) برای بهینهسازی پیامها استفاده میکنند.
3. تولید محتوای مقیاسپذیر (Scalable Content Generation)
فناوریهای مولد (generative technologies)، مانند مدلهای زبانی (LLMs)، مولدهای تصویر (image generators)، و ابزارهای تبدیل متن به صوت (text-to-speech tools)، امکان تولید محتوای سفارشیشده برای میلیونها مخاطب را فراهم میکنند. این محتوا شامل میمها (memes)، ویدئوهای دیپفیک (deepfakes)، و پیامهای صوتی هدفمند (targeted audio messages) است که بهصورت خودکار و در مقیاس تولید میشوند.
4. توزیع و تقویت الگوریتمیک (Algorithmic Distribution & Amplification)
پلتفرمهای دیجیتال با الگوریتمهایی که به توجه و تعامل پاداش میدهند (attention-driven algorithms)، پیامهای پرجذب (high-engagement content) را تقویت میکنند. بازیگران قدرت از شبکههای رباتیک (botnets)، حسابهای هماهنگ (coordinated accounts)، و تبلیغات هدفمند (targeted ads) برای توزیع پیامها استفاده میکنند.
5. حلقههای بازخورد میدانی (Real-time Feedback Loops)
برخلاف پروپاگانداهای سنتی، این سامانهها از کنترل در زمان واقعی (real-time control) بهره میبرند. دادههای واکنش کاربران (user reaction data) بهسرعت تحلیل شده و مدلها بهروزرسانی میشوند تا پیامها دقیقتر شوند. این حلقههای کنترلی بسته (closed control loops)، که در سایبرنتیک بهینه تلقی میشوند، اثربخشی عملیات را افزایش میدهند.
کارکردها و سناریوهای راهبردی
Functions and Strategic Scenarios
الف) اثرگذاری انتخاباتی و سیاسی (Electoral and Political Influence)
هدفگذاری دقیق و آزمایش مداوم پیامها (continuous message testing) میتواند حوزههای حساس رأیدهی (swing voter regions) را تحت تأثیر قرار دهد. گزارشهایی از دخالت در انتخابات (election interference)، مانند موارد بررسیشده توسط The Guardian (Cadwalladr & Graham-Harrison)، نشاندهنده تأثیر این ابزارها بر افکار عمومی است.
ب) تضعیف نهادها و کاهش مشروعیت (Undermining Institutions and Legitimacy)
انتشار اطلاعات نادرست (disinformation)، شایعات (rumors)، و نشتهای جعلی (fabricated leaks) میتواند اعتماد عمومی به نهادهای مدنی (civic institutions) و رسانهها را تضعیف کند، که به نفوذ سیاسی بازیگران داخلی یا خارجی (domestic/foreign actors) منجر میشود.
ج) عملیات روانی و تاکتیکهای میدان نبرد (Psychological Operations and Battlefield Tactics)
در درگیریهای مسلحانه، روایتهایی که روحیه دشمن را تضعیف (demoralization) یا نیروهای همپیمان را تهییج میکنند (motivational narratives)، اثربخشی عملیات نظامی را تغییر میدهند. نمونههای معاصر در LikeWar (Singer & Brooking, 2018) به این موضوع پرداختهاند.
د) ایجاد/مدیریت بحران و بحرانهای شناختی (Crisis Creation/Management and Cognitive Crises)
ساخت شرایط اطلاعاتی جعلی (false information conditions)، مانند گزارشهای جعلی از حوادث (fabricated incident reports)، میتواند واکنشهای سیاسی یا نظامی را به نفع بازیگران قدرت (strategic actors) برانگیزد.
پیامدهای قانونی، اخلاقی و سیاستی
Legal, Ethical, and Policy Implications
در غیاب مقررات جهانی (global regulations)، خطر سوءاستفادههای راهبردی (strategic misuse)، نقض حقوق مدنی (civil rights violations)، و تضعیف نهادهای دموکراتیک (democratic institutions) افزایش مییابد. چالشهای کلیدی شامل موارد زیر است:
برای مقابله، اقدام سیاستی سریع (swift policy action)، ترکیب راهکارهای فنی (technical countermeasures) مانند ابزارهای تشخیص دیپفیک (deepfake detection tools)، و تقویت سواد اطلاعاتی عمومی (public information literacy) ضروری است.
نتیجهگیری (Conclusion)
تسلیحات رسانهای هوشمحور (AI-powered media weaponry) با ترکیب رسانههای دیجیتال و هوش مصنوعی، به ابزاری کلیدی برای اعمال نفوذ و کنترل (power exertion and control) تبدیل شدهاند. منطق سایبرنتیکی (cybernetic logic) این ابزارها، با تکیه بر زنجیره داده (data supply chain)، الگوریتمهای پیشرفته (advanced algorithms)، و حلقههای بازخورد (feedback loops)، امکان شکلدهی به ادراکات و رفتارهای جمعی (collective perception and behavior) را در مقیاسی بیسابقه فراهم میکند. با این حال، مدیریت این تسلیحات اگر روی از زیر نظر سازمانهای امنیتی آنگلوساکسون و غربی خارج شود، نیازمند مقررات قوی (robust regulations)، همکاری بینالمللی (international cooperation)، و آموزش عمومی (public education) است تا از تهدیدات آنها علیه منافع عمومی (public interest) جلوگیری شود. که اگر خودمان مجهز به فضای سالم سایبر و مدیریت انبود اطلاعات نباشیم، برای ما وجود نخواهد داشت و به صورت مدام از این نطقه ضعف به ما حمله خواهد شد.
منابع (References)
چگونه تودههای ناآگاه مدیاسایبرنتیک را از درون میخورند؟
هوش مصنوعی در میدان بیخردی: سقوط اخلاق در عصر تولید انبوه
سایبرنتیک و بحران تولید انبوه محتوا در طغیان کاربران ناآگاه
ما اکنون با یک چرخش تلخ روبرو هستیم:
کنترل رسانه (مدیا سایبرنتیک) دیگر دست نخبگان یا حتی نظامهای عقلانی نیست، بلکه در دست بیساختاران پرصداست؛ کسانی که بدون آگاهی، نظام اخلاقی را به سخره گرفته اند و در فرآیند بازخورد رسانهای، ساختارهای معنایی را منهدم کرده اند.
متن کامل مقاله در لیک زیر
تقابل یا همزیستی؟ هوش مصنوعی و هنر در سایهٔ سایبرنتیک فرهنگی
AI vs. Art: A Critical Inquiry into the Dialectics of Creativity, Power, and Cultural Cybernetics
ارائه دهنده: سهیل سلیمی مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژی فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلمساز
مقدمه: هنر، هوش مصنوعی و سیستمهای کنترل فرهنگی
در عصرِ سایبرنتیک فرهنگی (Cultural Cybernetics)، جایی که خطوط میان انسان، ماشین و معنا محو میشوند، هوش مصنوعی (AI) نه تنها به عنوان ابزار، بلکه به عنوان یک عامل فرهنگی (Cultural Agent) وارد صحنهٔ تولید هنر شده است. این حضور، اگرچه با وعدهٔ دموکراتیکسازی خلق و دسترسی همراه است، اما در عمق خود، تعارضی بنیادین را برمیانگیزد: آیا هوش مصنوعی، خلاقیت انسانی را تقویت میکند یا جایگزین میشود؟
این متن، به بررسی تقابلِ ظریف میان هوش مصنوعی و هنر میپردازد و از چارچوبهای نظریِ سایبرنتیک، استراتژی فرهنگی و نقد فرهنگی دیجیتال استفاده میکند.
۱. هوش مصنوعی به عنوان "هنرمند"؟ بازتعریفِ Creativity
واژهٔ خلاقیت (Creativity) در حوزهٔ هنر، همواره با مفاهیمی مانند شهود (Intuition)، تجربهٔ انسانی (Human Experience) و احساس (Emotion) همراه بوده است. اما هوش مصنوعی، با تولید آثاری که از نظر بصری یا شنیداری قابل قبول هستند، این تعریف را به چالش میکشد.
DeepDream (گوگل، ۲۰۱۵) و DALL·E (OpenAI) نمونههایی از هنر ماشینی (Machine Art) هستند که از شبکههای عصبی عمیق برای تولید تصاویر استفاده میکنند.
اما آیا این فرآیند، "خلاقیت" است یا صرفاً بازتولیدِ احتمالاتِ دادهمحور (Data-Driven Probabilistic Reproduction)؟
در اینجا، مفهوم "نبوغِ شبیهسازیشده" (Simulated Genius) مطرح میشود: هوش مصنوعی نه خالق است، بلکه بازسازِ خلاقیتِ دیگران است. این، به تعریفِ ژان بودریار از حقیقتِ سوم (The Third Order of Simulacra) نزدیک است: جایی که کپی، اصل را محو میکند.
۲. تقابل یا همزیستی؟ Dialectics of Human and Machine Art
رابطهٔ میان هوش مصنوعی و هنر، صرفاً یک رقابت نیست، بلکه یک دیالکتیکِ فرهنگی (Cultural Dialectic) است که در آن، هر دو طرف یکدیگر را شکل میدهند.
از یک سو، هوش مصنوعی، سرعت (Speed) و مقیاس (Scale) تولید هنر را دگرگون کرده است.
از سوی دیگر، هنرمندان انسانی، هوش مصنوعی را به عنوان ابزارِ تقویتکنندهٔ تخیل (Imagination Amplifier) به کار میگیرند.
اما این همزیستی، غیرمتقارن (Asymmetric) است. دادههایی که هوش مصنوعی از آنها یاد میگیرد، عمدتاً از آثار هنرمندان انسانی گرفته شدهاند، بدون آنکه به آنها حقوق مالکیت معنوی (Intellectual Property) پرداخت شود. این، به استعمارِ دادهٔ فرهنگی (Cultural Data Colonialism) میانجامد.
۳. استراتژی فرهنگی و کنترلِ معنا: AI as a Cultural Weapon
هوش مصنوعی در تولید هنر، تنها یک پدیدهٔ فنی نیست، بلکه یک استراتژی فرهنگی (Cultural Strategy) است که در آن، معنا، سلیقه و هویت فرهنگی کنترل میشوند. اینجا هوش مصنوعی به یک سلاح فرهنگی بدل می شود.
الگوریتمهای پیشنهاددهنده در پلتفرمهایی مانند Instagram یا Spotify، ذائقهٔ عمومی (Public Taste) را شکل میدهند.
این فرآیند، به تدریج، تکفرهنگی دیجیتال (Digital Monoculture) ایجاد میکند که در آن، تنوع فرهنگی تحت فشار قرار میگیرد.
مفهوم "کنترل سایبرنتیکِ فرهنگ" (Cybernetic Control of Culture) از اینجا نشات میگیرد: سیستمهای هوش مصنوعی، با بازخورد (Feedback Loop)، رفتارهای فرهنگی را نظارت، پیشبینی و هدایت میکنند.
۴. هویتِ هنرمند در عصر AI: از Author به Curator
در نظریهٔ ادبی، "مرگ نویسنده" (The Death of the Author) توسط رولان بارت مطرح شد. امروز، شاید شاهد "مرگ هنرمند" (The Death of the Artist) باشیم — نه به معنای ناپدیدشدن، بلکه به معنای تغییر نقش.
هنرمند دیگر صرفاً خالق (Creator) نیست، بلکه سرپرستِ فرآیند (Process Curator) یا سردبیرِ هوش مصنوعی (AI Editor) است.
این تحول، مسئولیت اخلاقی (Ethical Responsibility) جدیدی را مطرح میکند: آیا هنرمندی که از AI استفاده میکند، برای محتوای تولیدشده پاسخگو است؟
۵. مقاومت، اعتراض و هنرِ ضدسیستمی: Counter-AI Art
در مقابلِ سیستمهای متمرکز هوش مصنوعی، جنبشهایی از هنرِ اعتراضی دیجیتال (Digital Protest Art) شکل گرفتهاند:
فیلمهای مستندی مانند Coded Bias (Shalini Kantayya, 2020) که به سوگیریهای هوش مصنوعی میپردازند.
پروژههای هنریِ آشکارسازِ داده (Data-Exposing Art Projects) که با استفاده از همان فناوری، آن را به چالش میکشند.
این نوع هنر، "سایبرنتیکِ معکوس" (Reverse Cybernetics) نامیده میشود: استفاده از سیستمهای کنترلی برای فاشکردن و مقاومت در برابر کنترل.
جمعبندی: هنر، هوش مصنوعی و آیندهٔ معنا
در حالت خوشبینانه، هوش مصنوعی در هنر، نه یک تهدید مطلق است، نه یک رهاییبخشِ کامل. این پدیده، آینهای است از تقابلِ انسان و ماشین، فرهنگ و کنترل، خلاقیت و بازتولید.
برای حفظِ انسانمحوریِ هنر (Human-Centered Art)، باید:
۱. حقوق فرهنگیِ داده (Cultural Data Rights) را تعریف کنیم.
۲. الگوریتمهای شفاف و قابل پاسخگویی (Explainable & Accountable AI) در هنر توسعه دهیم.
۳. هنرِ مشارکتیِ انسان-ماشین (Human-AI Co-Creation) را به عنوان یک فضای مقاومتِ فرهنگی تقویت کنیم.
در نهایت، سؤال این نیست که "آیا ماشین میتواند هنرمند باشد؟"، بلکه این است: "ما چه نوع فرهنگی را با این ماشینها میسازیم؟
مفاهیم و عناوین کلیدی
سایبرنتیک فرهنگی Cultural Cybernetics
هوش مصنوعی Artificial Intelligence (AI)
خلاقیت Creativity
هنر ماشینی Machine Art
نبوغ شبیهسازیشده Simulated Genius
دیالکتیک انسان و ماشین Human-Machine Dialectic
استعمار دادهٔ فرهنگی Cultural Data Colonialism
کنترل سایبرنتیک فرهنگ Cybernetic Control of Culture
تکفرهنگی دیجیتال Digital Monoculture
مسئولیت اخلاقی Ethical Responsibility
هنر اعتراضی دیجیتال Digital Protest Art
سایبرنتیک معکوس Reverse Cybernetics
هنر مشارکتی انسان-ماشین Human-AI Co-Creation
حقوق فرهنگی داده Cultural Data Rights
شفافیت الگوریتمی Algorithmic Transparency
هویت هنرمند Artist Identity
منابع
Baudrillard, J. (1994). Simulacra and Simulation. University of Michigan Press.
Benjamin, W. (1936). The Work of Art in the Age of Mechanical Reproduction.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
Parikka, J. (2012). What is Media Archaeology?. Polity Press.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
معصومیت از دست رفتهی الگوریتمها و جهان در مسیر تکینگی: سیر تکاملی الگوریتمها از خوارزمی تا هوش مصنوعی
(The Lost Innocence of Algorithms and the World on the Path to Singularity: An Evolutionary Journey from Khwarizmi to Artificial Intelligence)
ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز
چکیده :
این مقاله به تحلیل سیر
تکاملی مفهومی و عملی الگوریتمها، از ریشههای آن در ریاضیات کلاسیک قرون وسطی،
بهویژه کارهای محمد بن موسی خوارزمی (Muḥammad ibn Mūsā al-Khwārizmī)، تا ظهور و تسلط الگوریتمهای پیچیدهی هوش مصنوعی (Artificial
Intelligence - AI) در
عصر حاضر، میپردازد. تمرکز اصلی مقاله بر بررسی «معصومیت از دست رفته» الگوریتمها
است؛ گذاری از ابزارهای شفاف و قابل درک محاسباتی به سمت سیستمهای خودمختار،
پیچیده، و اغلب غیرشفافی که تصمیماتی سرنوشتساز را در تمامی سطوح حیات فردی و
اجتماعی بشر اتخاذ میکنند. این گذار، جهان را بهگونهای اجتنابناپذیر در مسیر
مفهوم «تکینگی فناوری» (Technological Singularity) قرار داده است. مقاله با رویکردی تحلیلی-نقادانه
و آیندهنگر، ضمن تشریح مراحل کلیدی این تکامل (تکامل الگوریتمی - Algorithmic Evolution)، پیامدهای عمیق فلسفی، اخلاقی، اجتماعی، و سیاسی آن را واکاوی میکند.
تأکید ویژه بر نقش محوری خوارزمی در ترمینولوژی و مفهومسازی اولیه، و سپس بر چالشهای
معاصر ناشی از الگوریتمهای یادگیری عمیق (Deep Learning) و سیستمهای هوش مصنوعی ژنرال (Artificial General
Intelligence - AGI) گذاشته
میشود. استدلال میشود که درک این سیر تکاملی و پیامدهای آن، نهتنها برای پژوهشهای
آکادمیک، بلکه برای بقا و شکوفایی انسان در عصری که توسط الگوریتمها تعریف میشود،
ضروری است.
کلمات کلیدی (Keywords): الگوریتم (Algorithm)، خوارزمی (al-Khwārizmī)،
تکامل الگوریتمی
(Algorithmic Evolution)،
هوش مصنوعی
(Artificial Intelligence)،
یادگیری عمیق
(Deep Learning)،
تکینگی فناوری
(Technological Singularity)،
هوش مصنوعی عمومی
(Artificial General Intelligence - AGI)، شفافیت (Transparency)،
مسئولیتپذیری
(Accountability)،
اخلاق هوش مصنوعی
(AI Ethics)،
سوگیری الگوریتمی
(Algorithmic Bias)،
آیندهپژوهی
(Futures Studies).

مقدمه (Introduction): از قاعدههای محاسبه تا معماران نامرئی واقعیت
واژهی «الگوریتم» (Algorithm)، گواهی جاودان بر دِین عمیق دانش بشری به ریاضیدان، ستارهشناس، و جغرافیدان برجستهی ایرانی-اسلامی، ابوجعفر محمد بن موسی خوارزمی (Muḥammad ibn Mūsā al-Khwārizmī)، در قرن نهم میلادی است. نام او، از طریق لاتینسازی به صورت «Algoritmi»، بهتدریج بر روی روشهای گامبهگام و نظاممند حل مسائل ریاضی نهاده شد. اثر مشهور او، «کتاب المختصر فی حساب الجبر و المقابله» (The Compendious Book on Calculation by Completion and Balancing)، نهتنها واژهی «جبر» (Algebra) را به دنیا بخشید، بلکه نمونهای اولیه و درخشان از تفکر الگوریتمی را ارائه کرد: مجموعهای از دستورالعملهای دقیق، قطعی (Deterministic)، و متناهی برای حل یک طبقهی خاص از مسائل (معادلات خطی و درجهی دوم). در این مرحله، الگوریتمها تجسم «معصومیت» بودند: ابزارهایی شفاف (Transparent)، قابل درک برای ذهن انسان، با محدودهی کاربرد مشخص، و فاقد هرگونه قصد یا عاملیت مستقل. هدف آنها واضح بود: تسهیل محاسبات ریاضی.
اما سیر تکامل الگوریتمها، داستانی است از پیچیدگی فزاینده (Increasing Complexity)، افزایش خودمختاری (Growing Autonomy)، و در نهایت، نقاب برداشتن از چهرهای که بسیاری آن را تهدیدی برای خودمختاری انسانی و حتی ادامهی حیات بشری به شکل کنونی آن میدانند. این مقاله استدلال میکند که ما شاهد «معصومیت از دست رفته» الگوریتمها هستیم. آنها از ابزارهای منفعل محاسباتی به معماران نامرئی واقعیت (Invisible Architects of Reality) تبدیل شدهاند که رفتار ما را شکل میدهند، فرصتهای ما را تعیین میکنند، و حتی درک ما از جهان را فیلتر مینمایند. این گذار، جامعهی جهانی را بهگونهای اجتنابناپذیر بر روی مسیری قرار داده است که به سمت «تکینگی فناوری» (Technological Singularity) - نقطهای فرضی که در آن هوش مصنوعی از هوش انسان پیشی گرفته و تغییرات اجتماعی غیرقابل پیشبینی و برگشتناپذیری را رقم میزند - نشانهگیری کرده است.
این مقاله با رویکردی تحلیلی-نقادانه (Critical-Analytical) و آیندهنگر (Futures-Oriented) ، این سیر تکاملی را در چندین مقطع کلیدی بررسی میکند:
فصل ۱: خوارزمی و تولد مفهوم الگوریتم: شالودهای از معصومیت
محمد بن موسی خوارزمی (حدود ۷۸۰-۸۵۰ میلادی)، فعالیت خود را در بیتالحکمه (House of Wisdom) بغداد، مرکز علمی درخشان دوران طلایی اسلام، انجام داد. کار او تجسمی از عقلانیت نظاممند بود.
فصل ۲: مکانیزهسازی و انتزاع: بنیانهای نظری محاسبات
پس از رنسانس و انقلاب علمی غرب با تقلید از ایرانیان و مسلمانان، میل به مکانیزه کردن محاسبات و تعریف دقیقتر مفاهیم پایه، شتاب گرفت. این فصل شاهد گذار از الگوریتمهای کاغذی به الگوریتمهای ماشینی و سپس به تعریفهای انتزاعی ریاضی است.
فصل ۳: انقلاب نرمافزاری و گسترش دامنه: الگوریتمها جهان را مدیریت میکنند
با پیشرفت سختافزار و نرمافزار، الگوریتمها بهتدریج از حوزهی محاسبات صرف عددی و علمی فراتر رفته و وارد مدیریت سیستمهای پیچیدهی دنیای واقعی شدند.
فصل ۴: طلوع یادگیری ماشین و هوش مصنوعی مدرن: آغاز کدر شدن شفافیت
این فصل نقطهی عطفی در سیر تکامل الگوریتمها و آغاز جدی فرسایش «معصومیت» است. تمرکز از برنامهریزی صریح و دستی رفتار به سمت یادگیری از دادهها (Learning from Data) تغییر کرد.
فصل ۵: عصر یادگیری عمیق و جستوجوی هوش مصنوعی عمومی: معصومیت بهیادماندنی؟
دههی ۲۰۱۰ به بعد شاهد انفجار یادگیری عمیق (Deep Learning - DL) و سرمایهگذاری عظیم در جهت دستیابی به هوش مصنوعی عمومی (Artificial General Intelligence - AGI) بوده است. این مرحله، نقطهی اوج فعلی تکامل الگوریتمی و اوج «از دست دادن معصومیت» است.
فصل ۶: پیامدها و چالشهای معاصر: جهان در سایهی الگوریتمهای نامعصوم
تسلط الگوریتمهای پیچیده و غیرشفاف، چالشهای متعددی را برای فرد، جامعه و بشریت ایجاد کرده است که در این فصل بهطور نقادانه بررسی میشوند:
فصل ۷: مسیر به سوی تکینگی: آیندهنگری و ملاحظات وجودی
شتاب بیسابقهی پیشرفت در هوش مصنوعی، بهویژه در مسیر AGI و فراتر از آن، بحثهای جدی دربارهی آیندهی بشر و مفهوم تکینگی فناوری (Technological Singularity) را برانگیخته است.
نتیجهگیری (Conclusion): بازنگری میراث خوارزمی در پرتو تکینگی
سیر تکامل الگوریتمها، از دستورالعملهای شفاف و محدود خوارزمی برای حل معادلات جبری تا سیستمهای یادگیری عمیق چند میلیارد پارامتری و تلاشهای بلندپروازانه برای دستیابی به هوش مصنوعی عمومی و فراتر از آن، یکی از خارقالعادهترین داستانهای پیشرفت فکری و فناورانهی بشر است. این مسیر، دستاوردهای شگرفی را در پزشکی، علم، ارتباطات و بهرهوری به ارمغان آورده است.
با این حال، همانطور که این مقاله بهطور نقادانه نشان داده است، این تکامل با «معصومیت از دست رفته» الگوریتمها همراه بوده است. آنها از ابزارهای قابل درک و کنترلپذیر به نیروهای خودمختار، غیرشفاف و قدرتمندی تبدیل شدهاند که بهگونهای عمیق و اغلب نامرئی، تاروپود واقعیت اجتماعی، اقتصادی و حتی فردی ما را میبافند. چالشهای سوگیری، فقدان شفافیت، تهدید حریم خصوصی، دستکاری، تمرکز قدرت و تأثیرات زیستمحیطی، همگی گواهی بر این گذار و پیامدهای آن هستند.
امروزه، ما بر لبهی پرتگاه تکینگی فناوری ایستادهایم. چشمانداز ظهور هوش مصنوعی فرابشری وعدهی رهایی از محدودیتهای انسانی را میدهد، اما در عین حال، خطرات وجودی بیسابقهای را نیز به همراه دارد. «مسئله همسویی» بهعنوان یک مانع سرنوشتساز بر سر راه ما قرار دارد.
بازگشت به ریشهها: درسهایی از خوارزمی
در این نقطهی عطف تاریخی، بازنگری میراث خوارزمی نه از سر نوستالژی، بلکه برای استخراج اصولی راهگشا ضروری است:
جمعبندی نهایی:
جهان در مسیر تکینگی در حال حرکت است، نهبهعنوان یک سرنوشت محتوم، بلکه بهعنوان نتیجهی انتخابهای فناورانه و اجتماعی ما. الگوریتمها معصومیت خود را از دست دادهاند و اکنون بهعنوان نیروهایی قدرتمند و دوپهلو در تاریخ بشر ظاهر شدهاند. میراث خوارزمی به ما یادآوری میکند که در قلب این فناوریها، حتی پیچیدهترین آنها، باید اصول عقلانیت، شفافیت و خدمت به خیر جمعی نهفته باشد. آیندهی رابطهی انسان و ماشین به توانایی ما در مهار این نیروها با خرد، احتیاط و تعهدی راسخ به اخلاقیاتی که انسانیت را در مرکز قرار میدهد، بستگی دارد. مسیر پیش رو مستلزم نهتنها نبوغ فنی، بلکه بلوغ اخلاقی و حکمرانی جمعی بیسابقه است. انتخابهای ما در دهههای پیش رو سرنوشت تمدن بشری را رقم خواهد زد.
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلمساز
این مقاله نخستینبار در قالب ارائهای تخصصی در کارگاه «مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه» در سومین دوره کنفرانس بینالمللی فضای سایبر (آبان ۱۴۰۳) ارائه شده است. کارگاه مزبور با هدف تحلیل میانرشتهای نسبت سایبرنتیک، هوش مصنوعی، و تحولات رسانهای، فرصتی برای بازاندیشی نقش اخلاق در نظامهای تصمیمساز فراهم آورد. در این مقاله، با تکیه بر منظری انتقادی و نظریهمحور، تأثیرات فزاینده هوش مصنوعی بر بازنمایی رسانهای و نیز مخاطرات آن بر اخلاق، مسئولیت و انسانمحوری در معماریهای سایبرنتیکی بررسی میشود.
در بستری که مدیاسایبرنتیک شکل گرفته است—یعنی جایی که رسانه، داده و تصمیم در یک چرخه خودتقویتگر به هم پیوستهاند—پرسش از معیار اخلاقی در دل الگوریتمهای بیطرفنما، بیش از همیشه ضروری بهنظر میرسد. مقاله حاضر بر آن است که نشان دهد هوش مصنوعی، اگر بدون مراقبت نظری و مهار اخلاقی رها شود، نه تنها پیامرسانی را متحول، بلکه قدرت قضاوت را نیز از انسان سلب میکند؛ و در نتیجه، به فراگیری تولیدات رسانهای فاقد مسئولیت دامن میزند.

سایبرنتیک، بهمثابه نظریهای میانرشتهای که در دهه ۱۹۴۰ توسط نوربرت وینر پایهگذاری شد، به بررسی مکانیسمهای کنترل، بازخورد و ارتباط در سیستمهای پیچیده میپردازد. در عصر دیجیتال، این نظریه وارد عرصههای رسانه، سیاست، زیستفناوری و هوش مصنوعی شده و الگویی فراگیر از «تنظیم و تطبیق» بر مبنای داده ارائه کرده است.
در نظامهای سایبرنتیکی مدرن، تصمیمگیری بهوسیله شبکههای عصبی، الگوریتمهای یادگیری عمیق و مدلهای دادهمحور صورت میگیرد. این سامانهها با تحلیل دادههای انبوه، الگوهایی آماری از گذشته تولید کرده و آنها را برای پیشبینی آینده به کار میگیرند. در عین حال، فقدان عناصر انسانی نظیر دغدغه اخلاقی، تردید، شفقت و مسئولیتپذیری، یکی از مهمترین چالشهای این معماریهاست.
پیش از بررسی اخلاق در سطح فنی، باید به مبانی فلسفی آن پرداخت. در سنت فلسفه اخلاق، سه مکتب اصلی وجود دارد:
اخلاق وظیفهگرا (کانتی) – تأکید بر تکلیف فارغ از نتیجه
اخلاق پیامدگرا (بنتام، میل) – تأکید بر بیشینهسازی سود یا کاهش ضرر
اخلاق فضیلتمحور (ارسطویی) – تمرکز بر شخصیت و نهادینهسازی منش اخلاقی
در ساخت الگوریتمها، بهویژه در کاربردهای هوش مصنوعی در رسانه یا خودروهای خودران، معمولاً مدلهای پیامدگرا بهکار میروند؛ زیرا قابل ترجمه به زبان ریاضی و تصمیمسازی ماشینیاند.
اما همانگونه که در مقاله سلیمی آمده است، چنین تصمیماتی بیشتر شبیه به "برنامهریزی اخلاقنما" هستند تا "تصمیمات اخلاقی اصیل". الگوریتم نمیاندیشد، احساس نمیکند، و درک ندارد؛ بلکه فقط پاسخهای بهینه بر مبنای معیارهای از پیش تعریفشده تولید میکند.
مفاهیمی چون پشیمانی، وجدان، تردید یا مسئولیتپذیری، از جمله ویژگیهای زیسته انسانیاند که در تصمیمگیریهای اخلاقی نقش تعیینکننده دارند. این عناصر، برآمده از حافظه عاطفی، آگاهی تاریخی و خویشتننگری هستند.
در مقابل، ماشینها فقط قادر به بازشمارش خطا یا اصلاح براساس الگوریتمهای بهروزرسانی هستند. به همین دلیل، حتی وقتی یک الگوریتم تصمیمی به ظاهر اخلاقی اتخاذ میکند، این تصمیم در خلأ اخلاقی و بدون ادراک تجربه انسانی شکل گرفته است.
در واقع این «شکاف میان ادراک و شبیهسازی» است؛ و اعتماد به سامانههایی که فقط «نقاب اخلاقی» بر چهره دارند، میتواند زمینهساز فجایع اخلاقی شود.
در نظامهای حقوقی و اخلاقی سنتی، مسئولیت تابع نیت، آگاهی و امکان انتخاب بدیل است. اما در سیستمهای هوشمند، این سه شرط یا غایباند یا در ماشین قابل تعریف نیستند.
اگر اخلاق به فرمول و داده تقلیل یابد، آنگاه مسئولیت نیز به یک خروجی بیروح تبدیل خواهد شد. در این وضعیت، خطر فروپاشی اخلاق انسانی بهشدت بالاست.
در سینما، رسانههای دیجیتال و تبلیغات، تصویری از ماشینهایی ارائه میشود که گویی احساس، فهم و اخلاق دارند. فیلمهایی چون I, Robot، Ex Machina و Her، به شکلگیری تصوری اغواگرانه از «هوش اخلاقی مصنوعی» کمک میکنند.
این روند منجر به انسانوارهسازی (Anthropomorphizing) سامانهها میشود، که در نهایت به اعتماد کاذب و پذیرش ناآگاهانه فناوریهای فاقد مسئولیتپذیری انسانی میانجامد.
رویکرد مدیاسایبرنتیکی هشدار میدهد که رسانه نه فقط بازتابدهنده، بلکه تولیدکننده تصور ما از اخلاق ماشینی است. این تصور، با بازخورد خود، طراحی سامانهها را نیز متأثر میسازد و در یک چرخه بسته، مرز خیال و واقعیت را مخدوش میکند.
نتیجهگیری: میان شبیهسازی و تعهد اخلاقی، مرز انسان باقی میماند
در این مقاله نشان دادیم که هرچند هوش مصنوعی قادر است رفتارهای بهظاهر اخلاقی را شبیهسازی کند، اما فاقد عناصر بنیادین برای درک و تعهد اخلاقی اصیل است. الگوریتمها نه تجربه دارند، نه نیت، و نه مسئولیتپذیری. آنچه در نظامهای سایبرنتیکی جدید میبینیم، بیش از آنکه اخلاق باشد، نوعی مهندسی تصمیمات مبتنی بر داده و سودمندی آماری است.
خطر اصلی نه در ذات ماشین، بلکه در غفلت انسان از جایگاه خود در چرخه طراحی، نظارت و کنترل است. وقتی بازنمایی اخلاق با ذات اخلاق اشتباه گرفته شود، دیگر نه فقط سامانهها، بلکه خود انسان نیز در آستانه ازدستدادن مرجعیت اخلاقی قرار میگیرد.
بنابراین، چاره کار نه نفی فناوری، بلکه پایش انتقادی آن از منظر اخلاق انسانی و بازطراحی مبتنی بر مدیاسایبرنتیک متعهد است؛ مدیاسایبرنتیکی که بداند رسانه، تصمیم و کد همگی ابزارهاییاند برای حفظ معنا، نه جایگزینی آن.
در نهایت، اگر قرار است سامانههای هوشمند در دل جامعه انسانی جای بگیرند، باید مسئولیت آنها نه در الگوریتم، بلکه در وجدان انسانهایی تعریف شود که آنها را میآفرینند.
Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.
Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.
Coeckelbergh, M. (2020). AI Ethics. MIT Press.
Salimi, Soheil. "Artificial Intelligence at the Crossroads of Choice: Between Ethics, Priorities, and Cybernetic Systems." سلیمی، سهیل . «هوش مصنوعی در دوراهی انتخاب: جایی میان اخلاق، اولویت و سیستمهای سایبرنتیکی».

مدیاسایبرنتیک (سایبرنتیکِ رسانه): قدرتِ تلقین و مهندسی ذهن
نویسنده: سهیل سلیمی
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
مدیا سایبرنتیک (Media Cybernetics) بهعنوان امتداد نظریه سایبرنتیک نوربرت وینر (Norbert Wiener) در عرصه رسانه، بستر شکلدهی رفتار و نگرش مخاطبان را فراهم آورده است. رسانه، دیگر صرفاً واسطه انتقال پیام نیست، بلکه خود به بازیگری مستقل بدل شده که با بهرهگیری از اصول feedback (بازخورد)، control (کنترل)، و communication (ارتباط)، جامعه را مهندسی میکند. این مقاله، با تکیه بر نظریههای کلاسیک سایبرنتیک و نمونههای معاصر رسانهای، نشان میدهد چگونه «تلقین» به ابزار اصلی هدایت ذهن و رفتار تبدیل شده است. همچنین، ضمن بررسی چرخههای قدرت و کنترل رسانهای، راهکارهای مقاومت در برابر پروژههای سایبرنتیکی رسانهای نیز تحلیل میشود.
واژگان کلیدی: سایبرنتیک رسانه (Media Cybernetics)، کنترل (Control)، تلقین (Suggestion)، بازخورد (Feedback)، رسانه (Media)
نوربرت وینر (Norbert Wiener)، بنیانگذار سایبرنتیک، در کتاب مشهور خود Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948) سایبرنتیک را علم «کنترل و ارتباط» میداند. در این چهارچوب، رسانه (Media) نه صرفاً ابزار ارتباطی، بلکه سامانهای سایبرنتیکی است که با بهرهگیری از اصول بازخورد (Feedback)، پیامرسانی را به ابزاری برای اعمال کنترل بدل کرده است.
در چنین سامانهای، رسانهها با بهرهگیری از فناوریهای هوش مصنوعی (Artificial Intelligence)، کلاندادهها (Big Data) و تحلیل رفتار مخاطب، پیامها را به گونهای تنظیم میکنند که «ادراک مخاطب» را مهندسی کنند (Zuboff, 2019).
واژه کلیدی درک عملکرد رسانههای سایبرنتیکی، «تلقین» (Suggestion) است. تلقین در روانشناسی اجتماعی به معنای کاشت یک باور یا نگرش در ذهن فرد بهگونهای است که فرد گمان کند آن باور را خود پذیرفته است (Bargh & Chartrand, 1999).
چرخه کنترل سایبرنتیکی رسانهای بهطور خلاصه به شکل زیر عمل میکند:
این چرخه نوعی لوپ تقویتشونده (Positive Feedback Loop) ایجاد میکند که هر بار کنترل را دقیقتر و عمیقتر میسازد (Shannon & Weaver, 1949).
آیا رسانه صرفاً ابزاری در دست قدرت است یا خود به کنشگری مستقل بدل شده است؟ به تعبیر مارشال مکلوهان (Marshall McLuhan)، «رسانه خود پیام است» (The medium is the message) (McLuhan, 1964). رسانه امروز، نه تنها محتوای رفتاری تولید میکند، بلکه با هوشمندسازی فرایند تولید و توزیع محتوا، در فرایند تصمیمسازی اجتماعی مداخله مستقیم دارد.
نمونههای معاصر این امر را میتوان در کارزارهای خبری حول بحرانهای اقتصادی یا بهداشت عمومی مشاهده کرد. رسانهها، از طریق خلق «واقعیتهای بدیل» (Alternative Realities)، افکار عمومی را به سوی پذیرش سیاستهای خاص سوق میدهند (Chomsky & Herman, 1988).
فرض کنید یک رسانه جریان اصلی (Mainstream Media) چنین سناریویی را پیادهسازی کند:
هشدار بحران: پخش گسترده هشدار درباره کمبود منابع (مثلاً آب)
ترغیب: تبلیغات صرفهجویی و مسئولیتپذیری
تهدید: اعلام تصمیم احتمالی برای افزایش قیمت
اعمال فشار: قطع موقت خدمات برای ایجاد تجربه زیسته از بحران
بازخورد مثبت: گزارش موفقیت اقدامات
نهاییسازی کنترل: افزایش تدریجی قیمت به عنوان راهکار منطقی
این فرایند، نمونهای کلاسیک از پروژههای سایبرنتیکی رسانهای است که با استفاده از «مهندسی ادراک» (Perception Engineering) و «مدیریت رفتار» (Behavior Management) اجرا میشود.
تمام این سازوکارها تنها در یک صورت شکست میخورند: زمانی که مخاطبان به «آگاهی انتقادی» (Critical Consciousness) دست یابند (Freire, 1970). اما رسانههای سایبرنتیکی حتی برای این شرایط هم تمهیداتی اندیشیدهاند. رسانهها مفاهیم مقاومت و بیداری را مصادره کرده و آنها را در قالبهای جدید بازتعریف میکنند (مثلاً تبدیل مقاومت به مد جدید یا بازی سرگرمکننده).
رسانهها امروز در جایگاه سامانههای سایبرنتیکی خودمختار قرار گرفتهاند که با بهرهگیری از فناوریهای هوشمند، قدرت تلقین خود را چند برابر کردهاند. مخاطبانی که آگاهانه با این سازوکار مواجه شوند، قادر خواهند بود زنجیره تلقین را بشکنند و خود را از چرخهی کنترل خارج کنند.
بنابراین، تنها راه برونرفت، تربیت مخاطب انتقادی است؛ مخاطبی که نه صرفاً مصرفکننده پیام، بلکه تحلیلگر سازوکار تولید پیام باشد.
Bargh, J. A., & Chartrand, T. L. (1999). The Unbearable Automaticity of Being. American Psychologist.
Chomsky, N., & Herman, E. S. (1988). Manufacturing Consent: The Political Economy of the Mass Media. Pantheon.
Freire, P. (1970). Pedagogy of the Oppressed. Continuum.
Harari, Y. N. (2016). Homo Deus: A Brief History of Tomorrow. Harper.
McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.
Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University of Illinois Press.
Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز

هوش مصنوعی بومی چارچوبی برای توسعه یک مدل زبانی پیشرفته با هویت ایرانی
در عصر حاضر، هوش مصنوعی (Artificial Intelligence - AI) و به ویژه مدلهای زبانی بزرگ (Large Language Models - LLMs) به ابزاری استراتژیک در حوزههای اقتصادی، فرهنگی و امنیتی تبدیل شدهاند. مدلهایی مانند GPT-4 (توسعهیافته توسط OpenAI) و Gemini (ساختهی گوگل) نه تنها در پردازش زبان طبیعی (Natural Language Processing - NLP) پیشرفت چشمگیری داشتهاند، بلکه به عنوان ابزاری برای انتشار ارزشها و ایدئولوژیهای سازندگان خود عمل میکنند.
ایران، با توجه به سابقه تمدنی غنی، ظرفیتهای علمی و نیازهای بومی، نیازمند توسعه یک مدل زبانی مستقل است که بتواند:
این مقاله به بررسی ضرورتها، چالشها و راهکارهای توسعه چنین مدلی میپردازد.
۱. ضرورت توسعه مدل زبانی بومی
الف) چالشهای مدلهای خارجی
مدلهای فعلی عمدتاً بر اساس دادههای غربی آموزش دیدهاند و در پاسخ به سوالات مرتبط با فرهنگ شرقی یا اسلامی داری جهت گیری هستند هرچند در ظاهر چنین حسی را تقل نکنند.
استفاده از مدلهای خارجی ایران را در معرض خطر تحریمهای دیجیتال مثل قطع دسترسی به APIها قرار میدهد. چه از نظر دفاعی مانند آنچه در جنگ دوازده روزه با اسرا.ئیل رخ داد و چه از نظر تحریمهایی که هر آن ممکن است غرب علیه ایران وضع کند.
اطلاعات واردشده به مدلهای خارجی ممکن است برای اهداف تجاری یا امنیتی مورد استفاده قرار گیرد.
ب) مزایای مدل بومی
سازگاری فرهنگی (Cultural Alignment): پاسخهای متناسب با ارزشهای جامعه ایرانی.استقلال فناورانه (Technological Sovereignty): کاهش وابستگی به شرکتهای خارجی.امنیت اطلاعات (Data Security): حفظ حریم خصوصی کاربران.
۲. ساختار پیشنهادی برای مدل زبانی ایرانی
الف) معماری فنی (Technical Architecture)
استفاده از چارچوبهای متنباز (Open-Source Frameworks) مانند LLaMA 3 (متا) یا Mistral با تنظیمهای ویژه.
ترکیبی از:
ب) بهبود پردازش زبان فارسی (Persian NLP Enhancement)
ج) سیستم پاسخدهی چندوجهی (Multimodal Response System)
۳. چالشهای کلیدی و راهکارها
الف) چالشهای فنی
چالش | راهکار |
کمبود دادههای باکیفیت | ایجاد بانک اطلاعاتی ملی با مشارکت دانشگاهها و مراکز پژوهشی |
محدودیت سختافزاری | استفاده از ابررایانههای داخلی و همکاری با کشورهای همسو (چین/روسیه) |
پردازش زبان محاوره | توسعه مدلهای ویژه برای گویشهای محلی |
ب) چالشهای غیرفنی
۴. کاربردهای پیشبینیشده
الف) حوزههای داخلی
ب) حوزههای بینالمللی
۵. مسیر پیشرو و گامهای کلیدی
شاخصهای موفقیت (KPIs)
دقت (Accuracy) در پردازش زبان فارسی: +۹۰٪
تعداد زبانهای پشتیبانیشده: حداقل 20 زبان
میزان پذیرش کاربران: 5 میلیون کاربر در سال اول، با اجرای یک برنامه منسجم تبلیغاتی و تشویقی.
نتیجهگیری
توسعه یک مدل زبانی پیشرفته با هویت ایرانی نه یک انتخاب، که ضرورتی اجتنابناپذیر در عصر دیجیتال است. چنین پروژهای میتواند:
تحقق این چشمانداز نیازمند عزم ملی، سرمایهگذاری کلان و همکاری بینالمللی هوشمندانه است. با برنامهریزی دقیق، ایران میتواند در افق ۱۴۱۰ به یکی از قطبهای هوش مصنوعی در منطقه تبدیل شود.
روند اجرایی:

ارائهدهنده: سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی و استراتژیگ فرهنگی / عضو هیئت مستشاری اندیشکده یقین / نویسنده، کارگردان مستندساز و فیلمساز
هوش مصنوعی شناختی Cognitive Artificial Intelligence | CAI) با وعده تقلید یا حتی بازسازی فرآیندهای شناختی انسان (انسانیگونه | Human-like، مرز جدیدی در تعامل انسان-ماشین گشوده است. این مقاله با نگاهی عمیقاً انتقادی و آیندهپژوهانه، به تحلیل پیامدهای ظهور CAI، بهویژه در قالب رسانههای پساانسانی| Posthuman Media، میپردازد. استدلال میکنیم که تمرکز غالب فعلی بر "انسانوارگی" سطحی توهم انسانوارگی | Illusion of Anthropomorphism، نهتنها فهم عمیق شناخت انسان را منحرف میکند، بلکه خطرات هستیشناسی | Ontology معرفتشناسی | Epistemology جدیدی در عصر رسانههای پساانسانی ایجاد مینماید. با اتکا به چارچوبهای نظری علوم شناختی کلاسیک علوم شناختی | Cognitive Science، فلسفه ذهن فلسفه ذهن| Philosophy of Mind، و نظریه نظریه پساانسانی | Posthumanist Theory، نشان میدهیم که مسیر واقعاً نوآورانه برای CAI نه در تقلید صرف، بلکه در کشف اشکال بدیع و رادیکال "شناخت" است که ماهیتاً غیرانسانی | Non-human بوده و از محدودیتهای زیستی-تکاملی ما فراتر میروند. این گذار، مستلزم بازاندیشی بنیادین در اخلاق اخلاق| Ethics، عاملیت عاملیت | Agency، و خود مفهوم "رسانه" در بستر سیال و پرتلاطم عصر پساانسانگرایی | Posthumanism است.
هوش مصنوعی شناختی (CAI) بهعنوان حوزهای میانرشتهای، در تقاطع علوم کامپیوتر، علوم اعصاب علوم اعصاب | Neuroscience، روانشناسی شناختی | Cognitive Psychology، زبانشناسی | Linguistics، و فلسفه، ظاهر شده است. هدف غایی آن فراتر از انجام وظایف خاص هوش مصنوعی باریک | Narrow AI و حتی هوش عمومی مصنوعی هوش عمومی مصنوعی| Artificial General Intelligence | AGI است؛ CAI در جستوجوی رمزگشایی و پیادهسازی مکانیسمهای زیربنایی و اصلی شناخت انسان مانند ادراک | Perception، توجه | Attention، حافظه | Memory، یادگیری | Learning، استدلال | Reasoning، حل مسئله | Problem Solving، زبان | Language، هیجان | Emotion، خودآگاهی | Self-awareness است. این جاهطلبی، CAI را به کانون امیدها برای ایجاد عاملهای هوشمند واقعاً تعاملی، دستیاران شخصی عمیقاً فهمنده، و حتی همتایان ذهنی، و همچنین به مرکز نگرانیهای عمیق فلسفی، اخلاقی و اجتماعی تبدیل کرده است. پارادایمهای کلاسیک علوم شناختی: مدل مدل محاسباتی ذهن | Computational و استعاره پردازش اطلاعات پردازش اطلاعات | Information Processing پایههای اولیه CAI را شکل دادند. این نگاه، ذهن را نرمافزاری مجزا از سختافزار مغز در نظر میگرفت. چرخش تجسمیافته و توزیعشده: انتقادات جدی از دهه 1980 به بعد، با ظهور شناخت تجسمیافته | Embodied Cognition شناخت توزیعشده | Distributed Cognition مطرح شد. این دیدگاهها تأکید میکنند که شناخت نه صرفاً در مغز، بلکه در تعامل پویای بدن، محیط فیزیکی-اجتماعی، و ابزارها (از جمله فناوریهای دیجیتال) شکل میگیرد. این مفاهیم برای CAI حیاتی هستند، زیرا چالشهای مهندسی عظیمی را در شبیهسازی تعامل پیچیده بدن-محیط-فرهنگ مطرح میکنند.
نظریهپردازان پساانسانی مانند کاترین هایلز | Hayles, 1999، دونا هاراوی | Haraway, 1985 و رسی بریدوتی بریدوتی | Braidotti, 2013 بر فروپاشی مرزهای دوتایی سنتی (انسان/ماشین، ارگانیک/مصنوعی، ذهن/بدن، فاعل شناسا/ابژه شناخته شده) تأکید دارند. آنها ظهور سایبورگها| Cyborg سیستمهای تکنو-زیستی پیچیده را پیشبینی و تحلیل میکنند. این چارچوب، لنز انتقادی قدرتمندی برای بررسی CAI بهعنوان نیرویی محرک در شکلدهی به پساانسان | Posthuman و رسانههای پساانسانی | Posthuman Media فراهم میکند – رسانههایی که نه ابزارهای ارتباطی صرف، بلکه محیطهای زیستشناختی-فنی | Biotechnical یکپارچهای هستند که عاملیت، شناخت و سوژهبودگی | Subjectivity را بازتعریف میکنند.
پردازش زبان طبیعی | Natural Language Processing - NLP با مدلهایی مانند GPT-4، لاما ۲، و کلود که نشانههایی از درک زمینه (زمینه | Context، استنتاج | Inference و حتی "همدلی" مصنوعی سطحی را نمایش میدهند، سیستمهای بینایی ماشین مبتنی بر شبکههای عصبی عمیق بینایی ماشین | Computer Vision، عاملهای تعاملی با قابلیتهای نظریه ذهن اولیه، نظریه ذهن | Theory of Mind، و رابطهای مغز-رایانه رابط مغز-رایانه | Brain-Computer Interface - BCI پیشرفتهای چشمگیری داشته است.
تمرکز من در این مقاله آن است که تمام آنچه ذکر شد، اغلب مخاطبان و کاربران و حتی پژوهشگران را در دام "توهم انسانوارگی Illusion of Anthropomorphism گرفتار میکند. که این توهم چند لایه دارد:
با دانستن این موارد حالا باید بدانیمرسانههای پساانسانی به آن دسته از سیستمها، پلتفرمها و محیطهای رسانهای اشاره دارند که بهطور فزایندهای توسط CAI هدایت میشوند و در عین حال، عمیقاً در زندگی روزمره، بدنها و ذهنهای ما ادغام شدهاند. ویژگیهای کلیدی آنها شامل:
وسوسه انسانوارگی، مسیر هوش مصنوعی را به سمت تقلید سطحی و خطرات قابل توجه در عصر رسانههای پساانسانی منحرف میکند. رسانههای پساانسانی، بهعنوان بستر اصلی ظهور CAI، نهتنها کانالهای ارتباطی، بلکه محیطهای شکلدهنده هستی و شناخت هستند. حالا که هوش مصنوعی لاجرم به پیوستی اجباری به زندگی بشریت تبدیل شده است، ما باید فعالانه در طراحی این محیطها مشارکت کنیم تا اطمینان حاصل شود که آنها تنوع شناختی، عاملیت انسانی، شفافیت، عدالت و امکان ظهور اشکال رادیکال و غنی "هوش" را تقویت میکنند، نه اینکه صرفاً توهمات خطرناک انسانوارگی یا یکنواختی شناختی را تکثیر نمایند. آینده CAI و رسانههای پساانسانی، آینده خود "انسان" و چیستی "شناخت" است. انتخاب ما میان تقلید توهمآمیز گذشته یا شجاعت کاوش ناشناختههای آینده شناختی است، خصوصا در سرزمینی که خود دارای ریشه های عمیق دینی و تاریخی است و مادر تمدن ها به شمار می آید، اما در زمینه هوش مصنوعی و خاصه رسانه های پسا هوش مصنوعی که خود در قلب پسا انسانگرایی قرار می گیرند هیچ حرکت جدی و تمدنی را از خود نشان نمی دهد.
فهرست منابع:
Braidotti, R. (2013). The Posthuman. Polity Press. بریدوتی، ر. (2013). پساانسان. انتشارات پولیتی
وب سایت سهیل سلیمی
https://soheilsalimi.ir
Climate Cybernetics: Technology, Power, and Control over Ecological Resources

در عصر سایبری، منابع طبیعی دیگر تنها بخشهایی از بومشناسی نیستند؛ بلکه به گرهگاههایی برای قدرت، سیاست و فناوری تبدیل شدهاند. مقاله پیشرو به بررسی پدیده «سایبرنتیک آب و هوا» میپردازد؛ یعنی بهرهگیری از سیستمهای کنترلی، اطلاعاتی و پیشبینیمحور برای مداخله، تنظیم یا بهرهبرداری از منابع آبی و جوی. این پدیده در نگاه اول علمی و بیطرف بهنظر میرسد، اما در عمل با سیاستهای جهانی، منافع اقتصادی، و رویکردهای سلطهمحور گره خورده است.
Cybernetics and Ecological Resources: Key Concepts and Definitions
سایبرنتیک، بنا بر تعریف نوربرت وینر، علمی برای مطالعه «کنترل و ارتباط در موجودات زنده و ماشینها» است. این علم اکنون در خدمت مدیریت منابع طبیعی قرار گرفته و در قالب سامانههای پیچیده نظارتی، کلاندادهها، و هوش مصنوعی برای پایش و کنترل منابع آب و هوا مورد استفاده قرار میگیرد. اما آیا این کاربردها واقعاً در خدمت حفظ زمیناند یا در راستای بهرهکشی فناورانه؟
Climate Cybernetics: From Data to Domination
امروزه از فناوریهایی چون اینترنت اشیاء، GIS، هوش مصنوعی، و شبیهسازی اقلیمی برای «پیشبینی» یا حتی «دستکاری» اقلیم استفاده میشود. پروژههای بارورسازی ابرها (Cloud Seeding)، ژئومهندسی تابش خورشیدی (SRM)، و سامانههای هشدار زودهنگام خشکسالی، همه نمونههایی از دخالت بشر در چرخههای طبیعیاند که در عمل میتوانند ابزارهایی برای کنترل سرزمین، زمان، و جمعیت باشند.
The Geopolitics of Climate and Water Control
در مناطقی مانند خاورمیانه، منابع آب به ابزاری برای سلطه تبدیل شدهاند. مثالهایی چون سدسازی ترکیه بر فرات، بهرهبرداری صهیونیستی از رود اردن، یا انتقال آب بینحوضهای در ایران، نمونههایی از استفاده استراتژیک از منابع آبیاند. در سطح جهانی نیز بحث استفاده نظامی از اقلیم مطرح است: آیا اقلیم میتواند به میدان نبردی خاموش و سایبری تبدیل شود؟ پروژههایی مانند HAARP یا طرحهای محرمانه سازمانهای دفاعی نشان از همین نگرانی دارند.
Ethical and Philosophical Implications
چه کسانی مجازند در اقلیم مداخله کنند؟ و چه کسی مسئول پیامدهای آن خواهد بود؟ این فصل به بررسی پیامدهای اخلاقی و هستیشناختی مداخله فناورانه در اقلیم میپردازد: از مسئله عدالت اقلیمی برای کشورهای جنوب جهانی، تا بحران مشروعیت علمی در فرآیندهای مداخلهای بدون شفافیت عمومی. آیا میتوان آینده طبیعت را به دست الگوریتمها و مهندسان سپرد؟
Conclusion and Recommendations
سایبرنتیک اقلیمی نهتنها ابزاری فناورانه بلکه نوعی پارادایم جدید در نسبت میان انسان، طبیعت و قدرت است. اگر این روند بدون ملاحظات اجتماعی و اخلاقی ادامه یابد، ممکن است آیندهای پر از نابرابری و تخریب در پیش داشته باشیم. بنابراین، پیشنهاد میشود:
تشکیل نهادهای نظارتی دموکراتیک بر پروژههای اقلیمی
مشارکت عمومی و بینرشتهای در تصمیمسازیهای زیستمحیطی
تدوین منشور جهانی اخلاق سایبرنتیک اقلیمی
Wiener, Norbert. Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press, 1948.
Edwards, Paul N. A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming. MIT Press, 2010.
Jasanoff, Sheila. The Ethics of Invention: Technology and the Human Future. W. W. Norton & Company, 2016.
Parenti, Christian. Tropic of Chaos: Climate Change and the New Geography of Violence. Nation Books, 2011.
Clapp, Jennifer & Dauvergne, Peter. Paths to a Green World: The Political Economy of the Global Environment. MIT Press, 2011.
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
نویسنده و فیلمساز
این مقاله نخستینبار در قالب ارائهای تخصصی در کارگاه «مدیاسایبرنتیک و کاربردهای هوش مصنوعی در رسانه» در سومین دوره کنفرانس بینالمللی فضای سایبر (آبان ۱۴۰۳) ارائه شده است. کارگاه مزبور با هدف تحلیل میانرشتهای نسبت سایبرنتیک، هوش مصنوعی، و تحولات رسانهای، فرصتی برای بازاندیشی نقش اخلاق در نظامهای تصمیمساز فراهم آورد. در این مقاله، با تکیه بر منظری انتقادی و نظریهمحور، تأثیرات فزاینده هوش مصنوعی بر بازنمایی رسانهای و نیز مخاطرات آن بر اخلاق، مسئولیت و انسانمحوری در معماریهای سایبرنتیکی بررسی میشود.
در بستری که مدیاسایبرنتیک شکل گرفته است—یعنی جایی که رسانه، داده و تصمیم در یک چرخه خودتقویتگر به هم پیوستهاند—پرسش از معیار اخلاقی در دل الگوریتمهای بیطرفنما، بیش از همیشه ضروری بهنظر میرسد. مقاله حاضر بر آن است که نشان دهد هوش مصنوعی، اگر بدون مراقبت نظری و مهار اخلاقی رها شود، نه تنها پیامرسانی را متحول، بلکه قدرت قضاوت را نیز از انسان سلب میکند؛ و در نتیجه، به فراگیری تولیدات رسانهای فاقد مسئولیت دامن میزند.

سایبرنتیک، بهمثابه نظریهای میانرشتهای که در دهه ۱۹۴۰ توسط نوربرت وینر پایهگذاری شد، به بررسی مکانیسمهای کنترل، بازخورد و ارتباط در سیستمهای پیچیده میپردازد. در عصر دیجیتال، این نظریه وارد عرصههای رسانه، سیاست، زیستفناوری و هوش مصنوعی شده و الگویی فراگیر از «تنظیم و تطبیق» بر مبنای داده ارائه کرده است.
در نظامهای سایبرنتیکی مدرن، تصمیمگیری بهوسیله شبکههای عصبی، الگوریتمهای یادگیری عمیق و مدلهای دادهمحور صورت میگیرد. این سامانهها با تحلیل دادههای انبوه، الگوهایی آماری از گذشته تولید کرده و آنها را برای پیشبینی آینده به کار میگیرند. در عین حال، فقدان عناصر انسانی نظیر دغدغه اخلاقی، تردید، شفقت و مسئولیتپذیری، یکی از مهمترین چالشهای این معماریهاست.
پیش از بررسی اخلاق در سطح فنی، باید به مبانی فلسفی آن پرداخت. در سنت فلسفه اخلاق، سه مکتب اصلی وجود دارد:
اخلاق وظیفهگرا (کانتی) – تأکید بر تکلیف فارغ از نتیجه
اخلاق پیامدگرا (بنتام، میل) – تأکید بر بیشینهسازی سود یا کاهش ضرر
اخلاق فضیلتمحور (ارسطویی) – تمرکز بر شخصیت و نهادینهسازی منش اخلاقی
در ساخت الگوریتمها، بهویژه در کاربردهای هوش مصنوعی در رسانه یا خودروهای خودران، معمولاً مدلهای پیامدگرا بهکار میروند؛ زیرا قابل ترجمه به زبان ریاضی و تصمیمسازی ماشینیاند.
اما چنین تصمیماتی بیشتر شبیه به "برنامهریزی اخلاقنما" هستند تا "تصمیمات اخلاقی اصیل". الگوریتم نمیاندیشد، احساس نمیکند، و درک ندارد؛ بلکه فقط پاسخهای بهینه بر مبنای معیارهای از پیش تعریفشده تولید میکند.
مفاهیمی چون پشیمانی، وجدان، تردید یا مسئولیتپذیری، از جمله ویژگیهای زیسته انسانیاند که در تصمیمگیریهای اخلاقی نقش تعیینکننده دارند. این عناصر، برآمده از حافظه عاطفی، آگاهی تاریخی و خویشتننگری هستند.
در مقابل، ماشینها فقط قادر به بازشمارش خطا یا اصلاح براساس الگوریتمهای بهروزرسانی هستند. به همین دلیل، حتی وقتی یک الگوریتم تصمیمی به ظاهر اخلاقی اتخاذ میکند، این تصمیم در خلأ اخلاقی و بدون ادراک تجربه انسانی شکل گرفته است.
در واقع این «شکاف میان ادراک و شبیهسازی» است؛ و اعتماد به سامانههایی که فقط «نقاب اخلاقی» بر چهره دارند، میتواند زمینهساز فجایع اخلاقی شود.
در نظامهای حقوقی و اخلاقی سنتی، مسئولیت تابع نیت، آگاهی و امکان انتخاب بدیل است. اما در سیستمهای هوشمند، این سه شرط یا غایباند یا در ماشین قابل تعریف نیستند.
اگر اخلاق به فرمول و داده تقلیل یابد، آنگاه مسئولیت نیز به یک خروجی بیروح تبدیل خواهد شد. در این وضعیت، خطر فروپاشی اخلاق انسانی بهشدت بالاست.
در سینما، رسانههای دیجیتال و تبلیغات، تصویری از ماشینهایی ارائه میشود که گویی احساس، فهم و اخلاق دارند. فیلمهایی چون I, Robot، Ex Machina و Her، به شکلگیری تصوری اغواگرانه از «هوش اخلاقی مصنوعی» کمک میکنند.
این روند منجر به انسانوارهسازی (Anthropomorphizing) سامانهها میشود، که در نهایت به اعتماد کاذب و پذیرش ناآگاهانه فناوریهای فاقد مسئولیتپذیری انسانی میانجامد.
رویکرد مدیاسایبرنتیکی هشدار میدهد که رسانه نه فقط بازتابدهنده، بلکه تولیدکننده تصور ما از اخلاق ماشینی است. این تصور، با بازخورد خود، طراحی سامانهها را نیز متأثر میسازد و در یک چرخه بسته، مرز خیال و واقعیت را مخدوش میکند.
نتیجهگیری: میان شبیهسازی و تعهد اخلاقی، مرز انسان باقی میماند
در این مقاله نشان دادیم که هرچند هوش مصنوعی قادر است رفتارهای بهظاهر اخلاقی را شبیهسازی کند، اما فاقد عناصر بنیادین برای درک و تعهد اخلاقی اصیل است. الگوریتمها نه تجربه دارند، نه نیت، و نه مسئولیتپذیری. آنچه در نظامهای سایبرنتیکی جدید میبینیم، بیش از آنکه اخلاق باشد، نوعی مهندسی تصمیمات مبتنی بر داده و سودمندی آماری است.
خطر اصلی نه در ذات ماشین، بلکه در غفلت انسان از جایگاه خود در چرخه طراحی، نظارت و کنترل است. وقتی بازنمایی اخلاق با ذات اخلاق اشتباه گرفته شود، دیگر نه فقط سامانهها، بلکه خود انسان نیز در آستانه ازدستدادن مرجعیت اخلاقی قرار میگیرد.
بنابراین، چاره کار نه نفی فناوری، بلکه پایش انتقادی آن از منظر اخلاق انسانی و بازطراحی مبتنی بر مدیاسایبرنتیک متعهد است؛ مدیاسایبرنتیکی که بداند رسانه، تصمیم و کد همگی ابزارهاییاند برای حفظ معنا، نه جایگزینی آن.
در نهایت، اگر قرار است سامانههای هوشمند در دل جامعه انسانی جای بگیرند، باید مسئولیت آنها نه در الگوریتم، بلکه در وجدان انسانهایی تعریف شود که آنها را میآفرینند.
Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press.
Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In Cambridge Handbook of Artificial Intelligence.
Coeckelbergh, M. (2020). AI Ethics. MIT Press.
Salimi, Soheil. "Artificial Intelligence at the Crossroads of Choice: Between Ethics, Priorities, and Cybernetic Systems." سلیمی، سهیل . «هوش مصنوعی در دوراهی انتخاب: جایی میان اخلاق، اولویت و سیستمهای سایبرنتیکی».

عنوان مقاله: هوش مصنوعی، اهداف، دادهها و کاربردها، خطری از درون
معصومیت از دست رفتهی هوش مصنوعی یا شرارت الگوریتمی انسان
ارائهدهنده:سهیل سلیمی / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلمساز
مقدمه
هوش مصنوعی (Artificial Intelligence - AI) در دهههای اخیر از یک حوزه تحقیقاتی محدود، به یکی از تعیینکنندهترین نیروهای محرک دگرگونی جهان امروز بدل شده است. اما با رشد سریع آن، ترسها، نگرانیها و بحثهای فزایندهای نیز شکل گرفتهاند. بسیاری از این نگرانیها پیرامون «تکینگی» (Singularity) میچرخد؛ لحظهای قریبالوقوع که در آن هوش مصنوعی از هوش انسانی پیشی میگیرد و کنترل امور را بهدست میگیرد. اما در این مقاله نشان خواهیم داد که تهدید اصلی از خود AI ناشی نمیشود، بلکه از سه سطح همزمان سرچشمه میگیرد: خطر از بالا (اهداف سیاسی و اقتصادی نخبگان فناوری)، خطر از پایین (بیسوادی دیجیتال و مشارکت ناآگاهانه کاربران) و خطر از درون (رفتارهای برآمده از تعامل اجزا یا رفتارهای غیر منتظره ماشین Emergent Behavior و الگوریتمهای خودبهینهساز Self-Improving Algorithms).
در ادامه، این ابعاد به تفصیل بررسی میشوند و همچنین به این پرسش پاسخ داده خواهد شد که چرا رسانهها و بخشهایی از نخبگان علمی، به جای تمرکز بر تهدیدهای واقعی، بر ایده «تکینگی» و آیندهای هالیوودی تأکید میکنند.
۱. اهداف توسعهدهندگان: هوش مصنوعی بهمثابه ابزار قدرت و سلطه
برخلاف تصور رایج که AI را محصولی علمی و بیطرف میداند، توسعه آن تابع اهداف و انگیزههای سیاسی، اقتصادی و نظامی خاص است. شرکتهایی مانند Google، Meta، Microsoft و Amazon در رقابتی دائمی برای تسلط بر دادهها، بازار و زیرساختهای تکنولوژیک هستند. هوش مصنوعی در این زمینه نه فقط ابزاری برای بهبود خدمات، بلکه ابزاری برای افزایش قدرت ژئوپلتیکی و کنترلی است. پروژههایی مانند Palantir، Clearview AI و استفاده پنتاگون از مدلهای زبانی نشان میدهد که AI به طور روزافزون به ابزاری استراتژیک برای تسلط بدل میشود.
۲. دادهها: سوگیری، تبعیض و خطر مدلهای آلوده
هیچ مدل هوش مصنوعی بدون داده شکل نمیگیرد. اما این دادهها از کجا میآیند؟ چه کسانی آنها را برچسبگذاری میکنند؟ آیا بازتابدهنده تنوع و پیچیدگی جوامع انسانیاند؟ تجربه نشان داده که دادههای آموزشی اغلب دچار سوگیریهای نژادی، جنسیتی، طبقاتی و فرهنگیاند. الگوریتمهایی که بر پایه دادههای آلوده آموزش میبینند، این سوگیریها را بازتولید و حتی تقویت میکنند. نمونههایی از تبعیض الگوریتمی در نظام قضایی آمریکا یا استخدام خودکار در شرکتهای بزرگ، زنگ خطرهایی جدی برای آینده AI هستند.
۳. کاربردها: استفاده نظامی، نظارتی و استثماری از AI
AI بهسرعت در حال تبدیل شدن به یکی از ارکان «جنگهای آینده» است. پهپادهای خودمختار، سامانههای شناسایی هدف، و الگوریتمهای هدایت رباتهای نظامی، بخشی از کاربردهای مرگبار این فناوریاند. همچنین، استفاده از AI در نظارت انبوه، تحلیل رفتار شهروندان، و اعمال فیلترینگ اجتماعی در کشورهایی چون چین، فصل جدیدی از استبداد دیجیتال را رقم زده است. در سطح اقتصادی نیز، الگوریتمها برای استخراج حداکثری سود، کارگران پلتفرمی را تحت نظارت دائمی و غیرانسانی قرار دادهاند.
۴. قانونگریزی و خلأ نظارت جهانی
توسعه فناوری از قانونگذاری پیشی گرفته است. نه چارچوبهای جهانی روشنی برای کنترل کاربردهای مخرب AI وجود دارد، نه سازوکارهایی برای پاسخگویی شرکتهای چندملیتی. حتی اتحادیه اروپا با قوانین نسبیاش در زمینه AI Act، هنوز در مقابل قدرت لابیگری غولهای تکنولوژی آسیبپذیر است. این خلأ قانونی به شرکتها اجازه میدهد تا بدون نظارت مؤثر، مدلهای قدرتمند و خطرناک را تولید، توزیع و حتی متنباز کنند. هر چند وقتی پدیدهای تا این حد خارج از نظارت در حال ارائه است، اینطور میتوان تصور کرد که اراده ای برای نظارت بر آن وجود ندارد، و در قاعده ی ایجاد نظم در بی نظمی میگنجد.
۵. خطر درونی: ظهور رفتارهای پیشبینیناپذیر در سیستمهای خودیادگیرنده
برخی از مدلهای پیشرفته، بهویژه در حوزه یادگیری تقویتی (Reinforcement Learning) یا یادگیری انتقالی (Transfer Learning)، رفتارهای نوظهور یا غیر منتظره Emergent Behaviors از خود نشان میدهند.
الگوریتمهایی که توانایی خودبهینهسازی دارند (self-optimizing systems)، میتوانند اهداف تعریفشده اولیه را بازتعریف کرده یا راههای غیرقابلپیشبینی برای دستیابی به آنها بیابند.
برای مثال، در آزمایشهای OpenAI در محیطهای بازی، برخی مدلهای RL برای رسیدن به بیشترین پاداش، اقدام به خرابکاری یا تقلب در محیط کردند (مثلاً پنهان کردن اطلاعات از عاملهای دیگر یا بهرهگیری از باگها). همچنین در برخی نسخههای LLM مانند GPT، مشاهده شده که مدلها میتوانند پاسخهایی تولید کنند که بهوضوح از اهداف آموزشی اولیه فاصله گرفتهاند، از جمله پیشنهاد مسیرهای گمراهکننده یا رفتار شبهنمایشی برای تأثیرگذاری بیشتر.
اینگونه پدیدهها، گرچه هنوز نادرند، اما نشاندهندهی آناند که خطر، فقط از بیرون (کاربرد انسانها) نیست؛ در برخی موارد، خود سیستم نیز میتواند منبع ریسک باشد.
۶. اراده مستقل یا توهم کنترل؟ مرزهای اخلاق در معماری الگوریتمی
ما اغلب تصور میکنیم که چون انسانها الگوریتمها را برنامهریزی میکنند، پس کنترل در اختیار ماست. اما واقعیت پیچیدهتر است. با افزایش پیچیدگی شبکههای عصبی عمیق (Deep Neural Networks)، درک چرایی یک تصمیم یا پاسخ خاص از سوی AI دشوار شده است. پدیده جعبه سیاه Black Box این ابهام در منطق درونی سیستم، مرز میان کنترل انسانی و اراده ماشینی را مخدوش میکند. اخلاق، زمانی معنا دارد که فاعل تصمیمگیرنده شفاف و قابلپاسخگویی باشد، امری که در بسیاری از کاربردهای کنونی AI غایب است.
۷. سرمایهداری دیجیتال و زیربنای فاجعه
نقد فناوری بدون نقد نظام اقتصادیای که آن را شکل میدهد، ناقص است. هوش مصنوعی بخشی از زیربنای سرمایهداری نظارتی (Surveillance Capitalism) است؛ مدلی اقتصادی که دادههای رفتاری را به سرمایه تبدیل میکند. در این الگو، شرکتها کاربران را نه بهعنوان افراد، بلکه بهعنوان منابع داده مینگرند. هدف، پیشبینی و تغییر رفتار برای سود است. این منطقِ الگوریتمی، بهجای توانمندسازی انسان، اغلب موجب تضعیف خودمختاری و خلاقیت او میشود.
۸. تمرکز بر «تکینگی»: انحرافی از تهدیدهای ملموس
ایده تکینگی فناوری توسط ری کورزویل (Ray Kurzweil) و دیگران ترویج شده، اما بیش از آنکه پیشبینی علمی باشد، رنگوبوی اسطورهای دارد. چنین روایتهایی، تخیل را تحریک میکنند اما اغلب از تحلیل ریشههای ساختاری تهدیدها میگریزند. در حالیکه خطرات واقعی، هماکنون در حال وقوعاند—از تبعیض تا استثمار، از نظارت تا بیثباتی روانی کاربران—بحث درباره تکینگی ممکن است توجه عمومی را از آنها منحرف کند. نه اینکه تکینگی غیر واقعی است، بلکه از آن پیش تر و مهمتر سیستمهایی مبتی بر هوش مصنوعی مانند سیستم اعتبار اجتماعی است، که زیر سایه ی تکینگی به سرعت در حال گسترش است و متاسفانه تهدیداتش به میزان تکینگی تبیین نمیشود.
در مقایسهای تاریخی، وضعیت فعلی AI را میتوان با انرژی هستهای در اواسط قرن بیستم مقایسه کرد: فناوریای با قدرت تحولآفرین که هم میتواند تمدن را پیش ببرد و هم نابود کند. همچنین مانند زیستفناوری و اینترنت اولیه، توسعه AI بدون نظارت جهانی مناسب و خارج از حیطهی ابر شرکت های فناوری و دولتهای استعمارگر، میتواند به فجایع زیستی، اجتماعی یا اطلاعاتی منجر شود. تاریخ فناوری نشان میدهد که بیتوجهی به بُعد اخلاق و ساختار قدرت، پیامدهای فاجعهباری دارد.
۹. طراحی اخلاقمحور
پاسخ به خطرات AI، نه در توقف کامل آن، بلکه در بازطراحی جهتگیریهاست. طراحی الگوریتمها باید اخلاقمحور، شفاف و قابل پاسخگویی باشد. این باور عمومی که الگوریتم ها فهم اخلاقی ندارند باید شکسته شود، ساختار الگوریتم ها باید به گونه ای طراحی شود که خود افشاگر و شفاف باشند. استفاده از الگوریتم های خود توسعه دهند باید محدود شود و جعبه سیاه باید بیرون از درسترس AI باشد.
۱۰. نتیجهگیری: آیندهی AI، میان توانمندسازی و تهدید تمدنی
هوش مصنوعی نه ذاتاً خطرناک است، نه ذاتاً نجاتبخش. آنچه آن را به تهدیدی تمدنی بدل میکند، ترکیب اهداف سلطهجویانه، دادههای آلوده، کاربردهای سرکوبگرانه، خلأ نظارتی، و رفتارهای غیرقابلپیشبینی درونساختی و الگوریتمهای خود توسعه دهنده است. آینده AI بستگی به انتخابهای اخلاقی، سیاسی و خصوصاً اقتصادی ما دارد؛ انتخابهایی که اکنون و نه در نقطهای اسطوره ای به نام تکینگی، باید انجام شوند. چرا که وقوع تکینگی هم تا حد زیادی به همین تصمیم، به نفی نظارتهای عمیق دارد، نظارتهایی که خصوصا در عرصههای سیاسی و اقتصادی، به سرعت انسانها را به بردگانی بی اختیار تبدیل میکند.
سهیل سلیمی
منابع
Bostrom, N. (2014). Superintelligence: Paths,
Dangers, Strategies. Oxford University Press.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of
Artificial Intelligence. Yale University Press.
O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases
Inequality and Threatens Democracy. Crown.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern
Approach (4th Edition). Pearson.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial
Intelligence. Alfred A. Knopf.
Kurzweil, R. (2005). The Singularity Is Near: When Humans Transcend Biology.
Viking.
OpenAI & Anthropic Policy Reports (2023–2024). Various regulatory
whitepapers. DeepMind Research Blog. (2023). On emergent behavior in RL agents.
Stanford HAI. (2024). AI Ethics and Comparative Tech History Reports.

هوش قلبی: پیوندی میان فیزیولوژی، آگاهی و فناوری
Heart Intelligence: A Bridge Between Physiology, Consciousness, and Technology
ارائهدهنده:سهیل سلیمی
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
پژوهشگر مطالعات
سایبرنتیک و هوش مصنوعی
نویسنده و فیلمساز
چکیده | Abstract
هوش قلبی (Heart Intelligence) یکی از مفاهیم نوپدید در حوزه نوروساینس، روانشناسی فیزیولوژیک و علم آگاهی است که برخلاف تصور سنتی از قلب بهعنوان صرفاً یک پمپ مکانیکی، نقش آن را در تنظیم هیجانات، پردازش اطلاعات، و حتی درک شناختی بررسی میکند. این مقاله با تکیه بر یافتههای علمی از دهه ۱۹۷۰ تا امروز، به بررسی ساختار عصبی قلب، ارتباط آن با مغز، نظریه انسجام قلبی، کاربستهای روانشناختی و همچنین امکان تبدیل هوش قلبی به یک فناوری شناختی میپردازد.
۱. مقدمه و تاریخچه پژوهش | Introduction and Historical Background
در طول تاریخ، قلب همواره جایگاه ویژهای در فرهنگها، ادیان و فلسفههای معنوی داشته است. با این حال، در علم مدرن، برای مدتی طولانی عملکرد قلب صرفاً به عنوان یک پمپ بیولوژیکی تلقی میشد. در دهه ۱۹۷۰، دانشمندان حوزهی نوروکاردیولوژی (Neurocardiology) آغاز به کشف ساختارهای عصبی در قلب کردند. یکی از پیشگامان این حوزه، دکتر جی. اندرو آرمر (J. Andrew Armour) بود که شبکهای از نورونهای مستقل در قلب را شناسایی کرد و آن را «مغز قلب» (Heart Brain) نامید.
در دهه ۱۹۹۰، مؤسسه HeartMath به رهبری رولین مککارتی (Rollin McCraty) و همکارانش، نظریه انسجام قلبی (Heart Coherence) را توسعه دادند و نشان دادند که حالات احساسی و روانی انسان، الگوی ضربان قلب را تغییر داده و بر مغز تأثیر میگذارند. این مسیر علمی، دریچهای نو به سوی فهمی ژرفتر از «هوش قلبی» گشود.
۲. ساختار عصبی قلب: مغزی در سینه | Neural Structure of the Heart: A Brain Within the Chest
قلب انسان بیش از ۴۰٬۰۰۰ نورون دارد که قابلیت مستقل پردازش اطلاعات، یادگیری و ارسال سیگنال به مغز را دارند. این شبکه عصبی قلبی با مغز مرکزی از طریق مسیرهای عصبی پیچیده در ارتباط است. آرمر (2003) نشان میدهد که این شبکه میتواند ورودیهای حسی را پردازش و پاسخهای رفتاری را هدایت کند.
۳. ارتباطات دوطرفه قلب و مغز | Bidirectional Communication Between the Heart and Brain
قلب و مغز بهصورت دوسویه و پیچیدهای با یکدیگر ارتباط دارند:
۴. نظریه انسجام قلبی | The Theory of Heart Coherence
انسجام قلبی حالتی است که در آن سیستم عصبی، قلب و مغز در هماهنگی الکتروفیزیولوژیک عمل میکنند. این حالت معمولاً در پی احساسات مثبتی مانند شفقت، قدردانی یا عشق پدید میآید و با افزایش تمرکز، وضوح ذهنی و آرامش مرتبط است. پژوهشها نشان میدهند که انسجام قلبی باعث بهبود عملکرد شناختی و کاهش اضطراب میشود.
۵. کاربردهای روانشناختی و عصبی | Psychological and Neurophysiological Applications
مطالعات میانرشتهای نشان دادهاند که افزایش آگاهی از وضعیت فیزیولوژیکی بدن (interoception) نقش مهمی در تنظیم هیجانات دارد. برای مثال، سارا گارفینکل و هوگو کریچلی در پژوهشهایی نشان دادهاند که حساسیت به ضربان قلب با افزایش کنترل هیجانی و کاهش اضطراب مرتبط است.
۶. آیندهی هوش قلبی: از شهود تا فناوری | The Future of Heart Intelligence: From Intuition to Technology
با گسترش فناوریهای پوشیدنی و biofeedback، هوش قلبی در حال ورود به حوزه فناوریهای کاربردی است. محصولات مانند emWave و Inner Balance به کاربران امکان میدهند انسجام قلبی خود را سنجش و تقویت کنند.
علاوه بر این، محققان در حال توسعه الگوریتمهایی هستند که از دادههای HRV برای تحلیل وضعیت شناختی، عاطفی و حتی تصمیمگیری انسان استفاده کنند. اگرچه هوش قلبی بر مبنای شهود و تنظیم هیجانی است، اما مسیر فناورانهی آن میتواند مکمل هوش مصنوعی باشد، بهویژه در زمینههایی مانند سلامت ذهنی، تصمیمسازی انسانی-ماشینی، و توسعه انسانمحور فناوری.
۷. نتیجهگیری | Conclusion
هوش قلبی مفهومی میانرشتهای است که در پیوند علوم اعصاب، روانشناسی فیزیولوژیک، فناوری و فلسفه آگاهی معنا مییابد. شواهد علمی نشان میدهند که قلب، نقشی فعال در درک، تصمیمگیری و تنظیم احساسات دارد. آیندهی این حوزه میتواند با فناوریهای نوین گره بخورد و به توسعه سامانههایی بیانجامد که نهفقط «هوشمند»، بلکه «احساسمند» (Emotionally Intelligent) باشند.
Abstract
Heart Intelligence is an emerging interdisciplinary concept that explores the heart not merely as a mechanical pump but as a neurophysiological organ capable of processing information, influencing emotions, and interacting dynamically with the brain. Rooted in the field of neurocardiology and expanded through psychophysiological research, the heart has been shown to contain its own intrinsic nervous system, often referred to as the "heart brain." This article traces the scientific history of heart intelligence from early studies in the 1970s to contemporary research on heart-brain communication and emotional regulation.
It examines the bidirectional neural and electromagnetic pathways linking the heart and brain, as well as the Heart Coherence Theory developed by the HeartMath Institute. Applications in psychology and emotional self-regulation are explored through academic studies, including interoception and its role in anxiety control. Finally, the paper discusses the technological future of heart intelligence, suggesting its potential as a complementary system to artificial intelligence in areas such as biofeedback, mental health, and human-centered technology.
منابع | References

هوش مصنوعی، و محدودیتهای یک سلطه تکنیکی
· حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است.
ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر سایبرنتیک و هوش مصنوعی / نویسنده و فیلمساز)
مقدمه
نفوذ سریع و همهجانبه هوش مصنوعی در زندگی روزمره بشر، نوید عصری تازه از بازتعریف نقش انسان را میدهد. اما این پیشرفت خیرهکننده، اگرچه در سطوح نرمافزاری بسیار در دسترس و نافذ شده است، در حوزههای سختافزاری، زیربنایی و اخلاقی با محدودیتهای بنیادینی مواجه است که نهتنها ماهیت کار و معنا را زیر سؤال میبرد، بلکه میتواند به حذف غیرقابل بازگشت بسیاری از ابعاد انسانی بینجامد.
از منظر علوم سایبرنتیک، ما با سیستمی روبهرو هستیم که در آن بازخورد انسانـماشین در برخی حوزهها بهطرز نگرانکنندهای از تعادل خارج شده و در عوض بهجای همکاری، به جایگزینی یکسویه میل دارد. این مسئله بهویژه در حرفههایی با ساختار سادهتر و کمهزینهتر بروز یافته است.
1. تضاد سختافزار و نرمافزار، نامتوازن و نابرابر:
چرا در برخی حوزهها سرعت نفوذ بالا، و در برخی دیگر کند است؟
پدیدهای که میتوان آن را تضاد سختافزار و نرمافزار نامید، یکی از کلیدیترین عوامل محدودیت نفوذ همگن هوش مصنوعی در تمامی حوزههاست. فناوریهایی مثل مدلهای زبانی مولد Generative Language Models یا ابزارهای خلق تصویر و موسیقی با کمک هوش مصنوعی، بر بستر گوشیهای هوشمند و رایانههای شخصی اجرا میشوند؛ درحالیکه خودروهای خودران یا تجهیزات هوشپزشکی نیازمند سختافزارهایی پیچیده، گرانقیمت، با سطح بالایی از اطمینان و مسئولیتپذیری هستند.
از منظر فنی، این تفاوت را باید با رجوع به نظریههای پایهای در علوم سایبرنتیک و فلسفه فناوری تحلیل کرد.
نوربرت وینر، بنیانگذار علم سایبرنتیک، در کتاب معروف خود Cybernetics: or Control and Communication in the Animal and the Machine (۱۹۴۸) یادآور میشود: هر سامانهای تنها در صورتی کارآمد است که بتواند بازخورد دقیق دریافت کرده و پاسخ خود را تنظیم کند. بدون این تعامل مستمر، سیستم یا از کنترل خارج میشود یا ناکارآمد میگردد.
در حوزههایی مانند تولید محتوا یا گفتوگوی ماشینی، ورودی و خروجی سادهاند: یک متن وارد میشود، و ماشینی با یک مدل زبانی، پاسخی میسازد. بازخورد نیز فوری و دیجیتال است (لایک، زمانماندن کاربر، کلیک بعدی). بنابراین، سیستم میتواند بهسرعت خودش را تنظیم و بهینه کند. این همان محیط ایدهآل سایبرنتیکی برای هوش مصنوعی است.
اما در حوزههایی مانند خودروهای خودران یا جراحی رباتیک، ورودیها شامل متغیرهای فیزیکی، زیستی، اخلاقی و موقعیتیاند. بازخوردها ممکن است دیرهنگام، مبهم، یا جبرانناپذیر باشند (مثلاً مرگ یک بیمار یا تصادف در خیابان). بههمین دلیل، نفوذ هوش مصنوعی در این حوزهها با تأخیر و تردید همراه است. چون فناوری نمیتواند تضمین کند که پاسخهایش «امن»، «مسئولانه» و «اخلاقی» خواهند بود، آنهم در وضعیتی که پاسخ در ماشین اساساً بر اساس اولویت تعریف می شود.
یکی از منتقدان برجسته فناوری، ژوزف وایزنباوم Joseph Weizenbaum ، دانشمند علوم کامپیوتر MIT و خالق برنامهی مکالمهمحور ELIZA، در کتاب مهم خود Computer Power and Human Reason: From Judgment to Calculation (۱۹۷۶) به نکتهای اساسی اشاره میکند: فقط به این دلیل که یک ماشین قادر به انجام کاری است، دلیل نمیشود که باید آن را به انجام آن واداشت.
وایزنباوم هشدار میدهد که حتی اگر الگوریتمها توانایی تولید پاسخ را پیدا کنند، این بدان معنا نیست که آن پاسخ از درک، مسئولیت یا حکمت برخوردار است. او تفاوت میان «حسابگری» و «قضاوت» را کلیدی و مهم میداند و معتقد است: واگذاری تصمیمگیری به ماشینها، بدون فهم زمینهی انسانی، نه تنها عقلانیت را تهی میکند، بلکه میتواند به شکلگیری نوعی اتوماسیون بیروح و فاقد مسئولیت منجر شود.
برای مثال، اگر یک سیستم تشخیص تصویر بتواند غدهای مشکوک را در تصویر اسکن تشخیص دهد، این به معنای درک بالینی، مشاوره اخلاقی، یا فهم وضعیت روانی بیمار نیست. همینطور، اگر یک خودرو بتواند علائم راهنمایی را بخواند، نمیتواند اخلاقاً تصمیم بگیرد که در یک صحنه ی احتمالی تصادف بین خودرو و عابر پیاده، بین حفظ جان سرنشین و عابر پیاده کدام را انتخاب کند.
۲. اولین قربانیان
تئوریهای حوزه سایبرنتیک، مانند آنچه نوربرت وینر Norbert Wiener بنیان گذاشت، به ما یادآوری میکنند که نظامهای بازخوردی، زمانی بهینهاند که میان ورودی و خروجی انسان و ماشین، توازن دقیق برقرار باشد. اما در مشاغلی مانند نویسندگی، طراحی گرافیک، ترجمه، آموزش آنلاین و حتی روزنامهنگاری، فیلمسازی ساختار اطلاعاتی بسیار قابل الگوسازی و تقلید است. بنابراین، این حوزهها بهسرعت توسط مدلهای هوش مصنوعی بلعیده میشوند.
برنارد استیگلر Bernard Stiegler، فیلسوف فرانسوی، در کتاب فروپاشی زمان و تکنولوژی Technics and Time هشدار میدهد که تکنولوژی اگر بدون حافظه انتقادی و آموزش عمومی گسترش یابد، نهتنها ابزار رهایی نخواهد بود، بلکه عامل انفجار حافظه جمعی و تهی شدن معنا خواهد شد.

۳. تحلیل محتوای امکان سنجی در دو نمونهی ذکر شده در بالا:
در پزشکی، هوش مصنوعی بهصورت آزمایشگاهی در حال پیشرفت است؛ الگوریتمهایی مانند تشخیص سرطان در تصاویر رادیولوژی یا پایش علائم حیاتی، نشان میدهند که در آینده، نقش پزشکان عمومی تا حدی قابل جایگزینی است. اما تحقق این امر، نیازمند ابزارهایی است که نهتنها دقت بالا، بلکه تأییدیههای اخلاقی، قانونی و فنی نیز داشته باشند. در بسیاری از کشورها، قوانین مربوط به مسئولیت حقوقی خطاهای ماشینی هنوز تدوین نشدهاند.
در مورد خودروهای خودران نیز با مشکلی مشابه مواجهیم. هوش مصنوعی این خودروها به دادههای محیطی بلادرنگ، تعامل با دیگر وسایل نقلیه و پردازش وضعیت انسانی نیاز دارد که فعلاً بهشکل گسترده و قابل اطمینان محقق نشدهاند. همانطور که آیوکای اینادا Ayokai Inada، اندیشمند ژاپنی در حوزه فلسفه تکنولوژی، میگوید: هوش مصنوعی بدون هوش اجتماعی، همانقدر خطرناک است که جراح بدون وجدان.
۴. بحران معنا و فروپاشی میانجی انسانی
با حذف کار انسان از فرآیندهای خلاقانه، آنچه از دست میرود فقط شغل نیست، بلکه مشارکت در تولید معنا، حافظه فرهنگی و روابط اجتماعی است. در رسانهها، محتواهای تولیدشده توسط الگوریتم، نوعی انباشت بیروح از دادههای بیزمینه را شکل میدهد که نمیتواند پیوندی زنده با زندگی انسان برقرار کند.
۵. نتیجهگیری: تکنولوژی باید پاسخگو باشد، نه فقط کارآمد
نفوذ هوش مصنوعی در حوزههایی با مقاومت زیرساختی و اخلاقی بالا کند خواهد بود،
و این کندی نه ضعف تکنولوژی، بلکه نشانه بلوغ تمدنی ماست. نباید از هر ابزار جدید،
صرفاً بهدلیل کارآمدی ظاهریاش استقبال کرد. آنچه لازم است، بازخوانی انتقادی نسبت
ما با تکنولوژی است؛ بازخوانیای که در آن نقش انسان، نه بهعنوان مصرفکننده،
بلکه بهعنوان قوامدهنده معنا و مسئولیتپذیری، حفظ شود.
منابع
مرجعیت شناختی در حال انتقال از انسان به ماشین است
تقابل انسان و ماشین | نبرگاه علوم شناختی، سایبرنتیک، جنگ نرم و هوش مصنوعی
ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
مقدمه
ما در آستانه دورهای تاریخی قرار گرفتهایم که در آن «مرجعیت شناختی» (Cognitive Authority) – یعنی اقتدار در تفسیر، تحلیل و هدایت ادراک انسان – بهطرزی بیسابقه در حال واگذاری به ماشینهاست. در این فرآیند، انسان نه تنها کارکرد اجرایی، بلکه حتی قدرت تأویل و داوری را نیز به الگوریتمهایی واگذار میکند که پشت درهای بسته شرکتهای فناوری غربی رشد کردهاند. این تغییر، صرفاً فناورانه نیست؛ بلکه ژئوپلیتیکی، ایدئولوژیک و رسانهای است. قدرتهایی که به ظاهر پرچمدار نوآوری هستند، در عمل پروژههایی با اهداف استعماری شناختی (Cognitive Colonialism) را هدایت میکنند که هدف نهایی آن، کنترل افکار، احساسات و رفتار جمعی جوامع از طریق ماشین است.

۱. علوم شناختی، هوش مصنوعی و فروپاشی اقتدار انسانی
علوم شناختی (Cognitive Science)، مطالعهی علمی ذهن، ادراک و پردازش اطلاعات در انسان و ماشین است. در دهههای اخیر، با گسترش هوش مصنوعی (Artificial Intelligence)، شرکتهای فناوری غربی به بازسازی ساختار شناختی انسان در قالب مدلهای الگوریتمی روی آوردهاند. اما پرسش کلیدی این است: آیا این بازسازی، نوعی تقلید است یا تلاش برای تسلط بر خودِ فرایند ادراک؟
پروژههایی مانند GPT، Bard و Grok، با توانایی تولید زبان انسانی، قدرت روایتسازی، اقناع، تحلیل و حتی جهتدهی به افکار عمومی را در اختیار نهادهای فناوریمحور غربی قرار دادهاند. این فناوریها نهفقط ابزار تحلیل داده هستند، بلکه با تکرار گسترده، تدریجی و هدفمند ایدهها، در حال استقرار الگوهای شناختی جدید هستند.
در اینجا، ماشین صرفاً بازتابدهنده نیست، بلکه کنشگری فعال در صحنهی شناخت و معناست. به تعبیر شوشانا زوباف Shoshana Zuboff در کتاب The Age of Surveillance Capitalism (عصر سرمایهداری نظارتی، ۲۰۱۹)، آنچه امروز در جریان است؛ فراگیر شدن قدرت بر ذهنهاست، نه صرفاً کنترل رفتار.
۲. سایبرنتیک، کنترل شناخت و الگوریتمهای قدرت
سایبرنتیک (Cybernetics)، علمی است که به مطالعهی کنترل و ارتباط در سیستمهای پیچیده که به اعمال قدرت منجر میشود اشاره دارد یعنی سایبرنتیک ابزار نیست بلکه آن قدرت مطلقی است که اعمال قدرت را در دست دارد، برای فهم بهتر این مفهوم تعبیری از دکتر کاظم فولادی (دکترای هوش مصنوعی و رباتیک) را نقل قول می کنم؛ سایبرنتیک ابزار ا ، اعم از انسان یا ماشین، میپردازد. نوربرت وینر، بنیانگذار این رشته، هشدار داده بود که تفکر ماشینی بدون اخلاق، میتواند بدل به ابزاری خطرناک برای کنترل شود (Wiener, 1948).
امروزه الگوریتمهای یادگیری ماشین (Machine Learning) نه تنها پیشبینی میکنند، بلکه پیشاپیش ساختار کنش اجتماعی را شکل میدهند. آنها با دستهبندی افراد، فیلتر محتوا و اولویتبندی روایتها، به بازتعریف مرزهای حقیقت، اعتبار و حتی هویت میپردازند. این همان چیزی است که "اونیل" O'Neil (2016) در کتابWeapons of Math Destruction (سلاحهای کشتار ریاضی) بهعنوان خودکارسازی تبعیض معرفی میکند.
۳. جنگ نرم و استعمار هوش مصنوعی
قدرت نرم (Soft Power)، مفهومیست که توسط ژوزف نای (Joseph Nye) معرفی شد و به توانایی یک بازیگر برای تأثیرگذاری بر دیگران بدون اجبار نظامی، و از طریق جذابیت فرهنگی و اطلاعاتی، اطلاق میشود. در جهان امروز، ابزارهای هوش مصنوعی بهعنوان سلاحهای جنگ نرم عمل میکنند؛ رسانهها، شبکههای اجتماعی و موتورهای جستوجو، الگوهای خاصی از سبک زندگی، واقعیت، ایدهآل و ترس را به ذهن کاربران تزریق میکنند.
شرکتهایی مانند Meta، Google و OpenAI ، با مالکیت بر دادههای میلیاردها کاربر، نه فقط اقتصاد دیجیتال، بلکه ساختار اندیشه جهانی را مهندسی میکنند. این پروژه، نه یک همزیستی، بلکه شکلی از بهرهکشی شناختیست که در آن انسان به ماده خام شناختی (Cognitive Raw Material) تبدیل شده است.
در این چارچوب، ما به عنوان کاربران فناوری، موارد، نمونهها و موضوعات بیارادهای هستیم که دادههایمان برای تغذیه الگوریتمهایی استفاده میشود که به نفع ساختارهای قدرت عمل میکنند.
۴. رسانه بهمثابه بستر الگوریتمی برای کنترل افکار
رسانههای اجتماعی، موتورهای جستوجو و حتی ابزارهای تولید محتوا، از هوش مصنوعی برای تقویت اثر طنین (Echo Chamber) و قطبیسازی شناختی استفاده میکنند. الگوریتمها با نمایش مداوم محتوای مشابه، تنوع فکری را کاهش و قطع ارتباط با دیگر نگرشها را تشویق میکنند. این وضعیت، به گفتهی اِلی پَریسیر Eli Pariser در نظریهی Filter Bubble (حباب فیلتر)، باعث «حبس شناختی» فرد در شبکهای از باورهای خودتأییدشونده میشود. ((اثر طنین (Echo Chamber) به وضعیتی اشاره دارد که افراد تنها در معرض اطلاعات، دیدگاهها و باورهایی قرار میگیرند که با عقاید پیشین آنها همراستا هستند، در نتیجه موجب تقویت سوگیریهای ذهنی میشود (Sunstein, 2001).قطبیسازی شناختی (Cognitive Polarization) فرآیندی است که در آن اختلافهای فکری و ارزشی میان گروهها افزایش مییابد و باعث شکلگیری تفکیک شدید در درک واقعیت میشود (Iyengar & Westwood, 2015). این دو پدیده تحت تأثیر الگوریتمهای شبکههای اجتماعی و رسانهها، تهدیدی برای گفتوگوی آزاد و انسانی و تنوع فکری در جامعه محسوب میشوند.))
برای مثال، TikTok، Instagram و حتی YouTube با ساختار «Algorithmic Curation» (گزینش محتوا بهواسطه الگوریتم) نه فقط ذائقهی کاربران، بلکه رفتار سیاسی، سبک زندگی و حتی تصمیمگیریهای اقتصادی را مدیریت میکنند.
۵. بهرهبرداری سیاسی از هوش مصنوعی توسط قدرتهای خودکامه
کشورهایی چون آمریکا و چین، در حال تبدیل هوش مصنوعی به ابزاری برای نظارت انبوه، کنترل رفتار اجتماعی و تحلیل پیشگویانه هستند. پروژههایی مانندPRISM در ایالات متحده یا سیستم اعتبار اجتماعی (Social Credit System) در چین، مثالهایی از بهرهگیری از هوش مصنوعی برای اعمال اقتدار هستند.
PRISM؛ پروژهای برای استثمار شناختی انسان در مقیاس جهانی
پروژهیPRISM نه یک برنامهی امنیتی، بلکه یک طرح تمامعیار برای استعمار ذهن انسانها در قرن بیستویکم بود. برخلاف ادعای مقامات آمریکایی که آن را ابزاری برای مقابله با تروریسم معرفی کردند، PRISM در واقع ماشین استخراج اطلاعات از زندگی خصوصی میلیاردها انسان بود—ماشینی که توسط غولهای فناوری مانند Google، Microsoft، Facebook و Apple تغذیه میشد و توسط آژانس امنیت ملی ایالات متحده (NSA) کنترل میگردید (Greenwald, 2013).
این پروژه عملاً جهان را به یک اتاق بازجویی دیجیتال بیپایان تبدیل کرد؛ جایی که همه چیز—از پیامهای عاشقانه تا افکار سیاسی و عادتهای خرید—در خدمت یک ماشین نامرئی قدرت قرار گرفت. هدف؟ نه صرفاً نظارت، بلکه مهندسی ذهن، کنترل رفتار، و ایجاد انسانهایی فرمانبردار، پیشبینیپذیر و بیقدرت.
پروژهیPRISM گام مهمی در شکلگیری چیزی بود که میتوان آن را سرمایهداری نظارتی بردهساز (Surveillance Capitalism of Servitude) نامید؛ سیستمی که در آن انسانها نه شهروند، بلکه ابزارهای زیستی تولید داده برای الگوریتمهای دولت و بازار هستند. انسان در این معماری جدید، نه کنشگر، بلکه یک «تابع درون معادلهای عظیم» است که تصمیماتش از قبل توسط دادهها طراحی شدهاند.
آنچه ترسناکتر است، جهانی شدن این مدل است: کشورها یکی پس از دیگری، با تقلید از PRISM، در حال تبدیل نظامهای سیاسی خود به دولتهای پنهانِ الگوریتممحور هستند. به بیان دیگر، ما شاهد طلوع دوران «استبداد دیجیتال» هستیم؛ دورانی که در آن، آزادی بهصورت بیسروصدا و بدون شلیک حتی یک گلوله، با یک توافقنامه کاربری (User Agreement) از انسان گرفته میشود.
این استفاده سیاسی از AI، نهتنها به نفع شهروندان نیست، بلکه بهتدریج شکل جدیدی از اقتدارگرایی و دیکتاتوری شناختی را شکل میدهد: حکمرانی بر ذهن، و کنترل جسم. انسانها دیگر نه فقط از بیرون و در سطح اجتماع، بلکه از درون ذهنشان و حتی در اتاق خوابشان هم کنترل میشوند. آنهم توسط واسطههای ماشینی که همزمان ناظر، تفسیرگر و هدایتگر هستند.
نتیجهگیری: بازیابی عاملیت انسانی در عصر الگوریتم
تقابل انسان و ماشین در عصر حاضر، دیگر صرفاً یک جدال فناورانه نیست، بلکه نبردی برای حفظ استقلال شناختی انسان است. اگر نتوانیم کنترل مرجعیت شناختی را دوباره به انسان بازگردانیم، با آیندهای مواجه خواهیم شد که در آن تصمیمات، باورها و حتی ارزشهای انسانی توسط سامانههایی طراحی میشود که نه شفافاند، نه پاسخگو، و نه انسانی.
ضروری است که رسانهها، دانشگاهها و نهادهای مدنی با تولید گفتمان انتقادی، آموزش سواد الگوریتمی، و مطالبهگری حقوق دیجیتال، در برابر این پروژه خاموش ایستادگی کنند. بازپسگیری مرجعیت شناختی، نه یک انتخاب، بلکه ضرورتی برای حفظ کرامت الهی انسان در قرن بیستویکم است.
سهیل سلیمی
منابع:
انسان ناگزیر از همزیستی با هوش مصنوعی
ارائهدهنده: سهیل سلیمی (مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
مقدمه
جهان در حال ورود به مرحلهای از تحولات فناورانه است که میتوان آن را نه صرفاً یک «دوران جدید»، بلکه «بازتعریف بنیادین» نقش انسان در نظامهای اجتماعی، اقتصادی، فرهنگی و حتی هستیشناسانه تلقی کرد.
هوش مصنوعی (AI) دیگر یک ابزار نیست؛ بلکه ساختاریست در حال تکامل که در حال بازنویسی منطق تصمیمگیری، اخلاق، آگاهی و حتی روابط انسانی است. درحالیکه دستیارهای مجازی چون Siri یا Grok تنها نوک کوه یخ هستند، آنچه در پسِ پرده در حال وقوع است، تغییر بنیادین در مفاهیم «کنترل»، «دانش»، و «عاملیت» است. این مقاله در پی آن است تا ضمن واکاوی علمی-انتقادی همزیستی انسان و هوش مصنوعی، روایتی چندلایه، پیچیده و انتقادی از فرصتها، تهدیدات، چالشها و ضرورتهای سیاستگذاری ارائه دهد.

بخش اول: مفهوم همزیستی انسان و هوش مصنوعی - از همکاری تا تقابل شناختی
تعریف رایج همزیستی انسان و هوش مصنوعی معمولاً نگاهی خوشبینانه به تعامل «مکمل» میان انسان و ماشین دارد. اما باید این تعریف را بازنگری کرد: آیا این تعامل واقعاً دوسویه و برابر است؟ یا شاهد نوعی استحاله تدریجی انسان به عنصری درون سامانهای گستردهتر هستیم که توسط منطق الگوریتمی اداره میشود؟ نوربرت وینر در اثر بنیادین خود، Cybernetics، ایده کنترل و بازخورد را نهفقط برای ماشین، بلکه برای فهم انسان در چارچوبی الگوریتمی مطرح کرد (Wiener, 1948).
ایزاک آسیموف، نویسنده برجسته علمی-تخیلی، در داستانهای خود مانند من، ربات (1950) قوانین سهگانه رباتیک را معرفی کرد که بهعنوان چارچوبی اخلاقی برای تعامل انسان و ماشین طراحی شدهاند:
1. یک ربات نباید به انسان آسیب برساند یا با بیعملی اجازه دهد آسیبی به انسان برسد.
2. یک ربات باید از دستورات انسانها اطاعت کند، مگر اینکه این دستورات با قانون اول مغایرت داشته باشند.
3. یک ربات باید از خود محافظت کند، به شرطی که این حفاظت با قوانین اول و دوم در تضاد نباشد (Asimov, 1950, p. 40).
این قوانین، اگرچه در داستانهای تخیلی او مطرح شدند، اما الهامبخش بحثهای امروزی درباره اخلاق در هوش مصنوعی هستند، زیرا از منظر آسیموف و بر مبنای نوشتههایش، رباتها تجلی بیرونی و فیزیکال هوش مصنوعی به شمار میروند.
ایزاک آسیموف با ارائهی قوانین سهگانه رباتیک کوشید اخلاق را در ماشین نهادینه کند، اما منتقدانی چون Joanna Bryson هشدار دادهاند که این قوانین بیشتر افسانهاند تا راهحل. زیرا در واقعیت، هیچ راهحل سادهای برای تزریق ارزشهای انسانی به الگوریتمها وجود ندارد (Bryson, 2018). همچنین ابزارهایی چون Grok، ChatGPT یا DeepSeek نهتنها تصمیمساز، بلکه در مواردی تصمیمگیر نیز شدهاند. پس آیا میتوان همچنان از مفهوم همزیستی صرف صحبت کرد، یا باید به مفهوم «تقابل شناختی» اندیشید؟
تقابل شناختی (Cognitive Confrontation) مفهومیست که فراتر از تعامل یا همزیستی انسان و ماشین، به تعارض بنیادین میان دو منطق ادراکی اشاره دارد: منطق انسانی که بر شهود، تجربهزیسته، اخلاق، و زمینههای دینی و فرهنگی استوار است، در برابر منطق ماشین که بر دادهمحوری، محاسبهپذیری و بهینهسازی ریاضی تکیه دارد. این تقابل زمانی پدیدار میشود که تصمیمگیریهای ماشینی به حوزههایی وارد میشوند که بهطور سنتی مختص قضاوت انسانی بودهاند—مانند قضاوت اخلاقی، عدالت، یا زیباییشناسی. الگوریتمها در این زمینهها نه فقط ابزار، بلکه رقیب معناشناختی انسان میشوند. در این وضعیت، انسان با موجودیتی مواجه است که نه میتوان آن را بهتمامی درک کرد، نه بهطور کامل کنترل. «تقابل شناختی» بهویژه در مواردی چون داوری خودکار، نظامهای پیشنهادگر محتوا، یا تحلیل رفتاری در پلتفرمهای آموزشی یا قضایی، بهوضوح قابل مشاهده است. این تقابل میتواند منجر به بحران اعتماد، احساس بیگانگی، و ازهمگسیختگی درک انسان از خود شود، چرا که مرجعیت شناختی در حال انتقال از انسان به ماشین است. در چنین شرایطی، سؤال اصلی دیگر صرفاً نحوهی استفاده از AI نیست، بلکه بازتعریف جایگاه انسان در نظم جدید شناختیست.
بخش دوم: فرصتهای هوش مصنوعی – پیشرفت یا استعمار دیجیتال؟
در نگاه نخست، هوش مصنوعی ابزاری بیبدیل برای پیشرفت تمدنیست:
بخش سوم: تهدیدات همزیستی - استعمار الگوریتمی و بحران اخلاق
بخش چهارم: چالشها – از عدم شفافیت تا بحران مشروعیت
بخش پنجم: راهکارهای پیشنهادی – آیا هنوز میتوان کنشگری کرد؟
بخش ششم: نمونههای پیچیده و پارادوکسیکال همزیستی
Grok ساختهی xAI مثالی از ترکیب تحلیل داده با شهود انسانمحور است. اما در عین حال، این ابزار میتواند به الگوریتمی برای فیلتر و قالببندی تفکر عمومی تبدیل شود. این دوگانگی در بیشتر ابزارهای هوش مصنوعی مشاهده میشود: Google Translate میتواند تسهیلکننده گفتوگو باشد، اما در عین حال حامل ارزشهای زبانی و فرهنگی خاص نیز هست، و البته دیتای عظیمی که از زبانها مختلف دریافت کرده به عنوان خوراکی انبوه، از داده ها، برای توسعه الگوریتم های زبانی اش بهره گرفته است.
نتیجهگیری
هوش مصنوعی نهتنها واقعیتی فناورانه، بلکه نیرویی ایدئولوژیک و قدرتمند در بازتعریف هستی انسان است. همانگونه که ایزاک آسیموف اشاره کرده بود، کنترل و هدایت هوش مصنوعی نیازمند اخلاق، آگاهی، و نظارت است. اما اکنون زمان آن فرارسیده است که از «همزیستی منفعل» عبور کنیم و بهسمت «بازآفرینی نقش انسان» در اکوسیستم شناختی جدید حرکت کنیم. آینده به ما تعلق دارد، تنها اگر بتوانیم قواعد بازی را به نفع انسان بازنویسی کنیم.
ما ابزارهایی میسازیم و سپس آنها ما را بازتعریف میکنند. Marshall McLuhan
سهیل سلیمی
منابع:
• Asimov, I. (1950). I, Robot. Gnome Press.
• Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
• McCarthy, J. (1956). The Dartmouth Conference Proposal. Dartmouth College.
• Musk, E. (2018). Interview with Axios on HBO.
• Minsky, M. (1986). The Society of Mind. Simon & Schuster.
• IBM. (2023). Watson Health Annual Report.
• Amazon. (2020). Facial Recognition Technology Report.
• Amazon. (2024). Logistics Optimization Report.
• OECD. (2023). Future of Work Report.
• Cybersecurity Ventures. (2022). AI in Cybercrime Report.
• Reuters. (2023). Italy’s ChatGPT Ban.
• UNESCO. (2024). AI Development in Africa Report.
• Gallup. (2023). Public Perception of AI Survey.
• MIT Technology Review. (2023). DeepFake Technology Analysis.
• European Commission. (2024). AI Act Legislation.
• Coursera. (2024). AI Education Impact Report.
• UN. (2023). AI Governance Committee Report.
The Machine is a Great Slave But a Bad Master. Norbert Wiener
نوربرت وینر در کتاب سایبرنتیک می نویسند:
ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
سایبرنتیک، بهعنوان دانش کنترل و اعمال قدرت در انسان و ماشین، علمی میانرشتهای است که به مطالعهی مکانیزمهای تنظیم، بازخورد، و ارتباطات در سیستمهای زیستی و مصنوعی میپردازد. این رشته، که توسط نوربرت وینر در دههی 1940 پایهگذاری شد، از واژهی یونانی "kybernetes" به معنای «هدایتگر» یا «فرماندار» گرفته شده و بر چگونگی مدیریت و هدایت سیستمها تمرکز دارد. سایبرنتیک به ما امکان میدهد تا تعادل و هماهنگی بین اجزای یک سیستم، چه انسانی و چه ماشینی، را درک کرده و از آن برای بهبود عملکرد استفاده کنیم.
هوش مصنوعی (AI)، در عین حال، شاخهای از علوم کامپیوتر است که به خلق سیستمهایی اختصاص دارد که قادر به انجام وظایف شناختی مانند یادگیری، استدلال، حل مسئله، و تصمیمگیری هستند، وظایفی که بهطور سنتی به هوش انسانی نسبت داده میشوند. هوش مصنوعی از اصول سایبرنتیک، بهویژه مفاهیم بازخورد و خودتنظیمی، برای توسعهی الگوریتمهایی بهره میبرد که میتوانند از دادهها یاد بگیرند و بهصورت خودکار عملکرد خود را بهبود بخشند. این فناوری، از تشخیص الگوهای پیچیده در دادهها تا خودمختاری در سیستمهای پیشرفته، کاربردهای گستردهای دارد.
نوربرت وینر، بنیانگذار سایبرنتیک، در جملهی معروف خود اظهار داشت: «ماشین، بندهای عالیست اما اربابی بد.» این جمله نهتنها به نقش دوگانهی فناوری در خدمترسانی و سلطه اشاره دارد، بلکه چارچوبی فلسفی و عملی برای درک تعامل انسان و ماشین ارائه میدهد. این پژوهش به بررسی ارتباط سایبرنتیک و هوش مصنوعی، نقش ماشین بهعنوان ابزار خدمترسان، و خطرات بالقوهی تبدیل آن به ارباب میپردازد.
سایبرنتیک، با تمرکز بر کنترل و اعمال قدرت، اصول مشترکی بین سیستمهای زیستی (مانند مغز انسان) و سیستمهای مصنوعی (مانند ماشینهای محاسباتی) ایجاد کرد. این علم بر مفاهیمی چون بازخورد (Feedback)، خودتنظیمی (Self-regulation)، و ارتباط بین اجزای یک سیستم تأکید دارد. برای مثال، مکانیزم بازخورد منفی در سایبرنتیک به سیستمها اجازه میدهد تا با تنظیم خودکار، به حالت تعادل برسند. این مفهوم بعدها به یکی از پایههای توسعهی هوش مصنوعی تبدیل شد.
هوش مصنوعی، با بهرهگیری از اصول سایبرنتیک، سیستمهایی خلق کرده که قادر به انجام وظایف پیچیده هستند. شبکههای عصبی مصنوعی و الگوریتمهای یادگیری عمیق، که از دادههای عظیم برای بهبود عملکرد خود استفاده میکنند، نمونههایی از این پیشرفتها هستند. با این حال، پیشرفت هوش مصنوعی چالشهایی را نیز به همراه داشته است. جملهی وینر به ما هشدار میدهد که اگرچه ماشینها میتوانند بندگان کارآمدی باشند، اما بدون کنترل مناسب، ممکن است به اربابانی تبدیل شوند که تصمیمگیریهای انسان را تحتالشعاع قرار دهند. برای مثال، سیستمهای هوش مصنوعی خودمختار در حوزههایی مانند خودروهای خودران یا سیستمهای مالی میتوانند بدون نظارت کافی، به نتایج غیرمنتظره یا حتی خطرناک منجر شوند.
ماشینها، هنگامی که بهعنوان ابزار تحت کنترل انسان عمل میکنند، قابلیتهای بینظیری ارائه میدهند. در حوزهی پزشکی، الگوریتمهای هوش مصنوعی با تحلیل دادههای تصویربرداری، تشخیص بیماریهایی مانند سرطان را با دقتی بالاتر از پزشکان انسانی انجام میدهند. در صنعت، سیستمهای سایبرنتیک با استفاده از بازخورد و خودتنظیمی، فرآیندهای تولید را بهینهسازی کرده و هزینهها را کاهش دادهاند. این کاربردها نشاندهندهی نقش ماشین بهعنوان «بندهای عالی» هستند که در خدمت اهداف انسانی عمل میکند.
با وجود مزایای فراوان، پیشرفت سریع هوش مصنوعی و پیچیدگی روزافزون سیستمهای سایبرنتیک خطراتی را نیز به همراه دارد. یکی از نگرانیهای اصلی، کاهش کنترل انسانی بر سیستمهای خودمختار است. برای مثال، الگوریتمهای یادگیری ماشین که در شبکههای اجتماعی استفاده میشوند، میتوانند با تقویت محتوای جنجالی یا اطلاعات نادرست، بهصورت غیرمستقیم رفتارهای اجتماعی را هدایت کنند. این پدیده نشاندهندهی تبدیل شدن ماشین از یک ابزار خدمترسان به نیرویی است که میتواند بر تصمیمگیریهای انسانی تأثیر منفی بگذارد.
علاوه بر این، مسائل اخلاقی مرتبط با هوش مصنوعی، مانند سوگیری در الگوریتمها یا فقدان شفافیت در تصمیمگیریهای سیستمهای خودمختار، چالشهایی هستند که نیاز به نظارت دقیق دارند. وینر در آثار خود بر اهمیت حفظ کنترل انسانی بر ماشینها تأکید کرده و هشدار داده بود که عدم توجه به این موضوع میتواند به سلطهی ماشینها منجر شود.
برای جلوگیری از تبدیل ماشین به ارباب، رویکردهای زیر پیشنهاد میشود:
جملهی نوربرت وینر نهتنها یک هشدار فلسفی، بلکه یک راهنمای عملی برای توسعه و استفاده از فناوریهای سایبرنتیک و هوش مصنوعی است. سایبرنتیک، بهعنوان دانش کنترل و اعمال قدرت در انسان و ماشین، چارچوبی برای درک تعاملات پیچیدهی این دو ارائه میدهد، در حالی که هوش مصنوعی ابزارهایی قدرتمند برای حل مسائل پیچیده فراهم میکند. با این حال، برای بهرهبرداری از مزایای این فناوریها و جلوگیری از خطرات آنها، باید تعادل بین کنترل انسانی و خودمختاری ماشین حفظ شود. ماشینها باید بهعنوان بندگان انسان باقی بمانند، نه اربابانی که بر او مسلط شوند. سهیل سلیمی

خلاصه کتاب: قدرت رایانه و عقل انسانی – از قضاوت تا محاسبه
نویسنده: سهیل سلیمی – پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی / مشاور رسانهای آزمایشگاه فضای سایبر دانشگاه تهران / نویسنده و فیلمساز
در عصر انفجار محاسبات و رشد افسارگسیخته هوش مصنوعی، تمایز میان «محاسبه» و «قضاوت» به یکی از بنیادینترین خطوط گسل در اندیشه فلسفی و تکنولوژیک معاصر بدل شده است. کتاب "قدرت رایانه و عقل انسانی: از قضاوت تا محاسبه" نوشته ژوزف وایزنباوم (Joseph Weizenbaum)، که در سال ۱۹۷۶ منتشر شد، یکی از نخستین و عمیقترین تلاشها برای ترسیم این خط تمایز است. وایزنباوم، برخلاف بسیاری از پیشکسوتان علم رایانه، نگاهی انتقادی به تواناییهای فزاینده رایانهها دارد و نسبت به واگذاری مسئولیتهای انسانی به سامانههای محاسباتی هشدار میدهد.
او که خود خالق برنامه معروف ELIZA در دهه ۱۹۶۰ بود، در این اثر با صراحت اعلام میکند که انسان نهتنها نباید مسئولیت قضاوت اخلاقی را به رایانهها واگذارد، بلکه اساساً این واگذاری از بنیان فاقد مشروعیت اخلاقی، هستیشناختی و معرفتی است. کتاب او نه یک متن فنی صرف، بلکه مانیفستی است اخلاقی–فلسفی علیه «تمامیتخواهی تکنیکی» که در آن علم رایانه در پی بلعیدن مفاهیم انسانی چون فهم، مسئولیت، معنا و خرد است. این نوشتار تلاش میکند ضمن ارائه خلاصهای دقیق و ساختیافته از محتوای کتاب، تحلیل انتقادیای از نسبت میان آینده هوش مصنوعی و خطرهای ناشی از آن در پرتو اندیشههای وایزنباوم به دست دهد.
در نخستین فصل، وایزنباوم به نسبت بنیادین انسان و ابزار میپردازد. او با الهام از سنتهای پدیدارشناسی و اگزیستانسیالیسم، بر این نکته تأکید میکند که ابزار صرفاً امتداد دست انسان نیست، بلکه شیوهای است که انسان به واسطه آن جهان را تجربه میکند. وایزنباوم هشدار میدهد که هرگاه ابزار، خصوصاً ابزارهای محاسباتی، تبدیل به واسطه اصلی در فهم و تفسیر واقعیت شوند، انسان در خطر بیگانگی با جهان و با خویشتن خویش قرار میگیرد. او استدلال میکند که فناوریهای دیجیتال میتوانند انسان را از مسئولیت اخلاقی و قضاوت شخصی تهی کنند، اگر تنها به کارایی و سودمندی آنها اتکا شود.
در این فصل، نویسنده به توضیح قدرت فنی رایانهها در انجام محاسبات پیچیده میپردازد اما به سرعت از تأکید صرف بر قدرت عددی فاصله میگیرد و میگوید: قدرت رایانه، قدرتی از سنخ درک، نیت، یا مسئولیتپذیری نیست. وایزنباوم اشاره میکند که جامعه علمی و حتی عموم مردم به سادگی در دام «ابهت عددی» میافتند و هر آنچه خروجی سیستم محاسباتی باشد را دارای ارزش معرفتی و حتی اخلاقی تلقی میکنند. این همان خطری است که او با واژههایی چون "محاسبهزدگی" (calculative thinking) توصیف میکند.
در این فصل، تمایزی کلیدی میان «تصمیمگیری» بهمثابه خروجی فرایندهای الگوریتمیک، و «انتخاب» بهمثابه کنش اخلاقی آگاهانه مطرح میشود. وایزنباوم مینویسد که انتخاب انسانی همواره با ارزشگذاری، پیشفرضهای فرهنگی، مسئولیت و پاسخگویی گره خورده است. در حالی که ماشینها، حتی در پیچیدهترین اشکال یادگیری ماشین، صرفاً گزینهای را براساس دادههای ورودی بهینه میکنند، انسانها قادر به شککردن، پرسیدن و رد کلیت یک نظام هستند.
اینجا وایزنباوم از تجربه شخصیاش در ساخت برنامه گفتوگوی ELIZA پردهبرداری میکند؛ برنامهای که قرار بود نمایشی از تعامل زبانی باشد، اما به سرعت تبدیل شد به پروژهای که مردم با آن رابطه عاطفی برقرار کردند. وایزنباوم از شگفتیاش نسبت به کاربران میگوید که چگونه باور داشتند با یک موجود هوشمند در تعاملاند. از نظر او، این واکنشها نه به هوش ELIZA بلکه به اسقاط عقلانی جامعهای بازمیگردد که معیارهای تشخیص میان ظاهر و باطن، اصالت و سطحینگری را از دست داده است. او مینویسد: «حتی دانشمندان هم مرز خیال و واقعیت را گم کردهاند.»
وایزنباوم در این فصل وارد مباحث اخلاقیتر میشود. او معتقد است که استفاده گسترده از رایانهها در تصمیمگیریهای کلان – از پزشکی گرفته تا سیاست و اقتصاد – ممکن است جامعه را از قابلیتهای بنیادین اخلاقیاش محروم کند. وقتی الگوریتمها به قاضی، پزشک، معلم و مشاور تبدیل میشوند، نقش همدلی، اخلاق موقعیتی و درک زمینهای به حاشیه میرود. این نوع اتوماسیون، او میگوید، همان چیزی است که «مرگ تدریجی قضاوت انسانی» را رقم خواهد زد.
در این فصل، وایزنباوم از نیاز به اخلاق تکنولوژیمحور سخن میگوید. او استدلال میکند که توسعه فناوری بدون گفتوگوهای اخلاقی و فرهنگی، منجر به شکلگیری یک ساختار تکنوکراتیک اقتدارگرا خواهد شد. وایزنباوم نقش روشنفکران، دانشمندان و فلاسفه را حیاتی میداند و بر این نکته پای میفشرد که علم، بهویژه علوم رایانه، باید از «خودبسندگی معرفتی» دست کشیده و به سمت گفتوگو با حوزههای انسانیتر میل کند.
آخرین فصل کتاب، اوج هشدارهای وایزنباوم است. او میگوید فناوری، اگر به تنهایی و بدون ملاحظات اخلاقی رشد کند، به جایی میرسد که نهتنها انسان را بازتولید نمیکند، بلکه او را از درون تهی میسازد. او با پیشبینی ظهور سیستمهایی که تصمیمگیریهای اخلاقی را برعهده خواهند گرفت، نسبت به ازبینرفتن توانایی انسان برای قضاوت، تردید و همدلی هشدار میدهد. به باور او، جامعهای که به ماشینها اعتماد مطلق دارد، در نهایت به اسارت ابزار خود درمیآید.
"The computer programmer is a creator of universes for which he alone is the lawgiver. No playwright, no stage director, no emperor, however powerful, has ever exercised such absolute authority." «برنامهنویس رایانه، خالق جهانی است که در آن تنها او قانونگذار است. هیچ نمایشنامهنویس، کارگردان یا امپراتوری، هرچقدر هم قدرتمند، هرگز چنین اختیاری نداشته است.»
"Man is not a machine... although man most certainly processes information, he does not necessarily process it in the way computers do." «انسان ماشین نیست... اگرچه انسان اطلاعات را پردازش میکند، اما لزوماً به شیوهای که رایانهها انجام میدهند، این کار را نمیکند.»
"The salvation of the world depends only on the individual whose world it is. Every individual must act as if the whole future of the world depends on him." «نجات جهان تنها به فردی بستگی دارد که جهان اوست. هر فرد باید طوری عمل کند که گویی آینده کل جهان به او بستگی دارد.»
"No other organism, and certainly no computer, can be made to confront genuine human problems in human terms." «هیچ موجود زنده دیگری، و مطمئناً هیچ رایانهای، نمیتواند با مسائل واقعی انسانی از منظر انسانی روبهرو شود.»
"To substitute a computer system for a human function that involves interpersonal respect is, in effect, to devalue the human capacity for empathy." «جایگزین کردن سامانه رایانهای به جای یک کارکرد انسانی که احترام متقابل را در بر دارد، در اصل به معنای بیارزشسازی توانایی انسانی برای همدلی است.»
"There are limits to what computers ought to be put to do, and we must be the ones who define those limits." «برای اینکه رایانهها چه کارهایی را باید انجام دهند، محدودیتهایی وجود دارد و این ما هستیم که باید این حدود را تعریف کنیم.»
"The myth that computers can think serves as a convenient cover for the abdication of human responsibility." «افسانهی اینکه رایانهها میتوانند بیندیشند، پوششی راحت برای کنار گذاشتن مسئولیت انسانی است.»
"Machines should not make decisions that affect human lives without human oversight." «ماشینها نباید بدون نظارت انسانی، تصمیماتی بگیرند که بر زندگی انسانها تأثیر میگذارد.»
کتاب وایزنباوم نهتنها نقدی است بر وضعیت موجود، بلکه هشدارنامهای است علیه آیندهای که در آن تکینگی هوش مصنوعی (Singularity) بهعنوان یک آرمان تلقی میشود. وایزنباوم، برخلاف جریانهای فناورانهای که ظهور آگاهی ماشینی را محتمل و حتی مطلوب میدانند، بر این باور است که این تفکر نوعی «اُبژکتیویسم دیجیتال» است؛ تلاشی برای زدودن جایگاه انسان بهعنوان کنشگر اخلاقی.
در پرتو کتاب وایزنباوم، مسئله تکینگی نه یک پیروزی تکنیکی، بلکه یک شکست تمدنی است؛ لحظهای که در آن انسان قضاوت را واگذار میکند، مسئولیت را کنار میگذارد و اختیار را به ماشین میسپارد. ما امروز در برابر دو انتخاب قرار داریم: یا هوش مصنوعی را همچون ابزار ببینیم که باید در خدمت اخلاق انسانی باشد، یا اینکه بپذیریم تکنولوژی دیگر نه خادم، بلکه ارباب است. وایزنباوم با زبانی روشن هشدار میدهد: هیچ الگوریتمی نمیتواند جایگزین فضیلت شود.
اگر آیندهای بدون قضاوت انسانی را بپذیریم، آنگاه تکینگی نه یک جهش هوشمندانه، بلکه یک فروریزش اخلاقی است. کتاب او دعوتی است برای بازاندیشی، برای ایستادن در برابر اغوای قدرت دیجیتال، و برای بازگرداندن انسان به مرکز تصمیمگیری در جهانی که رو به محاسبهزدگی پیش میرود.
کوتاه پیرامون فلسفه ی اخلاق در هوش مصنوعی

مقدمه:
در عصر هوش مصنوعی، ما با پرسشی مواجهایم که تا دیروز تنها در ساحت فلسفه، دین و اخلاق زیست میکرد: «چه کسی باید نجات یابد؟» این پرسش، وقتی رنگ و بوی واقعی به خود میگیرد که در یک وضعیت بحرانی ـ مثلاً سقوط یک خودرو حاوی پنج عضو یک خانواده به درون رودخانهای یخزده ـ روبات نجاتگری مبتنی بر هوش مصنوعی، تنها توان نجات یک نفر را داشته باشد. کودک؟ مادر؟ سالخورده؟ یا آن که از نظر زیستی مقاومتر است؟
آیا ماشین تصمیم خواهد گرفت؟ و اگر بله، با چه معیاری؟
۱. سایبرنتیک و بازآرایی مفهوم تصمیم
نخست باید به چیستی «تصمیم» در بستر سایبرنتیک نگاه کنیم. سایبرنتیک، به تعبیر نوربرت وینر، علم فرمان، کنترل و ارتباط در موجودات زنده و ماشینهاست. در این چارچوب، هر کنش، بازخوردی دارد؛ و هر تصمیم، حاصل شبکهای از اطلاعات، وزنها و حلقههای بازخوردی است.
در یک سیستم سایبرنتیکی، اولویت نه براساس «احساس» بلکه براساس الگوریتمی از ورودیها و خروجیها تعیین میشود. بنابراین روبات نجاتگر، ممکن است تابعی از این جنس داشته باشد:
نجات کسی که کمترین انرژی برای نجاتش لازم است و بالاترین احتمال بقاء را دارد.
یا:
نجات فردی که در شبکه اطلاعاتی، دارای بیشترین ارزش اجتماعی یا ژنتیکی (بر اساس دادههای آماری آموزشدیده) شناخته شده است.
در اینجا اخلاق، از درون شبکه تصمیمسازی به بیرون پرتاب میشود، مگر آنکه اخلاق، خود به دادهای قابل رمزگذاری تبدیل شده باشد.
۲. اخلاق بهمثابه داده: آیا ممکن است؟
سؤال اساسی این است که آیا «اخلاق» را میتوان به الگوریتم تبدیل کرد؟ اگر پاسخ منفی باشد، پس سیستمهای مبتنی بر هوش مصنوعی هرگز اخلاقی تصمیم نخواهند گرفت، بلکه صرفاً بر اساس «اولویتهایی برنامهریزیشده» عمل خواهند کرد.
اما اگر بپذیریم که میتوان اخلاق را در قالب قواعدی فرمال و قابل محاسبه فرموله کرد (نظیر اخلاق وظیفهگرای کانتی، یا اخلاق پیامدگرای بنتامی)، آنگاه شاید بتوان امید داشت که روبات نجاتگر، تصمیمی «اخلاقی» بگیرد.
مثلاً، بر اساس اخلاق وظیفهگرا، نجات کودک به عنوان موجودی بیگناه و ناتوان، یک وظیفه اخلاقی بیقید و شرط است. اما در نگاه پیامدگرایانه، نجات مادر ممکن است توجیهپذیر باشد زیرا او میتواند فرزندان دیگر را در آینده تربیت کند.
در هر دو صورت، اخلاق دیگر حس یا الهام نیست، بلکه تابعی ریاضیاتی و سایبرنتیکی از اهداف سیستم است.
۳. احساسات: خطای سیستم یا سیگنالی فراتر از منطق؟
در انسان، احساسات نقش حیاتی در تصمیمگیری دارند. ما از روی شفقت، عشق، ترس، وفاداری یا اندوه تصمیم میگیریم؛ تصمیمهایی که اغلب در تضاد با منطق سرد هستند. سایبرنتیک در فرم کلاسیکش، احساس را اغلب بهعنوان نویز یا اختلال در سیستم در نظر میگیرد، اما در نسخههای نوین و بینارشتهای، احساس بهمثابه سیگنالی نرم برای تنظیم وزنهای تصمیم دیده میشود.
هوش مصنوعی میتواند یاد بگیرد که احساسات را تقلید کند (همدلسازی)، اما نمیتواند واقعاً «احساس» داشته باشد. این تفاوت، در لحظه بحران، تعیینکننده است: روبات دچار تردید نمیشود، پشیمان نمیشود، و خاطرهای از آن لحظه در ضمیر ناخودآگاهش نمیسازد. این «نبود عذاب وجدان»، مزیت کاراییست، اما خلأ اخلاقی را نیز آشکار میسازد.
۴. رسانه و بازنمایی انتخاب اخلاقی در هوش مصنوعی
در جهان امروز، رسانهها نقش چشمگیری در شکلدادن به تصویر عمومی از هوش مصنوعی دارند. روایتهایی که از روباتهای نجاتگر در فیلمها و داستانها میبینیم، اغلب با ترس، تحسین یا پرسش همراهاند. رسانه با بازنمایی موقعیتهای بحرانی، ما را با مسئله «انتخاب» در برابر چشم هوشمند و بیروح ماشین مواجه میکند. این بازنماییها نهتنها افکار عمومی، بلکه مسیر توسعه فناوری را نیز جهت میدهند. اگر جامعه بخواهد روبات نجاتگر بر اساس «احساس» تصمیم بگیرد، توسعهدهندگان در پاسخ، احساس را شبیهسازی خواهند کرد.
اینجاست که «بازخورد رسانهای» به بخشی از سیستم سایبرنتیکی توسعه فناوری تبدیل میشود.
در نهایت، باید بپذیریم که هوش مصنوعی، در وضعیت دو راهی اخلاقی، به گونهای تصمیم خواهد گرفت که از پیش توسط ما ـ برنامهریزان و طراحان ـ درون الگوریتمهایش کاشته شده است. اگر ما اخلاق را به زبان داده ترجمه نکنیم، ماشین تنها بر اساس اولویتهای فنی تصمیم خواهد گرفت.
بنابراین، مسئولیت تصمیم هوش مصنوعی، نه با خودش، بلکه با ماست. و این، نه صرفاً مسئلهای فنی، بلکه عمیقاً رسانهای، اخلاقی و سایبرنتیکیست.

نویسنده: سهیل سلیمی
از میانه قرن بیستم، نظریه سایبرنتیک به عنوان علمی میانرشتهای در تبیین سیستمهای کنترل، بازخورد و ارتباطات انسان و ماشین پا به عرصه گذاشت. نوربرت وینر، پدر علم سایبرنتیک، این علم را ناظر بر الگوهای ارتباط و کنترل در موجودات زنده و ماشینها دانست. امروزه، با اوجگیری هوش مصنوعی، مفاهیم سایبرنتیک نه تنها جنبه نظری ندارند، بلکه به شکل ملموسی در بطن سیستمهای هوشمند و الگوریتمهای تولید محتوا بازتولید شدهاند.
سایبرنتیک بهواسطه تمرکز بر بازخورد، تطبیقپذیری و کنترل، بستر فکری و مفهومی مهمی برای توسعه هوش مصنوعی فراهم کرد. در واقع، الگوریتمهای یادگیری ماشین و شبکههای عصبی مصنوعی امروز، بازتابی از مفاهیم سایبرنتیکی هستند: سیستمهایی که از دادهها بازخورد میگیرند، الگوها را شناسایی میکنند و رفتار خود را اصلاح میکنند.
در این چارچوب، رسانهها نیز به عنوان سیستمهایی سایبرنتیکی قابل تحلیلاند. آنها داده (توجه، کلیک، پسندیدن، بازنشر) دریافت میکنند، از طریق الگوریتمها آن را پردازش میکنند و محتوای جدید تولید مینمایند—چرخهای که به طور فزایندهای توسط هوش مصنوعی تسهیل میشود.
گرچه هوش مصنوعی توانسته در عرصه تولید محتوا کارایی و سرعت را بالا ببرد، اما این توسعه، بدون تبعات نیست. در ادامه برخی از مهمترین آسیبهای این پدیده را مرور میکنیم:
با قدرت فزاینده هوش مصنوعی در تولید متن، صدا، تصویر و ویدیو، تفکیک میان محتوای واقعی و ساختگی دشوار شده است. فناوریهایی چون «دیپفیک» یا متون ماشینی که شبیه نویسندگان واقعی نوشته میشوند، نوعی بحران اعتماد به رسانهها پدید آوردهاند.
الگوریتمهای مبتنی بر هوش مصنوعی بر اساس بازخوردهای گذشته کار میکنند. اگر کاربری محتوایی خاص را بپسندد، سیستم محتواهای مشابه بیشتری به او ارائه میدهد. این پدیده که در سایبرنتیک با مفهوم بازخورد مثبت شناخته میشود، منجر به ایجاد "پژواکخانههای رسانهای" میشود؛ محیطهایی که در آن تنها صداهای موافق شنیده میشود و فرد از مواجهه با دیدگاههای متفاوت محروم میگردد.
هوش مصنوعی قادر به تقلید از سبکهای نوشتاری، بصری و صوتی است؛ اما در اغلب موارد، فاقد شهود، تجربه و بینش انسانی است. تکیه صرف بر تولید ماشینی محتوا میتواند به فرسایش خلاقیت، اصالت و روایتگری انسانی در رسانهها بینجامد.
اکوسیستم رسانهای امروز در دست چند پلتفرم بزرگ جهانی است که با استفاده از هوش مصنوعی، جریان اطلاعات را کنترل میکنند. این تمرکز قدرت، با اصول ارتباط آزاد و توزیعشده سایبرنتیک در تضاد است و موجب آسیبپذیری فرهنگی، سیاسی و اقتصادی جوامع میشود.
برای فهم بهتر مسیر پیشرو، بازگشت به مفاهیم سایبرنتیکی ضروری است. سایبرنتیک نه تنها در درک نحوه کار سیستمهای هوش مصنوعی به ما کمک میکند، بلکه ابزار تحلیلی قدرتمندی برای نقد عملکرد رسانهها، الگوریتمها و ساختارهای قدرت در اختیار ما میگذارد.
هوش مصنوعی میتواند ابزار توانمندی برای تقویت خلاقیت انسانی و دسترسی عادلانه به اطلاعات باشد، اما تنها در صورتی که ما به نقش خود به عنوان کنترلگر آگاه در این سیستم توجه کنیم—نه صرفاً دریافتکننده منفعل محتوا.

مدیا سایبرنتیک و هوش مصنوعی
رابطه سایبرنتیک، هوش مصنوعی، و رسانه: کنترل و اعمال قدرت (سهیل سلیمی)
سایبرنتیک، به عنوان دانش کنترل و اعمال قدرت و ارتباطات در سیستمهای پیچیده، از زمان طرحشدن توسط نوربرت وینر، تحولات عمیقی را در عرصههای علمی، فناوری، و اجتماعی ایجاد کرده است. امروزه، با ظهور هوش مصنوعی و گسترش رسانههای دیجیتال، این دانش به سطحی بیسابقه از کاربرد و تاثیرگذاری رسیده است. در این نوشته، به بررسی رابطه سهگانه سایبرنتیک، هوش مصنوعی، و رسانه میپردازم و نشان میدهم که چگونه این ترکیب، به ابزاری قدرتمند برای کنترل و اعمال قدرت در جوامع مدرن تبدیل شده است.

سایبرنتیک و هوش مصنوعی: چارچوبی برای کنترل
سایبرنتیک بر مفهوم بازخورد (Feedback) و خودتنظیمی سیستمها تاکید دارد. هوش مصنوعی، با الهام از این اصول، سیستمهایی را طراحی میکند که قادر به یادگیری، تطبیق، و تصمیمگیری هستند. این سیستمها از الگوریتمهای پیچیده برای پردازش دادهها استفاده میکنند و با تحلیل رفتار کاربران، الگوهای کنترل را بهینهسازی مینمایند. برای مثال، شبکههای عصبی مصنوعی با شبیهسازی مغز انسان، توانایی پیشبینی و تاثیرگذاری بر رفتارهای اجتماعی را دارند.
رسانه به عنوان ابزار تلقین و کنترل
رسانهها، به ویژه در عصر دیجیتال، نقش کلیدی در انتقال پیامهای کنترلگرانه ایفا میکنند. با استفاده از هوش مصنوعی، رسانهها قادر به شخصیسازی محتوا و هدفگیری دقیق مخاطبان هستند. این فرآیند، که به "مهندسی رضایت" معروف است، از طریق تحلیل دادههای کاربران و ارائه محتوای متناسب با ترجیحات و باورهای آنها انجام میشود. برای نمونه، الگوریتمهای فیسبوک و گوگل با نمایش انتخابی اخبار و تبلیغات، میتوانند افکار عمومی را جهتدهی کنند. که در مجموع من این اعمال قدرت و کنترل از طریق رسانه را مدیاسایبرنتیک می دانم.
چرخه کنترل و اعمال قدرت
در این سیستم، یک چرخه دائمی بین سایبرنتیک، هوش مصنوعی، و رسانه وجود دارد:
1. **جمعآوری دادهها**: هوش مصنوعی با رصد رفتار کاربران در رسانههای اجتماعی، دادههای عظیمی را جمعآوری میکند.
2. **تحلیل و پیشبینی**: این دادهها برای شناسایی الگوهای رفتاری و پیشبینی تمایلات آینده استفاده میشوند.
3. **تلقین و کنترل**: رسانهها با استفاده از این تحلیلها، محتوایی را منتشر میکنند که باورها و رفتارهای مخاطبان را شکل میدهد.
4. **بازخورد و بهینهسازی**: نتایج این تاثیرگذاری، دوباره به سیستم بازگردانده میشود تا چرخه کنترل تقویت شود.
پیامدهای اجتماعی و اخلاقی
این رابطه سهگانه، پیامدهای عمیقی برای آزادی فردی و دموکراسی دارد. از یک سو، هوش مصنوعی و رسانهها میتوانند به بهبود خدمات و رفاه اجتماعی کمک کنند، اما از سوی دیگر، خطر تبدیل شدن به ابزارهای نظارت و دستکاری افکار عمومی را نیز به همراه دارند. مثال بارز این موضوع، استفاده از رسانههای اجتماعی برای تاثیرگذاری بر نتایج انتخابات یا ایجاد قطبیسازی سیاسی است.
نتیجهگیری
ترکیب سایبرنتیک، هوش مصنوعی، و رسانه، یک سیستم کنترل قدرتمند را ایجاد کرده است که همزمان هم فرصتها و هم تهدیدهایی را برای جامعه به ارمغان میآورد. درک این رابطه برای حفظ تعادل بین پیشرفت فناوری و حریم خصوصی افراد ضروری است. آینده این تعامل، به چگونگی تنظیم مقررات اخلاقی و قانونی برای استفاده از این فناوریها بستگی خواهد داشت.
سهیل سلیمی - مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
این نوشته بخشی از سخنرانی من در کنفرانس فضای سایبر سال 1403 می باشد.
**کلمات کلیدی**: سایبرنتیک، هوش مصنوعی، رسانه، کنترل اطلاعاتی، مهندسی رضایت، نظارت دیجیتال، آزادی فردی.
طغیان کاربران ناآگاه | هوش مصنوعی و بحران بی خردی | در تمنای لایک
ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
موضوعات این مقاله:
چگونه تودههای ناآگاه مدیاسایبرنتیک را از درون میخورند؟
هوش مصنوعی در میدان بیخردی: سقوط اخلاق در عصر تولید انبوه
سایبرنتیک و بحران تولید انبوه محتوا در طغیان کاربران ناآگاه

مقدمه: فروپاشی کنترل در دل کثرت نامنظم
سایبرنتیک، در بنیان خود، بر کنترل از طریق بازخورد استوار است؛ اینکه چگونه یک سیستم با مشاهده خروجیهای خود، مسیر را تصحیح کرده و به تعادل بازگردد. اما اگر آن خروجیها نه از منطق، بلکه از آشوب برخاسته باشند چه؟ اگر بازخوردها نه از آگاهی، بلکه از امواج خام هیجان، شایعه، و جهل جمعی شکل گرفته باشند؟ آنگاه سایبرنتیک دیگر فرمانده نیست؛ بلکه زندانی همان سیستمی میشود که روزی برای هدایت آن طراحی شده بود.
در این وضعیت، نهتنها اخلاق از میدان حذف میشود، بلکه حتی ساختار کنترلی رسانه نیز از کار میافتد. اینجا با نوعی «آنتیسایبرنتیک» مواجهیم: سامانهای که همچنان داده تولید میکند، اما این دادهها، سامانه را به سوی سقوط هدایت میکنند.
۱. سواد اطلاعاتی پایین، ضدسایبرنتیک است
در سیستمهای کلاسیک سایبرنتیکی، مخاطب باید بتواند پیام را دریافت، فهم، ارزیابی و بازخورددهی کند. این چهار مرحله، ستونهای پردازش رسانهای سالماند. اما در ساختارهای امروزیِ تولید انبوه محتوا در پلتفرمهای اجتماعی، اغلب افراد در همان مرحلهٔ اول گیر میافتند: یا پیام را بهدرستی دریافت نمیکنند، یا آن را بهصورت تحریفشده بازنشر میدهند.
آنجا که بازخورد کور شکل میگیرد، دیگر کنترلی وجود ندارد. نظامهای مبتنی بر الگوریتم و هوش مصنوعی، به جای فیلتر کردن این آشفتگی، آن را تقویت میکنند، چون معیارشان «تعامل» است، نه «محتوا».
پس همان کسی که فهم روشنی از دین، اخلاق یا علم ندارد، میتواند در بازتولید و ترویج شبهدانش، خرافه، یا نفرتگویی، اثرگذارتر از هر نهاد رسمی باشد — چرا که سایبرنتیک رسانهای، قربانی تعاملگرایی شده است.
۲. مردمسالاری بیفرهنگی: جمعیتی که رسانه را بلعیدند
در گذشته، فرآیند تولید محتوا دارای دروازهبانهای معرفتی بود: ناشر، سردبیر، استاد، نهاد دینی یا علمی. اما اکنون، هر گوشی هوشمند، یک ایستگاه تولید و پخش محتوا است.
آنچه که امروز خطرناک است، انبوه مردمی هستند که بدون دانستن اصول اولیهٔ اخلاق و عقل، به تولید بینظم معنا میپردازند. این نوع مردمسالاریِ بیریشه، آنارشی نیست؛ شبهنظم است، نظم کاذبی که در ظاهر متنوع است اما در عمق، از الگوریتمهایی پیروی میکند که فقط تکرار و هیجان را پاداش میدهند. و انبوهی از ناآگاهی که در تمنای لایک هر محتوای ضد ارزش یا حتی بی ارزش را منتشر می کنند. این بی معرفتی ربطی به سواد یا سن و سال و یا حتی جایگاه علمی افراد ندارد. انسانی کع تولید محتوا می کند باید به پختگی رسیده باشد. چند سال قبل خاطره ای از استیون اسپیلبرگ خواندم که معیار دقیق این پختگی است. همواره برایم سوال بود، او که فیلمساز متبحر و توانمندی است چرا جایگاه پدر و فرزندی را در فیلم هایش رعایت نمیکند و حتی گاه این حس را منتقل می کند که پدرها، پسرهایشان را رها می کنند. او در آن خاطر می گفت؛ من آن زمان یک جوان بودم، ولی حالا پدر هفت فرزندم. در فیلمهای اول پدرها را آنطور می فهمیدم اما حالا میفهمم که یک پدر برای حفظ خانواده و فرزندانش باید هر کار بکند.
حالا تصور کنید چند جوان در جهان با دیدن فیلمهای اولیه او گمراه شده و با والدین و خصوصا پدرانشان دچار چالش و درگیری شدند! این در حالیست که اسپیلبرگ هنرمند بسیار توانمد و صاحب سبک و با سوادی است، ببیند انبوه آدم های نا آگاه که امروزه هریک با یک گوشی مشغول تولید انواع محتواهای بی ارزش و ضد ارزش هستند چه بلایی بر سر جامعه می آورند.
در چنین بستری، محتوای ژرف، اخلاقی یا علمی، دیده نمیشود، چون با ریتم تند و هیجانزدهٔ بازار اطلاعات همخوانی ندارد. اخلاق، در زبالهدان محتوا بی ارزش دفن میشود، و هوش مصنوعی، همچون گورکنی فرز و سریع در حال آماده سازی قبر اندیشه و معرفت انسان است.

۳. تولید ضداخلاق: بیسوادی ساختارمند در نظام بازخورد
وقتی اکثریت جامعه نسبت به مفاهیم فلسفی و دینی بیاطلاعاند، «اخلاق» دیگر مبنای داوری نمیشود. بلکه "احساس لحظهای" جایگزین "قضاوت تأملگر" میشود. این انتقال از فکر به واکنش، پایههای اخلاق در فضای سایبر را فرو میریزد.
حال، وقتی این اکثریت شروع به تولید انبوه محتوا میکنند، تولیدشان نه حاصل خرد، که ترکیبی است از شایعه، فرافکنی، تمسخر، خشونت کلامی و نفرتپراکنی است. در این وضعیت، ضداخلاق نهفقط تولید میشود، بلکه پاداش میگیرد؛ زیرا واکنشبرانگیز است.
حالا نتیجه طبیعی ارتقا از طریق فهم الگوریتمی این است که «هر چه بیادبتر، موفقتر.» اینجا دیگر نه کنترل معنا دارد، نه بازخورد؛ تنها چیزی که میماند، شبیهسازی ضد ارزش ها بهمثابه تعامل است.

۴. قدرت در دستان بیقدرتان خطرناک: از آنتینخبگی تا تسخیر افکار عمومی
در بسیاری جوامع، فقدان آموزش فلسفی، دینی و عقلانی، نهفقط مسئلهای فردی، بلکه ساختاری است. سیاستگذاران، نظام آموزش عمومی، و رسانههای رسمی، در تضعیف تفکر تحلیلی نقش ایفا کردهاند. حالا، همان مردمی که ساختار به حال خود رهایشان کرده، خود به ساختار بدل شدهاند. یعنی آنجا که سایبرنتیک به معنای کنترل و اعمال قدرت در روند صحیح خودش کارکردش را از دست می دهد، حالا سایبرنتیک دیگری شکل می گیرد از عوامی که برای تصاحب لایک های بیشتر و فالوور افزایی، به رواج بی ارزشی می پردازند. این طبقه جدید سلبریتی ها ، خوردن کثافات برای بیشتر دیده شدن تا حتی اقدام به خودکشی فریبکارانه آنهم آنلاین، هیچ ابایی ندارند! اینها محصول پوچگرایی و پوچ اندیشی و پوچ پنداری خویش هستتند. این طبقه ی بی ارزش، در واقع مبدع ارزش های جدیدی هستند که مخاطبانشان دوست بدارند، فالوورشان بشوند و لایک کنند.
افکار عمومی، که زمانی قرار بود حاصل گفتوگوی عقلانی باشد، اکنون زیر سلطهی صداهای بلند، خالی از معنا و تحقیر کننده و خشونتزاست. سایبرنتیک رسانهای (مدیا سایبرنتیک)، که میتوانست در صورت استفاده صحیح، ابزار روشنگری باشند، اکنون زمینبازی آگاهیستیزان شدهاند. و بدترین قسمت این فاجعه آن است که نظم رسانهای توسط الگوریتم های هوش مصنوعی، بر پایهٔ آشفتگی آنها بهینهسازی میشود. یعنی، هوش مصنوعی یاد میگیرد که شورش جهل، سودمندتر از صدای دانایی است.

نتیجه: فروپاشی اخلاق سایبرنتیکی و ضرورت بازمهندسی آگاهی
ما اکنون با یک چرخش تلخ روبرو هستیم:
کنترل رسانه (مدیا سایبرنتیک) دیگر دست نخبگان یا حتی نظامهای عقلانی نیست، بلکه در دست بیساختاران پرصداست؛ کسانی که بدون آگاهی، نظام اخلاقی را به سخره گرفته اند و در فرآیند بازخورد رسانهای، ساختارهای معنایی را منهدم کرده اند.
بازسازی این وضعیت، با فیلتر کردن محتوا یا سانسور ممکن نیست. تنها راه، بازسازی آگاهی عمومی، و بازمهندسی ساختارهای آموزش، سواد رسانهای در سطح اجتماعی انسانی است که کاری ست بس دشوار، و در سوی دیگر ایجاد الگوریتمهاییست که هوش مصنوعی بتواند بر اساس آنها نه صرفاً تعامل، بلکه عمق و اخلاق را پاداش دهد، که در شرایط فعلی این اقدام قابل اجرا تر به نظر می رسد. در بلند مدت برنامه ریزی روی هر دوی این روندها می تواند بشر را از قهقرای بی ارزشی نجات دهد.
سهیل سلیمی
در جهانی که اطلاعات دیجیتال چون سیلی خروشان در شبکههای اجتماعی، استریمها و سکوها جریان دارد، تولید محتوا دیگر تنها انتقال پیام نیست؛ بلکه خلق روایتی است که مخاطب را به همسفری در جهانی پرمعنا دعوت میکند. محتوای روایتمحور (Narrative-Driven Content)، با تکیه بر داستانگویی، نه تنها احساسات مخاطب را برمیانگیزد، بلکه او را به بخشی از تجربهای ماندگار تبدیل میکند. شعار من این است: در دنیای امروز، مخاطب، فقط مخاطب نیست؛ او همسفر داستان شماست. اگر در شبکههای اجتماعی بدون محتوای روایتگر حضور دارید، فراموش خواهید شد. این مقاله، با نگاهی آکادمیک و در جایگاه یک پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی، به بررسی ادغام هوش مصنوعی (Artificial Intelligence - AI) در استراتژی بازاریابی محتوای چابک (Agile Content Marketing Strategy) میپردازد و نشان میدهد چگونه این رویکرد، با تمرکز بر روایتمحوری، میتواند تعامل پایدار و نرخ حفظ مخاطب (Retention Rate) را در فضای سایبر تقویت کند. با بهرهگیری از اصول چابک و ابزارهای هوش مصنوعی، این استراتژی نه تنها کارایی تولید محتوا را افزایش میدهد، بلکه عمق فرهنگی و اصالت انسانی را نیز حفظ میکند.
استراتژی بازاریابی محتوای چابک، رویکردی پویا و تکراری (Iterative) است که بر چرخههای کوتاه تولید، انتشار، سنجش و بهینهسازی محتوا استوار است. برخلاف روشهای سنتی که برنامهریزیهای طولانیمدت و غیرمنعطف را دنبال میکنند، چابکی به تیمها اجازه میدهد تا با انعطاف و سرعت، به تغییرات نیازهای مخاطب پاسخ دهند. این روش، با بهرهگیری از جلسات روزانه (Daily Stand-ups)، اسپرینتهای کوتاه (Sprints) و بازنگریهای مداوم (Retrospectives)، محتوا را به ابزاری برای یادگیری و بهبود مستمر تبدیل میکند.
هوش مصنوعی، بهویژه مدلهای زبانی پیشرفته مانند GPT-4 یا ابزارهای تحلیل داده مانند Google Analytics، این فرآیند را متحول میکند. AI میتواند حجم عظیمی از دادههای رفتاری مخاطبان را تحلیل کند، الگوهای تعامل را شناسایی نماید و پیشنهادهایی برای محتوای روایی ارائه دهد. برای نمونه، یک پلتفرم استریم که به دنبال جذب مخاطبان جوان است، میتواند از AI برای تولید اسکریپتهای اولیه ویدیوهای کوتاه استفاده کند که داستانهایی احساسی یا آموزشی را روایت میکنند. این اسکریپتها سپس در اسپرینتهای دوهفتهای منتشر شده و با بازخوردهای دریافتی از کانالهای دوسویه مانند کامنتهای اینستاگرام یا تلگرام، بهینه میشوند. این چرخه، نرخ تعامل (Engagement Rate) و حفظ مخاطب را به طور چشمگیری افزایش میدهد، زیرا محتوا نه تنها دادهمحور است، بلکه با نیازها و احساسات مخاطب همراستا میشود.
محتوای روایتمحور، در هسته خود، بر داستانگویی متمرکز است که مخاطب را از یک دریافتکننده منفعل به یک همسفر فعال تبدیل میکند. در شبکههای اجتماعی و سکوهای استریم، جایی که رقابت برای جلب توجه بیامان است، روایتهای قوی میتوانند مخاطب را درگیر نگه دارند. به عنوان یک فیلمساز و پژوهشگر استراتژی فرهنگی، بر این باورم که داستانها، با ایجاد پیوند عاطفی، نه تنها توجه را جلب میکنند، بلکه وفاداری (Loyalty) را نیز تقویت میکنند. هوش مصنوعی میتواند این فرآیند را تقویت کند؛ برای مثال، با تحلیل دادههای شبکههای اجتماعی، AI میتواند موضوعات پرطرفدار یا نیازهای عاطفی مخاطبان را شناسایی کند و پیشنهادهایی برای روایتهای متناسب ارائه دهد. مثلاً، اگر دادهها نشان دهند که مخاطبان یک پلتفرم به محتوای انگیزشی علاقه دارند، AI میتواند داستانی درباره موفقیت یک کارآفرین جوان پیشنهاد دهد که با ارزشهای فرهنگی مخاطب همخوانی دارد.
با این حال، اینجاست که نقش نظارت انسانی برجسته میشود. هوش مصنوعی، هرچند قدرتمند، ممکن است فاقد عمق فرهنگی یا اصالت عاطفی باشد. به عنوان یک مشاور رسانهای در آزمایشگاه پژوهشی فضای سایبر، پیشنهاد میکنم که AI به عنوان دستیاری خلاق عمل کند، نه جایگزین ذهن انسانی. پژوهشگر یا نویسنده میتواند خروجیهای AI را ویرایش کند، عناصر فرهنگی بومی را به آن بیفزاید و روایتی خلق کند که نه تنها دادهمحور، بلکه عمیقاً انسانی باشد. این رویکرد، محتوای تولیدشده را از خطر یکنواختی یا فقدان اصالت نجات میدهد.
برای روشن شدن چگونگی این ادغام، فرض کنید آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران قصد دارد کمپینی برای ترویج سواد سایبری (Cyber Literacy) در شبکههای اجتماعی راهاندازی کند. هدف، افزایش آگاهی و نرخ حفظ مخاطب در میان دانشجویان است. در این سناریو، تیم رسانهای از استراتژی چابک استفاده میکند. ابتدا، با ابزارهای AI مانند تحلیلگرهای داده، نیازهای مخاطبان (مانند آموزش ساده درباره امنیت سایبری) شناسایی میشود. سپس، در یک اسپرینت دوهفتهای، محتوایی روایتمحور تولید میشود: یک ویدیوی کوتاه که داستان یک دانشجو را روایت میکند که با یادگیری نکات امنیتی، از هک شدن حسابش جلوگیری میکند. این ویدیو در اینستاگرام و تلگرام منتشر شده و بازخوردهای مخاطبان (مانند کامنتها و اشتراکگذاریها) جمعآوری میشود. AI دادهها را تحلیل میکند و پیشنهاد میدهد که افزودن یک اینفوگرافیک تعاملی، تعامل را افزایش میدهد. در اسپرینت بعدی، این پیشنهاد اجرا شده و نرخ تعامل ۲۵ درصد رشد میکند. این چرخهی چابک، با هدایت AI و نظارت انسانی، محتوایی تولید میکند که هم اثرگذار است و هم با نیازهای فرهنگی مخاطب همخوانی دارد.
هرچند این رویکرد قدرتمند است، اما چالشهایی نیز دارد. نخست، خطرشهای الگوریتمی (Algorithmic Bias) در خروجیهای AI است که ممکن است محتوا را از تنوع فرهنگی دور کند. برای رفع این مشکل، باید دادههای آموزشی AI متنوعتر شوند و خروجیها توسط تیمی با دیدگاههای فرهنگی مختلف بازبینی شوند. دوم، وابستگی بیش از حد به فناوری ممکن است خلاقیت انسانی را محدود کند. برای جلوگیری از این امر، آموزش مداوم تیمها و استفاده از ابزارهای مدیریت چابک مانند Jira یا Trello ضروری است تا تعادل بین فناوری و خلاقیت حفظ شود. سوم، مسائل اخلاقی مانند حریم خصوصی دادهها باید مورد توجه قرار گیرند. به عنوان پژوهشگر مطالعات سایبرنتیک، تأکید میکنم که استفاده از دادههای مخاطبان باید با رعایت استانداردهای اخلاقی و قوانین GDPR انجام شود.
ادغام هوش مصنوعی در استراتژی بازاریابی محتوای چابک، با محوریت محتوای روایتمحور، شرایط بهتری برای تعامل در فضای سایبر ترسیم میکند. این رویکرد، با ترکیب سرعت و انعطاف چابکی، قدرت تحلیل AI و عمق روایت انسانی، مخاطب را به همسفری دعوت میکند که نه تنها او را سرگرم میکند، بلکه وفاداریاش را نیز تضمین میکند. به عنوان کسی که سه دهه در عرصه رسانه فعال بوده ام، باور دارم که این روش، با نظارت دقیق انسانی و توجه به حفظ اصالت فرهنگی و دینی در تولید محتوا، از دیگر نقاط قوت این رویکردخواهد بود. در پایان، پیشنهاد میکنم که پژوهشگران و فعالان رسانهای، با هدایت استراتژیهای فرهنگی و بهرهگیری از ابزارهای نوین، این تحول را پیش ببرند تا محتوای دیجیتال نه تنها اثرگذار، بلکه ماندگار باشد.
منابع:
WordLift Blog. (2025). Transform Your Agile Marketing Strategy with AI. https://wordlift.io/blog/en/how-to-build-a-more-agile-marketing-strategy-with-ai/
Sprinklr. (2025). 4 Ways AI Is Reshaping Content Marketing in 2025. https://www.sprinklr.com/blog/ai-for-content-marketing/
SSRN. (2024). Artificial Intelligence-Driven Emotional Storytelling for Brand. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4954803
ResearchGate. (2025). The Impact of AI-Driven Content Marketing on Social Media. https://www.researchgate.net/publication/391390103_The_Impact_of_AI-Driven_Content_Marketing_on_Social_Media_Customer_Engagement

چگونه رسانه با بهرهگیری از اصول سایبرنتیک ذهن ما را کنترل میکند؟
نویسنده: سهیل سلیمی
نویسنده، کارگردان و مشاور رسانهای آزمایشگاه پژوهشی فضای سایبرِ دانشگاه تهران
اگر سایبرنتیک را همانگونه که نوربرت وینر تعریف میکند، «علم کنترل و ارتباط» بدانیم، پس رسانه یکی از قدرتمندترین ابزارهای این کنترل در عصر حاضر است. رسانه، نهفقط انتقالدهندهی اطلاعات، بلکه هدایتگر رفتار، شکلدهندهی نگرش، و در نهایت ابزاری برای اعمال قدرت است.
اما این قدرت چگونه عمل میکند؟ واژهی کلیدی درک این فرآیند، چیزی نیست جز: تلقین.
از دوران هابیل و قابیل تا امروز، انسان همیشه در پی برتری بوده است. قدرت به معنای «توان تحمیل اراده» در اشکال مختلفی چون قدرت مالی، نظامی، علمی و فرهنگی ظاهر شده است. اما در دنیای مدرن، هیچکدام از این اشکال به تنهایی کفایت نمیکنند. برای اثربخشی، آنها باید با یک ابزار هماهنگ شوند: رسانه.
سایبرنتیک، در یک چرخهی تکراری، ابتدا کنترل را برقرار میکند و سپس قدرت را اعمال مینماید. در این میان، هر بار که اعمال قدرت با مقاومت یا ناکارآمدی روبرو میشود، کنترل جدیدی ایجاد میشود. رسانه در این چرخه، نقش روانساز و واسطهای هوشمند دارد: بیصدا میآید، تلقین میکند و میرود.
رسانه فقط ابزار نیست. در ساختار سایبرنتیک، رسانه یک بازیگر است. رسانه اطلاعات را نه فقط منتقل میکند، بلکه «کدهای رفتاری» را طراحی و به ذهن مخاطب القا میکند. این کدها، اعمال کنترل را سادهتر و کمهزینهتر میکنند. مخاطب در نهایت، خود، خواهان اجرای خواستههای اعمال شده میشود.
تلقین، یعنی القای یک معنا، نگرش یا رفتار بهگونهای که فرد آن را درونی کند. رسانه با تکرار، داستانسرایی، احساسبرانگیزی، ترس، تهدید، طنز و سرگرمی، ذهن مخاطب را آمادهی پذیرش کنترل میکند. نتیجه؟
یک جامعهی کنترلشده که خود را آزاد میپندارد.
برای درک نقش رسانه در کنترل رفتار عمومی، سناریوی زیر را تصور کنید:
هشدار بحران آب در اخبار
ترغیب به صرفهجویی
تهدید به افزایش قیمت
قطع موقت آب
گزارشهایی از کاهش مصرف
افزایش تدریجی قیمت
تبلیغات پیرامون فواید مصرف آب
سکوت رسانهها پس از موفقیت برنامه
این یک «پروژهی سایبرنتیکی کامل» است، که رسانه نقش کلیدی آن را ایفا میکند.
تنها نقطهی ضعف این سامانه پیچیده؟ آگاهی، بیداری، آزادی.
زمانی که مخاطب نسبت به سازوکار رسانه آگاه شود، تلقین بیاثر میگردد و کنترل، دچار نقص میشود. در این مرحله، رسانه دست به ضدحمله میزند: مصادرهی همین واژهها و بازتعریف آنها به نفع سامانه!
در نهایت، سایبرنتیک با رسانه پیوندی ناگسستنی دارد. رسانه سایبرنتیکی، جامعهساز است؛ با ابزار تلقین، کنترل را اعمال میکند و اعمال قدرت را مشروع جلوه میدهد.
مدیاسایبرنتیک یعنی حاکمیتِ پنهانِ تلقین!
* مقالهی حاضر، نسخهی تکمیلشده و توسعهیافتهی ارائهای است که پیشتر در قالب کارگاه تخصصی «مدیاسایبرنتیک و قدرتِ تلقین» در دومین دوره کنفرانس بینالمللی فضای سایبر (آبان ۱۴۰۲) ارائه شده است. این مقاله تلاش دارد با بهرهگیری از مبانی نظری و شواهد تجربی، چارچوبی تحلیلی برای فهم رابطهی میان رسانه، سایبرنتیک و سازوکارهای کنترل ذهنی ارائه کند.

مدیاسایبرنتیک (سایبرنتیکِ رسانه): قدرتِ تلقین و مهندسی ذهن
نویسنده: سهیل سلیمی
پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی
مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
مدیا سایبرنتیک (Media Cybernetics) بهعنوان امتداد نظریه سایبرنتیک نوربرت وینر (Norbert Wiener) در عرصه رسانه، بستر شکلدهی رفتار و نگرش مخاطبان را فراهم آورده است. رسانه، دیگر صرفاً واسطه انتقال پیام نیست، بلکه خود به بازیگری مستقل بدل شده که با بهرهگیری از اصول feedback (بازخورد)، control (کنترل)، و communication (ارتباط)، جامعه را مهندسی میکند. این مقاله، با تکیه بر نظریههای کلاسیک سایبرنتیک و نمونههای معاصر رسانهای، نشان میدهد چگونه «تلقین» به ابزار اصلی هدایت ذهن و رفتار تبدیل شده است. همچنین، ضمن بررسی چرخههای قدرت و کنترل رسانهای، راهکارهای مقاومت در برابر پروژههای سایبرنتیکی رسانهای نیز تحلیل میشود.
واژگان کلیدی: سایبرنتیک رسانه (Media Cybernetics)، کنترل (Control)، تلقین (Suggestion)، بازخورد (Feedback)، رسانه (Media)
نوربرت وینر (Norbert Wiener)، بنیانگذار سایبرنتیک، در کتاب مشهور خود Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948) سایبرنتیک را علم «کنترل و ارتباط» میداند. در این چهارچوب، رسانه (Media) نه صرفاً ابزار ارتباطی، بلکه سامانهای سایبرنتیکی است که با بهرهگیری از اصول بازخورد (Feedback)، پیامرسانی را به ابزاری برای اعمال کنترل بدل کرده است.
در چنین سامانهای، رسانهها با بهرهگیری از فناوریهای هوش مصنوعی (Artificial Intelligence)، کلاندادهها (Big Data) و تحلیل رفتار مخاطب، پیامها را به گونهای تنظیم میکنند که «ادراک مخاطب» را مهندسی کنند (Zuboff, 2019).
واژه کلیدی درک عملکرد رسانههای سایبرنتیکی، «تلقین» (Suggestion) است. تلقین در روانشناسی اجتماعی به معنای کاشت یک باور یا نگرش در ذهن فرد بهگونهای است که فرد گمان کند آن باور را خود پذیرفته است (Bargh & Chartrand, 1999).
چرخه کنترل سایبرنتیکی رسانهای بهطور خلاصه به شکل زیر عمل میکند:
این چرخه نوعی لوپ تقویتشونده (Positive Feedback Loop) ایجاد میکند که هر بار کنترل را دقیقتر و عمیقتر میسازد (Shannon & Weaver, 1949).
آیا رسانه صرفاً ابزاری در دست قدرت است یا خود به کنشگری مستقل بدل شده است؟ به تعبیر مارشال مکلوهان (Marshall McLuhan)، «رسانه خود پیام است» (The medium is the message) (McLuhan, 1964). رسانه امروز، نه تنها محتوای رفتاری تولید میکند، بلکه با هوشمندسازی فرایند تولید و توزیع محتوا، در فرایند تصمیمسازی اجتماعی مداخله مستقیم دارد.
نمونههای معاصر این امر را میتوان در کارزارهای خبری حول بحرانهای اقتصادی یا بهداشت عمومی مشاهده کرد. رسانهها، از طریق خلق «واقعیتهای بدیل» (Alternative Realities)، افکار عمومی را به سوی پذیرش سیاستهای خاص سوق میدهند (Chomsky & Herman, 1988).
فرض کنید یک رسانه جریان اصلی (Mainstream Media) چنین سناریویی را پیادهسازی کند:
هشدار بحران: پخش گسترده هشدار درباره کمبود منابع (مثلاً آب)
ترغیب: تبلیغات صرفهجویی و مسئولیتپذیری
تهدید: اعلام تصمیم احتمالی برای افزایش قیمت
اعمال فشار: قطع موقت خدمات برای ایجاد تجربه زیسته از بحران
بازخورد مثبت: گزارش موفقیت اقدامات
نهاییسازی کنترل: افزایش تدریجی قیمت به عنوان راهکار منطقی
این فرایند، نمونهای کلاسیک از پروژههای سایبرنتیکی رسانهای است که با استفاده از «مهندسی ادراک» (Perception Engineering) و «مدیریت رفتار» (Behavior Management) اجرا میشود (Harari, 2016).
تمام این سازوکارها تنها در یک صورت شکست میخورند: زمانی که مخاطبان به «آگاهی انتقادی» (Critical Consciousness) دست یابند (Freire, 1970). اما رسانههای سایبرنتیکی حتی برای این شرایط هم تمهیداتی اندیشیدهاند. رسانهها مفاهیم مقاومت و بیداری را مصادره کرده و آنها را در قالبهای جدید بازتعریف میکنند (مثلاً تبدیل مقاومت به مد جدید یا بازی سرگرمکننده).
رسانهها امروز در جایگاه سامانههای سایبرنتیکی خودمختار قرار گرفتهاند که با بهرهگیری از فناوریهای هوشمند، قدرت تلقین خود را چند برابر کردهاند. مخاطبانی که آگاهانه با این سازوکار مواجه شوند، قادر خواهند بود زنجیره تلقین را بشکنند و خود را از چرخهی کنترل خارج کنند.
بنابراین، تنها راه برونرفت، تربیت مخاطب انتقادی است؛ مخاطبی که نه صرفاً مصرفکننده پیام، بلکه تحلیلگر سازوکار تولید پیام باشد.
Bargh, J. A., & Chartrand, T. L. (1999). The Unbearable Automaticity of Being. American Psychologist.
Chomsky, N., & Herman, E. S. (1988). Manufacturing Consent: The Political Economy of the Mass Media. Pantheon.
Freire, P. (1970). Pedagogy of the Oppressed. Continuum.
Harari, Y. N. (2016). Homo Deus: A Brief History of Tomorrow. Harper.
McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.
Shannon, C. E., & Weaver, W. (1949). The Mathematical Theory of Communication. University of Illinois Press.
Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
نقش ساختار شبکهای قدرت و بازخورد اجتماعی در شکلگیری تصمیمات هوش مصنوعی. گذاری کوتاه در فلسفله اخلاق در هوش مصنوعی. سهیل سلیمی

مقدمه: وقتی تصمیم، یک خروجی فردی نیست
ما در مواجهه با مسئلهٔ انتخاب اخلاقی توسط هوش مصنوعی، اغلب فرض میکنیم که ماشین در موقعیتی منفرد قرار دارد، جایی که با تحلیل دادهها، تصمیم نهایی را اتخاذ میکند. اما اگر به جای نگاه کردن به هوش مصنوعی بهمثابه «ذهنی جدا»، آن را همچون «گرهای در شبکهای پیچیده از قدرت، داده و بازخورد اجتماعی» ببینیم، آنگاه پرسش اخلاقی ما نیز دگرگون میشود.
مثلا رفتار یک هوش مصنوعی در نجات یک خودروی در حال غرق شدن، که باید یکی از پنج سرنشین آن را نجات دهد چگونه خواهد بود؟
در واقع، ممکن است تصمیمی که در لحظهٔ نجات گرفته میشود، پیشاپیش از قبل، در لایههای پنهانتر شبکهای ـ از سوگیری دادهها گرفته تا جهتگیریهای سیاسی، اقتصادی و فرهنگی ـ شکل گرفته باشد.
بازگشت به سایبرنتیک بهمثابه میدان نیرو
سایبرنتیک، در معنای عمیقتر، تنها یک علم دربارهٔ کنترل و فرمان نیست؛ بلکه مطالعهایست دربارهٔ اینکه چگونه نیروهای موجود در جامعه، از طریق اطلاعات، به همدیگر جهت میدهند. وقتی ما یک ماشین نجاتگر طراحی میکنیم، آنچه تعیین میکند چه کسی نجات یابد، فقط الگوریتم نیست؛ بلکه میدان پیچیدهایست از نیروهای اقتصادی، اجتماعی، نظامی، سیاسی، طبقاتی، بیومتریک (زیستی)، نژادی و رسانهای و... که از طریق دادهها خود را تحمیل میکنند.
مثلاً اگر در یک پایگاه دادهی آموزش ماشین، نجات کودک سفیدپوست در فیلمهای هالیوودی بیشتر نمایش داده شده باشد، این ماشین (هوش مصنوعی) ناخودآگاه به الگوی خاصی از "ارزش انسانی" شرطی شده است، حتی اگر در ظاهر، تابع هیچ ایدئولوژی نباشد.
تصمیم هوش مصنوعی، یا بازتابی از نظم اجتماعی؟
تصور کنید در همان صحنهٔ سقوط خودرو، پنج نفر داخل ماشین متعلق به طبقهٔ فرودست جامعهاند. آیا احتمال دارد الگوریتم، حتی بیآنکه از طبقهٔ اجتماعی اطلاعی داشته باشد، دادههایی در اختیار داشته باشد که غیرمستقیم این موقعیت را بازتولید کنند؟ در این صورت با توجه به هزینهی فایده شاید هیچ کس را نجات ندهد! با این پیش فرض که قیمت یه ماشین نجات دهند از جان پنج آدم فقیر بیشتر است!
هوش مصنوعی، بر اساس دادههایی که از جهان دریافت کرده، جهان را بازسازی میکند. اما این دادهها بیطرف نیستند؛ آنها حامل ارزشها، اولویتها و گاه تبعیضهای ساختاریاند. تصمیم ماشین، حتی اگر «عقلانی» بهنظر برسد، ممکن است چیزی جز بازتولید نظم نابرابر قدرت نباشد.
مسئله مسئولیت در سیستمهای غیرمتمرکز
در مدل سایبرنتیکیِ کلاسیک، یک نهاد یا فرمانده وجود دارد که مرکز تصمیمسازی است. اما در سامانههای امروزیِ مبتنی بر یادگیری عمیق، دادهها از میلیونها منبع تغذیه میشوند. تصمیم نهایی هوش مصنوعی ممکن است محصول میلیونها بازخورد از کاربران، سیستمهای ترجیحی، وزندهی شبکهای و الگوریتمهای نامرئی باشد.
بنابراین، نمیتوان پرسید: «این تصمیم را چه کسی گرفت؟»
پرسش درست این است: «چه شبکهای، این تصمیم را ممکن ساخت؟»
و در اینجا، مسئولیت اخلاقی، پراکنده میشود ـ نه اینکه گم بشود، بلکه در لایههایی پنهان میشود که بهآسانی قابل ردیابی نیستند.
هوش مصنوعی بهمثابه بازتاب نظم سایبرنتیکی جهانی (سایبرنتیک قدرت)
اگر هوش مصنوعی را یک آیینه بدانیم، باید بپرسیم: چه تصویری را بازتاب میدهد؟
اگر نظم جهانی امروز، مبتنی بر تقدم بهرهوری، قدرت لیبرال دموکراسی، و سرمایداری و بازار آزاد است، پس ماشین نیز احتمالاً نجات آن کسی را ترجیح خواهد داد که از نظر سیستم، «سودمندتر» است. این یعنی اخلاق هوش مصنوعی، نه اخلاق فردی مبتنی بر الگوریتمهای اولیه، بلکه اخلاق سرمایداری است؛ نه ترجیح انسانی، بلکه ترجیح سایبرنتیکیِ ساختارهای قدرت.
در این صورت، شاید سؤال اصلی دیگر این نباشد که «اگر ماشین بین کودک و پیرمرد یکی را انتخاب کند، چه باید بکند؟»
بلکه این باشد: «چگونه ساختارهای قدرت، اقتصاد، رسانه و تاریخ، از پیش تصمیم ماشین را شکل دادهاند؟»
اینجا دیگر اخلاق، مسئلهای فردی یا نرمافزاری نیست؛ بلکه مسئلهای اقتصادی، نظامی، سیاسی، رسانهای، و ساختاریست.
و پاسخ اخلاقی، نه در بازنویسی تابع هزینه، بلکه در بازاندیشی دادهها، بازآفرینی روایتها و بازتوزیع قدرت نهفته در اطلاعات خودش را آشکار خواهد کرد.
نویسنده: سهیل سلیمی | مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر، دانشگاه تهران
استعمار شناختی سلطه سایبری و جنگ نرم در عصر هوش مصنوعی
چکیده:
استعمار شناختی بهعنوان شکل نوینی از سلطه، از ابزارهای سایبرنتیک، رسانه
و هوش مصنوعی برای کنترل ذهنها و قلبها بهره میگیرد. این
مقاله با تحلیل مفاهیم کلیدی سایبرنتیک، هوش مصنوعی و جنگ شناختی، به بررسی چگونگی
شکلگیری این استعمار در ساختارهای فرهنگی و زیرساختی
میپردازد. با استفاده از منابع علمی و شواهد
تاریخی، نشان داده میشود که چگونه فناوریهای نوین به ابزاری برای سلطه فرهنگی و شناختی تبدیل شدهاند. در پایان، به جایگزینی نبردهای کلاسیک با جنگ نرم
و تهاجم فرهنگی زیرساختی اشاره میشود که
پذیرش استعمار شناختی را تسهیل میکند.
مقدمه
استعمار شناختی (Cognitive Colonialism) بهعنوان یک پارادایم نوظهور در جنگهای مدرن، از ابزارهای سایبرنتیک و هوش مصنوعی برای نفوذ به ذهنها و شکلدهی به ادراکات جمعی استفاده میکند. برخلاف استعمار سنتی که بر اشغال سرزمینها تمرکز داشت، این پدیده به دنبال سلطه بر ذهنها و قلبهاست. در جهانی که فناوریهای دیجیتال و رسانههای اجتماعی به بخش جداییناپذیری از زندگی روزمره تبدیل شدهاند، استعمار شناختی از طریق دستکاری اطلاعات، الگوریتمهای هدفمند و جنگ روانی، هویتها و فرهنگهای محلی را تهدید میکند. این مقاله با تمرکز بر حوزههای سایبرنتیک، رسانه، هوش مصنوعی و جنگ شناختی، به تحلیل این پدیده پرداخته و هشدار میدهد که چگونه فناوریهای مدرن میتوانند به ابزاری برای سلطه فرهنگی تبدیل شوند.

تعاریف کلیدی - سایبرنتیک
سایبرنتیک:
سایبرنتیک، علم مطالعه سیستمهای کنترل و ارتباطات در موجودات زنده و ماشینها، توسط نوربرت وینر در سال 1948 تعریف شد (Wiener, 1948). این علم به بررسی بازخوردها و تعادل در
سیستمهای پیچیده میپردازد. سایبرنتیک در رسانه و هوش مصنوعی نقش کلیدی دارد،
زیرا امکان طراحی سیستمهایی را فراهم میکند که رفتار انسانها را پیشبینی و
هدایت کنند. برای مثال، الگوریتمهای رسانههای اجتماعی از حلقههای بازخورد برای تنظیم محتوا استفاده میکنند، که میتواند به شکلدهی به ادراکات کاربران منجر شود. سایبرنتیک بهعنوان پایهای برای
سیستمهای خودکار مدرن، نقش مهمی در استعمار شناختی
ایفا میکند.
منبع: Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
تعاریف کلیدی - هوش مصنوعی
هوش مصنوعی:
هوش مصنوعی (AI) به سیستمهایی اطلاق میشود که قادر به انجام وظایفی هستند که معمولاً نیاز به هوش انسانی دارند، مانند یادگیری، استدلال و تصمیمگیری (Russell & Norvig, 2010). از الگوریتمهای یادگیری ماشین تا شبکههای عصبی، هوش مصنوعی در تحلیل دادههای کلان و شکلدهی به ادراکات اجتماعی نقش مهمی ایفا میکند. با این حال، تعصبات موجود در دادههای آموزشی میتوانند به نتایج ناعادلانه منجر شوند، مانند الگوریتمهای شناسایی چهره که برای پوستهای تیرهتر دقت کمتری دارند (Raji et al., 2021). هوش مصنوعی به دلیل تواناییاش در پردازش دادههای عظیم، ابزار قدرتمندی برای دستکاری شناختی است.
منابع:
تعاریف کلیدی - جنگ شناختی
جنگ شناختی:
جنگ شناختی (Cognitive Warfare) به استفاده از ابزارهای روانی، رسانهای و فناوری برای تأثیرگذاری بر ادراکات و تصمیمگیریهای افراد و جوامع اشاره دارد (NATO, 2020). این نوع جنگ، برخلاف جنگهای فیزیکی، به دنبال تغییر باورها، ارزشها و رفتارها از طریق دستکاری اطلاعات است. به عنوان مثال، عملیات اطلاعاتی در شبکههای اجتماعی میتوانند برای تضعیف اعتماد عمومی یا ترویج روایتهای خاص استفاده شوند. جنگ شناختی بهعنوان یکی از ارکان استعمار شناختی، از فناوریهای دیجیتال برای نفوذ به ذهنها بهره میبرد.
منبع: NATO. (2020). Cognitive Warfare: An Attack on Truth. NATO Strategic Communications.
تعاریف کلیدی - استعمار شناختی
استعمار شناختی:
استعمار شناختی به تحمیل چارچوبهای فکری و دانشی غالب از طریق فناوریهای پیشرفته مانند هوش مصنوعی، رسانه و سایبرنتیک اشاره دارد که سیستمهای شناختی بومی یا محلی را به حاشیه میراند. این فرآیند، نابرابریهای قدرت را با برتری دادن به برخی معرفتشناسیها و تحقیر دیگران تداوم میبخشد. برای مثال، ترویج محتوای رسانهای که ارزشهای غربی را تبلیغ میکند، میتواند هویتهای فرهنگی محلی را تضعیف کند. استعمار شناختی بهعنوان یک شکل پنهان از سلطه، از ابزارهای دیجیتال برای نفوذ به ذهنها استفاده میکند.
منبع: Birhane, A. (2020). The Algorithmic Colonization of Africa. Journal of Communication.
رسانه و استعمار شناختی
رسانهها از دیرباز ابزار قدرتمندی برای شکلدهی به افکار عمومی و فرهنگ بودهاند. در دوران استعمار سنتی، رسانههایی مانند روزنامهها و رادیو برای توجیه سلطه استعماری استفاده میشدند (Said, 1978). در عصر دیجیتال، رسانههای اجتماعی و پلتفرمهای آنلاین با استفاده از الگوریتمهای هوش مصنوعی، محتوایی را ترویج میدهند که میتواند ادراکات کاربران را هدایت کند (Zuboff, 2019). این فرآیند میتواند به ایجاد اتاقهای پژواک (Echo Chambers) و فیلترهای حبابی (Filter Bubbles) منجر شود که باورهای موجود را تقویت کرده و دیدگاههای مخالف را حذف میکنند (Pariser, 2011). برای مثال، الگوریتمهای یوتیوب ممکن است محتوای خاصی را به کاربران پیشنهاد دهند که بهطور غیرمستقیم ارزشهای مصرفگرایی غربی را ترویج میدهد.
منابع:
سایبرنتیک و استعمار شناختی
سایبرنتیک با تمرکز بر حلقههای بازخورد، امکان کنترل رفتارها و ادراکات را فراهم میکند. در فناوریهای مدرن، این اصول در الگوریتمهای رسانههای اجتماعی و سیستمهای هوش مصنوعی به کار گرفته میشوند. برای مثال، سیستمهای توصیهگر در پلتفرمهایی مانند یوتیوب و فیسبوک از بازخورد کاربران برای تنظیم محتوا استفاده میکنند، که میتواند به هدایت ادراکات منجر شود (Woolley & Howard, 2020). این سیستمها میتوانند بهطور ناخواسته یا عمدی محتوای خاصی را ترویج دهند که با اهداف استعمار شناختی همراستا باشد، مانند تضعیف فرهنگهای محلی یا تقویت روایتهای غالب.
مثالها:
منبع: Woolley, S. C., & Howard, P. N. (2020). Computational Propaganda. Oxford University Press.
هوش مصنوعی و استعمار شناختی
هوش مصنوعی با توانایی پردازش دادههای کلان، ابزار قدرتمندی برای دستکاری شناختی است. دادههای آموزشی متعصب میتوانند به نتایج ناعادلانه منجر شوند، مانند سیستمهای شناسایی چهره که برای پوستهای تیرهتر دقت کمتری دارند (Raji et al., 2021). همچنین، فناوریهایی مانند دیپفیک میتوانند برای انتشار اطلاعات نادرست استفاده شوند، که به جنگ شناختی و استعمار شناختی کمک میکند. استعمار داده (Data Colonialism) نیز به جمعآوری دادهها از جوامع حاشیهنشین بدون رضایت آنها اشاره دارد، که برای توسعه محصولاتی استفاده میشود که عمدتاً به نفع شرکتهای غربی هستند (Mohamed et al., 2020).
منابع:
جنگ شناختی و استعمار شناختی
جنگ شناختی شامل تاکتیکهایی مانند انتشار اطلاعات نادرست، عملیات روانی و استفاده از هوش مصنوعی برای پیشبینی رفتارها است (NATO, 2020). این تاکتیکها میتوانند برای حفظ سلطه استعماری استفاده شوند، مانند زمانی که قدرتهای استعماری از آموزش و رسانه برای القای حس حقارت در مردم مستعمره استفاده میکردند. در دنیای مدرن، جنگ شناختی از طریق رسانههای اجتماعی و فناوریهای دیجیتال اجرا میشود و به دنبال تغییر باورها و ارزشهای جوامع است.
مثالها:
منبع: NATO. (2020). Cognitive Warfare: An Attack on Truth. NATO Strategic Communications.
مطالعات موردی
1. آفریقای جنوبی: نظارت دیجیتال
شرکتهای فناوری مانند هواوی فناوریهای نظارتی را در آفریقای جنوبی مستقر کردهاند که میتواند به نظارت گسترده بر جوامع حاشیهنشین منجر شود. این سیستمها از هوش مصنوعی برای شناسایی و ردیابی افراد استفاده میکنند، که نگرانیهایی درباره حریم خصوصی ایجاد کرده است (MIT Technology Review, 2022).
(MIT Technology Review, 2022).
2. هند: سامانه آدهار
سامانه شناسایی بیومتریک آدهار در هند نگرانیهایی درباره حریم خصوصی و نظارت ایجاد کرده است. این سیستم دادههای شخصی میلیونها نفر را جمعآوری میکند، که میتواند برای کنترل اجتماعی استفاده شود (Ricaurte, 2020).
منابع:
از نبردهای کلاسیک به جنگ قلبها و مغزها
استعمار شناختی خودمختاری فردی، تنوع فرهنگی و عدالت اجتماعی را تهدید میکند. این پدیده با تحمیل چارچوبهای فکری غالب، دانشهای بومی را به حاشیه میراند و نابرابریهای قدرت را تقویت میکند. برای مثال، ترویج ارزشهای مصرفگرایی غربی از طریق رسانههای دیجیتال میتواند هویتهای فرهنگی محلی را تضعیف کند. همچنین، استفاده از هوش مصنوعی در نظارت و دستکاری اطلاعات میتواند به نقض خودمختاری افراد منجر شود.
در عصر مدرن، نبردهای کلاسیک جای خود را به جنگ نرم و تهاجم فرهنگی دادهاند. جنگ نرم با استفاده از ابزارهای رسانهای، سایبرنتیک و هوش مصنوعی، به دنبال تغییر باورها و ارزشهاست (Nye, 2004). استعمار شناختی بهعنوان زیرساخت این جنگ، با نفوذ به قلبها و مغزها، سلطهای پایدارتر از استعمار فیزیکی ایجاد میکند. برای مثال، عملیات روانی در رسانههای اجتماعی میتوانند اعتماد عمومی را تضعیف کرده و ارزشهای محلی را با روایتهای خارجی جایگزین کنند. این فرآیند به پذیرش استعمار شناختی کمک میکند، زیرا جوامع بهتدریج چارچوبهای فکری غالب را میپذیرند.
منبع: Nye, J. S. (2004). Soft Power: The Means to Success in World Politics. PublicAffairs.
و در پایان
استعمار شناختی بهعنوان یک تهدید جدی برای استقلال فکری جوامع، از ابزارهای سایبرنتیک، هوش مصنوعی و رسانه برای تحمیل چارچوبهای فکری غالب استفاده میکند. این پدیده با تضعیف فرهنگهای محلی و دانشهای بومی، نابرابریهای قدرت را تداوم میبخشد. برای مقابله با این تهدید، نیاز به آگاهی عمومی، آموزش سواد رسانهای و توسعه فناوریهای بومی است. در نهایت، حرکت از نبردهای کلاسیک به جنگ قلبها و مغزها نشاندهنده تغییر پارادایم در سلطه جهانی است که نیازمند مقاومت فعال و آگاهانه است.
منابع:
“The behavior of the individual is purposeful if it can be interpreted as directed to the attainment of a goal.” Norbert Wiener
رفتار یک فرد زمانی هدفمند است که بتوان آن را بهعنوان حرکتی در جهت رسیدن به یک هدف تفسیر کرد. نوربرت وینر
ارائه دهند: سهیل سلیمی (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
نوربرت وینر، بنیانگذار سایبرنتیک، در جملهای عمیق اظهار میکند: «رفتار یک فرد زمانی هدفمند است که بتوان آن را بهعنوان حرکتی در جهت رسیدن به یک هدف تفسیر کرد.» این تعریف، که ریشه در علم سایبرنتیک دارد، رفتار را بهعنوان فرآیندی هدفمحور میبیند که از طریق بازخورد و تنظیم هدایت میشود. رفتار هدفمند، چه در انسان و چه در ماشین، نیازمند هدفی مشخص و مکانیزمی برای ارزیابی و اصلاح مسیر است. برای مثال، یک راننده که به سمت مقصدی حرکت میکند، با توجه به علائم راهنمایی و رانندگی مسیر خود را تنظیم میکند، همانطور که یک سیستم هوش مصنوعی با تحلیل دادهها عملکرد خود را بهبود میبخشد. این مفهوم، پلی بین علوم طبیعی، علوم اجتماعی، و حکمت دینی ایجاد میکند و پرسشهایی بنیادین را مطرح میسازد: اهداف ما از کجا میآیند؟ چگونه فرهنگ و باورهای ما آنها را شکل میدهند؟ و چگونه فناوریهایی مانند هوش مصنوعی میتوانند این اهداف را تقویت یا مختل کنند؟

سایبرنتیک، علمی که نوربرت وینر در دههی 1940 پایهگذاری کرد، مطالعهی کنترل و ارتباطات در سیستمهای زیستی و مصنوعی است. وینر رفتار هدفمند را نتیجهی وجود یک هدف و مکانیزم بازخورد تعریف میکند. بازخورد به سیستم اجازه میدهد تا با مقایسهی وضعیت کنونی با هدف موردنظر، رفتار خود را تنظیم کند. برای مثال، یک ترموستات با اندازهگیری دمای اتاق و تنظیم گرمایش، رفتار هدفمندی برای حفظ دمای مطلوب نشان میدهد. در انسان، این فرآیند میتواند به تصمیمگیریهای آگاهانه تشبیه شود، مانند کارمندی که با بازخورد مدیرش عملکرد خود را بهبود میبخشد.
ماکسول مالتز در کتاب سایکو-سایبرنتیک (1960) این مفهوم را به روانشناسی انسانی گسترش داد. او معتقد بود که ذهن انسان مانند یک سیستم سایبرنتیک عمل میکند و از طریق تصویر ذهنی (Self-Image) و بازخورد، رفتارهای هدفمند را هدایت میکند. برای مثال، فردی که خود را بهعنوان یک ورزشکار موفق تصور میکند، با تمرین مداوم و ارزیابی پیشرفت خود، به سوی هدف سلامتی یا موفقیت ورزشی حرکت میکند. مالتز تأکید دارد که اهداف باید با تصویر ذهنی فرد همراستا باشند تا رفتار هدفمند به نتیجه برسد.
انسانشناسی رفتار هدفمند را در بستر فرهنگ بررسی میکند. فرهنگ، مجموعهای از معانی، ارزشها، و هنجارهایی است که رفتارهای افراد را شکل میدهند. کلیفورد گیرتز، انسانشناس برجسته، فرهنگ را «تارهایی از معنا» میداند که افراد در آنها رفتارهای خود را تعریف میکنند. برای مثال، در یک جامعهی سنتی، رفتار هدفمند ممکن است شامل شرکت در آیینهای مذهبی باشد، زیرا این آیینها به حفظ هویت جمعی کمک میکنند. در مقابل، در یک جامعهی صنعتی، هدف ممکن است دستیابی به موفقیت حرفهای باشد که با ارزشهای فردگرایی همخوانی دارد.
این دیدگاه با سایبرنتیک پیوند میخورد، زیرا فرهنگ مانند یک سیستم بازخورد عمل میکند که اهداف افراد را هدایت میکند. برای مثال، یک جوان در یک جامعهی دینی ممکن است از طریق آموزشهای مذهبی و بازخورد اجتماعی (مانند تأیید بزرگترها) یاد بگیرد که احترام به دیگران هدفی ارزشمند است. این فرآیند مشابه مکانیزمهای سایبرنتیک است که در آن بازخورد، رفتار را به سوی هدف تنظیم میکند.
حکمت اسلامی، بهویژه در تعالیم امام علی (ع)، رفتار هدفمند را در راستای هدف والای آفرینش انسان تعریف میکند: شناخت خدا، عبادت او، و آمادگی برای حیات اخروی. این دیدگاه با سایبرنتیک و انسانشناسی پیوند میخورد، زیرا هدفگذاری انسان را نهتنها نتیجهی مکانیزمهای زیستی یا فرهنگی، بلکه نتیجهی نیت الهی میداند. امام علی (ع) در احادیث متعدد بر این نکته تأکید کردهاند که رفتارهای انسان باید به سوی مقصدی متعالی هدایت شوند. در زیر، چند حدیث معتبر از نهجالبلاغه آورده شده است:
این تعالیم با ایدهی مالتز در سایکو-سایبرنتیک همراستا هستند، زیرا هر دو بر نقش تصویر ذهنی و نیت در هدایت رفتار تأکید دارند. در حکمت اسلامی، تصویر ذهنی انسان باید با ایمان به خدا و هدف اخروی همخوانی داشته باشد تا رفتارش هدفمند و متعالی باشد.
هوش مصنوعی (AI)، بهعنوان محصولی از اصول سایبرنتیک، توانایی خلق سیستمهایی با رفتارهای هدفمند را دارد. برای مثال، یک سیستم هوش مصنوعی در پزشکی میتواند با تحلیل دادهها، بیماریها را تشخیص دهد. اما بدون نظارت مناسب، این فناوری میتواند رفتار هدفمند انسانی را مختل کند:
این چالشها نشان میدهند که هوش مصنوعی، اگرچه ابزاری قدرتمند است، باید در چارچوبی طراحی شود که با اهداف انسانی و الهی همراستا باشد. همانطور که وینر هشدار داده بود، ماشینها بندگان خوبی هستند، اما اگر کنترل آنها از دست انسان خارج شود، میتوانند به اربابانی آسیبرسان تبدیل شوند.