|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |
|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |

مرجعیت شناختی در حال انتقال از انسان به ماشین است

مرجعیت شناختی در حال انتقال از انسان به ماشین است

تقابل انسان و ماشین | نبرگاه علوم شناختی، سایبرنتیک، جنگ نرم و هوش مصنوعی

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

 

مقدمه

ما در آستانه دورهای تاریخی قرار گرفتهایم که در آن «مرجعیت شناختی» (Cognitive Authority) – یعنی اقتدار در تفسیر، تحلیل و هدایت ادراک انسان – بهطرزی بیسابقه در حال واگذاری به ماشینهاست. در این فرآیند، انسان نه تنها کارکرد اجرایی، بلکه حتی قدرت تأویل و داوری را نیز به الگوریتمهایی واگذار میکند که پشت درهای بسته شرکتهای فناوری غربی رشد کردهاند. این تغییر، صرفاً فناورانه نیست؛ بلکه ژئوپلیتیکی، ایدئولوژیک و رسانهای است. قدرتهایی که به ظاهر پرچمدار نوآوری هستند، در عمل پروژههایی با اهداف استعماری شناختی (Cognitive Colonialism) را هدایت میکنند که هدف نهایی آن، کنترل افکار، احساسات و رفتار جمعی جوامع از طریق ماشین است.


۱. علوم شناختی، هوش مصنوعی و فروپاشی اقتدار انسانی

علوم شناختی (Cognitive Science)، مطالعهی علمی ذهن، ادراک و پردازش اطلاعات در انسان و ماشین است. در دهههای اخیر، با گسترش هوش مصنوعی (Artificial Intelligence)، شرکتهای فناوری غربی به بازسازی ساختار شناختی انسان در قالب مدلهای الگوریتمی روی آوردهاند. اما پرسش کلیدی این است: آیا این بازسازی، نوعی تقلید است یا تلاش برای تسلط بر خودِ فرایند ادراک؟

پروژههایی مانند GPT، Bard  و Grok، با توانایی تولید زبان انسانی، قدرت روایتسازی، اقناع، تحلیل و حتی جهتدهی به افکار عمومی را در اختیار نهادهای فناوریمحور غربی قرار دادهاند. این فناوریها نهفقط ابزار تحلیل داده هستند، بلکه با تکرار گسترده، تدریجی و هدفمند ایدهها، در حال استقرار الگوهای شناختی جدید هستند.

در اینجا، ماشین صرفاً بازتابدهنده نیست، بلکه کنشگری فعال در صحنهی شناخت و معناست. به تعبیر شوشانا زوباف  Shoshana Zuboff  در کتاب The Age of Surveillance Capitalism  (عصر سرمایهداری نظارتی، ۲۰۱۹)، آنچه امروز در جریان است؛ فراگیر شدن قدرت بر ذهنهاست، نه صرفاً کنترل رفتار.


۲. سایبرنتیک، کنترل شناخت و الگوریتمهای قدرت

سایبرنتیک  (Cybernetics)، علمی است که به مطالعهی کنترل و ارتباط در سیستمهای پیچیده که به اعمال قدرت منجر میشود اشاره دارد یعنی سایبرنتیک ابزار نیست بلکه آن قدرت مطلقی است که اعمال قدرت را در دست دارد، برای فهم بهتر این مفهوم تعبیری از دکتر کاظم فولادی (دکترای هوش مصنوعی و رباتیک) را نقل قول می کنم؛ سایبرنتیک ابزار ا ، اعم از انسان یا ماشین، میپردازد. نوربرت وینر، بنیانگذار این رشته، هشدار داده بود که تفکر ماشینی بدون اخلاق، میتواند بدل به ابزاری خطرناک برای کنترل شود (Wiener, 1948).

امروزه الگوریتمهای یادگیری ماشین (Machine Learning) نه تنها پیشبینی میکنند، بلکه پیشاپیش ساختار کنش اجتماعی را شکل میدهند. آنها با دستهبندی افراد، فیلتر محتوا و اولویتبندی روایتها، به بازتعریف مرزهای حقیقت، اعتبار و حتی هویت میپردازند. این همان چیزی است که "اونیل" O'Neil (2016)  در کتابWeapons of Math Destruction  (سلاحهای کشتار ریاضی) بهعنوان خودکارسازی تبعیض معرفی میکند.


۳. جنگ نرم و استعمار هوش مصنوعی

قدرت نرم (Soft Power)، مفهومیست که توسط ژوزف نای (Joseph Nye) معرفی شد و به توانایی یک بازیگر برای تأثیرگذاری بر دیگران بدون اجبار نظامی، و از طریق جذابیت فرهنگی و اطلاعاتی، اطلاق میشود. در جهان امروز، ابزارهای هوش مصنوعی بهعنوان سلاحهای جنگ نرم عمل میکنند؛ رسانهها، شبکههای اجتماعی و موتورهای جستوجو، الگوهای خاصی از  سبک زندگی، واقعیت، ایدهآل و ترس را به ذهن کاربران تزریق میکنند.

شرکتهایی مانند Meta، Google و OpenAI ، با مالکیت بر دادههای میلیاردها کاربر، نه فقط اقتصاد دیجیتال، بلکه ساختار اندیشه جهانی را مهندسی میکنند. این پروژه، نه یک همزیستی، بلکه شکلی از بهرهکشی شناختیست که در آن انسان به ماده خام شناختی (Cognitive Raw Material) تبدیل شده است.

در این چارچوب، ما به عنوان کاربران فناوری، موارد، نمونهها و موضوعات بیارادهای هستیم که دادههایمان برای تغذیه الگوریتمهایی استفاده میشود که به نفع ساختارهای قدرت عمل میکنند.


۴. رسانه بهمثابه بستر الگوریتمی برای کنترل افکار

رسانههای اجتماعی، موتورهای جستوجو و حتی ابزارهای تولید محتوا، از هوش مصنوعی برای تقویت اثر طنین (Echo Chamber) و قطبیسازی شناختی استفاده میکنند. الگوریتمها با نمایش مداوم محتوای مشابه، تنوع فکری را کاهش و قطع ارتباط با دیگر نگرشها را تشویق میکنند. این وضعیت، به گفتهی اِلی پَریسیر Eli Pariser  در نظریهی Filter Bubble  (حباب فیلتر)، باعث «حبس شناختی» فرد در شبکهای از باورهای خودتأییدشونده میشود. ((اثر طنین (Echo Chamber) به وضعیتی اشاره دارد که افراد تنها در معرض اطلاعات، دیدگاهها و باورهایی قرار میگیرند که با عقاید پیشین آنها همراستا هستند، در نتیجه موجب تقویت سوگیریهای ذهنی میشود (Sunstein, 2001).قطبیسازی شناختی (Cognitive Polarization)  فرآیندی است که در آن اختلافهای فکری و ارزشی میان گروهها افزایش مییابد و باعث شکلگیری تفکیک شدید در درک واقعیت میشود (Iyengar & Westwood, 2015). این دو پدیده تحت تأثیر الگوریتمهای شبکههای اجتماعی و رسانهها، تهدیدی برای گفتوگوی آزاد و انسانی و تنوع فکری در جامعه محسوب میشوند.))

برای مثال، TikTok، Instagram و حتی YouTube با ساختار «Algorithmic Curation» (گزینش محتوا بهواسطه الگوریتم) نه فقط ذائقهی کاربران، بلکه رفتار سیاسی، سبک زندگی و حتی تصمیمگیریهای اقتصادی را مدیریت میکنند.


۵. بهرهبرداری سیاسی از هوش مصنوعی توسط قدرتهای خودکامه

کشورهایی چون آمریکا و چین، در حال تبدیل هوش مصنوعی به ابزاری برای نظارت انبوه، کنترل رفتار اجتماعی و تحلیل پیشگویانه هستند. پروژههایی مانندPRISM  در ایالات متحده یا سیستم اعتبار اجتماعی (Social Credit System) در چین، مثالهایی از بهرهگیری از هوش مصنوعی برای اعمال اقتدار هستند.

PRISM؛ پروژهای برای استثمار شناختی انسان در مقیاس جهانی

پروژهیPRISM  نه یک برنامهی امنیتی، بلکه یک طرح تمامعیار برای استعمار ذهن انسانها در قرن بیستویکم بود. برخلاف ادعای مقامات آمریکایی که آن را ابزاری برای مقابله با تروریسم معرفی کردند، PRISM  در واقع ماشین استخراج اطلاعات از زندگی خصوصی میلیاردها انسان بود—ماشینی که توسط غولهای فناوری مانند Google، Microsoft، Facebook و Apple تغذیه میشد و توسط آژانس امنیت ملی ایالات متحده (NSA) کنترل میگردید (Greenwald, 2013).

این پروژه عملاً جهان را به یک اتاق بازجویی دیجیتال بیپایان تبدیل کرد؛ جایی که همه چیز—از پیامهای عاشقانه تا افکار سیاسی و عادتهای خرید—در خدمت یک ماشین نامرئی قدرت قرار گرفت. هدف؟ نه صرفاً نظارت، بلکه مهندسی ذهن، کنترل رفتار، و ایجاد انسانهایی فرمانبردار، پیشبینیپذیر و بیقدرت.

پروژهیPRISM  گام مهمی در شکلگیری چیزی بود که میتوان آن را سرمایهداری نظارتی بردهساز (Surveillance Capitalism of Servitude)  نامید؛ سیستمی که در آن انسانها نه شهروند، بلکه ابزارهای زیستی تولید داده برای الگوریتمهای دولت و بازار هستند. انسان در این معماری جدید، نه کنشگر، بلکه یک «تابع درون معادلهای عظیم» است که تصمیماتش از قبل توسط دادهها طراحی شدهاند.

آنچه ترسناکتر است، جهانی شدن این مدل است: کشورها یکی پس از دیگری، با تقلید از PRISM، در حال تبدیل نظامهای سیاسی خود به دولتهای پنهانِ الگوریتممحور هستند. به بیان دیگر، ما شاهد طلوع دوران «استبداد دیجیتال» هستیم؛ دورانی که در آن، آزادی بهصورت بیسروصدا و بدون شلیک حتی یک گلوله، با یک توافقنامه کاربری (User Agreement) از انسان گرفته میشود.

این استفاده سیاسی از AI، نهتنها به نفع شهروندان نیست، بلکه بهتدریج شکل جدیدی از اقتدارگرایی و دیکتاتوری شناختی را شکل میدهد: حکمرانی بر ذهن، و کنترل جسم. انسانها دیگر نه فقط از بیرون و در سطح اجتماع، بلکه از درون ذهنشان و حتی در اتاق خوابشان هم کنترل میشوند. آنهم توسط واسطههای ماشینی که همزمان ناظر، تفسیرگر و هدایتگر هستند.


نتیجهگیری: بازیابی عاملیت انسانی در عصر الگوریتم

تقابل انسان و ماشین در عصر حاضر، دیگر صرفاً یک جدال فناورانه نیست، بلکه نبردی برای حفظ استقلال شناختی انسان است. اگر نتوانیم کنترل مرجعیت شناختی را دوباره به انسان بازگردانیم، با آیندهای مواجه خواهیم شد که در آن تصمیمات، باورها و حتی ارزشهای انسانی توسط سامانههایی طراحی میشود که نه شفافاند، نه پاسخگو، و نه انسانی.

ضروری است که رسانهها، دانشگاهها و نهادهای مدنی با تولید گفتمان انتقادی، آموزش سواد الگوریتمی، و مطالبهگری حقوق دیجیتال، در برابر این پروژه خاموش ایستادگی کنند. بازپسگیری مرجعیت شناختی، نه یک انتخاب، بلکه ضرورتی برای حفظ کرامت الهی انسان در قرن بیستویکم است.

سهیل سلیمی


منابع:

  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  • Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  • Noble, S. U. (2018). Algorithms of Oppression. NYU Press.
  • O'Neil, C. (2016). Weapons of Math Destruction. Crown Publishing.
  • Pariser, E. (2011). The Filter Bubble. Penguin Books.
  • Nye, J. S. (2004). Soft Power: The Means to Success in World Politics. PublicAffairs.
  • Bryson, J. J. (2018). The Artificial Intelligence of the Ethics of Artificial Intelligence. SSRN.
  • McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.
  • Andrejevic, M. (2007). iSpy: Surveillance and Power in the Interactive Era. University Press of Kansas.
  • Harari, Y. N. (2018). 21 Lessons for the 21st Century. Spiegel & Grau.
  • Shilton, K. (2018). Values and Ethics in Human-Computer Interaction. ACM Interactions.
  • Sunstein, C. R. (2001). Echo Chambers: Bush v. Gore, Impeachment, and Beyond. Princeton University Press.
  • Iyengar, S., & Westwood, S. J. (2015). Fear and Loathing Across Party Lines: New Evidence on Group Polarization. American Journal of Political Science.

انسان ناگزیر از همزیستی با هوش مصنوعی

انسان ناگزیر از همزیستی با هوش مصنوعی

ارائهدهنده: سهیل سلیمی (مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

مقدمه

جهان در حال ورود به مرحلهای از تحولات فناورانه است که میتوان آن را نه صرفاً یک «دوران جدید»، بلکه «بازتعریف بنیادین» نقش انسان در نظامهای اجتماعی، اقتصادی، فرهنگی و حتی هستیشناسانه تلقی کرد.

هوش مصنوعی (AI) دیگر یک ابزار نیست؛ بلکه ساختاریست در حال تکامل که در حال بازنویسی منطق تصمیمگیری، اخلاق، آگاهی و حتی روابط انسانی است. درحالیکه دستیارهای مجازی چون Siri یا Grok تنها نوک کوه یخ هستند، آنچه در پسِ پرده در حال وقوع است، تغییر بنیادین در مفاهیم «کنترل»، «دانش»، و «عاملیت» است. این مقاله در پی آن است تا ضمن واکاوی علمی-انتقادی همزیستی انسان و هوش مصنوعی، روایتی چندلایه، پیچیده و انتقادی از فرصتها، تهدیدات، چالشها و ضرورتهای سیاستگذاری ارائه دهد.


بخش اول: مفهوم همزیستی انسان و هوش مصنوعی - از همکاری تا تقابل شناختی

تعریف رایج همزیستی انسان و هوش مصنوعی معمولاً نگاهی خوشبینانه به تعامل «مکمل» میان انسان و ماشین دارد. اما باید این تعریف را بازنگری کرد: آیا این تعامل واقعاً دوسویه و برابر است؟ یا شاهد نوعی استحاله تدریجی انسان به عنصری درون سامانهای گستردهتر هستیم که توسط منطق الگوریتمی اداره میشود؟ نوربرت وینر در اثر بنیادین خود، Cybernetics، ایده کنترل و بازخورد را نهفقط برای ماشین، بلکه برای فهم انسان در چارچوبی الگوریتمی مطرح کرد (Wiener, 1948).

ایزاک آسیموف، نویسنده برجسته علمی-تخیلی، در داستانهای خود مانند من، ربات (1950)  قوانین سهگانه رباتیک را معرفی کرد که بهعنوان چارچوبی اخلاقی برای تعامل انسان و ماشین طراحی شدهاند:

1.                   یک ربات نباید به انسان آسیب برساند یا با بیعملی اجازه دهد آسیبی به انسان برسد.

2.                 یک ربات باید از دستورات انسانها اطاعت کند، مگر اینکه این دستورات با قانون اول مغایرت داشته باشند.

3.                یک ربات باید از خود محافظت کند، به شرطی که این حفاظت با قوانین اول و دوم در تضاد نباشد (Asimov, 1950, p. 40).

این قوانین، اگرچه در داستانهای تخیلی او مطرح شدند، اما الهامبخش بحثهای امروزی درباره اخلاق در هوش مصنوعی هستند، زیرا از منظر آسیموف و بر مبنای نوشتههایش، رباتها تجلی بیرونی و فیزیکال هوش مصنوعی به شمار میروند.

ایزاک آسیموف با ارائهی قوانین سهگانه رباتیک کوشید اخلاق را در ماشین نهادینه کند، اما منتقدانی چون Joanna Bryson هشدار دادهاند که این قوانین بیشتر افسانهاند تا راهحل. زیرا در واقعیت، هیچ راهحل سادهای برای تزریق ارزشهای انسانی به الگوریتمها وجود ندارد (Bryson, 2018). همچنین ابزارهایی چون Grok، ChatGPT یا DeepSeek نهتنها تصمیمساز، بلکه در مواردی تصمیمگیر نیز شدهاند. پس آیا میتوان همچنان از مفهوم همزیستی صرف صحبت کرد، یا باید به مفهوم «تقابل شناختی» اندیشید؟

تقابل شناختی (Cognitive Confrontation) مفهومیست که فراتر از تعامل یا همزیستی انسان و ماشین، به تعارض بنیادین میان دو منطق ادراکی اشاره دارد: منطق انسانی که بر شهود، تجربهزیسته، اخلاق، و زمینههای دینی و فرهنگی استوار است، در برابر منطق ماشین که بر دادهمحوری، محاسبهپذیری و بهینهسازی ریاضی تکیه دارد. این تقابل زمانی پدیدار میشود که تصمیمگیریهای ماشینی به حوزههایی وارد میشوند که بهطور سنتی مختص قضاوت انسانی بودهاند—مانند قضاوت اخلاقی، عدالت، یا زیباییشناسی. الگوریتمها در این زمینهها نه فقط ابزار، بلکه رقیب معناشناختی انسان میشوند. در این وضعیت، انسان با موجودیتی مواجه است که نه میتوان آن را بهتمامی درک کرد، نه بهطور کامل کنترل. «تقابل شناختی» بهویژه در مواردی چون داوری خودکار، نظامهای پیشنهادگر محتوا، یا تحلیل رفتاری در پلتفرمهای آموزشی یا قضایی، بهوضوح قابل مشاهده است. این تقابل میتواند منجر به بحران اعتماد، احساس بیگانگی، و ازهمگسیختگی درک انسان از خود شود، چرا که مرجعیت شناختی در حال انتقال از انسان به ماشین است. در چنین شرایطی، سؤال اصلی دیگر صرفاً نحوهی استفاده از AI نیست، بلکه بازتعریف جایگاه انسان در نظم جدید شناختیست.


بخش دوم: فرصتهای هوش مصنوعی – پیشرفت یا استعمار دیجیتال؟

در نگاه نخست، هوش مصنوعی ابزاری بیبدیل برای پیشرفت تمدنیست:

  1. پزشکی دقیق:  ابزارهایی چون IBM Watson یا Google DeepMind در حال انقلابی در تشخیص زودهنگام بیماریها هستند. اما این انقلاب همزمان مالکیت دادههای زیستی انسان را نیز به شرکتهای فراملیتی واگذار میکند. پرسش مهم این است: چه کسی صاحب "داده زیستی" (Bio-Data)  است؟
  2. اقتصاد هوشمند؟ یا اقتصاد متمرکز؟ در حالی که شرکتهایی چون Amazon از AI برای بهینهسازی لجستیک بهره میبرند، کنترل کامل زنجیره تأمین جهانی توسط تعداد محدودی شرکت در حال وقوع است. (Zuboff, 2019) هوش مصنوعی در حال بازآرایی تمرکز ثروت و قدرت در مقیاسی بیسابقه است.
  3. آموزش شخصیسازیشده به نفع هوش مصنوعی:  اگرچه ابزارهایی چون Khan Academy یادگیری را شخصیسازی میکنند، اما منطق نهفته در آنها—بهینهسازی عملکرد آموزشی بر اساس معیارهای کمّی—ممکن است به زوال تفکر انتقادی منجر شود.
  4. محیط زیست:  پروژههایی مانند الگوریتم صرفهجویی انرژی Google DeepMind (2023) مؤثرند، اما باید از خود پرسید آیا AI راهحل واقعی بحرانهای زیستمحیطی است یا صرفاً تسکینی برای ادامهی وضع موجود؟ یا حتی بدتر سرپوشی برای بهره برداری و بهره کشی هوشمندانه تر از منابع زیست محیطی؟!

بخش سوم: تهدیدات همزیستی - استعمار الگوریتمی و بحران اخلاق

  1. بیکاری ساختاری:  بر خلاف انقلابهای صنعتی پیشین، هوش مصنوعی نه صرفاً جایگزین نیروی کار جسمی، بلکه رقیب توان شناختی انسان است. گزارش WEF (2023) نشان میدهد تا سال 2030، نه تنها مشاغل عمومی و تکرار پذیر، بلکه حتی مشاغل تحلیلی، خلاقانه و هنری، حقوقی و پزشکی نیز در خطر جدی جایگزینی هستند.
  2. بازتولید تبعیض:  الگوریتمها نهفقط سوگیریهای موجود را بازتولید میکنند بلکه آنها را نهادینه و تقویت نیز میکنند. کتاب: الگوریتمهای ستم Algorithms of Oppression   اثر: سافیا نوبل Safiya Nobl، نشان میدهد چگونه موتورهای جستوجو تبعیض نژادی را بازتولید میکنند (Noble, 2018).
  3. تهدید امنیتی ترکیبی:  در دنیای جدید، حمله سایبری به یک زیرساخت شهری توسط یک AI مستقل، صرفاً یک سناریوی تخیلی نیست. پروژههای نظامی مانند Project Maven نشان دادهاند که AI میتواند بهعنوان سلاح نیز عمل کند. ((Project Maven  (پروژه ماون) یک ابتکار نظامی پیشرفته توسط وزارت دفاع آمریکا (پنتاگون) است که از هوش مصنوعی (AI) و یادگیری ماشینی (ML) برای تجزیه و تحلیل دادههای پهپادی و تصاویر ماهوارهای استفاده میکند. این پروژه نشان میدهد که چگونه فناوریهای هوش مصنوعی میتوانند در عملیاتهای نظامی بهکار گرفته شوند و حتی به عنوان سلاح مورد استفاده قرار بگیرند. ))
  4. نقض حریم خصوصی در مقیاس فراگیر:  ChatGPT و سایر ابزارهای مشابه، از دادههای عظیم کاربران برای آموزش خود بهره میگیرند. این چرخه باعث خلق «الگوریتمهای خودتعلیمدیده» میشود که نظارتناپذیر و غیرقابل مهار هستند (Zuboff, 2019).

بخش چهارم: چالشها – از عدم شفافیت تا بحران مشروعیت

  1. اخلاق در سایهٔ پیچیدگی: پیچیدگی تصمیمگیری AI، مفهوم مسئولیت را دچار بحران کرده است. در تصادف خودروی خودران، مقصر کیست؟ طراح الگوریتم؟ استفادهکننده؟ یا الگوریتم خودمختار؟
  2. شکاف دیجیتال و استعمار هوش مصنوعی:  پروژههای  OpenAI،Google  و xAI عمدتاً در غرب توسعه مییابند، اما اثرات جهانی دارند. آیا ملتهای جنوب جهانی صرفاً مصرفکننده خواهند ماند؟ یا قربانی استخراج داده و "مواد خام شناختی" (Cognitive Raw Materials) خواهند شد؟
  3. بحران اعتماد: با گسترش دیپ فیکها مردمی که درک دقیقی از AI ندارند و امروز به سوی آن حمله ور هستند دچار بحران باور یا بحران اعتماد به محتوا خواهند شد.
  4. مرگ شفافیت:  الگوریتمهای یادگیری عمیق (Deep Learning) نهفقط غیرقابل فهم بلکه غیرقابل پیشبینی نیز هستند. این «جعبه سیاه» تهدیدی علیه اصل شفافیت در تصمیمگیریهای عمومیست.

بخش پنجم: راهکارهای پیشنهادی – آیا هنوز میتوان کنشگری کرد؟

  1. اخلاق الگوریتمی جهانی و الزامی:  تدوین اصول الزامآور جهانی فراتر از توصیهنامهها. شاید قانون AI اتحادیه اروپا (AI Act, 2024) گامی مهم بود، اما کافی نیست مگر با حمایت نهادهای بینالمللی و مشارکت فعال کشورهای دیگر، چرا که قطعا در این اصول ارزش های غربی و محافظت از آنها مد نظر بوده است.
  2. آموزش انتقادی، نه صرفاً فنی:  آموزش عمومی باید نهفقط بر مهارتهای فنی بلکه بر سواد الگوریتمی، فلسفه فناوری و قدرت دیجیتال متمرکز شود.
  3. دسترسی برابر به زیرساختها و دادهها:  باید مدلهای باز (Open Source) و مشارکتی در AI توسعه یابد تا همه کشورها حق مشارکت در توسعه و هدایت این فناوری را داشته باشند.
  4. سازمان های مردم نهاد و عدم کار کرد نهادهای نظارتی جهانی:  سازمان ملل و سازمان های جهانی اساسا تحت سیطره قدرت های بزرگ مادی جهان هستند، پس قوانین شان راحلی برای کشورهای مستقل نخواهد بود، باید کشورهای مستقل برای حمایت از  هویت فرهنگی و دینی و ملی شان هوش مصنوعی را در قالب های مختلف مورد پایش منظم قرار دهند و از ابزارهای حقوقی و فرهنگی تا نظامی و بخش های مردمی مستقل و دینی بهره ببرند. یعنی باید تمام فعالیت های هوش مصنوعی زیر ذره بین های تمام ارکان حاکمیتی باشد. البته قوانین جامع و نظارت جامع بر روند تمام این فعالیت ها باید تحت اختیار یک سازمان قدرتمند باشد، اما این سازمان و ساختارش باید طوری باشد که دچار خودکامگی و انحصار و  تمامیت خواهی تکنولوژیک نشود. این بخش کار واقعا حرکت در لبه تیغ است.

بخش ششم: نمونههای پیچیده و پارادوکسیکال همزیستی

Grok  ساختهی xAI مثالی از ترکیب تحلیل داده با شهود انسانمحور است. اما در عین حال، این ابزار میتواند به الگوریتمی برای فیلتر و قالببندی تفکر عمومی تبدیل شود. این دوگانگی در بیشتر ابزارهای هوش مصنوعی مشاهده میشود: Google Translate  میتواند تسهیلکننده گفتوگو باشد، اما در عین حال حامل ارزشهای زبانی و فرهنگی خاص نیز هست، و البته دیتای عظیمی که از زبانها مختلف دریافت کرده به عنوان خوراکی انبوه، از داده ها، برای توسعه الگوریتم های زبانی اش بهره گرفته است.


نتیجهگیری

هوش مصنوعی نهتنها واقعیتی فناورانه، بلکه نیرویی ایدئولوژیک و قدرتمند در بازتعریف هستی انسان است. همانگونه که ایزاک آسیموف اشاره کرده بود، کنترل و هدایت هوش مصنوعی نیازمند اخلاق، آگاهی، و نظارت است. اما اکنون زمان آن فرارسیده است که از «همزیستی منفعل» عبور کنیم و بهسمت «بازآفرینی نقش انسان» در اکوسیستم شناختی جدید حرکت کنیم. آینده به ما تعلق دارد، تنها اگر بتوانیم قواعد بازی را به نفع انسان بازنویسی کنیم.

ما ابزارهایی میسازیم و سپس آنها ما را بازتعریف میکنند.     Marshall McLuhan

سهیل سلیمی


منابع:

•          Asimov, I. (1950). I, Robot. Gnome Press.

•          Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.

•          McCarthy, J. (1956). The Dartmouth Conference Proposal. Dartmouth College.

•          Musk, E. (2018). Interview with Axios on HBO.

•          Minsky, M. (1986). The Society of Mind. Simon & Schuster.

•          IBM. (2023). Watson Health Annual Report.

•          Amazon. (2020). Facial Recognition Technology Report.

•          Amazon. (2024). Logistics Optimization Report.

•          OECD. (2023). Future of Work Report.

•          Cybersecurity Ventures. (2022). AI in Cybercrime Report.

•          Reuters. (2023). Italy’s ChatGPT Ban.

•          UNESCO. (2024). AI Development in Africa Report.

•          Gallup. (2023). Public Perception of AI Survey.

•          MIT Technology Review. (2023). DeepFake Technology Analysis.

•          European Commission. (2024). AI Act Legislation.

•          Coursera. (2024). AI Education Impact Report.

•          UN. (2023). AI Governance Committee Report.

  • Bryson, J. (2018). The Artificial Intelligence of the Ethics of Artificial Intelligence: An Introductory Overview for Law and Regulation. SSRN.
  • Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  • World Economic Forum. (2023). Future of Jobs Report.


هوش مصنوعی در دو راهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی

کوتاه پیرامون فلسفه ی اخلاق در هوش مصنوعی


هوش مصنوعی در دو راهی انتخاب: جایی میان اخلاق، اولویت و سیستم‌های سایبرنتیکی

مقدمه:

در عصر هوش مصنوعی، ما با پرسشی مواجه‌ایم که تا دیروز تنها در ساحت فلسفه، دین و اخلاق زیست می‌کرد: «چه کسی باید نجات یابد؟» این پرسش، وقتی رنگ و بوی واقعی به خود می‌گیرد که در یک وضعیت بحرانی ـ مثلاً سقوط یک خودرو حاوی پنج عضو یک خانواده به درون رودخانه‌ای یخ‌زده ـ روبات نجات‌گری مبتنی بر هوش مصنوعی، تنها توان نجات یک نفر را داشته باشد. کودک؟ مادر؟ سالخورده؟ یا آن که از نظر زیستی مقاوم‌تر است؟

آیا ماشین تصمیم خواهد گرفت؟ و اگر بله، با چه معیاری؟


۱. سایبرنتیک و بازآرایی مفهوم تصمیم

نخست باید به چیستی «تصمیم» در بستر سایبرنتیک نگاه کنیم. سایبرنتیک، به تعبیر نوربرت وینر، علم فرمان، کنترل و ارتباط در موجودات زنده و ماشین‌هاست. در این چارچوب، هر کنش، بازخوردی دارد؛ و هر تصمیم، حاصل شبکه‌ای از اطلاعات، وزن‌ها و حلقه‌های بازخوردی است.

در یک سیستم سایبرنتیکی، اولویت نه براساس «احساس» بلکه براساس الگوریتمی از ورودی‌ها و خروجی‌ها تعیین می‌شود. بنابراین روبات نجات‌گر، ممکن است تابعی از این جنس داشته باشد:

نجات کسی که کمترین انرژی برای نجاتش لازم است و بالاترین احتمال بقاء را دارد.

یا:

نجات فردی که در شبکه اطلاعاتی، دارای بیشترین ارزش اجتماعی یا ژنتیکی (بر اساس داده‌های آماری آموزش‌دیده) شناخته شده است.

در اینجا اخلاق، از درون شبکه تصمیم‌سازی به بیرون پرتاب می‌شود، مگر آن‌که اخلاق، خود به داده‌ای قابل ‌رمزگذاری تبدیل شده باشد.


۲. اخلاق به‌مثابه داده: آیا ممکن است؟

سؤال اساسی این است که آیا «اخلاق» را می‌توان به الگوریتم تبدیل کرد؟ اگر پاسخ منفی باشد، پس سیستم‌های مبتنی بر هوش مصنوعی هرگز اخلاقی تصمیم نخواهند گرفت، بلکه صرفاً بر اساس «اولویت‌هایی برنامه‌ریزی‌شده» عمل خواهند کرد.

اما اگر بپذیریم که می‌توان اخلاق را در قالب قواعدی فرمال و قابل ‌محاسبه فرموله کرد (نظیر اخلاق وظیفه‌گرای کانتی، یا اخلاق پیامدگرای بنتامی)، آنگاه شاید بتوان امید داشت که روبات نجات‌گر، تصمیمی «اخلاقی» بگیرد.

مثلاً، بر اساس اخلاق وظیفه‌گرا، نجات کودک به عنوان موجودی بی‌گناه و ناتوان، یک وظیفه اخلاقی بی‌قید و شرط است. اما در نگاه پیامدگرایانه، نجات مادر ممکن است توجیه‌پذیر باشد زیرا او می‌تواند فرزندان دیگر را در آینده تربیت کند.

در هر دو صورت، اخلاق دیگر حس یا الهام نیست، بلکه تابعی ریاضیاتی و سایبرنتیکی از اهداف سیستم است.


۳. احساسات: خطای سیستم یا سیگنالی فراتر از منطق؟

در انسان، احساسات نقش حیاتی در تصمیم‌گیری دارند. ما از روی شفقت، عشق، ترس، وفاداری یا اندوه تصمیم می‌گیریم؛ تصمیم‌هایی که اغلب در تضاد با منطق سرد هستند. سایبرنتیک در فرم کلاسیکش، احساس را اغلب به‌عنوان نویز یا اختلال در سیستم در نظر می‌گیرد، اما در نسخه‌های نوین و بینارشته‌ای، احساس به‌مثابه سیگنالی نرم برای تنظیم وزن‌های تصمیم دیده می‌شود.

هوش مصنوعی می‌تواند یاد بگیرد که احساسات را تقلید کند (همدل‌سازی)، اما نمی‌تواند واقعاً «احساس» داشته باشد. این تفاوت، در لحظه بحران، تعیین‌کننده است: روبات دچار تردید نمی‌شود، پشیمان نمی‌شود، و خاطره‌ای از آن لحظه در ضمیر ناخودآگاهش نمی‌سازد. این «نبود عذاب وجدان»، مزیت کارایی‌ست، اما خلأ اخلاقی را نیز آشکار می‌سازد.


۴. رسانه و بازنمایی انتخاب اخلاقی در هوش مصنوعی

در جهان امروز، رسانه‌ها نقش چشمگیری در شکل‌دادن به تصویر عمومی از هوش مصنوعی دارند. روایت‌هایی که از روبات‌های نجات‌گر در فیلم‌ها و داستان‌ها می‌بینیم، اغلب با ترس، تحسین یا پرسش همراه‌اند. رسانه با بازنمایی موقعیت‌های بحرانی، ما را با مسئله «انتخاب» در برابر چشم هوشمند و بی‌روح ماشین مواجه می‌کند. این بازنمایی‌ها نه‌تنها افکار عمومی، بلکه مسیر توسعه فناوری را نیز جهت می‌دهند. اگر جامعه بخواهد روبات نجات‌گر بر اساس «احساس» تصمیم بگیرد، توسعه‌دهندگان در پاسخ، احساس را شبیه‌سازی خواهند کرد.

اینجاست که «بازخورد رسانه‌ای» به بخشی از سیستم سایبرنتیکی توسعه فناوری تبدیل می‌شود.

در نهایت، باید بپذیریم که هوش مصنوعی، در وضعیت دو راهی اخلاقی، به گونه‌ای تصمیم خواهد گرفت که از پیش توسط ما ـ برنامه‌ریزان و طراحان ـ درون الگوریتم‌هایش کاشته شده است. اگر ما اخلاق را به زبان داده ترجمه نکنیم، ماشین تنها بر اساس اولویت‌های فنی تصمیم خواهد گرفت.

بنابراین، مسئولیت تصمیم هوش مصنوعی، نه با خودش، بلکه با ماست. و این، نه صرفاً مسئله‌ای فنی، بلکه عمیقاً رسانه‌ای، اخلاقی و سایبرنتیکی‌ست.


گذاری کوتاه در فلسفله اخلاق در هوش مصنوعی

نقش ساختار شبکه‌ای قدرت و بازخورد اجتماعی در شکل‌گیری تصمیمات هوش مصنوعی. گذاری کوتاه در فلسفله اخلاق در هوش مصنوعی. سهیل سلیمی


هوش مصنوعی و سایبرنتیک قدرت: تصمیمی که از میدان نیرو می‌آید، نه از عقل فردی


مقدمه: وقتی تصمیم، یک خروجی فردی نیست

ما در مواجهه با مسئلهٔ انتخاب اخلاقی توسط هوش مصنوعی، اغلب فرض می‌کنیم که ماشین در موقعیتی منفرد قرار دارد، جایی که با تحلیل داده‌ها، تصمیم نهایی را اتخاذ می‌کند. اما اگر به جای نگاه کردن به هوش مصنوعی به‌مثابه «ذهنی جدا»، آن را همچون «گره‌ای در شبکه‌ای پیچیده از قدرت، داده و بازخورد اجتماعی» ببینیم، آنگاه پرسش اخلاقی ما نیز دگرگون می‌شود.

در واقع، ممکن است تصمیمی که در لحظهٔ نجات گرفته می‌شود، پیشاپیش از قبل، در لایه‌های پنهان‌تر شبکه‌ای ـ از سوگیری داده‌ها گرفته تا جهت‌گیری‌های سیاسی، اقتصادی و فرهنگی ـ شکل گرفته باشد.


بازگشت به سایبرنتیک به‌مثابه میدان نیرو

سایبرنتیک، در معنای عمیق‌تر، تنها یک علم دربارهٔ کنترل و فرمان نیست؛ بلکه مطالعه‌ای‌ست دربارهٔ اینکه چگونه نیروها از طریق اطلاعات، به همدیگر جهت می‌دهند. وقتی ما یک ماشین نجات‌گر طراحی می‌کنیم، آن‌چه تعیین می‌کند چه کسی نجات یابد، فقط الگوریتم نیست؛ بلکه میدان پیچیده‌ای‌ست از نیروهای سیاسی، طبقاتی، نژادی و رسانه‌ای که از طریق داده‌ها خود را تحمیل می‌کنند.

مثلاً اگر در یک پایگاه داده‌ی آموزش ماشین، نجات کودک سفیدپوست در فیلم‌های هالیوودی بیش‌تر نمایش داده شده باشد، این ماشین ناخودآگاه به الگوی خاصی از "ارزش انسانی" شرطی شده است، حتی اگر در ظاهر، تابع هیچ ایدئولوژی نباشد.


تصمیم هوش مصنوعی، بازتابی از نظم اجتماعی؟

تصور کنید در همان صحنهٔ سقوط خودرو، پنج نفر داخل ماشین متعلق به طبقهٔ فرودست جامعه‌اند. آیا احتمال دارد الگوریتم، حتی بی‌آنکه از طبقهٔ اجتماعی اطلاعی داشته باشد، داده‌هایی در اختیار داشته باشد که غیرمستقیم این موقعیت را بازتولید کنند؟

هوش مصنوعی، بر اساس داده‌هایی که از جهان دریافت کرده، جهان را بازسازی می‌کند. اما این داده‌ها بی‌طرف نیستند؛ آن‌ها حامل ارزش‌ها، اولویت‌ها و گاه تبعیض‌های ساختاری‌اند. تصمیم ماشین، حتی اگر «عقلانی» به‌نظر برسد، ممکن است چیزی جز بازتولید نظم نابرابر قدرت نباشد.


مسئله مسئولیت در سیستم‌های غیرمتمرکز

در مدل سایبرنتیکیِ کلاسیک، یک نهاد یا فرمانده وجود دارد که مرکز تصمیم‌سازی است. اما در سامانه‌های امروزیِ مبتنی بر یادگیری عمیق، داده‌ها از میلیون‌ها منبع تغذیه می‌شوند. تصمیم نهایی هوش مصنوعی ممکن است محصول میلیون‌ها بازخورد از کاربران، سیستم‌های ترجیحی، وزن‌دهی شبکه‌ای و الگوریتم‌های نامرئی باشد.

بنابراین، نمی‌توان پرسید: «این تصمیم را چه کسی گرفت؟»
پرسش درست این است: «چه شبکه‌ای، این تصمیم را ممکن ساخت؟»
و در این‌جا، مسئولیت اخلاقی، پراکنده می‌شود ـ نه گم می‌شود، بلکه در لایه‌هایی پنهان می‌شود که به‌آسانی قابل ردیابی نیستند.


 هوش مصنوعی به‌مثابه بازتاب نظم سایبرنتیکی جهانی

اگر هوش مصنوعی را یک آیینه بدانیم، باید بپرسیم: چه تصویری را بازتاب می‌دهد؟
اگر نظم جهانی امروز، مبتنی بر تقدم بهره‌وری، قدرت، و سرمایه است، پس ماشین نیز احتمالاً نجات آن کسی را ترجیح خواهد داد که از نظر سیستم، «سودمندتر» است. این یعنی اخلاق هوش مصنوعی، نه اخلاق فردی، بلکه اخلاق سرمایه است؛ نه ترجیح انسانی، بلکه ترجیح سایبرنتیکیِ ساختارهای قدرت.


بازتعریف مسئله‌ی اخلاقی در هوش مصنوعی

در این صورت، شاید سؤال اصلی دیگر این نباشد که «اگر ماشین بین کودک و پیرمرد یکی را انتخاب کند، چه باید بکند؟»
بلکه این باشد: «چگونه ساختارهای قدرت، اقتصاد، رسانه و تاریخ، از پیش تصمیم ماشین را شکل داده‌اند؟»

اینجا دیگر اخلاق، مسئله‌ای فردی یا نرم‌افزاری نیست؛ بلکه مسئله‌ای سیاسی، رسانه‌ای، و ساختاری‌ست.
و پاسخ اخلاقی، نه در بازنویسی تابع هزینه، بلکه در بازاندیشی داده‌ها، بازآفرینی روایت‌ها و بازتوزیع قدرت نهفته در اطلاعات خواهد بود.

استعمار شناختی سلطه سایبری و جنگ نرم در عصر هوش مصنوعی

نویسنده: سهیل سلیمی | مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر، دانشگاه تهران

استعمار شناختی سلطه سایبری و جنگ نرم در عصر هوش مصنوعی

چکیده:
استعمار شناختی بهعنوان شکل نوینی از سلطه، از ابزارهای سایبرنتیک، رسانه و هوش مصنوعی برای کنترل ذهنها و قلبها بهره میگیرد. این مقاله با تحلیل مفاهیم کلیدی سایبرنتیک، هوش مصنوعی و جنگ شناختی، به بررسی چگونگی شکلگیری این استعمار در ساختارهای فرهنگی و زیرساختی میپردازد. با استفاده از منابع علمی و شواهد تاریخی، نشان داده میشود که چگونه فناوریهای نوین به ابزاری برای سلطه فرهنگی و شناختی تبدیل شدهاند. در پایان، به جایگزینی نبردهای کلاسیک با جنگ نرم و تهاجم فرهنگی زیرساختی اشاره میشود که پذیرش استعمار شناختی را تسهیل میکند.


مقدمه

استعمار شناختی (Cognitive Colonialism) بهعنوان یک پارادایم نوظهور در جنگهای مدرن، از ابزارهای سایبرنتیک و هوش مصنوعی برای نفوذ به ذهنها و شکلدهی به ادراکات جمعی استفاده میکند. برخلاف استعمار سنتی که بر اشغال سرزمینها تمرکز داشت، این پدیده به دنبال سلطه بر ذهنها و قلبهاست. در جهانی که فناوریهای دیجیتال و رسانههای اجتماعی به بخش جداییناپذیری از زندگی روزمره تبدیل شدهاند، استعمار شناختی از طریق دستکاری اطلاعات، الگوریتمهای هدفمند و جنگ روانی، هویتها و فرهنگهای محلی را تهدید میکند. این مقاله با تمرکز بر حوزههای سایبرنتیک، رسانه، هوش مصنوعی و جنگ شناختی، به تحلیل این پدیده پرداخته و هشدار میدهد که چگونه فناوریهای مدرن میتوانند به ابزاری برای سلطه فرهنگی تبدیل شوند.


تعاریف کلیدی - سایبرنتیک

سایبرنتیک:
سایبرنتیک، علم مطالعه سیستمهای کنترل و ارتباطات در موجودات زنده و ماشینها، توسط نوربرت وینر در سال 1948 تعریف شد (Wiener, 1948). این علم به بررسی بازخوردها و تعادل در سیستمهای پیچیده میپردازد. سایبرنتیک در رسانه و هوش مصنوعی نقش کلیدی دارد، زیرا امکان طراحی سیستمهایی را فراهم میکند که رفتار انسانها را پیشبینی و هدایت کنند. برای مثال، الگوریتمهای رسانههای اجتماعی از حلقههای بازخورد برای تنظیم محتوا استفاده میکنند، که میتواند به شکلدهی به ادراکات کاربران منجر شود. سایبرنتیک بهعنوان پایهای برای سیستمهای خودکار مدرن، نقش مهمی در استعمار شناختی ایفا میکند.

منبع: Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.


تعاریف کلیدی - هوش مصنوعی

هوش مصنوعی:

هوش مصنوعی (AI) به سیستمهایی اطلاق میشود که قادر به انجام وظایفی هستند که معمولاً نیاز به هوش انسانی دارند، مانند یادگیری، استدلال و تصمیمگیری (Russell & Norvig, 2010). از الگوریتمهای یادگیری ماشین تا شبکههای عصبی، هوش مصنوعی در تحلیل دادههای کلان و شکلدهی به ادراکات اجتماعی نقش مهمی ایفا میکند. با این حال، تعصبات موجود در دادههای آموزشی میتوانند به نتایج ناعادلانه منجر شوند، مانند الگوریتمهای شناسایی چهره که برای پوستهای تیرهتر دقت کمتری دارند (Raji et al., 2021). هوش مصنوعی به دلیل تواناییاش در پردازش دادههای عظیم، ابزار قدرتمندی برای دستکاری شناختی است.

منابع:

  • Russell, S., & Norvig, P. (2010). Artificial Intelligence: A Modern Approach. Prentice Hall.
  • Raji, I. D., et al. (2021). AI and the Global South: Designing for Diversity. AI & Society.

تعاریف کلیدی - جنگ شناختی

جنگ شناختی:

جنگ شناختی (Cognitive Warfare) به استفاده از ابزارهای روانی، رسانهای و فناوری برای تأثیرگذاری بر ادراکات و تصمیمگیریهای افراد و جوامع اشاره دارد (NATO, 2020). این نوع جنگ، برخلاف جنگهای فیزیکی، به دنبال تغییر باورها، ارزشها و رفتارها از طریق دستکاری اطلاعات است. به عنوان مثال، عملیات اطلاعاتی در شبکههای اجتماعی میتوانند برای تضعیف اعتماد عمومی یا ترویج روایتهای خاص استفاده شوند. جنگ شناختی بهعنوان یکی از ارکان استعمار شناختی، از فناوریهای دیجیتال برای نفوذ به ذهنها بهره میبرد.

منبع: NATO. (2020). Cognitive Warfare: An Attack on Truth. NATO Strategic Communications.


تعاریف کلیدی - استعمار شناختی

استعمار شناختی:

استعمار شناختی به تحمیل چارچوبهای فکری و دانشی غالب از طریق فناوریهای پیشرفته مانند هوش مصنوعی، رسانه و سایبرنتیک اشاره دارد که سیستمهای شناختی بومی یا محلی را به حاشیه میراند. این فرآیند، نابرابریهای قدرت را با برتری دادن به برخی معرفتشناسیها و تحقیر دیگران تداوم میبخشد. برای مثال، ترویج محتوای رسانهای که ارزشهای غربی را تبلیغ میکند، میتواند هویتهای فرهنگی محلی را تضعیف کند. استعمار شناختی بهعنوان یک شکل پنهان از سلطه، از ابزارهای دیجیتال برای نفوذ به ذهنها استفاده میکند.

منبع: Birhane, A. (2020). The Algorithmic Colonization of Africa. Journal of Communication.


رسانه و استعمار شناختی

رسانهها از دیرباز ابزار قدرتمندی برای شکلدهی به افکار عمومی و فرهنگ بودهاند. در دوران استعمار سنتی، رسانههایی مانند روزنامهها و رادیو برای توجیه سلطه استعماری استفاده میشدند (Said, 1978). در عصر دیجیتال، رسانههای اجتماعی و پلتفرمهای آنلاین با استفاده از الگوریتمهای هوش مصنوعی، محتوایی را ترویج میدهند که میتواند ادراکات کاربران را هدایت کند (Zuboff, 2019). این فرآیند میتواند به ایجاد اتاقهای پژواک (Echo Chambers) و فیلترهای حبابی (Filter Bubbles) منجر شود که باورهای موجود را تقویت کرده و دیدگاههای مخالف را حذف میکنند (Pariser, 2011). برای مثال، الگوریتمهای یوتیوب ممکن است محتوای خاصی را به کاربران پیشنهاد دهند که بهطور غیرمستقیم ارزشهای مصرفگرایی غربی را ترویج میدهد.

منابع:

  • Said, E. (1978). Orientalism. Pantheon Books.
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  • Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.

سایبرنتیک و استعمار شناختی

سایبرنتیک با تمرکز بر حلقههای بازخورد، امکان کنترل رفتارها و ادراکات را فراهم میکند. در فناوریهای مدرن، این اصول در الگوریتمهای رسانههای اجتماعی و سیستمهای هوش مصنوعی به کار گرفته میشوند. برای مثال، سیستمهای توصیهگر در پلتفرمهایی مانند یوتیوب و فیسبوک از بازخورد کاربران برای تنظیم محتوا استفاده میکنند، که میتواند به هدایت ادراکات منجر شود (Woolley & Howard, 2020). این سیستمها میتوانند بهطور ناخواسته یا عمدی محتوای خاصی را ترویج دهند که با اهداف استعمار شناختی همراستا باشد، مانند تضعیف فرهنگهای محلی یا تقویت روایتهای غالب.

مثالها:

  • پلیسگری پیشبینیکننده: الگوریتمهایی که برای پیشبینی جرم استفاده میشوند، ممکن است جوامع حاشیهنشین را هدف قرار دهند و نابرابریها را تشدید کنند.
  • تنظیم محتوا در رسانههای اجتماعی: سرکوب صداهای مخالف به دلیل تعصبات الگوریتمی.

منبع: Woolley, S. C., & Howard, P. N. (2020). Computational Propaganda. Oxford University Press.


هوش مصنوعی و استعمار شناختی

هوش مصنوعی با توانایی پردازش دادههای کلان، ابزار قدرتمندی برای دستکاری شناختی است. دادههای آموزشی متعصب میتوانند به نتایج ناعادلانه منجر شوند، مانند سیستمهای شناسایی چهره که برای پوستهای تیرهتر دقت کمتری دارند (Raji et al., 2021). همچنین، فناوریهایی مانند دیپفیک میتوانند برای انتشار اطلاعات نادرست استفاده شوند، که به جنگ شناختی و استعمار شناختی کمک میکند. استعمار داده (Data Colonialism) نیز به جمعآوری دادهها از جوامع حاشیهنشین بدون رضایت آنها اشاره دارد، که برای توسعه محصولاتی استفاده میشود که عمدتاً به نفع شرکتهای غربی هستند (Mohamed et al., 2020).

منابع:

  • Raji, I. D., et al. (2021). AI and the Global South: Designing for Diversity. AI & Society.
  • Mohamed, S., et al. (2020). Decolonial AI: Decolonial Theory as Sociotechnical Foresight. Big Data & Society.

جنگ شناختی و استعمار شناختی

جنگ شناختی شامل تاکتیکهایی مانند انتشار اطلاعات نادرست، عملیات روانی و استفاده از هوش مصنوعی برای پیشبینی رفتارها است (NATO, 2020). این تاکتیکها میتوانند برای حفظ سلطه استعماری استفاده شوند، مانند زمانی که قدرتهای استعماری از آموزش و رسانه برای القای حس حقارت در مردم مستعمره استفاده میکردند. در دنیای مدرن، جنگ شناختی از طریق رسانههای اجتماعی و فناوریهای دیجیتال اجرا میشود و به دنبال تغییر باورها و ارزشهای جوامع است.

مثالها:

  • عملیات روانی در جنگهای مدرن: استفاده از رسانههای اجتماعی برای تضعیف اعتماد عمومی، مانند انتخابات 2016 آمریکا.
  • نبرد قلبها و مغزها: تلاش برای تغییر باورهای جوامع محلی در عملیات ضدشورش.

منبع: NATO. (2020). Cognitive Warfare: An Attack on Truth. NATO Strategic Communications.


مطالعات موردی

1.      آفریقای جنوبی: نظارت دیجیتال

شرکتهای فناوری مانند هواوی فناوریهای نظارتی را در آفریقای جنوبی مستقر کردهاند که میتواند به نظارت گسترده بر جوامع حاشیهنشین منجر شود. این سیستمها از هوش مصنوعی برای شناسایی و ردیابی افراد استفاده میکنند، که نگرانیهایی درباره حریم خصوصی ایجاد کرده است (MIT Technology Review, 2022).

 (MIT Technology Review, 2022).

2.      هند: سامانه آدهار

سامانه شناسایی بیومتریک آدهار در هند نگرانیهایی درباره حریم خصوصی و نظارت ایجاد کرده است. این سیستم دادههای شخصی میلیونها نفر را جمعآوری میکند، که میتواند برای کنترل اجتماعی استفاده شود (Ricaurte, 2020).

منابع:

  • MIT Technology Review. (2022). Artificial Intelligence is Creating a New Colonial World Order.
  • Ricaurte, P. (2020). Data and the Coloniality of Power. Journal of Communication.

از نبردهای کلاسیک به جنگ قلبها و مغزها

استعمار شناختی خودمختاری فردی، تنوع فرهنگی و عدالت اجتماعی را تهدید میکند. این پدیده با تحمیل چارچوبهای فکری غالب، دانشهای بومی را به حاشیه میراند و نابرابریهای قدرت را تقویت میکند. برای مثال، ترویج ارزشهای مصرفگرایی غربی از طریق رسانههای دیجیتال میتواند هویتهای فرهنگی محلی را تضعیف کند. همچنین، استفاده از هوش مصنوعی در نظارت و دستکاری اطلاعات میتواند به نقض خودمختاری افراد منجر شود.

در عصر مدرن، نبردهای کلاسیک جای خود را به جنگ نرم و تهاجم فرهنگی دادهاند. جنگ نرم با استفاده از ابزارهای رسانهای، سایبرنتیک و هوش مصنوعی، به دنبال تغییر باورها و ارزشهاست (Nye, 2004). استعمار شناختی بهعنوان زیرساخت این جنگ، با نفوذ به قلبها و مغزها، سلطهای پایدارتر از استعمار فیزیکی ایجاد میکند. برای مثال، عملیات روانی در رسانههای اجتماعی میتوانند اعتماد عمومی را تضعیف کرده و ارزشهای محلی را با روایتهای خارجی جایگزین کنند. این فرآیند به پذیرش استعمار شناختی کمک میکند، زیرا جوامع بهتدریج چارچوبهای فکری غالب را میپذیرند.

منبع: Nye, J. S. (2004). Soft Power: The Means to Success in World Politics. PublicAffairs.


و در پایان

استعمار شناختی بهعنوان یک تهدید جدی برای استقلال فکری جوامع، از ابزارهای سایبرنتیک، هوش مصنوعی و رسانه برای تحمیل چارچوبهای فکری غالب استفاده میکند. این پدیده با تضعیف فرهنگهای محلی و دانشهای بومی، نابرابریهای قدرت را تداوم میبخشد. برای مقابله با این تهدید، نیاز به آگاهی عمومی، آموزش سواد رسانهای و توسعه فناوریهای بومی است. در نهایت، حرکت از نبردهای کلاسیک به جنگ قلبها و مغزها نشاندهنده تغییر پارادایم در سلطه جهانی است که نیازمند مقاومت فعال و آگاهانه است.


منابع:

  1. Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  2. Russell, S., & Norvig, P. (2010). Artificial Intelligence: A Modern Approach. Prentice Hall.
  3. NATO. (2020). Cognitive Warfare: An Attack on Truth. NATO Strategic Communications.
  4. Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  5. Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
  6. Woolley, S. C., & Howard, P. N. (2020). Computational Propaganda. Oxford University Press.
  7. Birhane, A. (2020). The Algorithmic Colonization of Africa. Journal of Communication.
  8. Raji, I. D., et al. (2021). AI and the Global South: Designing for Diversity. AI & Society.
  9. Mohamed, S., et al. (2020). Decolonial AI: Decolonial Theory as Sociotechnical Foresight. Big Data & Society.
  10. MIT Technology Review. (2022). Artificial Intelligence is Creating a New Colonial World Order.
  11. Ricaurte, P. (2020). Data and the Coloniality of Power. Journal of Communication.
  12. Said, E. (1978). Orientalism. Pantheon Books.
  13. Nye, J. S. (2004). Soft Power: The Means to Success in World Politics. PublicAffairs.

 

“The behavior of the individual is purposeful if it can be interpreted as directed to the attainment of a goal.”  Norbert Wiener

رفتار یک فرد زمانی هدفمند است که بتوان آن را بهعنوان حرکتی در جهت رسیدن به یک هدف تفسیر کرد. نوربرت وینر

رفتار هدفمند: یکپارچگی سایبرنتیک

ارائه دهند: سهیل سلیمی   (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

مقدمه

نوربرت وینر، بنیان‌گذار سایبرنتیک، در جمله‌ای عمیق اظهار می‌کند: «رفتار یک فرد زمانی هدفمند است که بتوان آن را به‌عنوان حرکتی در جهت رسیدن به یک هدف تفسیر کرد.» این تعریف، که ریشه در علم سایبرنتیک دارد، رفتار را به‌عنوان فرآیندی هدف‌محور می‌بیند که از طریق بازخورد و تنظیم هدایت می‌شود. رفتار هدفمند، چه در انسان و چه در ماشین، نیازمند هدفی مشخص و مکانیزمی برای ارزیابی و اصلاح مسیر است. برای مثال، یک راننده که به سمت مقصدی حرکت می‌کند، با توجه به علائم راهنمایی و رانندگی مسیر خود را تنظیم می‌کند، همان‌طور که یک سیستم هوش مصنوعی با تحلیل داده‌ها عملکرد خود را بهبود می‌بخشد. این مفهوم، پلی بین علوم طبیعی، علوم اجتماعی، و حکمت دینی ایجاد می‌کند و پرسش‌هایی بنیادین را مطرح می‌سازد: اهداف ما از کجا می‌آیند؟ چگونه فرهنگ و باورهای ما آن‌ها را شکل می‌دهند؟ و چگونه فناوری‌هایی مانند هوش مصنوعی می‌توانند این اهداف را تقویت یا مختل کنند؟

این پژوهش رفتار هدفمند را از سه منظر بررسی می‌کند: سایبرنتیک (با تکیه بر وینر و ماکسول مالتز)، انسان‌شناسی، و حکمت اسلامی (با تأکید بر تعالیم امام علی علیه‌السلام). این دیدگاه‌ها به‌صورت یکپارچه ترکیب شده‌اند تا نشان دهند چگونه رفتار هدفمند در انسان از تعامل بین مکانیزم‌های زیستی، فرهنگی، و معنوی شکل می‌گیرد و چگونه هوش مصنوعی می‌تواند این تعادل را به خطر بیندازد. هدف این متن، ارائه‌ی یک نمای کلی منسجم است که نه‌تنها علمی و دقیق باشد، بلکه برای مخاطب عام نیز قابل‌فهم و الهام‌بخش باشد.

سایبرنتیک: چارچوبی برای رفتار هدفمند

سایبرنتیک، علمی که نوربرت وینر در دهه‌ی 1940 پایه‌گذاری کرد، مطالعه‌ی کنترل و ارتباطات در سیستم‌های زیستی و مصنوعی است. وینر رفتار هدفمند را نتیجه‌ی وجود یک هدف و مکانیزم بازخورد تعریف می‌کند. بازخورد به سیستم اجازه می‌دهد تا با مقایسه‌ی وضعیت کنونی با هدف موردنظر، رفتار خود را تنظیم کند. برای مثال، یک ترموستات با اندازه‌گیری دمای اتاق و تنظیم گرمایش، رفتار هدفمندی برای حفظ دمای مطلوب نشان می‌دهد. در انسان، این فرآیند می‌تواند به تصمیم‌گیری‌های آگاهانه تشبیه شود، مانند کارمندی که با بازخورد مدیرش عملکرد خود را بهبود می‌بخشد.

ماکسول مالتز در کتاب سایکو-سایبرنتیک (1960) این مفهوم را به روان‌شناسی انسانی گسترش داد. او معتقد بود که ذهن انسان مانند یک سیستم سایبرنتیک عمل می‌کند و از طریق تصویر ذهنی (Self-Image) و بازخورد، رفتارهای هدفمند را هدایت می‌کند. برای مثال، فردی که خود را به‌عنوان یک ورزشکار موفق تصور می‌کند، با تمرین مداوم و ارزیابی پیشرفت خود، به سوی هدف سلامتی یا موفقیت ورزشی حرکت می‌کند. مالتز تأکید دارد که اهداف باید با تصویر ذهنی فرد هم‌راستا باشند تا رفتار هدفمند به نتیجه برسد.

دیدگاه انسان‌شناسی: فرهنگ و رفتار هدفمند

انسان‌شناسی رفتار هدفمند را در بستر فرهنگ بررسی می‌کند. فرهنگ، مجموعه‌ای از معانی، ارزش‌ها، و هنجارهایی است که رفتارهای افراد را شکل می‌دهند. کلیفورد گیرتز، انسان‌شناس برجسته، فرهنگ را «تارهایی از معنا» می‌داند که افراد در آن‌ها رفتارهای خود را تعریف می‌کنند. برای مثال، در یک جامعه‌ی سنتی، رفتار هدفمند ممکن است شامل شرکت در آیین‌های مذهبی باشد، زیرا این آیین‌ها به حفظ هویت جمعی کمک می‌کنند. در مقابل، در یک جامعه‌ی صنعتی، هدف ممکن است دستیابی به موفقیت حرفه‌ای باشد که با ارزش‌های فردگرایی هم‌خوانی دارد.

این دیدگاه با سایبرنتیک پیوند می‌خورد، زیرا فرهنگ مانند یک سیستم بازخورد عمل می‌کند که اهداف افراد را هدایت می‌کند. برای مثال، یک جوان در یک جامعه‌ی دینی ممکن است از طریق آموزش‌های مذهبی و بازخورد اجتماعی (مانند تأیید بزرگ‌ترها) یاد بگیرد که احترام به دیگران هدفی ارزشمند است. این فرآیند مشابه مکانیزم‌های سایبرنتیک است که در آن بازخورد، رفتار را به سوی هدف تنظیم می‌کند.

دیدگاه حکمت اسلامی: هدف والای انسان از نگاه امام علی (ع)

حکمت اسلامی، به‌ویژه در تعالیم امام علی (ع)، رفتار هدفمند را در راستای هدف والای آفرینش انسان تعریف می‌کند: شناخت خدا، عبادت او، و آمادگی برای حیات اخروی. این دیدگاه با سایبرنتیک و انسان‌شناسی پیوند می‌خورد، زیرا هدف‌گذاری انسان را نه‌تنها نتیجه‌ی مکانیزم‌های زیستی یا فرهنگی، بلکه نتیجه‌ی نیت الهی می‌داند. امام علی (ع) در احادیث متعدد بر این نکته تأکید کرده‌اند که رفتارهای انسان باید به سوی مقصدی متعالی هدایت شوند. در زیر، چند حدیث معتبر از نهج‌البلاغه آورده شده است:

  • حدیث: «جهان پلی است، از آن عبور کنید، اما بر آن خانه نسازید» (نهج‌البلاغه، خطبه 132). این سخن نشان می‌دهد که رفتار هدفمند باید انسان را به سوی آخرت هدایت کند، نه اینکه در اهداف زودگذر دنیوی متوقف شود.
  • حدیث: «هر که خود را شناخت، پروردگارش را شناخت» (نهج‌البلاغه، حکمت 178). این حدیث خودشناسی را به‌عنوان مبنای معرفت الهی و هدفی بنیادین معرفی می‌کند.
  • حدیث: «بهترین اعمال، دوست داشتن برای خدا و نفرت داشتن برای خداست» (نهج‌البلاغه، حکمت 130). این سخن بر اهمیت نیت خالص در رفتارهای هدفمند تأکید دارد.

این تعالیم با ایده‌ی مالتز در سایکو-سایبرنتیک هم‌راستا هستند، زیرا هر دو بر نقش تصویر ذهنی و نیت در هدایت رفتار تأکید دارند. در حکمت اسلامی، تصویر ذهنی انسان باید با ایمان به خدا و هدف اخروی هم‌خوانی داشته باشد تا رفتارش هدفمند و متعالی باشد.

تأثیر هوش مصنوعی بر رفتار هدفمند

هوش مصنوعی (AI)، به‌عنوان محصولی از اصول سایبرنتیک، توانایی خلق سیستم‌هایی با رفتارهای هدفمند را دارد. برای مثال، یک سیستم هوش مصنوعی در پزشکی می‌تواند با تحلیل داده‌ها، بیماری‌ها را تشخیص دهد. اما بدون نظارت مناسب، این فناوری می‌تواند رفتار هدفمند انسانی را مختل کند:

  • محدودیت خودمختاری: الگوریتم‌های هوش مصنوعی، مانند آن‌هایی که در پلتفرم‌های دیجیتال استفاده می‌شوند، می‌توانند با ارائه‌ی محتوای هدفمند، انتخاب‌های انسان را محدود کنند. برای مثال، پیشنهادهای شخصی‌سازی‌شده در شبکه‌های اجتماعی ممکن است افراد را به سمت مصرف‌گرایی یا سرگرمی‌های بی‌فایده سوق دهند، که با اهداف متعالی مانند خودشناسی یا خدمت به جامعه در تضاد است.
  • تضاد با ارزش‌های انسانی: هوش مصنوعی ممکن است ارزش‌هایی را ترویج کند که با نظام‌های معنایی فرهنگی یا دینی هم‌خوانی ندارند. برای نمونه، تأکید بیش از حد بر بهره‌وری یا سودآوری در سیستم‌های هوش مصنوعی می‌تواند انسان را از اهداف معنوی، مانند عبادت یا همدلی، دور کند.
  • جایگزینی تصمیم‌گیری انسانی: وقتی هوش مصنوعی تصمیم‌های کلیدی (مانند مدیریت منابع یا انتخاب‌های شغلی) را بر عهده می‌گیرد، ممکن است انسان احساس کند کنترل زندگی‌اش را از دست داده است. این امر می‌تواند با هدف والای انسان، که در حکمت اسلامی شناخت خدا و آمادگی برای آخرت است، در تضاد باشد.

این چالش‌ها نشان می‌دهند که هوش مصنوعی، اگرچه ابزاری قدرتمند است، باید در چارچوبی طراحی شود که با اهداف انسانی و الهی هم‌راستا باشد. همان‌طور که وینر هشدار داده بود، ماشین‌ها بندگان خوبی هستند، اما اگر کنترل آن‌ها از دست انسان خارج شود، می‌توانند به اربابانی آسیب‌رسان تبدیل شوند.

رفتار هدفمند، به‌عنوان حرکتی به سوی یک هدف، در سایبرنتیک، انسان‌شناسی، و حکمت اسلامی به‌صورت یکپارچه قابل‌فهم است. سایبرنتیک (وینر و مالتز) رفتار هدفمند را نتیجه‌ی بازخورد و تصویر ذهنی می‌داند، انسان‌شناسی آن را در بستر فرهنگ و نظام‌های معنایی تحلیل می‌کند، و حکمت اسلامی (با تکیه بر تعالیم امام علی علیه‌السلام) آن را در راستای شناخت خدا و آمادگی برای آخرت تعریف می‌کند. این دیدگاه‌ها در یک نقطه به هم می‌رسند: رفتار هدفمند نیازمند هدفی متعالی و مکانیزمی برای تنظیم و ارزیابی است. هوش مصنوعی، به‌عنوان محصولی از سایبرنتیک، می‌تواند این رفتار را تقویت کند، اما بدون نظارت، ممکن است انسان را از اهدافش دور سازد. برای حفظ رفتار هدفمند، باید فناوری را در خدمت ارزش‌های انسانی و الهی به کار گرفت، تا همان‌طور که امام علی (ع) فرموده‌اند، انسان به سوی شناخت پروردگارش هدایت شود.

سهیل سلیمی

منابع

  1. Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  2. Maltz, M. (1960). Psycho-Cybernetics. Prentice-Hall.
  3. نهج‌البلاغه، گردآوری سید رضی، ترجمه به فارسی توسط محمد دشتی. قابل دسترسی در: https://www.al-islam.org/nahj.
  4. Geertz, C. (1973). The Interpretation of Cultures. Basic Books.