|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |
|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |

مرجعیت شناختی در حال انتقال از انسان به ماشین است

مرجعیت شناختی در حال انتقال از انسان به ماشین است

تقابل انسان و ماشین | نبرگاه علوم شناختی، سایبرنتیک، جنگ نرم و هوش مصنوعی

ارائه دهند: سهیل سلیمی  (مشاور رسانه ای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)

 

مقدمه

ما در آستانه دورهای تاریخی قرار گرفتهایم که در آن «مرجعیت شناختی» (Cognitive Authority) – یعنی اقتدار در تفسیر، تحلیل و هدایت ادراک انسان – بهطرزی بیسابقه در حال واگذاری به ماشینهاست. در این فرآیند، انسان نه تنها کارکرد اجرایی، بلکه حتی قدرت تأویل و داوری را نیز به الگوریتمهایی واگذار میکند که پشت درهای بسته شرکتهای فناوری غربی رشد کردهاند. این تغییر، صرفاً فناورانه نیست؛ بلکه ژئوپلیتیکی، ایدئولوژیک و رسانهای است. قدرتهایی که به ظاهر پرچمدار نوآوری هستند، در عمل پروژههایی با اهداف استعماری شناختی (Cognitive Colonialism) را هدایت میکنند که هدف نهایی آن، کنترل افکار، احساسات و رفتار جمعی جوامع از طریق ماشین است.


۱. علوم شناختی، هوش مصنوعی و فروپاشی اقتدار انسانی

علوم شناختی (Cognitive Science)، مطالعهی علمی ذهن، ادراک و پردازش اطلاعات در انسان و ماشین است. در دهههای اخیر، با گسترش هوش مصنوعی (Artificial Intelligence)، شرکتهای فناوری غربی به بازسازی ساختار شناختی انسان در قالب مدلهای الگوریتمی روی آوردهاند. اما پرسش کلیدی این است: آیا این بازسازی، نوعی تقلید است یا تلاش برای تسلط بر خودِ فرایند ادراک؟

پروژههایی مانند GPT، Bard  و Grok، با توانایی تولید زبان انسانی، قدرت روایتسازی، اقناع، تحلیل و حتی جهتدهی به افکار عمومی را در اختیار نهادهای فناوریمحور غربی قرار دادهاند. این فناوریها نهفقط ابزار تحلیل داده هستند، بلکه با تکرار گسترده، تدریجی و هدفمند ایدهها، در حال استقرار الگوهای شناختی جدید هستند.

در اینجا، ماشین صرفاً بازتابدهنده نیست، بلکه کنشگری فعال در صحنهی شناخت و معناست. به تعبیر شوشانا زوباف  Shoshana Zuboff  در کتاب The Age of Surveillance Capitalism  (عصر سرمایهداری نظارتی، ۲۰۱۹)، آنچه امروز در جریان است؛ فراگیر شدن قدرت بر ذهنهاست، نه صرفاً کنترل رفتار.


۲. سایبرنتیک، کنترل شناخت و الگوریتمهای قدرت

سایبرنتیک  (Cybernetics)، علمی است که به مطالعهی کنترل و ارتباط در سیستمهای پیچیده که به اعمال قدرت منجر میشود اشاره دارد یعنی سایبرنتیک ابزار نیست بلکه آن قدرت مطلقی است که اعمال قدرت را در دست دارد، برای فهم بهتر این مفهوم تعبیری از دکتر کاظم فولادی (دکترای هوش مصنوعی و رباتیک) را نقل قول می کنم؛ سایبرنتیک ابزار ا ، اعم از انسان یا ماشین، میپردازد. نوربرت وینر، بنیانگذار این رشته، هشدار داده بود که تفکر ماشینی بدون اخلاق، میتواند بدل به ابزاری خطرناک برای کنترل شود (Wiener, 1948).

امروزه الگوریتمهای یادگیری ماشین (Machine Learning) نه تنها پیشبینی میکنند، بلکه پیشاپیش ساختار کنش اجتماعی را شکل میدهند. آنها با دستهبندی افراد، فیلتر محتوا و اولویتبندی روایتها، به بازتعریف مرزهای حقیقت، اعتبار و حتی هویت میپردازند. این همان چیزی است که "اونیل" O'Neil (2016)  در کتابWeapons of Math Destruction  (سلاحهای کشتار ریاضی) بهعنوان خودکارسازی تبعیض معرفی میکند.


۳. جنگ نرم و استعمار هوش مصنوعی

قدرت نرم (Soft Power)، مفهومیست که توسط ژوزف نای (Joseph Nye) معرفی شد و به توانایی یک بازیگر برای تأثیرگذاری بر دیگران بدون اجبار نظامی، و از طریق جذابیت فرهنگی و اطلاعاتی، اطلاق میشود. در جهان امروز، ابزارهای هوش مصنوعی بهعنوان سلاحهای جنگ نرم عمل میکنند؛ رسانهها، شبکههای اجتماعی و موتورهای جستوجو، الگوهای خاصی از  سبک زندگی، واقعیت، ایدهآل و ترس را به ذهن کاربران تزریق میکنند.

شرکتهایی مانند Meta، Google و OpenAI ، با مالکیت بر دادههای میلیاردها کاربر، نه فقط اقتصاد دیجیتال، بلکه ساختار اندیشه جهانی را مهندسی میکنند. این پروژه، نه یک همزیستی، بلکه شکلی از بهرهکشی شناختیست که در آن انسان به ماده خام شناختی (Cognitive Raw Material) تبدیل شده است.

در این چارچوب، ما به عنوان کاربران فناوری، موارد، نمونهها و موضوعات بیارادهای هستیم که دادههایمان برای تغذیه الگوریتمهایی استفاده میشود که به نفع ساختارهای قدرت عمل میکنند.


۴. رسانه بهمثابه بستر الگوریتمی برای کنترل افکار

رسانههای اجتماعی، موتورهای جستوجو و حتی ابزارهای تولید محتوا، از هوش مصنوعی برای تقویت اثر طنین (Echo Chamber) و قطبیسازی شناختی استفاده میکنند. الگوریتمها با نمایش مداوم محتوای مشابه، تنوع فکری را کاهش و قطع ارتباط با دیگر نگرشها را تشویق میکنند. این وضعیت، به گفتهی اِلی پَریسیر Eli Pariser  در نظریهی Filter Bubble  (حباب فیلتر)، باعث «حبس شناختی» فرد در شبکهای از باورهای خودتأییدشونده میشود. ((اثر طنین (Echo Chamber) به وضعیتی اشاره دارد که افراد تنها در معرض اطلاعات، دیدگاهها و باورهایی قرار میگیرند که با عقاید پیشین آنها همراستا هستند، در نتیجه موجب تقویت سوگیریهای ذهنی میشود (Sunstein, 2001).قطبیسازی شناختی (Cognitive Polarization)  فرآیندی است که در آن اختلافهای فکری و ارزشی میان گروهها افزایش مییابد و باعث شکلگیری تفکیک شدید در درک واقعیت میشود (Iyengar & Westwood, 2015). این دو پدیده تحت تأثیر الگوریتمهای شبکههای اجتماعی و رسانهها، تهدیدی برای گفتوگوی آزاد و انسانی و تنوع فکری در جامعه محسوب میشوند.))

برای مثال، TikTok، Instagram و حتی YouTube با ساختار «Algorithmic Curation» (گزینش محتوا بهواسطه الگوریتم) نه فقط ذائقهی کاربران، بلکه رفتار سیاسی، سبک زندگی و حتی تصمیمگیریهای اقتصادی را مدیریت میکنند.


۵. بهرهبرداری سیاسی از هوش مصنوعی توسط قدرتهای خودکامه

کشورهایی چون آمریکا و چین، در حال تبدیل هوش مصنوعی به ابزاری برای نظارت انبوه، کنترل رفتار اجتماعی و تحلیل پیشگویانه هستند. پروژههایی مانندPRISM  در ایالات متحده یا سیستم اعتبار اجتماعی (Social Credit System) در چین، مثالهایی از بهرهگیری از هوش مصنوعی برای اعمال اقتدار هستند.

PRISM؛ پروژهای برای استثمار شناختی انسان در مقیاس جهانی

پروژهیPRISM  نه یک برنامهی امنیتی، بلکه یک طرح تمامعیار برای استعمار ذهن انسانها در قرن بیستویکم بود. برخلاف ادعای مقامات آمریکایی که آن را ابزاری برای مقابله با تروریسم معرفی کردند، PRISM  در واقع ماشین استخراج اطلاعات از زندگی خصوصی میلیاردها انسان بود—ماشینی که توسط غولهای فناوری مانند Google، Microsoft، Facebook و Apple تغذیه میشد و توسط آژانس امنیت ملی ایالات متحده (NSA) کنترل میگردید (Greenwald, 2013).

این پروژه عملاً جهان را به یک اتاق بازجویی دیجیتال بیپایان تبدیل کرد؛ جایی که همه چیز—از پیامهای عاشقانه تا افکار سیاسی و عادتهای خرید—در خدمت یک ماشین نامرئی قدرت قرار گرفت. هدف؟ نه صرفاً نظارت، بلکه مهندسی ذهن، کنترل رفتار، و ایجاد انسانهایی فرمانبردار، پیشبینیپذیر و بیقدرت.

پروژهیPRISM  گام مهمی در شکلگیری چیزی بود که میتوان آن را سرمایهداری نظارتی بردهساز (Surveillance Capitalism of Servitude)  نامید؛ سیستمی که در آن انسانها نه شهروند، بلکه ابزارهای زیستی تولید داده برای الگوریتمهای دولت و بازار هستند. انسان در این معماری جدید، نه کنشگر، بلکه یک «تابع درون معادلهای عظیم» است که تصمیماتش از قبل توسط دادهها طراحی شدهاند.

آنچه ترسناکتر است، جهانی شدن این مدل است: کشورها یکی پس از دیگری، با تقلید از PRISM، در حال تبدیل نظامهای سیاسی خود به دولتهای پنهانِ الگوریتممحور هستند. به بیان دیگر، ما شاهد طلوع دوران «استبداد دیجیتال» هستیم؛ دورانی که در آن، آزادی بهصورت بیسروصدا و بدون شلیک حتی یک گلوله، با یک توافقنامه کاربری (User Agreement) از انسان گرفته میشود.

این استفاده سیاسی از AI، نهتنها به نفع شهروندان نیست، بلکه بهتدریج شکل جدیدی از اقتدارگرایی و دیکتاتوری شناختی را شکل میدهد: حکمرانی بر ذهن، و کنترل جسم. انسانها دیگر نه فقط از بیرون و در سطح اجتماع، بلکه از درون ذهنشان و حتی در اتاق خوابشان هم کنترل میشوند. آنهم توسط واسطههای ماشینی که همزمان ناظر، تفسیرگر و هدایتگر هستند.


نتیجهگیری: بازیابی عاملیت انسانی در عصر الگوریتم

تقابل انسان و ماشین در عصر حاضر، دیگر صرفاً یک جدال فناورانه نیست، بلکه نبردی برای حفظ استقلال شناختی انسان است. اگر نتوانیم کنترل مرجعیت شناختی را دوباره به انسان بازگردانیم، با آیندهای مواجه خواهیم شد که در آن تصمیمات، باورها و حتی ارزشهای انسانی توسط سامانههایی طراحی میشود که نه شفافاند، نه پاسخگو، و نه انسانی.

ضروری است که رسانهها، دانشگاهها و نهادهای مدنی با تولید گفتمان انتقادی، آموزش سواد الگوریتمی، و مطالبهگری حقوق دیجیتال، در برابر این پروژه خاموش ایستادگی کنند. بازپسگیری مرجعیت شناختی، نه یک انتخاب، بلکه ضرورتی برای حفظ کرامت الهی انسان در قرن بیستویکم است.

سهیل سلیمی


منابع:

  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  • Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  • Noble, S. U. (2018). Algorithms of Oppression. NYU Press.
  • O'Neil, C. (2016). Weapons of Math Destruction. Crown Publishing.
  • Pariser, E. (2011). The Filter Bubble. Penguin Books.
  • Nye, J. S. (2004). Soft Power: The Means to Success in World Politics. PublicAffairs.
  • Bryson, J. J. (2018). The Artificial Intelligence of the Ethics of Artificial Intelligence. SSRN.
  • McLuhan, M. (1964). Understanding Media: The Extensions of Man. MIT Press.
  • Andrejevic, M. (2007). iSpy: Surveillance and Power in the Interactive Era. University Press of Kansas.
  • Harari, Y. N. (2018). 21 Lessons for the 21st Century. Spiegel & Grau.
  • Shilton, K. (2018). Values and Ethics in Human-Computer Interaction. ACM Interactions.
  • Sunstein, C. R. (2001). Echo Chambers: Bush v. Gore, Impeachment, and Beyond. Princeton University Press.
  • Iyengar, S., & Westwood, S. J. (2015). Fear and Loathing Across Party Lines: New Evidence on Group Polarization. American Journal of Political Science.
نظرات 0 + ارسال نظر
برای نمایش آواتار خود در این وبلاگ در سایت Gravatar.com ثبت نام کنید. (راهنما)
ایمیل شما بعد از ثبت نمایش داده نخواهد شد