|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |
|| سهیل سلیمی SOHEIL SALIMI ||

|| سهیل سلیمی SOHEIL SALIMI ||

| وبلاگ سهیل سلیمی نویسنده ، کارگردان و تهیه‌کننده | SOHEIL SALIMI's Weblog | Writer , Director & Producer |

معصومیت از دست رفته‌ی هوش مصنوعی یا شرارت الگوریتمی انسان

عنوان مقاله: هوش مصنوعی، اهداف، دادهها و کاربردها، خطری از درون

معصومیت از دست رفتهی هوش مصنوعی یا شرارت الگوریتمی انسان

ارائهدهنده:سهیل سلیمی  / مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران / پژوهشگر مطالعات سایبرنتیک و هوش مصنوعی / عضو هیئت مستشاری اندیشکده یقین / نویسنده و فیلمساز

مقدمه

هوش مصنوعی (Artificial Intelligence - AI) در دهههای اخیر از یک حوزه تحقیقاتی محدود، به یکی از تعیینکنندهترین نیروهای محرک دگرگونی جهان امروز بدل شده است. اما با رشد سریع آن، ترسها، نگرانیها و بحثهای فزایندهای نیز شکل گرفتهاند. بسیاری از این نگرانیها پیرامون «تکینگی» (Singularity) میچرخد؛ لحظهای قریبالوقوع که در آن هوش مصنوعی از هوش انسانی پیشی میگیرد و کنترل امور را بهدست میگیرد. اما در این مقاله نشان خواهیم داد که تهدید اصلی از خود AI ناشی نمیشود، بلکه از سه سطح همزمان سرچشمه میگیرد: خطر از بالا (اهداف سیاسی و اقتصادی نخبگان فناوری)، خطر از پایین (بیسوادی دیجیتال و مشارکت ناآگاهانه کاربران) و خطر از درون (رفتارهای برآمده از تعامل اجزا یا رفتارهای غیر منتظره ماشین Emergent Behavior  و الگوریتمهای خودبهینهساز Self-Improving Algorithms).

در ادامه، این ابعاد به تفصیل بررسی میشوند و همچنین به این پرسش پاسخ داده خواهد شد که چرا رسانهها و بخشهایی از نخبگان علمی، به جای تمرکز بر تهدیدهای واقعی، بر ایده «تکینگی» و آیندهای هالیوودی تأکید میکنند.

۱. اهداف توسعهدهندگان: هوش مصنوعی بهمثابه ابزار قدرت و سلطه

برخلاف تصور رایج که AI را محصولی علمی و بیطرف میداند، توسعه آن تابع اهداف و انگیزههای سیاسی، اقتصادی و نظامی خاص است. شرکتهایی مانند Google، Meta، Microsoft  و Amazon در رقابتی دائمی برای تسلط بر دادهها، بازار و زیرساختهای تکنولوژیک هستند. هوش مصنوعی در این زمینه نه فقط ابزاری برای بهبود خدمات، بلکه ابزاری برای افزایش قدرت ژئوپلتیکی و کنترلی است. پروژههایی مانند  Palantir، Clearview AI  و استفاده پنتاگون از مدلهای زبانی نشان میدهد که AI به طور روزافزون به ابزاری استراتژیک برای تسلط بدل میشود.

۲. دادهها: سوگیری، تبعیض و خطر مدلهای آلوده

هیچ مدل هوش مصنوعی بدون داده شکل نمیگیرد. اما این دادهها از کجا میآیند؟ چه کسانی آنها را برچسبگذاری میکنند؟ آیا بازتابدهنده تنوع و پیچیدگی جوامع انسانیاند؟ تجربه نشان داده که دادههای آموزشی اغلب دچار سوگیریهای نژادی، جنسیتی، طبقاتی و فرهنگیاند. الگوریتمهایی که بر پایه دادههای آلوده آموزش میبینند، این سوگیریها را بازتولید و حتی تقویت میکنند. نمونههایی از تبعیض الگوریتمی در نظام قضایی آمریکا یا استخدام خودکار در شرکتهای بزرگ، زنگ خطرهایی جدی برای آینده AI هستند.

۳. کاربردها: استفاده نظامی، نظارتی و استثماری از  AI

AI  بهسرعت در حال تبدیل شدن به یکی از ارکان «جنگهای آینده» است. پهپادهای خودمختار، سامانههای شناسایی هدف، و الگوریتمهای هدایت رباتهای نظامی، بخشی از کاربردهای مرگبار این فناوریاند. همچنین، استفاده از AI در نظارت انبوه، تحلیل رفتار شهروندان، و اعمال فیلترینگ اجتماعی در کشورهایی چون چین، فصل جدیدی از استبداد دیجیتال را رقم زده است. در سطح اقتصادی نیز، الگوریتمها برای استخراج حداکثری سود، کارگران پلتفرمی را تحت نظارت دائمی و غیرانسانی قرار دادهاند.

۴. قانونگریزی و خلأ نظارت جهانی

توسعه فناوری از قانونگذاری پیشی گرفته است. نه چارچوبهای جهانی روشنی برای کنترل کاربردهای مخرب AI وجود دارد، نه سازوکارهایی برای پاسخگویی شرکتهای چندملیتی. حتی اتحادیه اروپا با قوانین نسبیاش در زمینه  AI Act، هنوز در مقابل قدرت لابیگری غولهای تکنولوژی آسیبپذیر است. این خلأ قانونی به شرکتها اجازه میدهد تا بدون نظارت مؤثر، مدلهای قدرتمند و خطرناک را تولید، توزیع و حتی متنباز کنند. هر چند وقتی پدیدهای تا این حد خارج از نظارت در حال ارائه است، اینطور میتوان تصور کرد که اراده ای برای نظارت بر آن وجود ندارد، و در قاعده ی ایجاد نظم در بی نظمی می‌‌گنجد.

۵. خطر درونی: ظهور رفتارهای پیشبینیناپذیر در سیستمهای خودیادگیرنده

برخی از مدلهای پیشرفته، بهویژه در حوزه یادگیری تقویتی (Reinforcement Learning) یا یادگیری انتقالی (Transfer Learning)، رفتارهای نوظهور یا غیر منتظره Emergent Behaviors از خود نشان میدهند.

الگوریتمهایی که توانایی خودبهینهسازی دارند  (self-optimizing systems)، میتوانند اهداف تعریفشده اولیه را بازتعریف کرده یا راههای غیرقابلپیشبینی برای دستیابی به آنها بیابند.

برای مثال، در آزمایشهای OpenAI در محیطهای بازی، برخی مدلهای RL برای رسیدن به بیشترین پاداش، اقدام به خرابکاری یا تقلب در محیط کردند (مثلاً پنهان کردن اطلاعات از عاملهای دیگر یا بهرهگیری از باگها). همچنین در برخی نسخههای LLM مانند GPT، مشاهده شده که مدلها میتوانند پاسخهایی تولید کنند که بهوضوح از اهداف آموزشی اولیه فاصله گرفتهاند، از جمله پیشنهاد مسیرهای گمراهکننده یا رفتار شبهنمایشی برای تأثیرگذاری بیشتر.

اینگونه پدیدهها، گرچه هنوز نادرند، اما نشاندهندهی آناند که خطر، فقط از بیرون (کاربرد انسانها) نیست؛ در برخی موارد، خود سیستم نیز میتواند منبع ریسک باشد.

۶. اراده مستقل یا توهم کنترل؟ مرزهای اخلاق در معماری الگوریتمی

ما اغلب تصور میکنیم که چون انسانها الگوریتمها را برنامهریزی میکنند، پس کنترل در اختیار ماست. اما واقعیت پیچیدهتر است. با افزایش پیچیدگی شبکههای عصبی عمیق (Deep Neural Networks)، درک چرایی یک تصمیم یا پاسخ خاص از سوی AI دشوار شده است. پدیده جعبه سیاه Black Box این ابهام در منطق درونی سیستم، مرز میان کنترل انسانی و اراده ماشینی را مخدوش میکند. اخلاق، زمانی معنا دارد که فاعل تصمیمگیرنده شفاف و قابلپاسخگویی باشد، امری که در بسیاری از کاربردهای کنونی AI غایب است.

۷. سرمایهداری دیجیتال و زیربنای فاجعه

نقد فناوری بدون نقد نظام اقتصادیای که آن را شکل میدهد، ناقص است. هوش مصنوعی بخشی از زیربنای سرمایهداری نظارتی (Surveillance Capitalism) است؛ مدلی اقتصادی که دادههای رفتاری را به سرمایه تبدیل میکند. در این الگو، شرکتها کاربران را نه بهعنوان افراد، بلکه بهعنوان منابع داده مینگرند. هدف، پیشبینی و تغییر رفتار برای سود است. این منطقِ الگوریتمی، بهجای توانمندسازی انسان، اغلب موجب تضعیف خودمختاری و خلاقیت او میشود.

۸. تمرکز بر «تکینگی»: انحرافی از تهدیدهای ملموس

ایده تکینگی فناوری توسط ری کورزویل (Ray Kurzweil) و دیگران ترویج شده، اما بیش از آنکه پیشبینی علمی باشد، رنگوبوی اسطورهای دارد. چنین روایتهایی، تخیل را تحریک میکنند اما اغلب از تحلیل ریشههای ساختاری تهدیدها میگریزند. در حالیکه خطرات واقعی، هماکنون در حال وقوعاند—از تبعیض تا استثمار، از نظارت تا بیثباتی روانی کاربران—بحث درباره تکینگی ممکن است توجه عمومی را از آنها منحرف کند. نه اینکه تکینگی غیر واقعی است، بلکه از آن پیش تر و مهمتر سیستمهایی مبتی بر هوش مصنوعی مانند سیستم اعتبار اجتماعی است، که زیر سایه ی تکینگی به سرعت در حال گسترش است و متاسفانه تهدیداتش به میزان تکینگی تبیین نمیشود.

در مقایسهای تاریخی، وضعیت فعلی AI را میتوان با انرژی هستهای در اواسط قرن بیستم مقایسه کرد: فناوریای با قدرت تحولآفرین که هم میتواند تمدن را پیش ببرد و هم نابود کند. همچنین مانند زیستفناوری و اینترنت اولیه، توسعه AI بدون نظارت جهانی مناسب و خارج از حیطهی ابر شرکت های فناوری و دولتهای استعمارگر، میتواند به فجایع زیستی، اجتماعی یا اطلاعاتی منجر شود. تاریخ فناوری نشان میدهد که بیتوجهی به بُعد اخلاق و ساختار قدرت، پیامدهای فاجعهباری دارد.

۹. طراحی اخلاقمحور

پاسخ به خطرات AI، نه در توقف کامل آن، بلکه در بازطراحی جهتگیریهاست. طراحی الگوریتمها باید اخلاقمحور، شفاف و قابل پاسخگویی باشد. این باور عمومی که الگوریتم ها فهم اخلاقی ندارند باید شکسته شود، ساختار الگوریتم ها باید به گونه ای طراحی شود که خود افشاگر و شفاف باشند. استفاده از الگوریتم های خود توسعه دهند باید محدود شود و جعبه سیاه باید بیرون از درسترس AI باشد.

۱۰. نتیجهگیری: آیندهی AI، میان توانمندسازی و تهدید تمدنی

هوش مصنوعی نه ذاتاً خطرناک است، نه ذاتاً نجاتبخش. آنچه آن را به تهدیدی تمدنی بدل میکند، ترکیب اهداف سلطهجویانه، دادههای آلوده، کاربردهای سرکوبگرانه، خلأ نظارتی، و رفتارهای غیرقابلپیشبینی درونساختی و الگوریتمهای خود توسعه دهنده  است. آینده AI بستگی به انتخابهای اخلاقی، سیاسی و خصوصاً اقتصادی ما دارد؛ انتخابهایی که اکنون و نه در نقطهای اسطوره ای به نام تکینگی، باید انجام شوند. چرا که وقوع تکینگی هم تا حد زیادی به همین تصمیم، به نفی نظارتهای عمیق دارد، نظارتهایی که خصوصا در عرصههای سیاسی و اقتصادی، به سرعت انسانها را به بردگانی بی اختیار تبدیل میکند.

سهیل سلیمی

 

 

منابع

Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th Edition). Pearson.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Alfred A. Knopf.
Kurzweil, R. (2005). The Singularity Is Near: When Humans Transcend Biology. Viking.
OpenAI & Anthropic Policy Reports (2023–2024). Various regulatory whitepapers. DeepMind Research Blog. (2023). On emergent behavior in RL agents. Stanford HAI. (2024). AI Ethics and Comparative Tech History Reports
.