انسان ناگزیر از همزیستی با هوش مصنوعی
ارائهدهنده: سهیل سلیمی (مشاور رسانهای آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران)
مقدمه
جهان در حال ورود به مرحلهای از تحولات فناورانه است که میتوان آن را نه صرفاً یک «دوران جدید»، بلکه «بازتعریف بنیادین» نقش انسان در نظامهای اجتماعی، اقتصادی، فرهنگی و حتی هستیشناسانه تلقی کرد.
هوش مصنوعی (AI) دیگر یک ابزار نیست؛ بلکه ساختاریست در حال تکامل که در حال بازنویسی منطق تصمیمگیری، اخلاق، آگاهی و حتی روابط انسانی است. درحالیکه دستیارهای مجازی چون Siri یا Grok تنها نوک کوه یخ هستند، آنچه در پسِ پرده در حال وقوع است، تغییر بنیادین در مفاهیم «کنترل»، «دانش»، و «عاملیت» است. این مقاله در پی آن است تا ضمن واکاوی علمی-انتقادی همزیستی انسان و هوش مصنوعی، روایتی چندلایه، پیچیده و انتقادی از فرصتها، تهدیدات، چالشها و ضرورتهای سیاستگذاری ارائه دهد.
بخش اول: مفهوم همزیستی انسان و هوش مصنوعی - از همکاری تا تقابل شناختی
تعریف رایج همزیستی انسان و هوش مصنوعی معمولاً نگاهی خوشبینانه به تعامل «مکمل» میان انسان و ماشین دارد. اما باید این تعریف را بازنگری کرد: آیا این تعامل واقعاً دوسویه و برابر است؟ یا شاهد نوعی استحاله تدریجی انسان به عنصری درون سامانهای گستردهتر هستیم که توسط منطق الگوریتمی اداره میشود؟ نوربرت وینر در اثر بنیادین خود، Cybernetics، ایده کنترل و بازخورد را نهفقط برای ماشین، بلکه برای فهم انسان در چارچوبی الگوریتمی مطرح کرد (Wiener, 1948).
ایزاک آسیموف، نویسنده برجسته علمی-تخیلی، در داستانهای خود مانند من، ربات (1950) قوانین سهگانه رباتیک را معرفی کرد که بهعنوان چارچوبی اخلاقی برای تعامل انسان و ماشین طراحی شدهاند:
1. یک ربات نباید به انسان آسیب برساند یا با بیعملی اجازه دهد آسیبی به انسان برسد.
2. یک ربات باید از دستورات انسانها اطاعت کند، مگر اینکه این دستورات با قانون اول مغایرت داشته باشند.
3. یک ربات باید از خود محافظت کند، به شرطی که این حفاظت با قوانین اول و دوم در تضاد نباشد (Asimov, 1950, p. 40).
این قوانین، اگرچه در داستانهای تخیلی او مطرح شدند، اما الهامبخش بحثهای امروزی درباره اخلاق در هوش مصنوعی هستند، زیرا از منظر آسیموف و بر مبنای نوشتههایش، رباتها تجلی بیرونی و فیزیکال هوش مصنوعی به شمار میروند.
ایزاک آسیموف با ارائهی قوانین سهگانه رباتیک کوشید اخلاق را در ماشین نهادینه کند، اما منتقدانی چون Joanna Bryson هشدار دادهاند که این قوانین بیشتر افسانهاند تا راهحل. زیرا در واقعیت، هیچ راهحل سادهای برای تزریق ارزشهای انسانی به الگوریتمها وجود ندارد (Bryson, 2018). همچنین ابزارهایی چون Grok، ChatGPT یا DeepSeek نهتنها تصمیمساز، بلکه در مواردی تصمیمگیر نیز شدهاند. پس آیا میتوان همچنان از مفهوم همزیستی صرف صحبت کرد، یا باید به مفهوم «تقابل شناختی» اندیشید؟
تقابل شناختی (Cognitive Confrontation) مفهومیست که فراتر از تعامل یا همزیستی انسان و ماشین، به تعارض بنیادین میان دو منطق ادراکی اشاره دارد: منطق انسانی که بر شهود، تجربهزیسته، اخلاق، و زمینههای دینی و فرهنگی استوار است، در برابر منطق ماشین که بر دادهمحوری، محاسبهپذیری و بهینهسازی ریاضی تکیه دارد. این تقابل زمانی پدیدار میشود که تصمیمگیریهای ماشینی به حوزههایی وارد میشوند که بهطور سنتی مختص قضاوت انسانی بودهاند—مانند قضاوت اخلاقی، عدالت، یا زیباییشناسی. الگوریتمها در این زمینهها نه فقط ابزار، بلکه رقیب معناشناختی انسان میشوند. در این وضعیت، انسان با موجودیتی مواجه است که نه میتوان آن را بهتمامی درک کرد، نه بهطور کامل کنترل. «تقابل شناختی» بهویژه در مواردی چون داوری خودکار، نظامهای پیشنهادگر محتوا، یا تحلیل رفتاری در پلتفرمهای آموزشی یا قضایی، بهوضوح قابل مشاهده است. این تقابل میتواند منجر به بحران اعتماد، احساس بیگانگی، و ازهمگسیختگی درک انسان از خود شود، چرا که مرجعیت شناختی در حال انتقال از انسان به ماشین است. در چنین شرایطی، سؤال اصلی دیگر صرفاً نحوهی استفاده از AI نیست، بلکه بازتعریف جایگاه انسان در نظم جدید شناختیست.
بخش دوم: فرصتهای هوش مصنوعی – پیشرفت یا استعمار دیجیتال؟
در نگاه نخست، هوش مصنوعی ابزاری بیبدیل برای پیشرفت تمدنیست:
بخش سوم: تهدیدات همزیستی - استعمار الگوریتمی و بحران اخلاق
بخش چهارم: چالشها – از عدم شفافیت تا بحران مشروعیت
بخش پنجم: راهکارهای پیشنهادی – آیا هنوز میتوان کنشگری کرد؟
بخش ششم: نمونههای پیچیده و پارادوکسیکال همزیستی
Grok ساختهی xAI مثالی از ترکیب تحلیل داده با شهود انسانمحور است. اما در عین حال، این ابزار میتواند به الگوریتمی برای فیلتر و قالببندی تفکر عمومی تبدیل شود. این دوگانگی در بیشتر ابزارهای هوش مصنوعی مشاهده میشود: Google Translate میتواند تسهیلکننده گفتوگو باشد، اما در عین حال حامل ارزشهای زبانی و فرهنگی خاص نیز هست، و البته دیتای عظیمی که از زبانها مختلف دریافت کرده به عنوان خوراکی انبوه، از داده ها، برای توسعه الگوریتم های زبانی اش بهره گرفته است.
نتیجهگیری
هوش مصنوعی نهتنها واقعیتی فناورانه، بلکه نیرویی ایدئولوژیک و قدرتمند در بازتعریف هستی انسان است. همانگونه که ایزاک آسیموف اشاره کرده بود، کنترل و هدایت هوش مصنوعی نیازمند اخلاق، آگاهی، و نظارت است. اما اکنون زمان آن فرارسیده است که از «همزیستی منفعل» عبور کنیم و بهسمت «بازآفرینی نقش انسان» در اکوسیستم شناختی جدید حرکت کنیم. آینده به ما تعلق دارد، تنها اگر بتوانیم قواعد بازی را به نفع انسان بازنویسی کنیم.
ما ابزارهایی میسازیم و سپس آنها ما را بازتعریف میکنند. Marshall McLuhan
سهیل سلیمی
منابع:
• Asimov, I. (1950). I, Robot. Gnome Press.
• Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
• McCarthy, J. (1956). The Dartmouth Conference Proposal. Dartmouth College.
• Musk, E. (2018). Interview with Axios on HBO.
• Minsky, M. (1986). The Society of Mind. Simon & Schuster.
• IBM. (2023). Watson Health Annual Report.
• Amazon. (2020). Facial Recognition Technology Report.
• Amazon. (2024). Logistics Optimization Report.
• OECD. (2023). Future of Work Report.
• Cybersecurity Ventures. (2022). AI in Cybercrime Report.
• Reuters. (2023). Italy’s ChatGPT Ban.
• UNESCO. (2024). AI Development in Africa Report.
• Gallup. (2023). Public Perception of AI Survey.
• MIT Technology Review. (2023). DeepFake Technology Analysis.
• European Commission. (2024). AI Act Legislation.
• Coursera. (2024). AI Education Impact Report.
• UN. (2023). AI Governance Committee Report.