به گزارش نقطه تسلیم، آیا آمادهایم تا بپذیریم که قدرتمندترین ابزار عصر ما، یعنی هوش مصنوعی (AI)، نه تنها در حال بهینهسازی کسبوکارها، بلکه در حال مهندسی دقیق نحوه تفکر و تصمیمگیری ما در مقیاس سیارهای است؟
ما در نقطهای از تاریخ ایستادهایم که تاثیر رسانهها از “رصد” و “تحلیل” افکار عمومی فراتر رفته و به فاز “تولید” و “هدایت هدفمند” آن وارد شده است.
این دگرگونی، بزرگترین چالش عصر دیجیتال برای امنیت اجتماعی، ثبات سیاسی و روند توسعه جهانی است.
نحوه عملکرد ماشینهای فکری
سیستمهای هوش مصنوعی (بهویژه مدلهای زبان بزرگ یا LLMs) دیگر فقط ابزارهای هوشمندی نیستند، آنها موتورهای تولید روایت هستند، این موتورها با تکیه بر قابلیتهای زیر، بر افکار عمومی تأثیر میگذارند:
تحلیل روانسنجی در مقیاس کلان (Big Data Psychometrics): الگوریتمها با تحلیل میلیاردها داده رفتاری کاربران (تولید شده در شبکههای اجتماعی)، الگوهای شناختی، ترسها و گرایشهای سیاسی ما را با دقتی شگفتانگیز نقشهبرداری میکنند.
تولید محتوای بیش از حد شخصیسازی شده: هوش مصنوعی محتوایی تولید میکند (مانند Deepfake، متنهای خبری، تصاویر و ویدئوها) که به شکل نامحسوس، بالاترین سطح “قابلیت استفاده شناختی” را برای کاربر هدف دارد، این محتوا به راحتی پذیرفته میشود زیرا با باورهای قبلی فرد همسو است و او را در “حباب فیلتر” خود حبس میکند.
مهندسی پرامپت و چارچوببندی استعاری: حتی یک تغییر کوچک در ورودی مدلهای AI (پرامپت) میتواند خروجی سیاسی یا اجتماعی را تغییر دهد، این یعنی توانایی تزریق استعارههای هدفمند به گفتمان عمومی و دستکاری درک جمعی از واقعیت.
تهدید امنیت ملی و فرسایش اعتماد عمومی: در چارچوب جنگ شناختی (Cognitive Warfare) هوش مصنوعی از یک ابزار فناورانه به یک سلاح نامریی تبدیل میشود که هدف نهایی آن نه کشتن سربازان، بلکه کشتن اراده و اعتماد عمومی است.
ناکارآمدسازی حکمرانی: با سیل اطلاعات نادرست (Disinformation) و اخبار جعلی، شهروندان دیگر نمیتوانند حقیقت را از دروغ تشخیص دهند، این “حقیقتزدایی” اعتماد به نهادهای مدنی، رسانهها و دولت را تضعیف کرده و تصمیمگیری استراتژیک در بالاترین سطوح را مختل میکند.
تشدید دوقطبیسازی: الگوریتمها با ترویج افراطی محتوای همسو، “اتاقهای پژواک” میسازند که در آنها تفاهم اجتماعی از بین میرود، این فرآیند بهطور مستقیم به انسجام داخلی کشورها و قدرت نرم آنها ضربه میزند.
چالش بر سر راه توسعه پایدار جهانی
پیامدهای AI بر روی توسعه کمتر مورد توجه قرار گرفته است، توسعه پایدار به شدت وابسته به یک جامعه آگاه و خلاق است:
خطر تخلیه و استانداردسازی شناختی: وابستگی افراطی به AI برای تصمیمگیری و تفکر (تخلیه شناختی)، به تدریج تواناییهای شناختی درونی ما را تضعیف میکند.
اگر همه به یک “فکرکننده بزرگ” متکی باشند، استانداردسازی شناختی رخ میدهد؛ جامعهای که خلاقیت در آن میمیرد و در نتیجه، نوآوری که موتور اصلی رشد اقتصادی و توسعه است، متوقف میشود.
شکاف الگوریتمی: کشورهایی که در توسعه بومی زیرساختهای AI عقب بمانند، مجبور به استفاده از پلتفرمها و الگوریتمهای خارجی خواهند بود.
این امر نه تنها آنها را در معرض نفوذ دائمی قرار میدهد، بلکه سوگیریهای الگوریتمی ناشی از دادهها و ارزشهای غیربومی، نابرابریهای اجتماعی و اقتصادی را تشدید خواهد کرد.
وظیفه ما؛ از انفعال تا حکمرانی هوشمند
ما نمیتوانیم مسیر توسعه هوش مصنوعی را متوقف کنیم، اما باید آن را هدایت کنیم، وظیفه دولتها، شرکتهای تکنولوژی و جامعه مدنی در سطح جهانی عبارت است از:
تقویت سواد شناختی: آموزش عمومی برای درک نحوه عملکرد الگوریتمها و نحوه مقاومت در برابر دستکاریهای شناختی.
ایجاد شفافیت الگوریتمی: قانونگذاری برای وادار کردن پلتفرمها به افشای هدفمندی (Targeting) محتوا و مقابله با حسابهای کاربری جعلی و رباتها.
توسعه اخلاقی هوش مصنوعی: ایجاد استانداردهای جهانی برای جلوگیری از استفاده از AI در عملیاتهای جنگ شناختی تهاجمی و حفظ کرامت انسانی در عصر دیجیتال.
این لحظه سرنوشتساز است. چگونه میتوانیم اطمینان حاصل کنیم که هوش مصنوعی به عنوان ابزاری برای روشنگری، و نه مهندسی تاریک، در خدمت بشریت باقی بماند؟
برنامه نویس، دانشآموخته علوم سیاسی و پژوهشگر تحریمهای اقتصادی





