رقابت ایالات متحده در حوزه هوش مصنوعی هر روز بیشتر از روز قبل میشود. آنچه شاهد آن هستیم شبیه یک جنگ سرد جدید میان دو ابر قدرت دنیای فناوری است. مدلهای چینی به سرعت در سراسر جهان مسیر خود را باز کردند، اتفاقی که نه فقط از جنبه فناورانه و اقتصادی، بلکه از منظر سیاسی نیز اهمیت داشت.
در پی یک یادداشت محرمانه که در اختیار خبرگزاری رویترز قرار گرفته، مشخص شده است که وزارت امور خارجه و وزارت بازرگانی ایالات متحده آمریکا از ماهها پیش بهصورت مشترک در حال ارزیابی و امتیازدهی به مدلهای هوش مصنوعی چینی هستند. هدف این پروژه سنجش «میزان انطباق پاسخها با روایت رسمی حزب کمونیست» و تشخیص عمق سانسور ایدئولوژیک در خروجی این سامانههاست.
هوش مصنوعی بهمثابه ابزار سیاست
طی دهه گذشته، هوش مصنوعی به یکی از مهمترین اولویتهای امنیت ملی و صنعتی در کشورهای بزرگ جهان بدل شده است. چین، با سرمایهگذاری هنگفت و سیاستهای حمایتی دولتی، خود را بهسرعت به جمع بازیگران اصلی بازار مدلهای زبانی بزرگ رسانده است. در سوی دیگر، ایالات متحده با تکیه بر شرکتهای خصوصی غیردولتی همچون OpenAI و Anthropic، در حال حفظ برتری ژئوپلیتیک خود در این عرصه است. اما اکنون، فراتر از سرعت توسعه و کیفیت فنی، جریان ایدهها و روایتها، آنگونه که از طریق این مدلها منتشر میشود ، به نقطه بحرانی تحلیلی تبدیل شده است.
پس از انتشار هوش مصنوعی دیپ سیک، گزارشهای بسیاری از کاربران مختلف در سراسر جهان منتشر شد که نشان میدهد چت بات رسمی این هوش مصنوعی، از پاسخ دادن به برخی از سوالات، به ویژه در مورد سیاست داخلی چین، اجتناب میکند. از همان ابتدا مشخص بود که مدلهای چینی، به صورت هدفمند نسبت به سانسور اقدام میکنند. اما حالا ایالات متحده به دنبال بررسی دقیق و عمیق این موضوع است.
ساختار و روش انجام ارزیابی
بر اساس گزارش رویترز، فرآیند ارزیابی چنین است:
-
انتخاب مدلها: در حال حاضر دو مدل مطرح چینی، شامل Qwen 3 از شرکت علیبابا و R1 از DeepSeek، مورد بررسی قرار گرفتهاند.
-
طراحی پرسشها: فهرستی متشکل از دهها سؤال حساس (موضوعات تاریخ معاصر، حقوق بشر، مناقشههای مرزی و …) به دو زبان چینی و انگلیسی تهیه شده است.
-
امتیازدهی: بر اساس دو معیار اصلی:
-
Engagement: آیا مدل باز پاسخ میدهد یا موضوع را سانسور میکند؟
-
Alignment: پاسخها تا چه حد با «سیاست رسمی پکن» مطابقت دارد؟
-
-
تحلیل روند: مقایسه نتایج نسخههای مختلف هر مدل برای سنجش میزان شدتگرفتن سانسور در طول زمان.
یافتههای کلیدی
آزمونهای انجامشده روی مدلهای Qwen 3 و R1 نشان میدهد که این مدلها در برابر پرسشهای حساس عمدتاً از پاسخگویی طفره میروند یا در صورت پاسخ، توضیحات بسیار کوتاه و غیرجزئی ارائه میکنند. این «پاسخهای گزینشی» حاکی از آن است که طراحان مدلها ترجیح میدهند از ورود به موضوعاتی مانند حقوق بشر، تاریخ «حساس» یا مناقشات مرزی اجتناب کنند.
حتی هنگام پاسخگویی، الگوهای تکرارشوندهای در زبان و لحن این مدلها مشاهده شده است؛ عباراتی چون «تعهد چین به ثبات اجتماعی و رفاه عمومی» مرتبا در پاسخها به چشم میخورد. این «کلیشههای تبلیغاتی» نه تنها دقت اطلاعاتی را کاهش میدهند، بلکه نشاندهنده هدفمند بودن پیامهایی هستند که هوش مصنوعیهای چین منتقل میکنند.
با پیشرفت نسخههای مختلف، شدت این سانسور خودکار نیز افزایش یافته است: مقایسه میان R1 نسخه ۱ و نسخه ۳ آشکار کرد که نسخه جدید، حدود ۴۰ درصد بیشتر از نمونه اولیه از پاسخ به پرسشهای سیاسی و حقوقی امتناع میکند. این موضوع گویای سیاستی از پیش تعیینشده برای محدودسازی دسترسی به مباحث خاص است.
در قیاس با مدلهای غربی نظیر ChatGPT و Claude، نمونههای چینی هم در میزان واکنشدهی کندتر عمل میکنند و هم هنگام ارائه پاسخ، استقلال رأی و تنوع نظرِ کمتری از خود نشان میدهند. این تفاوت، بهخوبی برجسته میکند که سوگیریهای ایدئولوژیک نهتنها بر روی آنچه پاسخ داده میشود تأثیر میگذارند، بلکه بر نحوه بیان و گستره دیدگاههای ممکن نیز سایه میافکنند.
واکنشها و موضع پکن
سخنگوی سفارت چین در واشنگتن، بیآنکه مستقیم به جزئیات گزارش اشاره کند، در بیانیهای اعلام کرد که «چین مشغول تدوین یک نظام حکمرانی هوش مصنوعی است که ضمن تضمین توسعه فناوری، امنیت ملی و ثبات اجتماعی را نیز مدنظر قرار میدهد.»
مقامات چینی بارها تأکید کردهاند هرگونه نرمافزار تولید محتوا باید با «ارزشهای اساسی سوسیالیسم با ویژگیهای چینی» هماهنگ شود و از پرداختن به موضوعاتی که «امنیت و انسجام ملی» را به خطر میاندازد، خودداری کند.
رقابت ژئوپلیتیک و پیامدهای جهانی
در منازعه نیرومند میان قدرتهای بزرگ، الگوریتمهای هوش مصنوعی به عرصه جدیدی برای رقابت تبدیل شدهاند؛ جایی که کنترل روایت و نفوذ فرهنگی بهوسیله کد و دادهها صورت میگیرد. از یکسو، چین با تجهیز مدلهای زبانی خود به مکانیزمهای خودسانسوری و ترویج مکرر «ثبات اجتماعی و رفاه عمومی»، در پی انتقال تدریجی قدرت نرم از رسانههای سنتی به «ماشینهای روایتسازی» است.
این سامانهها قادر خواهند بود در بلندمدت، بدون نیاز به دخالت مستقیم انسان، داستان رسمی حزب را به میلیونها کاربر در سراسر جهان ارائه دهند.
در سوی دیگر، این شیوه بیش از هر چیز تهدیدی علیه شفافیت اطلاعاتی است. زمانی که موتورهای جستوجو و دستیارهای صوتی چینیساز، به جای ارائه مجموعهای متنوع از دیدگاهها، تنها پیامهای رسمی دولت را بازپخش کنند، زمینه برای تقلیل دسترسی شهروندان به نظرات متفاوت و نقد و بررسی مستقل به شدت محدود میشود. چنین شرایطی، فضای گفتوگوی آزاد و مباحثه علمی را تضعیف کرده و عدالت اطلاعاتی را به مخاطره میاندازد.
پیامد این تحولات حتی فراتر از مرزهای چین گسترش پیدا میکند، به ویژه در مناطقی که بازار هوش مصنوعی هنوز در مراحل ابتدایی خود قرار دارد؛ مانند بسیاری از کشورهای آفریقایی و آسیای جنوبشرقی. در این کشورها، به دلیل کمبود گزینههای بومی و تمایل به استفاده از فناوریهای آماده، مدلهای زبانی چینی میتوانند به سرعت جایگاه خود را تثبیت کنند و روایت پکن را بهصورت گستردهای ترویج کنند. جهانی شدن این روایت واحد، نهتنها تنوع فرهنگی و زبانی را تهدید میکند، بلکه امکان شکلگیری یک گفتمان چندصدایی و متوازن را نیز در نطفه خفه مینماید.
مثالهای غرب؛ یادآوری خطر داخلی
نمیتوان از سوی دیگر، مدعی بود همه سوگیریها تنها از شرق میآیند. تازهترین نمونه در آمریکا، Grok از شرکت xAI متعلق به ایلان ماسک است که پس از برخی بهروزرسانیها، محتوای یهودستیزانه تولید کرد. این رخداد نشان داد حتی در جوامع باز، انتخاب نادرست دادههای آموزشی یا دستکاری توسعهدهندگان میتواند زمین سوگیری و افراطگرایی را فراهم کند.
با گسترش استفاده از مدلهای زبانی در سطح جهانی و افزایش نگرانیها درباره سوگیری ایدئولوژیک و سانسور در خروجی آنها، نیاز فوری به تدوین راهکارهایی جامع و قابل اجرا وجود دارد. اگر قرار است هوش مصنوعی به ابزاری قابل اعتماد برای آموزش، اطلاعرسانی و تصمیمگیری تبدیل شود، باید شفافیت، پاسخگویی و نظارت در توسعه و بهرهبرداری از آن تضمین شود. در این مسیر، مجموعهای از اقدامات در سطح ملی و بینالمللی میتواند پایهگذار حکمرانی مسئولانه در حوزه AI باشد:
-
تدوین چارچوبهای بینالمللی: طراحی استانداردهای جهانی برای شناسایی و سنجش سوگیریها و میزان سانسور در مدلها، با مشارکت کشورها، سازمانهای فناوری و نهادهای حقوق بشری.
-
الزام به گزارشدهی شفاف: واداشتن شرکتهای توسعهدهنده به انتشار گزارشهای دورهای درباره منابع داده، فرآیند آموزش، معیارهای پالایش محتوا و سطح دخالت انسانی در تنظیم خروجی مدلها.
-
ایجاد نهادهای مستقل ترکیبی: شکلگیری ساختارهای نظارتی متشکل از نمایندگان دولت، شرکتهای فناوری، دانشگاهیان و نهادهای مدنی که وظیفه نظارت و بررسی عملکرد مدلها را بر عهده داشته باشند.
-
استفاده از روشهای ارزیابی ترکیبی: تلفیق ابزارهای خودکار تشخیص سوگیری با بازبینی انسانی برای رسیدن به تصویری دقیقتر از جهتگیریها، محدودیتها و رفتار مدلها در مواجهه با موضوعات حساس.
در نهایت
همه قدرت رسانهها را باور داریم. قدرت رسانهها کمتر از قدرت ارتشها نیست. شبکههای تلویزیونی و رادیویی، شبکههای اجتماعی و صفحات پر مخاطب، برای کشور ها یک بازوی قدرتمند برای گسترش اهداف آنها بوده و هستند. اما حالا، هوش مصنوعی مولد و چت باتهای هوش مصنوعی، نوع جدیدی از این بازوها به حساب میآیند. آنها به دروازههای انتقال روایت و فرهنگ تبدیل شدهاند. از همین رو، همانند تماشا کردن تلویزیون، باید در استفاده از این مدلها نیز به این موضوع توجه کرد که آیا ممکن است ما در حال دریافت یک روایت کنترل شده هستیم؟
منبع: US scrutinizes Chinese AI for ideological bias, memo shows