هوش مصنوعی چینی زیر ذره‌بین واشنگتن: بررسی سوگیری ایدئولوژیک در مدل‌های زبانی

مدل‌های هوش مصنوعی چینی، از همان ابتدا شواهدی از سانسور را نشان دادند. گزارش‌های تازه نشان می‌دهد که ایالات متحده این مدل‌ها را به صورت کامل زیر ذره بین خود قرار داده است. رویترز در گزارش جدید خود، از بررسی‌های ایالات متحده در مورد همسویی پاسخ‌های این مدل‌ها با سیاست‌های چین خبر می‌دهد.

رقابت ایالات متحده در حوزه هوش مصنوعی هر روز بیشتر از روز قبل می‌شود. آنچه شاهد آن هستیم شبیه یک جنگ سرد جدید میان دو ابر قدرت دنیای فناوری است. مدل‌های چینی به سرعت در سراسر جهان مسیر خود را باز کردند، اتفاقی که نه فقط از جنبه فناورانه و اقتصادی، بلکه از منظر سیاسی نیز اهمیت داشت.

در پی یک یادداشت محرمانه که در اختیار خبرگزاری رویترز قرار گرفته، مشخص شده است که وزارت امور خارجه و وزارت بازرگانی ایالات متحده آمریکا از ماه‌ها پیش به‌صورت مشترک در حال ارزیابی و امتیازدهی به مدل‌های هوش مصنوعی چینی هستند. هدف این پروژه سنجش «میزان انطباق پاسخ‌ها با روایت رسمی حزب کمونیست» و تشخیص عمق سانسور ایدئولوژیک در خروجی این سامانه‌هاست.

هوش مصنوعی به‌مثابه ابزار سیاست

طی دهه گذشته، هوش مصنوعی به یکی از مهم‌ترین اولویت‌های امنیت ملی و صنعتی در کشورهای بزرگ جهان بدل شده است. چین، با سرمایه‌گذاری هنگفت و سیاست‌های حمایتی دولتی، خود را به‌سرعت به جمع بازیگران اصلی بازار مدل‌های زبانی بزرگ رسانده است. در سوی دیگر، ایالات متحده با تکیه بر شرکت‌های خصوصی غیردولتی همچون OpenAI و Anthropic، در حال حفظ برتری ژئوپلیتیک خود در این عرصه است. اما اکنون، فراتر از سرعت توسعه و کیفیت فنی، جریان ایده‌ها و روایت‌ها، آن‌گونه که از طریق این مدل‌ها منتشر می‌شود ، به نقطه بحرانی تحلیلی تبدیل شده است.

پس از انتشار هوش مصنوعی دیپ سیک، گزارش‌های بسیاری از کاربران مختلف در سراسر جهان منتشر شد که نشان می‌دهد چت بات رسمی این هوش مصنوعی،‌ از پاسخ دادن به برخی از سوالات، به ویژه در مورد سیاست داخلی چین، اجتناب می‌کند. از همان ابتدا مشخص بود که مدل‌های چینی، به صورت هدفمند نسبت به سانسور اقدام می‌کنند. اما حالا ایالات متحده به دنبال بررسی دقیق و عمیق این موضوع است.

ساختار و روش انجام ارزیابی

 بر اساس گزارش رویترز، فرآیند ارزیابی چنین است:

  1. انتخاب مدل‌ها: در حال حاضر دو مدل مطرح چینی، شامل Qwen 3 از شرکت علی‌بابا و R1 از DeepSeek، مورد بررسی قرار گرفته‌اند.

  2. طراحی پرسش‌ها: فهرستی متشکل از ده‌ها سؤال حساس (موضوعات تاریخ معاصر، حقوق بشر، مناقشه‌های مرزی و …) به دو زبان چینی و انگلیسی تهیه شده است.

  3. امتیازدهی: بر اساس دو معیار اصلی:

    • Engagement: آیا مدل باز پاسخ می‌دهد یا موضوع را سانسور می‌کند؟

    • Alignment: پاسخ‌ها تا چه حد با «سیاست رسمی پکن» مطابقت دارد؟

  4. تحلیل روند: مقایسه نتایج نسخه‌های مختلف هر مدل برای سنجش میزان شدت‌گرفتن سانسور در طول زمان.

یافته‌های کلیدی

آزمون‌های انجام‌شده روی مدل‌های Qwen 3 و R1 نشان می‌دهد که این مدل‌ها در برابر پرسش‌های حساس عمدتاً از پاسخ­گویی طفره می‌روند یا در صورت پاسخ، توضیحات بسیار کوتاه و غیرجزئی ارائه می‌کنند. این «پاسخ‌های گزینشی» حاکی از آن است که طراحان مدل‌ها ترجیح می‌دهند از ورود به موضوعاتی مانند حقوق بشر، تاریخ «حساس» یا مناقشات مرزی اجتناب کنند.

حتی هنگام پاسخ‌گویی، الگوهای تکرارشونده‌ای در زبان و لحن این مدل‌ها مشاهده شده است؛ عباراتی چون «تعهد چین به ثبات اجتماعی و رفاه عمومی» مرتبا در پاسخ‌ها به چشم می‌خورد. این «کلیشه‌های تبلیغاتی» نه تنها دقت اطلاعاتی را کاهش می‌دهند، بلکه نشان‌دهنده هدفمند بودن پیام‌هایی هستند که هوش مصنوعی‌های چین منتقل می‌کنند.

با پیشرفت نسخه‌های مختلف، شدت این سانسور خودکار نیز افزایش یافته است: مقایسه‌ میان R1 نسخه ۱ و نسخه ۳ آشکار کرد که نسخه جدید، حدود ۴۰ درصد بیشتر از نمونه اولیه از پاسخ به پرسش‌های سیاسی و حقوقی امتناع می‌کند. این موضوع گویای سیاستی از پیش تعیین‌شده برای محدودسازی دسترسی به مباحث خاص است.

در قیاس با مدل‌های غربی نظیر ChatGPT و Claude، نمونه‌های چینی هم در میزان واکنش‌دهی کندتر عمل می‌کنند و هم هنگام ارائه پاسخ، استقلال رأی و تنوع نظرِ کمتری از خود نشان می‌دهند. این تفاوت، به‌خوبی برجسته می‌کند که سوگیری‌های ایدئولوژیک نه‌تنها بر روی آنچه پاسخ داده می‌شود تأثیر می‌گذارند، بلکه بر نحوه بیان و گستره دیدگاه‌های ممکن نیز سایه می‌افکنند.

واکنش‌ها و موضع پکن

سخنگوی سفارت چین در واشنگتن، بی‌آنکه مستقیم به جزئیات گزارش اشاره کند، در بیانیه‌ای اعلام کرد که «چین مشغول تدوین یک نظام حکمرانی هوش مصنوعی است که ضمن تضمین توسعه فناوری، امنیت ملی و ثبات اجتماعی را نیز مدنظر قرار می‌دهد.»

مقامات چینی بارها تأکید کرده‌اند هرگونه نرم‌افزار تولید محتوا باید با «ارزش‌های اساسی سوسیالیسم با ویژگی‌های چینی» هماهنگ شود و از پرداختن به موضوعاتی که «امنیت و انسجام ملی» را به خطر می‌اندازد، خودداری کند.

رقابت ژئوپلیتیک و پیامدهای جهانی

در منازعه نیرومند میان قدرت‌های بزرگ، الگوریتم‌های هوش مصنوعی به عرصه جدیدی برای رقابت تبدیل شده‌اند؛ جایی که کنترل روایت و نفوذ فرهنگی به‌وسیله کد و داده‌ها صورت می‌گیرد. از یک‌سو، چین با تجهیز مدل‌های زبانی خود به مکانیزم‌های خودسانسوری و ترویج مکرر «ثبات اجتماعی و رفاه عمومی»، در پی انتقال تدریجی قدرت نرم از رسانه‌های سنتی به «ماشین‌های روایت‌سازی» است.

این سامانه‌ها قادر خواهند بود در بلندمدت، بدون نیاز به دخالت مستقیم انسان، داستان رسمی حزب را به میلیون‌ها کاربر در سراسر جهان ارائه دهند.

در سوی دیگر، این شیوه بیش از هر چیز تهدیدی علیه شفافیت اطلاعاتی است. زمانی که موتورهای جست‌وجو و دستیارهای صوتی چینی‌ساز، به جای ارائه مجموعه‌ای متنوع از دیدگاه‌ها، تنها پیام‌های رسمی دولت را بازپخش کنند، زمینه برای تقلیل دسترسی شهروندان به نظرات متفاوت و نقد و بررسی مستقل به شدت محدود می‌شود. چنین شرایطی، فضای گفت‌وگوی آزاد و مباحثه علمی را تضعیف کرده و عدالت اطلاعاتی را به مخاطره می‌اندازد.

پیامد این تحولات حتی فراتر از مرزهای چین گسترش پیدا می‌کند، به ویژه در مناطقی که بازار هوش مصنوعی هنوز در مراحل ابتدایی خود قرار دارد؛ مانند بسیاری از کشورهای آفریقایی و آسیای جنوب‌شرقی. در این کشورها، به دلیل کمبود گزینه‌های بومی و تمایل به استفاده از فناوری‌های آماده، مدل‌های زبانی چینی می‌توانند به سرعت جایگاه خود را تثبیت کنند و روایت پکن را به‌صورت گسترده‌ای ترویج کنند. جهانی شدن این روایت‌ واحد، نه‌تنها تنوع فرهنگی و زبانی را تهدید می‌کند، بلکه امکان شکل‌گیری یک گفتمان چندصدایی و متوازن را نیز در نطفه خفه می‌نماید.

مثال‌های غرب؛ یادآوری خطر داخلی

نمی‌توان از سوی دیگر، مدعی بود همه سوگیری‌ها تنها از شرق می‌آیند. تازه‌ترین نمونه در آمریکا، Grok از شرکت xAI متعلق به ایلان ماسک است که پس از برخی به‌روزرسانی‌ها، محتوای یهودستیزانه تولید کرد. این رخداد نشان داد حتی در جوامع باز، انتخاب نادرست داده‌های آموزشی یا دستکاری توسعه‌دهندگان می‌تواند زمین سوگیری و افراط‌گرایی را فراهم کند.

با گسترش استفاده از مدل‌های زبانی در سطح جهانی و افزایش نگرانی‌ها درباره سوگیری ایدئولوژیک و سانسور در خروجی آن‌ها، نیاز فوری به تدوین راهکارهایی جامع و قابل اجرا وجود دارد. اگر قرار است هوش مصنوعی به ابزاری قابل اعتماد برای آموزش، اطلاع‌رسانی و تصمیم‌گیری تبدیل شود، باید شفافیت، پاسخ‌گویی و نظارت در توسعه و بهره‌برداری از آن تضمین شود. در این مسیر، مجموعه‌ای از اقدامات در سطح ملی و بین‌المللی می‌تواند پایه‌گذار حکمرانی مسئولانه در حوزه AI باشد:

  • تدوین چارچوب‌های بین‌المللی: طراحی استانداردهای جهانی برای شناسایی و سنجش سوگیری‌ها و میزان سانسور در مدل‌ها، با مشارکت کشورها، سازمان‌های فناوری و نهادهای حقوق بشری.

  • الزام به گزارش‌دهی شفاف: واداشتن شرکت‌های توسعه‌دهنده به انتشار گزارش‌های دوره‌ای درباره منابع داده، فرآیند آموزش، معیارهای پالایش محتوا و سطح دخالت انسانی در تنظیم خروجی مدل‌ها.

  • ایجاد نهادهای مستقل ترکیبی: شکل‌گیری ساختارهای نظارتی متشکل از نمایندگان دولت، شرکت‌های فناوری، دانشگاهیان و نهادهای مدنی که وظیفه نظارت و بررسی عملکرد مدل‌ها را بر عهده داشته باشند.

  • استفاده از روش‌های ارزیابی ترکیبی: تلفیق ابزارهای خودکار تشخیص سوگیری با بازبینی انسانی برای رسیدن به تصویری دقیق‌تر از جهت‌گیری‌ها، محدودیت‌ها و رفتار مدل‌ها در مواجهه با موضوعات حساس.

در نهایت

همه قدرت رسانه‌ها را باور داریم. قدرت رسانه‌ها کمتر از قدرت ارتش‌ها نیست. شبکه‌های تلویزیونی و رادیویی، شبکه‌های اجتماعی و صفحات پر مخاطب، برای کشور ها یک بازوی قدرتمند برای گسترش اهداف آن‌ها بوده و هستند. اما حالا، هوش مصنوعی مولد و چت بات‌‌های هوش مصنوعی،‌ نوع جدیدی از این بازوها به حساب می‌آیند. آن‌ها به دروازه‌های انتقال روایت و فرهنگ تبدیل شده‌اند. از همین رو،‌ همانند تماشا کردن تلویزیون، باید در استفاده از این مدل‌‌ها نیز به این موضوع توجه کرد که آیا ممکن است ما در حال دریافت یک روایت کنترل شده هستیم؟

منبع: US scrutinizes Chinese AI for ideological bias, memo shows

جدیدترین خبرها

ایلان ماسک از X Money و XChat پرده برداشت

متا استراتژی خود را تغییر داد: از متاورس به عینک‌های هوشمند مبتنی بر هوش مصنوعی

آغاز تحقیق اروپا درباره واتس‌اپ؛ نگرانی‌ها از محدودیت رقابت در حوزه هوش مصنوعی

پارلمان اروپا حداقل سن استفاده از شبکه‌های اجتماعی و هوش مصنوعی را ۱۶ سال اعلام کرد

تغییرات مهم در شرکت اپل؛ نفر اول هوش مصنوعی شرکت اپل تغییر خواهد کرد.

نتایج پژوهشی جدید: با شعر گفتن، محدودیت‌های هوش مصنوعی را دور بزنید.

جدیدترین مقالات
کاربردهای هوش مصنوعی

جدید‌ترین هوش مصنوعی‌ها

مرورگر ChatGPT Atlas

GLM 4.5

KIMI

GlobeScribe.ai

Lovable

Codex

Felo AI

Hailou

Hunyuan

Chance AI

openAI.fm

n8n

chatbot Arena

Tripo AI

Reve

لوگو هوش مصنوعی Wan

wan

Manus AI

Make.com

Le Chat

OmniHuman

Janus Pro

Kinetix

DragGan

openrouter.ai

operator

Storm

Pika Art

Openmagic

Mokker AI

لوگو دیپ سیک

DeepSeek

Buffer AI

Mapify

Gravitywrite

لوگو نوتبوک ال ام

NotebookLM

zipwp

writi.io

Vidalgo

ChatBA

Levels.fyi

مشاور هوشمند اینوآپ

Lensgo

Learn About AI

PDF.ai

Magai

Remini

BetterPic

OpenArt

Maestra

Heights AI

Deciphr