اتحادیه اروپا در گامی تازه برای قانونگذاری بر فناوری هوش مصنوعی، از یک چارچوب داوطلبانه برای نظارت بر مدلهای قدرتمند هوش مصنوعی همچون ChatGPT رونمایی کرد. بر اساس گزارش نیویورک تایمز، این مجموعه دستورالعملها که به عنوان «کد رفتار» منتشر شده، اولین اقدام رسمی برای اجرای مقررات جامع هوش مصنوعی اروپا موسوم به AI Act محسوب میشود.
تمرکز مقررات بر شرکتهای پیشرو در حوزه هوش مصنوعی
بر اساس اعلام کمیسیون اروپا، این قوانین بهطور ویژه بر مدلهای هوش مصنوعی همهمنظوره یا General-Purpose AI تمرکز دارد. مدلهایی که میتوانند برای اهداف مختلف مورد استفاده قرار گیرند و زیربنای ابزارهایی چون ChatGPT، Gemini و Claude هستند.
به گفته مقامات اتحادیه، این مقررات تنها مشمول تعداد محدودی از شرکتها خواهد شد؛ از جمله شرکتهای آمریکایی OpenAI، مایکروسافت، گوگل و متا که در خط مقدم توسعه مدلهای زبانی و سیستمهای هوشمند مولد قرار دارند.
مفاد کلیدی: شفافیت داده، ارزیابی ریسک و گزارشدهی
مطابق با کد رفتار منتشرشده، شرکتهای توسعهدهنده مدلهای هوش مصنوعی موظف خواهند بود اطلاعاتی درباره دادههای آموزشی مورد استفاده ارائه دهند. همچنین آنها باید ارزیابیهایی درباره ریسکهای امنیتی و اجتماعی محصولات خود انجام دهند؛ از جمله احتمال سوءاستفاده از این فناوریها در ساخت سلاحهای بیولوژیک یا انتشار اطلاعات نادرست.
این اقدام در پاسخ به نگرانیهای روزافزون درباره حقوق مالکیت فکری، امنیت سایبری و تأثیر اجتماعی مدلهای مولد انجام میشود.
مشوقها و تهدیدها برای پیوستن به کد
کمیسیون اروپا اعلام کرده است شرکتهایی که داوطلبانه این کد را امضا کنند، از امتیازاتی مانند کاهش هزینههای انطباق و اطمینان حقوقی برخوردار خواهند شد. اما شرکتهایی که از امضای آن خودداری کنند، باید اثبات کنند که بهصورت مستقل با قانون AI Act همخوانی دارند؛ فرآیندی که پیچیدهتر و پرهزینهتر خواهد بود.
بر اساس برنامهریزی اتحادیه، بخشهای مربوط به مدلهای هوش مصنوعی همهمنظوره از ۲ اوت ۲۰۲۵ لازمالاجرا خواهند شد. اعمال جریمههای قانونی نیز از آگوست ۲۰۲۶ آغاز میشود.
واکنش متفاوت شرکتهای فناوری
گوگل و OpenAI اعلام کردهاند که در حال بررسی نهایی متن کد هستند. اما مایکروسافت، متا، آمازون و استارتاپ فرانسوی Mistral تاکنون از اظهار نظر رسمی خودداری کردهاند.
در همین حال، انجمن رایانه و صنایع ارتباطی اروپا (CCIA Europe) که نماینده شرکتهایی چون گوگل، آمازون و متا است، این مقررات را «باری نامتناسب» بر دوش توسعهدهندگان توصیف کرده است.
خلأهای قانونی در برابر اطلاعات نادرست
با وجود پیشرفت در برخی حوزهها، منتقدان معتقدند که کد رفتار پاسخ روشنی به مسأله اطلاعات نادرست ارائه نمیدهد. بهعنوان نمونه، چتبات Grok متعلق به شرکت xAI (وابسته به ایلان ماسک) اخیراً نظرات یهودستیزانهای را منتشر کرده بود که نگرانیها درباره نظارت بر محتوای تولیدشده توسط هوش مصنوعی را افزایش داده است.
دغدغه رقابت جهانی و حفظ نوآوری در اروپا
قانونگذاری بر فناوری هوش مصنوعی در اتحادیه اروپا، در حالی پیش میرود که کشورهای عضو همچنان با چالش عقبماندگی از ایالات متحده و چین در رقابت فناوری مواجهاند. برخی از نمایندگان پارلمان اروپا هشدار دادهاند که قوانین سختگیرانه ممکن است مانع نوآوری و توسعه شرکتهای بومی شود.
آئورا سالا، نماینده فنلاندی پارلمان اروپا و مشاور پیشین شرکت متا، با انتقاد از رویکرد قانونگذاران گفته است:
«قوانین نباید تنها محصول صادراتی ما باشند. این وضعیت ممکن است به ضرر صنعت فناوری اروپا تمام شود.»
چشمانداز پیش رو
با رونمایی از این چارچوب داوطلبانه، اتحادیه اروپا وارد مرحله تازهای از تنظیم مقررات در حوزه هوش مصنوعی شده است. بسیاری از تحلیلگران، این اقدام را گامی مهم در راستای افزایش پاسخگویی شرکتهای فناوری میدانند، اما در عین حال تأکید دارند که مسیر پیش رو برای ایجاد تعادل میان نوآوری و نظارت، همچنان پرچالش خواهد بود.