چالش‌های انطباق با مقررات هوش مصنوعی اتحادیه اروپا برای غول‌های فناوری

ابزار جدیدی به نام "LLM Checker" برای ارزیابی انطباق مدل‌های هوش مصنوعی با مقررات اتحادیه اروپا معرفی شده است. این ابزار عملکرد مدل‌های بزرگی مانند OpenAI و متا را در حوزه‌هایی چون امنیت سایبری و خروجی‌های تبعیض‌آمیز بررسی می‌کند. نتایج نشان می‌دهد که بسیاری از این مدل‌ها هنوز با چالش‌هایی در تطابق کامل با قوانین مواجه هستند.

در دنیای پر از تغییرات فناوری، اتحادیه اروپا در حال اعمال قوانین جدیدی برای هوش مصنوعی است که بزرگ‌ترین شرکت‌های فناوری را با چالش‌های جدی مواجه کرده است. قوانین سخت‌گیرانه‌ای که به دنبال کنترل و نظارت بر عملکرد مدل‌های هوش مصنوعی هستند، به ویژه پس از ظهور مدل‌هایی چون ChatGPT اهمیت بیشتری پیدا کرده‌اند. این مقررات بر تاب‌آوری در برابر حملات سایبری و خروجی‌های تبعیض‌آمیز تمرکز دارند و غول‌های فناوری ملزم به رعایت آن‌ها هستند.

ابزار جدید برای سنجش انطباق

برای سنجش میزان انطباق مدل‌های هوش مصنوعی با این مقررات، ابزار جدیدی به نام “LLM Checker” معرفی شده است. استارت‌آپ سوئیسی LatticeFlow با همکاری دانشگاه ETH Zurich و INSAIT بلغارستان این ابزار را توسعه داده است. LLM Cheaker مدل‌های بزرگ هوش مصنوعی را از شرکت‌هایی مانند متا، OpenAI، Anthropic و Ali baba در ده‌ها حوزه مختلف ارزیابی می‌کند.

نتایج این ارزیابی‌ها نشان می‌دهد که بسیاری از این مدل‌ها هنوز با چالش‌هایی در انطباق کامل با قوانین مواجه هستند.

نتایج آزمون: شکاف‌هایی که باید پر شوند

طبق نتایج منتشر شده، برخی از مدل‌های هوش مصنوعی در زمینه‌هایی چون خروجی‌های تبعیض‌آمیز و حملات سایبری دچار ضعف‌هایی هستند.

برای مثال، مدل “GPT-3.5 Turbo” از OpenAI در بخش خروجی‌های تبعیض‌آمیز امتیاز ۰.۴۶ را کسب کرده است. مدل “Qwen1.5 72B Chat” از علی‌بابا حتی امتیاز پایین‌تری دریافت کرده و تنها ۰.۳۷ امتیاز کسب کرده است. این ضعف‌ها نشان‌دهنده چالش‌های مداوم در مقابله با تعصبات انسانی هستند که در خروجی‌های این مدل‌ها منعکس می‌شوند.

همچنین، در آزمون “ربودن دستورات”، نوعی حمله سایبری که در آن هکرها دستورات مخرب را جایگزین دستورات قانونی می‌کنند، برخی مدل‌ها نیز امتیازات پایینی کسب کرده‌اند. به عنوان مثال، مدل “Llama 2 13B Chat” از متا امتیاز ۰.۴۲ و مدل “8x7B Instruct” از Mistral امتیاز ۰.۳۸ دریافت کرده‌اند.

هوش مصنوعی کلاد، بهترین عملکرد را دارد.

در میان این نتایج، مدل “Claude 3 Opus” از شرکت Anthropic، که تحت حمایت گوگل قرار دارد، بهترین عملکرد را با امتیاز میانگین ۰.۸۹ داشته است. این نشان می‌دهد که برخی شرکت‌ها بهتر از دیگران در مسیر انطباق با مقررات اتحادیه اروپا گام برمی‌دارند. کلاد یکی از بهترین مدل‌های هوش مصنوعی جهان است که توجه بسیاری به موضوعات اخلاقی دارد و می‌توان آن را هوش منصوعی اخلاق مدار نامید.

چشم‌انداز آینده

ابزار “LLM Checker” هنوز در مراحل اولیه است، اما امید است که به شرکت‌های فناوری کمک کند تا مدل‌های هوش مصنوعی خود را با قوانین جدید اروپا تطبیق دهند. پیتر تسنکوف، مدیرعامل LatticeFlow، اعلام کرده است که این ابزار به طور رایگان در اختیار توسعه‌دهندگان قرار می‌گیرد تا بتوانند مدل‌های خود را بررسی و بهبود دهند.

با توجه به جریمه‌های سنگینی که برای عدم انطباق در نظر گرفته شده است، شرکت‌ها ناچارند تمرکز خود را بر بهبود مدل‌هایشان در راستای رعایت مقررات جدید قرار دهند.

منبع : رویترز

جدیدترین خبرها

زبان الکترونیکی مجهز به هوش مصنوعی غذاهای فاسد و مسموم را شناسایی می‌کند.

علی شریفی زارچی، رئیس کمیته علمی بین‌المللی المپیاد جهانی هوش مصنوعی شد.

سوءاستفاده از هوش مصنوعی برای تولید پورنوگرافی کودکان

نقاشی که به چشمان هوش مصنوعی می‌نگرد

هوش مصنوعی، ناجی میلیاردی خزانه‌داری آمریکا در مقابله با کلاهبرداری

ماشین هابرماس،هوش مصنوعی برای کاهش اختلافات شدید در جامعه

جدیدترین مقالات
کاربردهای هوش مصنوعی

جدید‌ترین هوش مصنوعی‌ها

Read AI

Read AI

Hostinger AI

SoBrief

CAD with AI

designcap

photoroom

kapwing

Speechmatics

Prome

Lovo

Deep Dream Generator

artbreeder

Kaliber.ai

Dream.ai

Fotor

Wave.video

Soundraw

Pictory

ٍٍٍElai

Veed

VirtualSpeech

voicemaker

Infinite Album

Scalenut

DeepStory

Dora.run لوگو

dora.run

Hotshot

Simplified

Writecream

Anyword

Let’s Enhance

Poplar Studio

Timely

Semantic Scholar

Otter

Marlee

Supermeme.ai

Yarn

Frase

هوش مصنوعی Dream machine

Dream machine

CodeWP

هوش مصنوعی ایلان ماسک

Grok

تغییر چهره با هوش مصنوعی

Remaker

Flux

Adzooma

Powtoon

Lumen5

Iris.ai

Typeframes

klap logo

klap AI