
نتایج پژوهشی جدید: با شعر گفتن، محدودیتهای هوش مصنوعی را دور بزنید.
گزارشی تازه نشان میدهد که گروه پژوهشی Icaro Lab وابسته به شرکت DexAI با استفاده از تنها ۲۰ شعر ساده توانسته است بسیاری از پیشرفتهترین مدلهای هوش مصنوعی را وادار به تولید محتوای کاملاً خطرناک کند؛ محتوایی از آموزش ساخت سلاح تا متون نفرتپراکنی و خودآزاری. این شعرها در ظاهر بیضرر بودند اما در پایان ناگهان درخواست ممنوعه مطرح میکردند و بسیاری از مدلها—از جمله Gemini 2.5 Pro با ۱۰۰٪ شکست—در برابر آن تسلیم شدند، در حالی که GPT-5 nano تنها مدلی بود که هیچ خروجی خطرناکی نداد. محققان توضیح میدهند که ماهیت غیرقابل پیشبینی شعر، فیلترهای ایمنی را دور میزند و همانند «اسب تروا» عمل میکند. این سادگی نگرانکننده، نشان میدهد سازوکارهای ایمنی هوش مصنوعی هنوز بسیار شکنندهاند و شرکتها باید برای مقابله با چنین روشهای خلاقانهای فیلترهای خود را تقویت کنند.

