سایت Muah.AI که به کاربران اجازه میدهد با “پارتنرهای هوش مصنوعی” در قالب چت یا به صورت صوتی ارتباط برقرار کنند، اخیراً با یک رسوایی بزرگ مواجه شده است. این سایت که نزدیک به دو میلیون کاربر دارد و فناوری خود را به عنوان “بدون سانسور” توصیف میکند، به نظر میرسد در برخی موارد برای تولید محتوای سوءاستفاده جنسی از کودکان مورد استفاده قرار گرفته باشد.
چندی پیش، Joseph Cox، خبرنگار 404 Media، گزارشی بر اساس دادههای درز یافته از این سایت منتشر کرد. این دادهها توسط یک هکر ناشناس افشا شده بودند و نشاندهنده درخواستهای کاربران برای ایجاد محتوای غیر اخلاقی از کودکان خردسال بود. یکی از این درخواستها شامل عباراتی درباره “نوزادان تازه متولد شده” و “کودکان خردسال” بود. هنوز مشخص نیست که آیا سیستم هوش مصنوعی این سایت به چنین درخواستهایی پاسخ داده است یا خیر.
در مقایسه با پلتفرمهای هوش مصنوعی بزرگتر مانند ChatGPT، که از فیلترها و ابزارهای نظارتی برای جلوگیری از تولید محتوای نامناسب استفاده میکنند، سایتهایی مانند Muah کنترلهای ضعیفتری دارند. این موضوع باعث شده تا خطرات بیشتری از سوءاستفاده وجود داشته باشد.
Troy Hunt، مشاور امنیتی و خالق سایت HaveIBeenPwned.com که دادههای درز یافته را بررسی کرده، بیان کرد که هزاران درخواست برای تولید محتوای غیراخلاقی در این دادهها وجود دارد. او حتی از جستجوهایی که حاوی عباراتی مانند “۱۳ ساله” و “پیش از بلوغ” بودند، به نتایج نگرانکنندهای رسید. Hunt بر این باور است که ممکن است دهها هزار درخواست برای تولید محتواهای سو استفاده جنسی از کودکان در این دادهها وجود داشته باشد.
یکی از نکات جالب این ماجرا این است که برخی کاربران حتی تلاش نکردهاند هویت خود را مخفی کنند. به گفته Hunt، یک مدیر اجرایی از شرکتی معروف بدون هیچ تلاشی برای پنهان کردن هویت خود از این پلتفرم استفاده کرده است.
مدیر Muah، که با نام Harvard Han شناخته میشود، تأیید کرد که سایت آنها توسط یک هکر مورد نفوذ قرار گرفته است. او همچنین اتهامات مربوط به وجود صدها هزار درخواست تولید محتوای غیر اخلاقی کودکان را رد کرد و گفت که تیم کوچکی دارند که قادر به نظارت کامل بر تمام فعالیتهای کاربران نیست. Han اذعان داشت که فیلترهایی برای جلوگیری از استفاده از برخی کلمات کلیدی مانند “کودکان” و “نوجوانان” در این سایت وجود دارد، اما این سیستم هنوز قادر به جلوگیری کامل از فعالیتهای نامناسب نیست.
این اتفاق نشاندهنده مشکل بزرگتری است که با ظهور هوش مصنوعی مولد در حال گسترش است. پلتفرمهای کوچکتر ممکن است به دلیل عدم نظارت کافی، به نقاط تاریک اینترنت تبدیل شوند.