هنگامی که آلفرد نوبل دینامیت را برای راهسازی و کاربردهای مفیدش ساخت، به ذهنش خطور نمیکرد که روزی دینامیت جان میلیونها نفر را بگیرد. هنگامی که انرژی هستهای نیز در حال توسعه بود، کمتر تصور میشد که اوپنهایمر بتواند از آن فناوری، کشندهترین سلاح تاریخ را بسازد. هوش مصنوعی نیز از این ماجرا مستثنی نیست. هوش مصنوعی حالا یک ابزار مهم و کلیدی در جنگها تبدیل شده است. ارتش اسرائیل در جنگ غزه از این فناوری بیش از هر کشور دیگری دیگری استفاده کرده است.
هوش مصنوعی در جنگ، لحظه اوپنهایمر هوش مصنوعی
مدتی قبل، گاردین در مقالهای با عنوان لحظه اوپنهایمر هوش مصنوعی، به تلاشهای ارتشهای جهان در استفاده از هوش مصنوعی برای توسعه سلاحهای خود مختار پرداخت. این گزارش با روایت شرکت البیت سیستمز، یک شرکت نظامی اسرائیلی آغاز شد. این گزارش به خوبی نشان میدهد که هوش مصنوعی با وجود دستاوردهای بسیاری که میتواند برای بشریت داشته باشد، میتواند به یک سلاح خطرناک تبدیل شود.
هنگامی که اوپنهایمر اولین بمب اتم را برای آمریکا ساخت، و پس از آن شوروی به این بمب دست پیدا کرد، چهره جنگ برای همیشه تغییر کرد. حالا به نظر میرسد اوپنهایمر بعدی، در حال بکارگیری فناوری هوش مصنوعی برای تغییر مجدد چهره جنگ هاست. حالا ارتش اسرائیل بیش از هر کشوری از فناوری هوش مصنوعی استفاده میکند. در این مقاله به بررسی برخی از سیستمهای هوش مصنوعی در اسرائیل می پردازیم.
سیستم گاسپل (انجیل)، هوش مصنوعی برای شناسایی اهداف بمباران
یکی از مهمترین هوش مصنوعیهایی که اسرائیل از آن استفاده میکند، گاسپل (Gospel) یا انجیل است. این هوش مصنوعی یک سیستم شناسایی و انتخاب اهداف (ساختمانها) بالقوه برای بمباران بر اساس اطلاعات مربوط به فعالیتهای حماس است. این سیستم از یادگیری ماشین برای شناسایی ساختمانهایی که احتمال حضور نیرویهای حماس در آن باشد استفاده میشود.
گاسپل روزانه میتواند تا ۱۰۰ هدف را انتخاب کند، این در حالی است که به صورت سنتی در روز حدود ۵۰ هدف امکان پذیر بوده است. این خودکارسازی در جنگ با نگرانیهای زیادی در مورد کاهش نظارت انسانی مواجه شده است، زیرا تصمیمگیری درباره حملات میتواند تنها در عرض ۲۰ ثانیه انجام شود که ممکن است استانداردهای اخلاقی و دقت را تحت تأثیر قرار دهد. تحقیقات بسیاری نشان میدهد که این سیستم، منجر به کشته شدن غیرنظامیان و کودکان بسیاری شده است و انتقادات بسیاری از این سیستم در سراسر جهان وجود دارد.
هوش مصنوعی لاوندر، شناسایی افراد با هوش مصنوعی برای صدور فرمان قتل
یکی دیگر از ابزارهای هوش مصنوعی که اسرائیل در جنگ غزه از آن استفاده میکند، لاوندر نام دارد. این هوش مصنوعی بحث برانگیز برای شناسایی و هدفگیری افراد در غزه طراحی و ساخته شده است.
این سیستم از طریق تحلیل حجم گستردهای از دادهها به شناسایی افراد پرداخته و برای هر فرد یک نمره بین ۱ تا ۱۰۰ تولید میکند که احتمال وابستگی آن فرد به فعالیتهای نظامی را نشان میدهد. لاوندر همچنین از طریق نظارت گسترده بر حدود ۲.۳ میلیون نفر ساکن غزه، از جمله پایش ارتباطات و حرکات، اطلاعات را پردازش میکند و بهطور خودکار لیستهای هدف را تولید میکند. این تحول بهدنبال آزمایشهای اولیهای بود که دقت بالایی را در شناسایی شبهنظامیان نشان داد و موجب شده تا نیروهای نظامی توصیههای این سیستم را به عنوان دستورات تلقی کنند.
استفاده از لاوندر در مراحل ابتدایی عملیات نظامی به شناسایی حدود ۳۷,۰۰۰ فرد به عنوان اهداف بالقوه برای ترور منجر شده که این موضوع باعث افزایش تلفات غیرنظامی و جانباختن هزاران نفر شده است. گزارشها نشان میدهند که افسران اطلاعاتی تنها در مدت زمان کوتاهی، بعضاً به اندازه ۲۰ ثانیه، به بررسی اهداف پیشنهاد شده توسط لاوندر میپردازند. استفاده از سیستم لاوندر با نرخ بالای تلفات غیرنظامی، از جمله زن و کودک، مرتبط شده و فعالان حقوق بشر و کارشناسان حقوقی استفاده از چنین سیستمهای هوش مصنوعی در جنگ را محکوم کردهاند و آن را نقض حقوق بشر بینالمللی خواندهاند.
Where’s Daddy، یک هوش مصنوعی مرگبار
لاوندر تنها ابزار هوش مصنوعی اسرائیل نیست که بر اساس آن اهداف را شناسایی میکند. سیستم هوش مصنوعی Where’s Daddy به منظور تقویت قابلیتهای هدفگیری در مناطق درگیری، به ویژه در جنگ غزه، طراحی شده است. این سیستم بهطور خاص برای نظارت بر افرادی که بهعنوان اهداف بالقوه شناسایی شدهاند ایجاد شده و در زمان بازگشت این افراد به خانه، دستور حمله را صادر میکند. این سیستم منجر به کشتار غیر نظامیها و زنان و کودکان بسیاری شده است. در این سیستم، تمام خانواده مورد هدف قرار میگیرند و رویکردی ظالمانه و وحشیانه در جنگ است.
سایر استفاده های اسرائیل از هوش مصنوعی در جنگ
موارد بالا تنها برخی از سیستمهای هوش مصنوعی است که اسرائیل در جنگ غزه از آن استفاده کرده است. سیستمهایی نظیر Edge 360، Fire Factory و … نیز در سطح بالایی در جنگ مورد استفاده قرار میگیرند.
روی تاریک فناوری هوش مصنوعی
جنگ سیاهترین بخش تاریخ است. متاسفانه این روزها شواهد نشان میدهند که هوش مصنوعی که قرار است در بسیاری از حوزهها باعث رفاه بیشتر شود، در جنگها چیزی جز نابودی و کشتار بیشتر به همراه نمیآورد. سپردن جان انسان، حتی در جنگ به دست سیستمهای غیر انسانی یک جنایت است. به امید صلح و آرامش