آیا اوپنهایمر دیگری، سلاحی مرگبارتر با هوش مصنوعی خواهد ساخت؟
احتمالا همهی ما اوپنهایمر را میشناسیم، کسی که دانش را تبدیل به مرگبار ترین سلاح جهانی کرد. او پروژه منهتن را در دست گرفت و با ساخت و آزمایش بمب اتمی، دانش هستهای را وارد دنیای نظامی کرد. روز گذشته گاردین مقاله ای با عنوان «لحظه اوپنهایمر هوش مصنوعی» منتشر کرد و تلاشهایی را روایت کرد که احتمالا هر کدام یک پروژه منهتن جدید خواهد بود.
در حالی که ما نگران این بودیم که هوش مصنوعی شغلهای ما را بگیرد یا کنترل آنها از دست ما خارج شود یا شاید در مدلی ترسناکتر بتوانند سلاح بدست گیرند، حالا بسیاری از ارتشهای جهان در حال استفاده از هوش مصنوعی برای ساخت سلاحهای خودمختار هستند. سلاحهایی که حتی اگر هوشمند هم نباشند، میتوانند جان انسانها را بگیرند. ما قبلا در وبلاگ نکست مایند به بررسی نقش هوش مصنوعی در جنگهای مدرن پرداختهایم. اگر به این موضوع علاقهمندید این مقاله را مطالعه کنید.
گاردین در ابتدای مقاله با بررسی تبلیغ شرکت Elbit Systems که در آن سربازان در میدان جنگ پهپادهای هوشمند را صدا میزند بحث خود را شروع میکند. در حالی که این تنها تبلیغ یک کمپانی نظامی اسرائیلی است، اما هوش مصنوعی مدتهاست که وارد میدانهای جنگ هم شده است. اوکراین در حال حاضر از پهپادهای مجهز به فناوری هوش مصنوعی برای حمله به تاسیسات و پالایشگاههای روسیه استفاده میکند. ارتش ایالات متحده مدتهاست از هوش مصنوعی برای تشخیص اهداف استفاده میکند و موارد استفاده بسیار بیشتر از اینهاست.
به گفته کارشناسان، افزایش تنشها در جهان نظیر جنگ اوکراین و جنگ غزه همزمان با رشدفناوری هوش مصنوعی به عنوان یک عامل تسریع کننده در این موضوع عمل میکند و هم زمینه را برای آزمایش چنین سلاحهایی فراهم ساخته ساخته است. در حال حاضر ارتشهای بسیاری عطش سیری ناپذیری برای این فناوری دارند و علی رقم همه ترسها و ابهامات بسیار زیادی که در این زمینه دارند گویی مسابقه تسلیحاتی جدید شروع شده است.
گاردین به روایت از دیپلماتها و سازندگان اسلحه این لحظه را لحظه اوپنهایمر مینامد. و همچنان معلوم نیست بالاخره کدام کشور یا ارتش از این فناوری برای ساخت سلاحهای ویرانگر و ترسناک دنیای آینده استفاده میکند.
هوش مصنوعی در ارتش آمریکا
در مجموع، ارتش ایالات متحده بیش از 800 پروژه فعال مرتبط با هوش مصنوعی دارد و تنها در بودجه سال 2024، 1.8 میلیارد دلار بودجه برای هوش مصنوعی درخواست کرده است. با افزایش سرعت نوآوری، کارشناسان تسلیحات خودمختار هشدار میدهند که این سیستمها خود را در ارتشها و دولتها در سرتاسر جهان تثبیت میکنند، به گونهای که ممکن است رابطه جامعه با فناوری و جنگ را به طور اساسی تغییر دهد.
گاردین از پل شار، معاون اجرایی و مدیر مطالعات مرکز یک اندیشکده امنیت جدید آمریکا، مینوسید: «این خطر وجود دارد که در طول زمان شاهد باشیم که انسان ها قضاوت بیشتری را به ماشین ها واگذار کنند. ما میتوانیم به ۱۵ یا ۲۰ سال آینده نگاه کنیم و متوجه شویم که از آستانه بسیار مهمی عبور کردهایم.»
پنتاگون همچنین قصد دارد تا سال 2025 یک میلیارد دلار برای طرح Replicator Initiative خود هزینه کند که هدف آن توسعه گروههایی از پهپادهای جنگی بدون سرنشین است که از هوش مصنوعی برای جستجوی تهدیدها استفاده میکنند. نیروی هوایی میخواهد در طول پنج سال آینده حدود 6 میلیارد دلار به تحقیق و توسعه هواپیماهای جنگی بدون سرنشین اختصاص دهد و به دنبال ساخت ناوگانی متشکل از 1000 جت جنگنده مجهز به هوش مصنوعی است که می توانند به طور مستقل پرواز کنند.
وزارت دفاع همچنین صدها میلیون دلار در سالهای اخیر برای تأمین مالی ابتکار محرمانه هوش مصنوعی خود به نام Project Maven، سرمایهگذاری متمرکز بر فناوریهایی مانند شناسایی خودکار هدف و نظارت، در نظر گرفتهاست.
همه چیز نشان میدهد که این فناوری در حال تغییر پارادایم جنگ و قدرت در جهان است. موضوعی که شاید بسیار ترسناکتر از جهان هستهای باشد.
جعبه سیاه دوگانه هوش مصنوعی در حوزه نظامی
گاردین به نقل از اشلی دیکس، استاد حقوق دانشگاه ویرجینیا، موضوع جعبه سیاه دوگانه را مطرح میکند که توصیف کننده زمانی است که دولتها فناوریهای هوش مصنوعی محرمانه و اختصاصی را انتخاب میکنند و سپس آنها را در دنیای مخفی امنیت ملی قرار میدهند.
در واقع ما همچنان میدانیم که سیستمهای هوش مصنوعی خطا دارند، همین موضوع سبب شد تلاشهای بسیاری برای توسعه هوش مصنوعی مسئول انجام گردد تا دلیل انتخابهای خود را توضیح دهد. جعبه سیاه هوش منصوعی در حوزههای بانکداری و مالی بسیار تاثیر گذار است و حالا زمانی که این موضوع به جنگها و جان انسانها وابسته میشود که همهچیز به خودی خود محرمانه و امنیتی و در یک جعبه سیاه است، احتمالا باید منتظر نتایج فاجعه بار باشیم.
در اسرائیل، تحقیقاتی از مجله +972 گزارش داد که ارتش برای تعیین اهداف برای حملات هوایی، علیرغم اینکه میدانست که نرم افزار در حدود 10 درصد موارد خطا دارد، بر اطلاعات یک سیستم هوش مصنوعی تکیه کردهاست.
«انسان در حلقه» باید باشد.
در حالی که شرکتها و ارتشهای ملی در ارائه جزئیات در مورد نحوه عملکرد سیستمهایشان خودداری میکنند، آنها در بحثهای گستردهتری پیرامون مسئولیتها و مقررات اخلاقی شرکت میکنند. یک مفهوم رایج در میان دیپلماتها و سازندگان تسلیحات در هنگام بحث در مورد اخلاقیات جنگ با هوش مصنوعی این است که به جای واگذاری کنترل کامل به ماشینها، همیشه باید یک “انسان در حلقه” برای تصمیمگیری وجود داشته باشد. با این حال، در مورد نحوه نظارت انسانی در این فرآیند توافق کمی وجود دارد.
پرسشهای پیچیده روانشناسی و مسئولیتپذیری انسان، آچاری را به بحثهای سطح بالای انسانها در حلقه میاندازد. نمونهای که محققان از صنعت فناوری ذکر میکنند، خودروی خودران است که اغلب با اجازه دادن به فرد برای به دست گرفتن کنترل وسیله نقلیه در صورت لزوم، «انسان را در جریان» قرار میدهد. اما اگر یک خودروی خودران مرتکب اشتباه شود یا انسان را تحت تأثیر قرار دهد تا تصمیم اشتباهی بگیرد، آیا این عادلانه است که فرد را در صندلی راننده مسئول قرار دهیم؟ اگر خودروی خودران لحظاتی قبل از تصادف کنترل را به انسان واگذار کند، مقصر کیست؟
تلاش برای رگولاتوری هوش مصنوعی در دنیای نظامی
در نشستی در وین در اواخر آوریل سال ۲۰۲۴، سازمانهای بینالمللی و دیپلماتهای 143 کشور برای کنفرانسی در مورد رگولاتوری استفاده از هوش مصنوعی و سلاحهای خودمختار در جنگ گرد هم آمدند. پس از سالها تلاش ناموفق برای هرگونه معاهدات جامع یا قطعنامههای الزامآور شورای امنیت سازمان ملل متحد در مورد این فناوریها، درخواست الکساندر شالنبرگ، وزیر امور خارجه اتریش به کشورها، سادهتر از ممنوعیت کامل سلاحهای خودمختار بود.
شالنبرگ به حضار گفت: «حداقل مطمئن شویم که عمیقترین و گستردهترین تصمیم، چه کسی زندگی میکند و چه کسی میمیرد، در دست انسانها باشد نه ماشینها».
سازمانهایی مانند کمیته بینالمللی صلیب سرخ و توقف رباتهای قاتل، خواستار ممنوعیت انواع خاصی از سیستمهای تسلیحاتی خودمختار برای بیش از یک دهه و همچنین قوانین کلی هستند که نحوه استقرار این فناوری را کنترل میکنند. این موارد کاربردهای خاصی را شامل میشود، مانند امکان آسیب رساندن به مردم بدون کمک انسانی یا محدود کردن انواع مناطق جنگی که میتوان از آنها استفاده کرد.
گسترش این فناوری همچنین حامیان کنترل تسلیحات را مجبور کرده است تا برخی از حرفهای خود را تغییر دهند. مری ورهام، معاون مدیر بخش بحران، درگیری و تسلیحات در دیدهبان حقوق بشر گفت: «ما خواستار ممنوعیت پیشگیرانه سیستمهای تسلیحاتی کاملاً خودمختار شدیم. این کلمه «پیشگیرانه» امروزه دیگر مورد استفاده قرار نمی گیرد، زیرا ما به سلاح های خودمختار بسیار نزدیک شدهایم.»
افزایش بررسیها در مورد چگونگی تولید و استفاده از سلاحهای خودمختار در جنگ از حمایت بینالمللی گستردهای برخوردار است،البته در این میان همچنان کشورهایی نظیر روسیه، چین، ایالات متحده، اسرائیل، هند، کره جنوبی و استرالیا همگی با این موضوع مخالف هستند . دلیلی برای مخالفت با تولید و استفاده از سلاحهای خودمختار نمیبینند.
با این حال باید از همین امروز همه کشورها و نهادها مسئله سلاحهای خودمختار را مورد بررسی قرار دهند. شاید جهان اتمی را توانسته باشیم کنترل کرده باشیم اما سرنوشت انسان با سلاحهای خودمختار خوش مصنوعی اصلا مشخص نیست. شاید اگر امروز در این مورد محدودیتهایی اعمال نشود از مدتی باید باید بگوییم « چند بیگناه و غیر نظامی دیگر باید با تصمیم هوش مصنوعی کشته شوند؟»
آینده ترسناک خواهد شد
واقعیت این است که حرکت به سمت سلاحهای خودمختار جنگ را بسیار سادهتر از چیزی که هست میکند. هنگامی که سیاستمداران گزینهی جنگ را در مقابل خود میبینند به واسطه دشواریها و سختیها و تلفات و هزاران عامل دیگر، به راحتی این گزینه را انتخاب نخواهد کرد. اما هرچه این موانع پیش روی جنگ کمتر شود، جنگ گزینه راحت تری خواهد بود. احتمالا با این رویهای که در میان ارتشهای جهان گرفته شده است شاید جهان آیندهما جنگهای بیشتری به خود ببیند.
واقعیت لحظه اوپنهایمر این است که هزینهای که باید دولتها در توسعه هوش مصنوعی برای اهداف عمرانی یا ساخت خودروهای خودران یا توسعه دارو و … میکردند را صرف ساختن جنگ افزار میکنند. تصویر کنید که میلیاردها دلاری که ارتش آمریکا به راحتی آنها را به زبان میآورد چقدر ساده تر میتواند با سرمایه گذاری در حوزههای صلح آمیز یا پزشکی یا مهندسی، زندگی را برای بشریت ساده کند.
با این وجود گویا ما به لحظهی اوپنهایمر هوش مصنوعی بسیار نزدیک هستیم.