لحظه اوپنهایمر هوش مصنوعی

لحظه اوپنهایمر هوش مصنوعی: سلاح های خودمختار ما را خواهند کشت.

مدت زمان مطالعه 7 دقیقه

در این مقاله می‌خوانید

آیا اوپنهایمر دیگری، سلاحی مرگبارتر با هوش مصنوعی خواهد ساخت؟

احتمالا همه‌ی ما اوپنهایمر را می‌شناسیم، کسی که دانش را تبدیل به مرگبار ترین سلاح جهانی کرد. او پروژه منهتن را در دست گرفت و با ساخت و آزمایش بمب اتمی، دانش هسته‌ای را وارد دنیای نظامی کرد. روز گذشته گاردین مقاله ای با عنوان «لحظه اوپنهایمر هوش مصنوعی» منتشر کرد و تلاش‌هایی را روایت کرد که احتمالا هر کدام یک پروژه منهتن جدید خواهد بود.

در حالی که ما نگران این بودیم که هوش مصنوعی شغل‌های ما را بگیرد یا کنترل آن‌ها از دست ما خارج شود یا شاید در مدلی ترسناک‌تر بتوانند سلاح بدست گیرند، حالا بسیاری از ارتش‌های جهان در حال استفاده از هوش مصنوعی برای ساخت سلاح‌های خودمختار هستند. سلاح‌هایی که حتی اگر هوشمند هم نباشند، می‌توانند جان انسان‌ها را بگیرند. ما قبلا در وبلاگ نکست مایند به بررسی نقش هوش مصنوعی در جنگ‌های مدرن پرداخته‌ایم. اگر به این موضوع علاقه‌مندید این مقاله را مطالعه کنید.

گاردین در ابتدای مقاله با بررسی تبلیغ شرکت Elbit Systems که در آن سربازان در میدان جنگ پهپادهای هوشمند را صدا می‌زند بحث خود را شروع می‌کند. در حالی که این تنها تبلیغ یک کمپانی نظامی اسرائیلی است، اما هوش مصنوعی مدت‌هاست که وارد میدان‌‌های جنگ هم شده است. اوکراین در حال حاضر از پهپادهای مجهز به فناوری هوش مصنوعی برای حمله به تاسیسات و پالایشگاه‌های روسیه استفاده می‌کند. ارتش ایالات متحده مدت‌هاست از هوش مصنوعی برای تشخیص اهداف استفاده می‌کند و موارد استفاده بسیار بیشتر از این‌هاست.

به گفته کارشناسان، افزایش تنش‌ها در جهان نظیر جنگ اوکراین و جنگ غزه همزمان با رشدفناوری هوش مصنوعی به عنوان یک عامل تسریع کننده در این موضوع عمل می‌کند و هم زمینه را برای آزمایش چنین سلاح‌هایی فراهم ساخته ساخته است. در حال حاضر ارتش‌های بسیاری عطش سیری ناپذیری برای این فناوری دارند و علی رقم همه ترس‌ها و ابهامات بسیار زیادی که در این زمینه دارند گویی مسابقه تسلیحاتی جدید شروع شده است.

گاردین به روایت از دیپلمات‌ها و سازندگان اسلحه این لحظه را لحظه اوپنهایمر می‌نامد. و همچنان معلوم نیست بالاخره کدام کشور یا ارتش از این فناوری برای ساخت سلاح‌های ویرانگر و ترسناک دنیای آینده استفاده می‌کند.

هوش مصنوعی در ارتش آمریکا

در مجموع، ارتش ایالات متحده بیش از 800 پروژه فعال مرتبط با هوش مصنوعی دارد و تنها در بودجه سال 2024، 1.8 میلیارد دلار بودجه برای هوش مصنوعی درخواست کرده است.  با افزایش سرعت نوآوری، کارشناسان تسلیحات خودمختار هشدار می‌دهند که این سیستم‌ها خود را در ارتش‌ها و دولت‌ها در سرتاسر جهان تثبیت می‌کنند، به گونه‌ای که ممکن است رابطه جامعه با فناوری و جنگ را به طور اساسی تغییر دهد.

گاردین از  پل شار، معاون اجرایی و مدیر مطالعات مرکز یک اندیشکده امنیت جدید آمریکا، می‌نوسید: «این خطر وجود دارد که در طول زمان شاهد باشیم که انسان ها قضاوت بیشتری را به ماشین ها واگذار کنند. ما می‌توانیم به ۱۵ یا ۲۰ سال آینده نگاه کنیم و متوجه شویم که از آستانه بسیار مهمی عبور کرده‌ایم.»

پنتاگون همچنین  قصد دارد تا سال 2025 یک میلیارد دلار برای طرح Replicator Initiative خود هزینه کند که هدف آن توسعه گروه‌هایی از پهپادهای جنگی بدون سرنشین است که از هوش مصنوعی برای جستجوی تهدیدها استفاده می‌کنند. نیروی هوایی می‌خواهد در طول پنج سال آینده حدود 6 میلیارد دلار به تحقیق و توسعه هواپیماهای جنگی بدون سرنشین اختصاص دهد و به دنبال ساخت ناوگانی متشکل از 1000 جت جنگنده مجهز به هوش مصنوعی است که می توانند به طور مستقل پرواز کنند.

وزارت دفاع همچنین صدها میلیون دلار در سال‌های اخیر برای تأمین مالی ابتکار محرمانه هوش مصنوعی خود به نام Project Maven، سرمایه‌گذاری متمرکز بر فناوری‌هایی مانند شناسایی خودکار هدف و نظارت، در نظر گرفته‌است.

 

همه چیز نشان می‌دهد که این فناوری در حال تغییر پارادایم جنگ و قدرت در جهان است. موضوعی که شاید بسیار ترسناک‌تر از جهان هسته‌ای باشد.

 

جعبه سیاه دوگانه هوش مصنوعی در حوزه نظامی

گاردین به نقل از  اشلی دیکس، استاد حقوق دانشگاه ویرجینیا، موضوع جعبه سیاه دوگانه را مطرح می‌کند که توصیف کننده زمانی است که دولت‌ها فناوری‌های هوش مصنوعی محرمانه و اختصاصی را انتخاب می‌کنند و سپس آن‌ها را در دنیای مخفی امنیت ملی قرار می‌دهند.

در واقع ما همچنان می‌دانیم که سیستم‌های هوش مصنوعی خطا دارند، همین موضوع سبب شد تلاش‌های بسیاری برای توسعه هوش مصنوعی مسئول انجام گردد تا دلیل انتخاب‌های خود را توضیح دهد. جعبه سیاه هوش منصوعی در حوزه‌های بانکداری و مالی بسیار تاثیر گذار است و حالا زمانی که این موضوع به جنگ‌ها و جان انسان‌ها وابسته می‌شود که همه‌چیز به خودی خود محرمانه و امنیتی و در یک جعبه سیاه است، احتمالا باید منتظر نتایج فاجعه بار باشیم.

در اسرائیل، تحقیقاتی از مجله +972 گزارش داد که ارتش برای تعیین اهداف برای حملات هوایی، علیرغم اینکه می‌دانست که نرم افزار در حدود 10 درصد موارد خطا دارد، بر اطلاعات یک سیستم هوش مصنوعی تکیه کرده‌است.

«انسان در حلقه» باید باشد.

در حالی که شرکت‌ها و ارتش‌های ملی در ارائه جزئیات در مورد نحوه عملکرد سیستم‌هایشان خودداری می‌کنند، آنها در بحث‌های گسترده‌تری پیرامون مسئولیت‌ها و مقررات اخلاقی شرکت می‌کنند. یک مفهوم رایج در میان دیپلمات‌ها و سازندگان تسلیحات در هنگام بحث در مورد اخلاقیات جنگ با هوش مصنوعی این است که به جای واگذاری کنترل کامل به ماشین‌ها، همیشه باید یک “انسان در حلقه” برای تصمیم‌گیری وجود داشته باشد. با این حال، در مورد نحوه نظارت انسانی در این فرآیند توافق کمی وجود دارد.

پرسش‌های پیچیده روان‌شناسی و مسئولیت‌پذیری انسان، آچاری را به بحث‌های سطح بالای انسان‌ها در حلقه می‌اندازد. نمونه‌ای که محققان از صنعت فناوری ذکر می‌کنند، خودروی خودران است که اغلب با اجازه دادن به فرد برای به دست گرفتن کنترل وسیله نقلیه در صورت لزوم، «انسان را در جریان» قرار می‌دهد. اما اگر یک خودروی خودران مرتکب اشتباه شود یا انسان را تحت تأثیر قرار دهد تا تصمیم اشتباهی بگیرد، آیا این عادلانه است که فرد را در صندلی راننده مسئول قرار دهیم؟ اگر خودروی خودران لحظاتی قبل از تصادف کنترل را به انسان واگذار کند، مقصر کیست؟

تلاش برای رگولاتوری هوش مصنوعی در دنیای نظامی

در نشستی در وین در اواخر آوریل سال ۲۰۲۴، سازمان‌های بین‌المللی و دیپلمات‌های 143 کشور برای کنفرانسی در مورد رگولاتوری استفاده از هوش مصنوعی و سلاح‌های خودمختار در جنگ گرد هم آمدند. پس از سال‌ها تلاش ناموفق برای هرگونه معاهدات جامع یا قطعنامه‌های الزام‌آور شورای امنیت سازمان ملل متحد در مورد این فناوری‌ها، درخواست الکساندر شالنبرگ، وزیر امور خارجه اتریش به کشورها، ساده‌تر از ممنوعیت کامل سلاح‌های خودمختار بود.

شالنبرگ به حضار گفت: «حداقل مطمئن شویم که عمیق‌ترین و گسترده‌ترین تصمیم، چه کسی زندگی می‌کند و چه کسی می‌میرد، در دست انسان‌ها باشد نه ماشین‌ها».

لحظه اوپنهایمر هوش مصنوعی

سازمان‌هایی مانند کمیته بین‌المللی صلیب سرخ و توقف ربات‌‌های قاتل، خواستار ممنوعیت انواع خاصی از سیستم‌های تسلیحاتی خودمختار برای بیش از یک دهه و همچنین قوانین کلی هستند که نحوه استقرار این فناوری را کنترل می‌کنند. این موارد کاربردهای خاصی را شامل می‌شود، مانند امکان آسیب رساندن به مردم بدون کمک انسانی یا محدود کردن انواع مناطق جنگی که می‌توان از آنها استفاده کرد.

گسترش این فناوری همچنین حامیان کنترل تسلیحات را مجبور کرده است تا برخی از حرف‌های خود را تغییر دهند. مری ورهام، معاون مدیر بخش بحران، درگیری و تسلیحات در دیده‌بان حقوق بشر گفت: «ما خواستار ممنوعیت پیشگیرانه سیستم‌های تسلیحاتی کاملاً خودمختار شدیم. این کلمه «پیشگیرانه» امروزه دیگر مورد استفاده قرار نمی گیرد، زیرا ما به سلاح های خودمختار بسیار نزدیک شده‌ایم.»

افزایش بررسی‌ها در مورد چگونگی تولید و استفاده از سلاح‌های خودمختار در جنگ از حمایت بین‌المللی گسترده‌ای برخوردار است،البته در این میان همچنان کشورهایی نظیر روسیه، چین، ایالات متحده، اسرائیل، هند، کره جنوبی و استرالیا همگی با این موضوع مخالف هستند . دلیلی برای مخالفت با تولید و استفاده از سلاح‌های خودمختار نمی‌بینند.

با این حال باید از همین امروز همه کشور‌‌ها و نهادها مسئله سلاح‌های خودمختار را مورد بررسی قرار دهند. شاید جهان اتمی را توانسته باشیم کنترل کرده باشیم اما سرنوشت انسان با سلاح‌های خودمختار خوش مصنوعی اصلا مشخص نیست. شاید اگر امروز در این مورد محدودیت‌هایی اعمال نشود از مدتی باید باید بگوییم « چند بیگناه و غیر نظامی دیگر باید با تصمیم هوش مصنوعی کشته شوند؟»

آینده ترسناک خواهد شد

واقعیت این است که حرکت به سمت سلاح‌های خودمختار جنگ را بسیار ساده‌تر از چیزی که هست می‌کند. هنگامی که سیاست‌مداران گزینه‌ی جنگ را در مقابل خود می‌بینند به واسطه دشواری‌ها و سختی‌ها و تلفات و هزاران عامل دیگر، به راحتی این گزینه را انتخاب نخواهد کرد. اما هرچه این موانع پیش روی جنگ کمتر شود، جنگ‌ گزینه راحت تری خواهد بود. احتمالا با این رویه‌ای که در میان ارتش‌های جهان گرفته شده است شاید جهان آینده‌ما جنگ‌های بیشتری به خود ببیند.

واقعیت لحظه اوپنهایمر این است که هزینه‌ای که باید دولت‌ها در توسعه هوش مصنوعی برای اهداف عمرانی یا ساخت خودروهای خودران یا توسعه دارو و … می‌کردند را صرف ساختن جنگ افزار می‌کنند. تصویر کنید که میلیاردها دلاری که ارتش آمریکا به راحتی آن‌ها را به زبان می‌آورد چقدر ساده تر می‌تواند با سرمایه گذاری در حوزه‌های صلح آمیز یا پزشکی یا مهندسی، زندگی را برای بشریت ساده کند.

با این وجود گویا ما به لحظه‌ی اوپنهایمر هوش مصنوعی بسیار نزدیک هستیم.

 

 

 

آخرین خبرها

زبان الکترونیکی مجهز به هوش مصنوعی غذاهای فاسد و مسموم را شناسایی می‌کند.

علی شریفی زارچی، رئیس کمیته علمی بین‌المللی المپیاد جهانی هوش مصنوعی شد.

سوءاستفاده از هوش مصنوعی برای تولید پورنوگرافی کودکان

نقاشی که به چشمان هوش مصنوعی می‌نگرد

هوش مصنوعی، ناجی میلیاردی خزانه‌داری آمریکا در مقابله با کلاهبرداری

ماشین هابرماس،هوش مصنوعی برای کاهش اختلافات شدید در جامعه

آشنایی با هوش مصنوعی
کاربردهای هوش مصنوعی

جدید‌ترین هوش مصنوعی‌ها

Read AI

Read AI

Hostinger AI

SoBrief

CAD with AI

designcap

photoroom

kapwing

Speechmatics

Prome

Lovo

Deep Dream Generator

artbreeder

Kaliber.ai

Dream.ai

Fotor

Wave.video

Soundraw

Pictory

ٍٍٍElai

Veed

VirtualSpeech

voicemaker

Infinite Album

Scalenut

DeepStory

Dora.run لوگو

dora.run

Hotshot

Simplified

Writecream

Anyword

Let’s Enhance

Poplar Studio

Timely

Semantic Scholar

Otter

Marlee

Supermeme.ai

Yarn

Frase

هوش مصنوعی Dream machine

Dream machine

CodeWP

هوش مصنوعی ایلان ماسک

Grok

تغییر چهره با هوش مصنوعی

Remaker

Flux

Adzooma

Powtoon

Lumen5

Iris.ai

Typeframes

klap logo

klap AI

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

آیا می‌خواهید ۹ ابزار هوش مصنوعی برتر جهان را با هم یاد بگیرید؟

۴۱۵ دقیقه ویدئو آموزشی، تنها ۴۲۰ هزار تومان