لحظه اوپنهایمر هوش مصنوعی

لحظه اوپنهایمر هوش مصنوعی: سلاح های خودمختار ما را خواهند کشت.

در این مقاله می‌خوانید

آیا اوپنهایمر دیگری، سلاحی مرگبارتر با هوش مصنوعی خواهد ساخت؟

احتمالا همه‌ی ما اوپنهایمر را می‌شناسیم، کسی که دانش را تبدیل به مرگبار ترین سلاح جهانی کرد. او پروژه منهتن را در دست گرفت و با ساخت و آزمایش بمب اتمی، دانش هسته‌ای را وارد دنیای نظامی کرد. روز گذشته گاردین مقاله ای با عنوان «لحظه اوپنهایمر هوش مصنوعی» منتشر کرد و تلاش‌هایی را روایت کرد که احتمالا هر کدام یک پروژه منهتن جدید خواهد بود.

در حالی که ما نگران این بودیم که هوش مصنوعی شغل‌های ما را بگیرد یا کنترل آن‌ها از دست ما خارج شود یا شاید در مدلی ترسناک‌تر بتوانند سلاح بدست گیرند، حالا بسیاری از ارتش‌های جهان در حال استفاده از هوش مصنوعی برای ساخت سلاح‌های خودمختار هستند. سلاح‌هایی که حتی اگر هوشمند هم نباشند، می‌توانند جان انسان‌ها را بگیرند. ما قبلا در وبلاگ نکست مایند به بررسی نقش هوش مصنوعی در جنگ‌های مدرن پرداخته‌ایم. اگر به این موضوع علاقه‌مندید این مقاله را مطالعه کنید.

گاردین در ابتدای مقاله با بررسی تبلیغ شرکت Elbit Systems که در آن سربازان در میدان جنگ پهپادهای هوشمند را صدا می‌زند بحث خود را شروع می‌کند. در حالی که این تنها تبلیغ یک کمپانی نظامی اسرائیلی است، اما هوش مصنوعی مدت‌هاست که وارد میدان‌‌های جنگ هم شده است. اوکراین در حال حاضر از پهپادهای مجهز به فناوری هوش مصنوعی برای حمله به تاسیسات و پالایشگاه‌های روسیه استفاده می‌کند. ارتش ایالات متحده مدت‌هاست از هوش مصنوعی برای تشخیص اهداف استفاده می‌کند و موارد استفاده بسیار بیشتر از این‌هاست.

به گفته کارشناسان، افزایش تنش‌ها در جهان نظیر جنگ اوکراین و جنگ غزه همزمان با رشدفناوری هوش مصنوعی به عنوان یک عامل تسریع کننده در این موضوع عمل می‌کند و هم زمینه را برای آزمایش چنین سلاح‌هایی فراهم ساخته ساخته است. در حال حاضر ارتش‌های بسیاری عطش سیری ناپذیری برای این فناوری دارند و علی رقم همه ترس‌ها و ابهامات بسیار زیادی که در این زمینه دارند گویی مسابقه تسلیحاتی جدید شروع شده است.

گاردین به روایت از دیپلمات‌ها و سازندگان اسلحه این لحظه را لحظه اوپنهایمر می‌نامد. و همچنان معلوم نیست بالاخره کدام کشور یا ارتش از این فناوری برای ساخت سلاح‌های ویرانگر و ترسناک دنیای آینده استفاده می‌کند.

هوش مصنوعی در ارتش آمریکا

در مجموع، ارتش ایالات متحده بیش از 800 پروژه فعال مرتبط با هوش مصنوعی دارد و تنها در بودجه سال 2024، 1.8 میلیارد دلار بودجه برای هوش مصنوعی درخواست کرده است.  با افزایش سرعت نوآوری، کارشناسان تسلیحات خودمختار هشدار می‌دهند که این سیستم‌ها خود را در ارتش‌ها و دولت‌ها در سرتاسر جهان تثبیت می‌کنند، به گونه‌ای که ممکن است رابطه جامعه با فناوری و جنگ را به طور اساسی تغییر دهد.

گاردین از  پل شار، معاون اجرایی و مدیر مطالعات مرکز یک اندیشکده امنیت جدید آمریکا، می‌نوسید: «این خطر وجود دارد که در طول زمان شاهد باشیم که انسان ها قضاوت بیشتری را به ماشین ها واگذار کنند. ما می‌توانیم به ۱۵ یا ۲۰ سال آینده نگاه کنیم و متوجه شویم که از آستانه بسیار مهمی عبور کرده‌ایم.»

پنتاگون همچنین  قصد دارد تا سال 2025 یک میلیارد دلار برای طرح Replicator Initiative خود هزینه کند که هدف آن توسعه گروه‌هایی از پهپادهای جنگی بدون سرنشین است که از هوش مصنوعی برای جستجوی تهدیدها استفاده می‌کنند. نیروی هوایی می‌خواهد در طول پنج سال آینده حدود 6 میلیارد دلار به تحقیق و توسعه هواپیماهای جنگی بدون سرنشین اختصاص دهد و به دنبال ساخت ناوگانی متشکل از 1000 جت جنگنده مجهز به هوش مصنوعی است که می توانند به طور مستقل پرواز کنند.

وزارت دفاع همچنین صدها میلیون دلار در سال‌های اخیر برای تأمین مالی ابتکار محرمانه هوش مصنوعی خود به نام Project Maven، سرمایه‌گذاری متمرکز بر فناوری‌هایی مانند شناسایی خودکار هدف و نظارت، در نظر گرفته‌است.

 

همه چیز نشان می‌دهد که این فناوری در حال تغییر پارادایم جنگ و قدرت در جهان است. موضوعی که شاید بسیار ترسناک‌تر از جهان هسته‌ای باشد.

 

جعبه سیاه دوگانه هوش مصنوعی در حوزه نظامی

گاردین به نقل از  اشلی دیکس، استاد حقوق دانشگاه ویرجینیا، موضوع جعبه سیاه دوگانه را مطرح می‌کند که توصیف کننده زمانی است که دولت‌ها فناوری‌های هوش مصنوعی محرمانه و اختصاصی را انتخاب می‌کنند و سپس آن‌ها را در دنیای مخفی امنیت ملی قرار می‌دهند.

در واقع ما همچنان می‌دانیم که سیستم‌های هوش مصنوعی خطا دارند، همین موضوع سبب شد تلاش‌های بسیاری برای توسعه هوش مصنوعی مسئول انجام گردد تا دلیل انتخاب‌های خود را توضیح دهد. جعبه سیاه هوش منصوعی در حوزه‌های بانکداری و مالی بسیار تاثیر گذار است و حالا زمانی که این موضوع به جنگ‌ها و جان انسان‌ها وابسته می‌شود که همه‌چیز به خودی خود محرمانه و امنیتی و در یک جعبه سیاه است، احتمالا باید منتظر نتایج فاجعه بار باشیم.

در اسرائیل، تحقیقاتی از مجله +972 گزارش داد که ارتش برای تعیین اهداف برای حملات هوایی، علیرغم اینکه می‌دانست که نرم افزار در حدود 10 درصد موارد خطا دارد، بر اطلاعات یک سیستم هوش مصنوعی تکیه کرده‌است.

«انسان در حلقه» باید باشد.

در حالی که شرکت‌ها و ارتش‌های ملی در ارائه جزئیات در مورد نحوه عملکرد سیستم‌هایشان خودداری می‌کنند، آنها در بحث‌های گسترده‌تری پیرامون مسئولیت‌ها و مقررات اخلاقی شرکت می‌کنند. یک مفهوم رایج در میان دیپلمات‌ها و سازندگان تسلیحات در هنگام بحث در مورد اخلاقیات جنگ با هوش مصنوعی این است که به جای واگذاری کنترل کامل به ماشین‌ها، همیشه باید یک “انسان در حلقه” برای تصمیم‌گیری وجود داشته باشد. با این حال، در مورد نحوه نظارت انسانی در این فرآیند توافق کمی وجود دارد.

پرسش‌های پیچیده روان‌شناسی و مسئولیت‌پذیری انسان، آچاری را به بحث‌های سطح بالای انسان‌ها در حلقه می‌اندازد. نمونه‌ای که محققان از صنعت فناوری ذکر می‌کنند، خودروی خودران است که اغلب با اجازه دادن به فرد برای به دست گرفتن کنترل وسیله نقلیه در صورت لزوم، «انسان را در جریان» قرار می‌دهد. اما اگر یک خودروی خودران مرتکب اشتباه شود یا انسان را تحت تأثیر قرار دهد تا تصمیم اشتباهی بگیرد، آیا این عادلانه است که فرد را در صندلی راننده مسئول قرار دهیم؟ اگر خودروی خودران لحظاتی قبل از تصادف کنترل را به انسان واگذار کند، مقصر کیست؟

تلاش برای رگولاتوری هوش مصنوعی در دنیای نظامی

در نشستی در وین در اواخر آوریل سال ۲۰۲۴، سازمان‌های بین‌المللی و دیپلمات‌های 143 کشور برای کنفرانسی در مورد رگولاتوری استفاده از هوش مصنوعی و سلاح‌های خودمختار در جنگ گرد هم آمدند. پس از سال‌ها تلاش ناموفق برای هرگونه معاهدات جامع یا قطعنامه‌های الزام‌آور شورای امنیت سازمان ملل متحد در مورد این فناوری‌ها، درخواست الکساندر شالنبرگ، وزیر امور خارجه اتریش به کشورها، ساده‌تر از ممنوعیت کامل سلاح‌های خودمختار بود.

شالنبرگ به حضار گفت: «حداقل مطمئن شویم که عمیق‌ترین و گسترده‌ترین تصمیم، چه کسی زندگی می‌کند و چه کسی می‌میرد، در دست انسان‌ها باشد نه ماشین‌ها».

لحظه اوپنهایمر هوش مصنوعی

سازمان‌هایی مانند کمیته بین‌المللی صلیب سرخ و توقف ربات‌‌های قاتل، خواستار ممنوعیت انواع خاصی از سیستم‌های تسلیحاتی خودمختار برای بیش از یک دهه و همچنین قوانین کلی هستند که نحوه استقرار این فناوری را کنترل می‌کنند. این موارد کاربردهای خاصی را شامل می‌شود، مانند امکان آسیب رساندن به مردم بدون کمک انسانی یا محدود کردن انواع مناطق جنگی که می‌توان از آنها استفاده کرد.

گسترش این فناوری همچنین حامیان کنترل تسلیحات را مجبور کرده است تا برخی از حرف‌های خود را تغییر دهند. مری ورهام، معاون مدیر بخش بحران، درگیری و تسلیحات در دیده‌بان حقوق بشر گفت: «ما خواستار ممنوعیت پیشگیرانه سیستم‌های تسلیحاتی کاملاً خودمختار شدیم. این کلمه «پیشگیرانه» امروزه دیگر مورد استفاده قرار نمی گیرد، زیرا ما به سلاح های خودمختار بسیار نزدیک شده‌ایم.»

افزایش بررسی‌ها در مورد چگونگی تولید و استفاده از سلاح‌های خودمختار در جنگ از حمایت بین‌المللی گسترده‌ای برخوردار است،البته در این میان همچنان کشورهایی نظیر روسیه، چین، ایالات متحده، اسرائیل، هند، کره جنوبی و استرالیا همگی با این موضوع مخالف هستند . دلیلی برای مخالفت با تولید و استفاده از سلاح‌های خودمختار نمی‌بینند.

با این حال باید از همین امروز همه کشور‌‌ها و نهادها مسئله سلاح‌های خودمختار را مورد بررسی قرار دهند. شاید جهان اتمی را توانسته باشیم کنترل کرده باشیم اما سرنوشت انسان با سلاح‌های خودمختار خوش مصنوعی اصلا مشخص نیست. شاید اگر امروز در این مورد محدودیت‌هایی اعمال نشود از مدتی باید باید بگوییم « چند بیگناه و غیر نظامی دیگر باید با تصمیم هوش مصنوعی کشته شوند؟»

آینده ترسناک خواهد شد

واقعیت این است که حرکت به سمت سلاح‌های خودمختار جنگ را بسیار ساده‌تر از چیزی که هست می‌کند. هنگامی که سیاست‌مداران گزینه‌ی جنگ را در مقابل خود می‌بینند به واسطه دشواری‌ها و سختی‌ها و تلفات و هزاران عامل دیگر، به راحتی این گزینه را انتخاب نخواهد کرد. اما هرچه این موانع پیش روی جنگ کمتر شود، جنگ‌ گزینه راحت تری خواهد بود. احتمالا با این رویه‌ای که در میان ارتش‌های جهان گرفته شده است شاید جهان آینده‌ما جنگ‌های بیشتری به خود ببیند.

واقعیت لحظه اوپنهایمر این است که هزینه‌ای که باید دولت‌ها در توسعه هوش مصنوعی برای اهداف عمرانی یا ساخت خودروهای خودران یا توسعه دارو و … می‌کردند را صرف ساختن جنگ افزار می‌کنند. تصویر کنید که میلیاردها دلاری که ارتش آمریکا به راحتی آن‌ها را به زبان می‌آورد چقدر ساده تر می‌تواند با سرمایه گذاری در حوزه‌های صلح آمیز یا پزشکی یا مهندسی، زندگی را برای بشریت ساده کند.

با این وجود گویا ما به لحظه‌ی اوپنهایمر هوش مصنوعی بسیار نزدیک هستیم.

 

 

 

آخرین خبرها

تایوان استفاده از DeepSeek را در نهادهای دولتی ممنوع کرد

مدل O3-mini در دسترس قرار گرفت

ChatGPT Gov: نسخه جدید چت جی‌پی‌تی برای دولت آمریکا

مروری بر گزارش «نقشه راه اقتصادهای هوشمند» از مجمع جهانی اقتصاد

متا ۶۰ میلیارد دلار در یک سال برای هوش مصنوعی سرمایه‌گذاری می‌کند

سو استفاده مایکروسافت از اطلاعات کاربران در لینکدین

آشنایی با هوش مصنوعی
کاربردهای هوش مصنوعی

جدید‌ترین هوش مصنوعی‌ها

Janus Pro

Kinetix

DragGan

openrouter.ai

operator

Storm

Pika Art

Openmagic

Mokker AI

لوگو دیپ سیک

DeepSeek

Buffer AI

Mapify

Gravitywrite

لوگو نوتبوک ال ام

NotebookLM

zipwp

writi.io

Vidalgo

ChatBA

Levels.fyi

مشاور هوشمند اینوآپ

Lensgo

Learn About AI

PDF.ai

Magai

Remini

BetterPic

OpenArt

Maestra

Heights AI

Deciphr

Vidnoz

Followr

Dante

Visme

ContentShake

Koala AI

Soundverse

Guidejar

Coda AI

Biread

Hypernatural

Liner

Read AI

Read AI

Hostinger AI

SoBrief

CAD with AI

designcap

photoroom

kapwing

Speechmatics

دیدگاهتان را بنویسید

جامع‌ترین دوره آموزش ابزارهای هوش مصنوعی

کاملا رایگان شد

برای آموزش ابزارهای هوش مصنوعی، هزینه میلیونی نکنید

۴۱۵ دقیقه ویدئو آموزشی || آموزش ۹ ابزار برتر هوش مصنوعی دنیا