هوش مصنوعی عمومی اجتناب ناپذیر است؛ ما قدرت تغییر را داریم.

بسیاری از دانشمندان بر این باوردند که توسعه هوش مصنوعی عمومی اجتناب ناپذیر است و بالاخره رخ خواهد داد. بسیاری از آن‌ها نیز بر این باورند که تهدیدات این هوش منصوعی، جدی خواهد بود. در این مقاله به بررسی این موضوع پرداخته می‌شود و راهکاری برای کنترل AGI پیشنهاد می‌شود.

در این مقاله می‌خوانید

«فناوری اتفاق می‌افتد چون ممکن است.»

این جمله را سم آلتمن، مدیرعامل OpenAI، در سال ۲۰۱۹ به نیویورک تایمز گفت؛ با آگاهی از این‌که در حال بازگویی جمله‌ای از رابرت اوپنهایمر، پدر بمب اتم است.

آلتمن با این سخن، شعار نهان در دل سیلیکون‌ولی را بازتاب می‌دهد: فناوری با نیرویی توقف‌ناپذیر به پیش می‌تازد.

یکی دیگر از باورهای رایج در میان فناوران این است که نخستین هوش مصنوعی هم‌تراز انسان، که با عنوان AGI یا هوش مصنوعی عمومی شناخته می‌شود، دو آینده احتمالی را به همراه دارد: یا به آرمان‌شهری تکنولوژیک با وفور بی‌سابقه می‌رسیم، یا به نابودی بشریت.

برای بی‌شمار گونه‌ی طبیعی دیگر، ظهور انسان به معنای فاجعه بود. ما قوی‌تر، سریع‌تر یا نیرومندتر از آن‌ها نبودیم؛ فقط باهوش‌تر و هماهنگ‌تر بودیم. در بسیاری موارد، انقراض آن‌ها محصول جانبی تصادفیِ اهداف دیگر ما بود. خلق AGI در واقع به معنای خلق گونه‌ای جدید خواهد بود که شاید خیلی زود از ما باهوش‌تر یا پرشمارتر شود. چنین سیستمی ممکن است انسان‌ها را مزاحمانی کوچک ببیند؛ همانند تپه‌ی مورچه‌ها در مسیر ساخت یک سد، یا منابعی برای بهره‌برداری؛ درست مانند میلیاردها حیوانی که در دام‌داری‌های صنعتی گرفتارند.

آلتمن، به همراه سران دیگر آزمایشگاه‌های پیشروی هوش مصنوعی، باور دارد که تهدید انقراض ناشی از ظهور هوش مصنوعی عمومی واقعا وجود دارد. صدها پژوهشگر برجسته و چهره‌ی سرشناس نیز این هشدار را تکرار کرده‌اند.

با توجه به همه‌ی این موارد که گفته شد، این پرسش طبیعی است:


آیا واقعاً باید فناوری‌ای را بسازیم که اگر درست عمل نکند، ممکن است ما را نابود کند؟

چه چیزی AGI را جذاب کرده است؟ اطمینان همیشگی

شاید متداول‌ترین پاسخ این باشد که: AGI اجتناب‌ناپذیر است. این فناوری آن‌قدر سودمند است که نمی‌توان از ساخت آن صرف‌نظر کرد. به هر حال، AGI آخرین اختراعی خواهد بود که بشر نیاز دارد انجام دهد؛ همان‌طور که یکی از همکاران آلن تورینگ گفته بود. گذشته از این، از نگاه فعالان آزمایشگاه‌های هوش مصنوعی، اگر ما این فناوری را نسازیم، دیگرانی آن را خواهند ساخت؛ و احتمالاً کمتر مسئولیت‌پذیر خواهند بود.

سیلیکون ولی شاهد ظهور ایدئولوژی تازه‌ای به نام تسریع‌گرایی مؤثر (effective accelerationism) یا e/acc بوده است که ادعا می‌کند اجتناب‌ناپذیری AGI، نتیجه‌ی قانون دوم ترمودینامیک است و پیشران آن، «تکنوکاپیتال» (سرمایه‌داری فناورانه) است. در بیانیه‌ی این جریان آمده است:


«این موتور را نمی‌توان متوقف کرد. عقربه پیشرفت فقط در یک جهت می‌چرخد. بازگشت ممکن نیست.»

برای آلتمن و پیروان مکتب تسریع‌گرایی موثر، فناوری ماهیتی تقریباً عرفانی دارد. پیشرفت اختراعات به‌عنوان یک واقعیت طبیعی تلقی می‌شود. اما چنین نیست. فناوری محصول انتخاب‌های آگاهانه انسانی است که تحت‌تأثیر نیروهای گوناگونی شکل می‌گیرد. ما توانایی هدایت این نیروها را داریم و تاریخ نشان می‌دهد که در گذشته این کار را کرده‌ایم.

هیچ فناوری‌ای اجتناب‌ناپذیر نیست، حتی چیزی به جذابیت AGI.

پیشرفت‌های مهار‌شده

برخی از کسانی که در مورد AGI نگران هستند، به نمونه‌هایی اشاره می‌کنند که انسان در آن‌ها با موفقیت، فناوری‌های ارزشمند اما خطرناک را مهار کرده است.

  • زیست‌شناسان، در دهه ۱۹۷۰، نگران مخاطرات نوظهور بودند. به همین دلیل، آزمایش‌های DNA نوترکیب را ممنوع کردند و پس از آن، چارچوب‌های نظارتی برای آن تدوین شد. هنوز هیچ انسانی از راه شبیه‌سازی تولید نشده، هرچند این کار از نظر فنی بیش از یک دهه است که ممکن است. حتی دانشمندی که مهندسی ژنتیک انسان را انجام داد، به زندان افتاد.

  • انرژی هسته‌ای می‌تواند منبعی پایدار و بدون کربن باشد، اما ترس از فاجعه باعث وضع مقررات سنگین و حتی ممنوعیت شده است.

اگر آلتمن با تاریخ پروژه منهتن آشناتر بود، درمی‌یافت که ساخت بمب اتم در سال ۱۹۴۵ نه اجتناب‌ناپذیر، بلکه نتیجه‌ای بسیار اتفاقی و مبتنی بر تصور نادرست از پیشتازی آلمان نازی بود. فیلیپ زلیکوف، مورخ برجسته و رئیس کمیسیون یازده سپتامبر، می‌گوید:


«فکر می‌کنم اگر آمریکا در جنگ جهانی دوم بمب اتم نمی‌ساخت، واقعاً معلوم نبود چه زمانی، یا حتی آیا اصلاً، چنین بمبی ساخته می‌شد.»

امروز جهان بدون سلاح هسته‌ای غیرقابل تصور است. اما در رویدادی کمتر شناخته‌شده، «رونالد ریگان» رئیس‌جمهور آمریکا و «میخائیل گورباچف» رهبر شوروی نزدیک بود بر سر حذف کامل بمب‌های اتمی به توافق برسند (سوء‌تفاهم درباره برنامه دفاع موشکی موسوم به «جنگ ستارگان» مانع آن شد). با وجود آن‌که رؤیای خلع سلاح کامل محقق نشد، تعداد سلاح‌های هسته‌ای اکنون کمتر از ۲۰٪ اوج آن در سال ۱۹۸۶ است؛ عمدتاً به‌دلیل توافقات بین‌المللی.

این تصمیم‌ها در خلأ گرفته نشدند. ریگان پیش از آن‌که جنبش عظیم «انجماد هسته‌ای» او را تحت‌تأثیر قرار دهد، به‌شدت مخالف خلع سلاح بود. در سال ۱۹۸۳ به وزیر خارجه‌اش گفت:


«اگر اوضاع بحرانی شود و موضوع کنترل تسلیحات داغ بماند، شاید باید بروم سراغ آندروپوف و پیشنهاد حذف همه سلاح‌های هسته‌ای را بدهم.»

از اقلیم تا AGI: درس‌هایی از مقاومت

با وجود انگیزه‌های اقتصادی شدید برای ادامه مصرف سوخت‌های فسیلی، فعالان اقلیمی توانسته‌اند پنجره سیاست‌گذاری را باز کنند و روند گذار به انرژی پاک را شتاب بخشند.

در آوریل ۲۰۱۹، گروه جوان Extinction Rebellion لندن را فلج کرد و خواستار صفر شدن کربن بریتانیا تا ۲۰۲۵ شد. نافرمانی مدنی آن‌ها باعث شد پارلمان وضعیت اضطراری اقلیمی اعلام کند و حزب کارگر وعده دهد تا ۲۰۳۰ برق کشور را بدون کربن تأمین کند. کمپین «ماورای زغال‌سنگ» باشگاه سیرا نیز اگرچه کمتر مشهور است، اما تأثیرگذار بود. در پنج سال نخست، این کمپین باعث تعطیلی بیش از یک‌سوم نیروگاه‌های زغال‌سنگ آمریکا شد. در نتیجه، انتشار سرانه کربن در آمریکا اکنون کمتر از سال ۱۹۱۳ است.

از بسیاری جهات، چالش قانون‌گذاری در مسیر AGI کوچک‌تر از مسئله اقلیم است. چرا که ۸۲٪ انرژی جهان از سوخت‌های فسیلی تأمین می‌شود و انرژی زیربنای تمدن است؛ اما AGI هنوز نقشی حیاتی ندارد.

همچنین هدایت یا کندکردن توسعه AGI به معنای توقف استفاده از سامانه‌های موجود یا توسعه سامانه‌های تخصصی برای پزشکی و اقلیم نیست.

چرا سرمایه‌داران عاشق AGI هستند؟

واضح است که چرا بسیاری از سرمایه‌داران از هوش مصنوعی استقبال می‌کنند: آن را فناوری‌ای می‌بینند که رؤیای حذف نیروی انسانی از معادلات اقتصادی را ممکن می‌سازد.

اما دولت‌ها صرفاً به سود نمی‌اندیشند. آن‌ها دغدغه‌هایی چون اشتغال، تمرکز بازار، ثبات اجتماعی و گاه دموکراسی دارند. هنوز مشخص نیست AGI چگونه بر این حوزه‌ها اثر می‌گذارد. دولت‌ها برای جهانی که در آن اکثر مردم شغل ندارند، آمادگی ندارند.

سرمایه‌داران معمولاً آنچه را می‌خواهند به‌دست می‌آورند، اما نه همیشه. در فوریه، یکی از محققان پیشین ایمنی OpenAI در یک بار در سانفرانسیسکو به جمعی گفت که e/accها نباید نگران افراد “افراطی” در حوزه ایمنی هوش مصنوعی باشند، چون قدرتی ندارند. بلکه باید از «الکساندریا اوکاسیو کورتز» و سناتور «جاش هاولی» بترسند، چون آن‌ها واقعاً می‌توانند خرابکاری کنند.

فرض کنیم بشر هزاران سال دیگر هم باقی بماند. در آن صورت، احتمال ساخت AGI وجود دارد. اما آنچه حامیان ناگزیری ادعا می‌کنند، صرفاً وقوع آن در آینده نیست، بلکه ادعای آن‌ها این است که AGI «نزدیک» و «اجتناب‌ناپذیر» است. و این مسئله مهم است. چون اگر فکر کنیم مقاومت بی‌فایده است، دیگر تلاشی نمی‌کنیم.

واقعیت این است که زمان‌بندی توسعه AGI در کنترل ماست.

ما بیش از یک دهه پیش توان پردازشی لازم برای آموزش GPT-2 را داشتیم، اما آن را انجام ندادیم؛ چون مطمئن نبودیم ارزشش را دارد.

اما اکنون آزمایشگاه‌های پیشرو چنان درگیر رقابت هستند که نمی‌توانند حتی تدابیری را که تیم‌های ایمنی خودشان توصیه کرده‌اند، اجرا کنند. (یکی از کارکنان OpenAI اخیراً استعفا داد و دلیل آن را «از دست دادن اعتماد به رفتار مسئولانه شرکت در آستانه رسیدن به AGI» اعلام کرد.) دولت‌ها تحت چنین فشارهایی نیستند.

چه باید کرد؟ «حاکمیت بر توان محاسباتی»

یکی از کارآفرینان حوزه فناوری اخیراً گفته بود که قانون‌گذاری در مورد AGI غیرممکن است، «مگر آن‌که هر خط کد را کنترل کنیم». این شاید زمانی درست باشد که هر کسی بتواند روی لپ‌تاپش AGI تولید کند. اما در واقع، توسعه مدل‌های پیشرفته به زیرساخت‌های عظیم و تراشه‌هایی نیاز دارد که توسط صنعت‌های بسیار انحصاری تولید می‌شوند.

به همین دلیل، بسیاری از کارشناسان ایمنی هوش مصنوعی به «حاکمیت بر توان محاسباتی» امید دارند. دولت‌ها می‌توانند شرکت‌های رایانش ابری را ملزم کنند که پروژه‌های پرهزینه را تنها در صورت رعایت ضوابط، اجرا کنند.

این کار به هیچ‌وجه به معنای حذف نوآوران یا ایجاد نظارت اورولی (اشاره به کتاب جورج اورول) نیست. این مقررات فقط پروژه‌هایی را هدف می‌گیرند که بیش از ۱۰۰ میلیون دلار برای آموزش یک مدل هزینه می‌کنند.

دولت‌ها البته باید نگران رقابت جهانی و خطر «خلع سلاح یک‌جانبه» باشند. اما همان‌طور که درباره انرژی هسته‌ای، معاهداتی بین‌المللی برای تقسیم منافع و کاهش مخاطرات به وجود آمد، در زمینه AGI هم چنین توافق‌هایی ممکن است.

جهان پراکنده است، اما همکاری می‌کند

جهان شاید پر از اختلاف به‌نظر برسد، اما کشورهای رقیب در مواردی شگفت‌انگیز با هم همکاری کرده‌اند. پروتکل مونترال، با ممنوع کردن CFCها، لایه ازن را نجات داد. بیشتر کشورها با وجود کاربرد نظامی، استفاده از سلاح‌های شیمیایی، بیولوژیک، لیزر کورکننده و حتی جنگ‌افزارهای اقلیمی را ممنوع کرده‌اند.

در دهه‌های ۶۰ و ۷۰، بسیاری می‌ترسیدند که هر کشوری که بتواند، سلاح هسته‌ای خواهد ساخت. اما بیشتر از سه‌چهارم برنامه‌های هسته‌ای جهان متوقف شدند. این اتفاق صرفاً تصادفی نبود، بلکه نتیجه تلاش‌های دیپلماتیک و معاهده‌هایی مانند پیمان عدم اشاعه سلاح هسته‌ای در سال ۱۹۶۸ بود.

در معدود مواردی که از آمریکایی‌ها پرسیده شده آیا خواهان هوش مصنوعی در سطح فرابشری هستند، اکثریت پاسخ منفی داده‌اند. مخالفت عمومی با هوش مصنوعی، همزمان با گسترش کاربردهای آن، بیشتر شده است. وقتی کسی می‌گوید AGI اجتناب‌ناپذیر است، در واقع می‌گوید که خواست عمومی اهمیتی ندارد. حامیان AGI توده‌ها را لودیت‌هایی عقب‌مانده می‌دانند که نمی‌فهمند چه چیزی به نفع‌شان است. افسانه‌ی ناگزیری، برای آن‌ها حکم سپر بلاغی را دارد تا از گفتن حقیقت طفره بروند؛ چون می‌دانند در افکار عمومی بازنده خواهند بود.

انتخاب در دستان ماست

جاذبه AGI بسیار زیاد است. اما خطرات آن نیز می‌تواند پایان تمدن باشد. باید تلاشی در مقیاس تمدن انجام گیرد تا دولت‌ها را به مقاومت در برابر آن واداریم.

فناوری به این دلیل پیش می‌رود که انسان‌ها آن را ممکن می‌سازند. ما می‌توانیم مسیر دیگری انتخاب کنیم.

مقاله‌ای که خواندید، بازنویسی‌ای از مقاله‌ای با عنوان Human-level AI is not inevitable. We have the power to change course است که در تاریخ ۲۱ ژولای ۲۰۲۵ (۳۰ تیر ۱۴۰۴) توسط Garrison Lovely نوشته و در گاردین منتشر شده است. این بازنویسی،‌با حفظ ساختار اصلی متن، به کمک هوش مصنوعی انجام گردیده‌است. برای مشاهده منبع اصلی، اینجا کلیک کنید.

آخرین خبرها

ایلان ماسک از X Money و XChat پرده برداشت

متا استراتژی خود را تغییر داد: از متاورس به عینک‌های هوشمند مبتنی بر هوش مصنوعی

آغاز تحقیق اروپا درباره واتس‌اپ؛ نگرانی‌ها از محدودیت رقابت در حوزه هوش مصنوعی

پارلمان اروپا حداقل سن استفاده از شبکه‌های اجتماعی و هوش مصنوعی را ۱۶ سال اعلام کرد

تغییرات مهم در شرکت اپل؛ نفر اول هوش مصنوعی شرکت اپل تغییر خواهد کرد.

نتایج پژوهشی جدید: با شعر گفتن، محدودیت‌های هوش مصنوعی را دور بزنید.

آشنایی با هوش مصنوعی
کاربردهای هوش مصنوعی

جدید‌ترین هوش مصنوعی‌ها

مرورگر ChatGPT Atlas

GLM 4.5

KIMI

GlobeScribe.ai

Lovable

Codex

Felo AI

Hailou

Hunyuan

Chance AI

openAI.fm

n8n

chatbot Arena

Tripo AI

Reve

لوگو هوش مصنوعی Wan

wan

Manus AI

Make.com

Le Chat

OmniHuman

Janus Pro

Kinetix

DragGan

openrouter.ai

operator

Storm

Pika Art

Openmagic

Mokker AI

لوگو دیپ سیک

DeepSeek

Buffer AI

Mapify

Gravitywrite

لوگو نوتبوک ال ام

NotebookLM

zipwp

writi.io

Vidalgo

ChatBA

Levels.fyi

مشاور هوشمند اینوآپ

Lensgo

Learn About AI

PDF.ai

Magai

Remini

BetterPic

OpenArt

Maestra

Heights AI

Deciphr

دیدگاهتان را بنویسید