«فناوری اتفاق میافتد چون ممکن است.»
این جمله را سم آلتمن، مدیرعامل OpenAI، در سال ۲۰۱۹ به نیویورک تایمز گفت؛ با آگاهی از اینکه در حال بازگویی جملهای از رابرت اوپنهایمر، پدر بمب اتم است.
آلتمن با این سخن، شعار نهان در دل سیلیکونولی را بازتاب میدهد: فناوری با نیرویی توقفناپذیر به پیش میتازد.
یکی دیگر از باورهای رایج در میان فناوران این است که نخستین هوش مصنوعی همتراز انسان، که با عنوان AGI یا هوش مصنوعی عمومی شناخته میشود، دو آینده احتمالی را به همراه دارد: یا به آرمانشهری تکنولوژیک با وفور بیسابقه میرسیم، یا به نابودی بشریت.
برای بیشمار گونهی طبیعی دیگر، ظهور انسان به معنای فاجعه بود. ما قویتر، سریعتر یا نیرومندتر از آنها نبودیم؛ فقط باهوشتر و هماهنگتر بودیم. در بسیاری موارد، انقراض آنها محصول جانبی تصادفیِ اهداف دیگر ما بود. خلق AGI در واقع به معنای خلق گونهای جدید خواهد بود که شاید خیلی زود از ما باهوشتر یا پرشمارتر شود. چنین سیستمی ممکن است انسانها را مزاحمانی کوچک ببیند؛ همانند تپهی مورچهها در مسیر ساخت یک سد، یا منابعی برای بهرهبرداری؛ درست مانند میلیاردها حیوانی که در دامداریهای صنعتی گرفتارند.
آلتمن، به همراه سران دیگر آزمایشگاههای پیشروی هوش مصنوعی، باور دارد که تهدید انقراض ناشی از ظهور هوش مصنوعی عمومی واقعا وجود دارد. صدها پژوهشگر برجسته و چهرهی سرشناس نیز این هشدار را تکرار کردهاند.
با توجه به همهی این موارد که گفته شد، این پرسش طبیعی است:
آیا واقعاً باید فناوریای را بسازیم که اگر درست عمل نکند، ممکن است ما را نابود کند؟
چه چیزی AGI را جذاب کرده است؟ اطمینان همیشگی
شاید متداولترین پاسخ این باشد که: AGI اجتنابناپذیر است. این فناوری آنقدر سودمند است که نمیتوان از ساخت آن صرفنظر کرد. به هر حال، AGI آخرین اختراعی خواهد بود که بشر نیاز دارد انجام دهد؛ همانطور که یکی از همکاران آلن تورینگ گفته بود. گذشته از این، از نگاه فعالان آزمایشگاههای هوش مصنوعی، اگر ما این فناوری را نسازیم، دیگرانی آن را خواهند ساخت؛ و احتمالاً کمتر مسئولیتپذیر خواهند بود.
سیلیکون ولی شاهد ظهور ایدئولوژی تازهای به نام تسریعگرایی مؤثر (effective accelerationism) یا e/acc بوده است که ادعا میکند اجتنابناپذیری AGI، نتیجهی قانون دوم ترمودینامیک است و پیشران آن، «تکنوکاپیتال» (سرمایهداری فناورانه) است. در بیانیهی این جریان آمده است:
«این موتور را نمیتوان متوقف کرد. عقربه پیشرفت فقط در یک جهت میچرخد. بازگشت ممکن نیست.»
برای آلتمن و پیروان مکتب تسریعگرایی موثر، فناوری ماهیتی تقریباً عرفانی دارد. پیشرفت اختراعات بهعنوان یک واقعیت طبیعی تلقی میشود. اما چنین نیست. فناوری محصول انتخابهای آگاهانه انسانی است که تحتتأثیر نیروهای گوناگونی شکل میگیرد. ما توانایی هدایت این نیروها را داریم و تاریخ نشان میدهد که در گذشته این کار را کردهایم.
هیچ فناوریای اجتنابناپذیر نیست، حتی چیزی به جذابیت AGI.
پیشرفتهای مهارشده
برخی از کسانی که در مورد AGI نگران هستند، به نمونههایی اشاره میکنند که انسان در آنها با موفقیت، فناوریهای ارزشمند اما خطرناک را مهار کرده است.
-
زیستشناسان، در دهه ۱۹۷۰، نگران مخاطرات نوظهور بودند. به همین دلیل، آزمایشهای DNA نوترکیب را ممنوع کردند و پس از آن، چارچوبهای نظارتی برای آن تدوین شد. هنوز هیچ انسانی از راه شبیهسازی تولید نشده، هرچند این کار از نظر فنی بیش از یک دهه است که ممکن است. حتی دانشمندی که مهندسی ژنتیک انسان را انجام داد، به زندان افتاد.
-
انرژی هستهای میتواند منبعی پایدار و بدون کربن باشد، اما ترس از فاجعه باعث وضع مقررات سنگین و حتی ممنوعیت شده است.
اگر آلتمن با تاریخ پروژه منهتن آشناتر بود، درمییافت که ساخت بمب اتم در سال ۱۹۴۵ نه اجتنابناپذیر، بلکه نتیجهای بسیار اتفاقی و مبتنی بر تصور نادرست از پیشتازی آلمان نازی بود. فیلیپ زلیکوف، مورخ برجسته و رئیس کمیسیون یازده سپتامبر، میگوید:
«فکر میکنم اگر آمریکا در جنگ جهانی دوم بمب اتم نمیساخت، واقعاً معلوم نبود چه زمانی، یا حتی آیا اصلاً، چنین بمبی ساخته میشد.»
امروز جهان بدون سلاح هستهای غیرقابل تصور است. اما در رویدادی کمتر شناختهشده، «رونالد ریگان» رئیسجمهور آمریکا و «میخائیل گورباچف» رهبر شوروی نزدیک بود بر سر حذف کامل بمبهای اتمی به توافق برسند (سوءتفاهم درباره برنامه دفاع موشکی موسوم به «جنگ ستارگان» مانع آن شد). با وجود آنکه رؤیای خلع سلاح کامل محقق نشد، تعداد سلاحهای هستهای اکنون کمتر از ۲۰٪ اوج آن در سال ۱۹۸۶ است؛ عمدتاً بهدلیل توافقات بینالمللی.
این تصمیمها در خلأ گرفته نشدند. ریگان پیش از آنکه جنبش عظیم «انجماد هستهای» او را تحتتأثیر قرار دهد، بهشدت مخالف خلع سلاح بود. در سال ۱۹۸۳ به وزیر خارجهاش گفت:
«اگر اوضاع بحرانی شود و موضوع کنترل تسلیحات داغ بماند، شاید باید بروم سراغ آندروپوف و پیشنهاد حذف همه سلاحهای هستهای را بدهم.»
از اقلیم تا AGI: درسهایی از مقاومت
با وجود انگیزههای اقتصادی شدید برای ادامه مصرف سوختهای فسیلی، فعالان اقلیمی توانستهاند پنجره سیاستگذاری را باز کنند و روند گذار به انرژی پاک را شتاب بخشند.
در آوریل ۲۰۱۹، گروه جوان Extinction Rebellion لندن را فلج کرد و خواستار صفر شدن کربن بریتانیا تا ۲۰۲۵ شد. نافرمانی مدنی آنها باعث شد پارلمان وضعیت اضطراری اقلیمی اعلام کند و حزب کارگر وعده دهد تا ۲۰۳۰ برق کشور را بدون کربن تأمین کند. کمپین «ماورای زغالسنگ» باشگاه سیرا نیز اگرچه کمتر مشهور است، اما تأثیرگذار بود. در پنج سال نخست، این کمپین باعث تعطیلی بیش از یکسوم نیروگاههای زغالسنگ آمریکا شد. در نتیجه، انتشار سرانه کربن در آمریکا اکنون کمتر از سال ۱۹۱۳ است.
از بسیاری جهات، چالش قانونگذاری در مسیر AGI کوچکتر از مسئله اقلیم است. چرا که ۸۲٪ انرژی جهان از سوختهای فسیلی تأمین میشود و انرژی زیربنای تمدن است؛ اما AGI هنوز نقشی حیاتی ندارد.
همچنین هدایت یا کندکردن توسعه AGI به معنای توقف استفاده از سامانههای موجود یا توسعه سامانههای تخصصی برای پزشکی و اقلیم نیست.
چرا سرمایهداران عاشق AGI هستند؟
واضح است که چرا بسیاری از سرمایهداران از هوش مصنوعی استقبال میکنند: آن را فناوریای میبینند که رؤیای حذف نیروی انسانی از معادلات اقتصادی را ممکن میسازد.
اما دولتها صرفاً به سود نمیاندیشند. آنها دغدغههایی چون اشتغال، تمرکز بازار، ثبات اجتماعی و گاه دموکراسی دارند. هنوز مشخص نیست AGI چگونه بر این حوزهها اثر میگذارد. دولتها برای جهانی که در آن اکثر مردم شغل ندارند، آمادگی ندارند.
سرمایهداران معمولاً آنچه را میخواهند بهدست میآورند، اما نه همیشه. در فوریه، یکی از محققان پیشین ایمنی OpenAI در یک بار در سانفرانسیسکو به جمعی گفت که e/accها نباید نگران افراد “افراطی” در حوزه ایمنی هوش مصنوعی باشند، چون قدرتی ندارند. بلکه باید از «الکساندریا اوکاسیو کورتز» و سناتور «جاش هاولی» بترسند، چون آنها واقعاً میتوانند خرابکاری کنند.
فرض کنیم بشر هزاران سال دیگر هم باقی بماند. در آن صورت، احتمال ساخت AGI وجود دارد. اما آنچه حامیان ناگزیری ادعا میکنند، صرفاً وقوع آن در آینده نیست، بلکه ادعای آنها این است که AGI «نزدیک» و «اجتنابناپذیر» است. و این مسئله مهم است. چون اگر فکر کنیم مقاومت بیفایده است، دیگر تلاشی نمیکنیم.
واقعیت این است که زمانبندی توسعه AGI در کنترل ماست.
ما بیش از یک دهه پیش توان پردازشی لازم برای آموزش GPT-2 را داشتیم، اما آن را انجام ندادیم؛ چون مطمئن نبودیم ارزشش را دارد.
اما اکنون آزمایشگاههای پیشرو چنان درگیر رقابت هستند که نمیتوانند حتی تدابیری را که تیمهای ایمنی خودشان توصیه کردهاند، اجرا کنند. (یکی از کارکنان OpenAI اخیراً استعفا داد و دلیل آن را «از دست دادن اعتماد به رفتار مسئولانه شرکت در آستانه رسیدن به AGI» اعلام کرد.) دولتها تحت چنین فشارهایی نیستند.
چه باید کرد؟ «حاکمیت بر توان محاسباتی»
یکی از کارآفرینان حوزه فناوری اخیراً گفته بود که قانونگذاری در مورد AGI غیرممکن است، «مگر آنکه هر خط کد را کنترل کنیم». این شاید زمانی درست باشد که هر کسی بتواند روی لپتاپش AGI تولید کند. اما در واقع، توسعه مدلهای پیشرفته به زیرساختهای عظیم و تراشههایی نیاز دارد که توسط صنعتهای بسیار انحصاری تولید میشوند.
به همین دلیل، بسیاری از کارشناسان ایمنی هوش مصنوعی به «حاکمیت بر توان محاسباتی» امید دارند. دولتها میتوانند شرکتهای رایانش ابری را ملزم کنند که پروژههای پرهزینه را تنها در صورت رعایت ضوابط، اجرا کنند.
این کار به هیچوجه به معنای حذف نوآوران یا ایجاد نظارت اورولی (اشاره به کتاب جورج اورول) نیست. این مقررات فقط پروژههایی را هدف میگیرند که بیش از ۱۰۰ میلیون دلار برای آموزش یک مدل هزینه میکنند.
دولتها البته باید نگران رقابت جهانی و خطر «خلع سلاح یکجانبه» باشند. اما همانطور که درباره انرژی هستهای، معاهداتی بینالمللی برای تقسیم منافع و کاهش مخاطرات به وجود آمد، در زمینه AGI هم چنین توافقهایی ممکن است.
جهان پراکنده است، اما همکاری میکند
جهان شاید پر از اختلاف بهنظر برسد، اما کشورهای رقیب در مواردی شگفتانگیز با هم همکاری کردهاند. پروتکل مونترال، با ممنوع کردن CFCها، لایه ازن را نجات داد. بیشتر کشورها با وجود کاربرد نظامی، استفاده از سلاحهای شیمیایی، بیولوژیک، لیزر کورکننده و حتی جنگافزارهای اقلیمی را ممنوع کردهاند.
در دهههای ۶۰ و ۷۰، بسیاری میترسیدند که هر کشوری که بتواند، سلاح هستهای خواهد ساخت. اما بیشتر از سهچهارم برنامههای هستهای جهان متوقف شدند. این اتفاق صرفاً تصادفی نبود، بلکه نتیجه تلاشهای دیپلماتیک و معاهدههایی مانند پیمان عدم اشاعه سلاح هستهای در سال ۱۹۶۸ بود.
در معدود مواردی که از آمریکاییها پرسیده شده آیا خواهان هوش مصنوعی در سطح فرابشری هستند، اکثریت پاسخ منفی دادهاند. مخالفت عمومی با هوش مصنوعی، همزمان با گسترش کاربردهای آن، بیشتر شده است. وقتی کسی میگوید AGI اجتنابناپذیر است، در واقع میگوید که خواست عمومی اهمیتی ندارد. حامیان AGI تودهها را لودیتهایی عقبمانده میدانند که نمیفهمند چه چیزی به نفعشان است. افسانهی ناگزیری، برای آنها حکم سپر بلاغی را دارد تا از گفتن حقیقت طفره بروند؛ چون میدانند در افکار عمومی بازنده خواهند بود.
انتخاب در دستان ماست
جاذبه AGI بسیار زیاد است. اما خطرات آن نیز میتواند پایان تمدن باشد. باید تلاشی در مقیاس تمدن انجام گیرد تا دولتها را به مقاومت در برابر آن واداریم.
فناوری به این دلیل پیش میرود که انسانها آن را ممکن میسازند. ما میتوانیم مسیر دیگری انتخاب کنیم.
مقالهای که خواندید، بازنویسیای از مقالهای با عنوان Human-level AI is not inevitable. We have the power to change course است که در تاریخ ۲۱ ژولای ۲۰۲۵ (۳۰ تیر ۱۴۰۴) توسط Garrison Lovely نوشته و در گاردین منتشر شده است. این بازنویسی،با حفظ ساختار اصلی متن، به کمک هوش مصنوعی انجام گردیدهاست. برای مشاهده منبع اصلی، اینجا کلیک کنید.