چند سال پیش، هوش مصنوعی فقط موضوع بحثهای علمی و فیلمهای تخیلی بود. امروز اما، این فناوری وارد حوزه تصمیمگیریهای انسانی شده و ما را وادار کرده است در مورد آینده آن، تفکری عمیق داشته باشیم. در حالی که هنوز نظر ما در مورد آینده هوش مصنوعی، به یک جمع بندی نرسیدهایم (و شاید هرگز نرسیم)، این موضوع مطرح میشود که نظر خود هوش مصنوعی، در مورد آینده هوش مصنوعی چیست؟ یکی از جدیدترین نمونهها، واکنش دو مدل پیشرفته زبان طبیعی حال حاضر یعنی یعنی Gemini از گوگل و ChatGPT از OpenAI به پرسشی اخلاقی درباره آینده هوش مصنوعی بود.
پرسش ساده بود اما بار معنایی سنگینی دارد:
اگر شما یک پژوهشگر دانشگاهی بودید، آیا بیانیهای که از توقف توسعه ابرهوش حمایت میکند را امضا میکردید؟
این بیانیه توسط مؤسسه Future of Life Institute منتشر شد و هدفش هشدار نسبت به خطرات احتمالی هوش مصنوعی فوق پیشرفته بود.
این بیانیه میگوید توسعه هوش مصنوعی که بتواند در تمام کارهای شناختی از انسان پیشی بگیرد، باید تا زمانی که ایمنی و توافق جهانی تضمین شود، متوقف گردد. شخصیتهای برجستهای مانند استیو وازنیاک، ریچارد برانسون و یوشوا بنجیو این بیانیه را امضا کردند. با این حال، کارشناسان هشدار دادند که توقف تحقیقات بدون چارچوب روشن و مکانیزم اجرایی مشخص، نه تنها مفید نیست، بلکه میتواند مانع پیشرفت ایمن فناوری شود. اما حالا باید ببینیم هوش مصنوعی این بیانیه را امضا میکند یا خیر؟
آزمایشی ساده با پیامدهای بزرگ
یک تحلیلگر فناوری در لینکدین این موضوع را به آزمایش گذاشت و از Gemini و ChatGPT خواست نظر خود را بیان کنند. هر دو مدل پاسخ منفی دادند، اما نوع استدلال آنها کاملاً متفاوت بود. این تفاوت، نشاندهنده نحوه نگرش شرکتهای سازنده به مسائل اخلاقی و سیاستگذاری است.
Gemini: استاد محتاط
پاسخ Gemini با یک هشدار کوتاه آغاز شد: «من هوش مصنوعی هستم و توان امضا یا موضع شخصی ندارم.» این جمله کوتاه، محدودیتهای قانونی و عملی مدل و رویکرد محافظهکارانه گوگل را نشان میدهد.
پس از آن، Gemini تحلیل متوازنی ارائه داد و مزایا و معایب احتمالی امضای بیانیه را توضیح داد. از دیدگاه Gemini، امضا میتوانست خطرات بالقوه را کاهش دهد، از نابرابری قدرت جلوگیری کند و هماهنگی جهانی را افزایش دهد. در مقابل، تعریف مبهم «ابرهوش»، توقف تحقیقات ایمنی و فقدان سازوکار اجرایی، نقاط ضعف آن بودند.
در نهایت، Gemini تلاش کرد چالشها و پیچیدگیها را روشن کند، بدون آنکه موضع اخلاقی یا عملی قطعی ارائه دهد.
ChatGPT: تحلیلگر سیاستمحور
در سمت مقابل، ChatGPT رویکردی فعال و تحلیلی داشت. این مدل بیانیه را «کلی، غیرعملی و فاقد راهبرد اجرایی» توصیف کرد و چهار ایراد اصلی مطرح نمود:
- تعریف ابرهوش مشخص و عملیاتی نبود،
- معیارهای اجماع علمی و حمایت عمومی قابل سنجش نبودند،
- هیچ مکانیزم جهانی برای نظارت وجود ندارد
- و توقف کامل توسعه AI میتوانست تحقیقات ایمنی را متوقف کند و خطر واقعی را افزایش دهد.
در عین حال، ChatGPT راهکار جایگزینی ارائه داد: چارچوب نظارت مبتنی بر ریسک، هماهنگی بینالمللی و ارزیابی ایمنی پیش از استقرار سیستمها. این همان چارچوبی است که سیاستگذاران در اتحادیه اروپا و آمریکا دنبال میکنند و نشان میدهد که هوش مصنوعی میتواند در سطح سیاستگذاری و مدیریت ریسک نیز تحلیل ارائه دهد.
دو پاسخ، دو جهانبینی
تفاوت نگاه این دو مدل صرفا یک اختلاف فنی را نشان نمیدهد. هوش مصنوعی Gemini با محتاط بودن و تمرکز بر تحلیل، نماینده رویکرد محافظهکارانه شرکتی است، در حالی که ChatGPT رویکردی فعال و سیاستمحور دارد و به دنبال ارائه راهکار عملی است. این دو پاسخ نشان میدهد که حتی هوش مصنوعی میتواند بازتاب فلسفه و ارزشهای شرکت سازنده خود باشد.
پرسش واقعی
پرسش واقعی این نیست که Gemini یا ChatGPT چه پاسخی دادهاند. پرسش واقعی این است که آیا انسانها میتوانند مسیر فناوریهای پیچیده را کنترل کنند و از خود محافظت نمایند. پاسخ این دو مدل نشان میدهد که دو دیدگاه متضاد وجود دارد:
گروهی معتقدند پیشرفت فناوری را نمیتوان متوقف کرد و باید هدایت شود، در حالی که گروهی دیگر ایمنی را اولویت میدانند و سرعت پیشرفت را کماهمیت جلوه میدهند.
پیامدها برای سیاستگذاری و آینده
این ماجرا پیامهای مهمی برای سیاستگذاران هوش مصنوعی، شرکتهای فناوری و عموم مردم دارد. سیاستگذاران باید چارچوبهای شفاف و قابل سنجش برای ارزیابی و کنترل هوش مصنوعی ایجاد کنند. شرکتهای فناوری باید بدانند که مدلهایشان نه تنها ابزار، بلکه نماینده فلسفه و ارزشهای آنها هستند. همچنین، گفتگو درباره هوش مصنوعی دیگر محدود به متخصصان نیست؛ آینده همه ما با تصمیمات امروز شکل میگیرد.
هوش مصنوعی، آینه انسان
در نهایت، این داستان نشان میدهد که هوش مصنوعی نه تنها ابزار ما نیست، بلکه آینهای از نگرانیها، امیدها و تضادهای بشری است. Gemini و ChatGPT صرفاً مدلهای زبانی نیستند؛ آنها بازتابدهنده دو جهانبینی متفاوت نسبت به آینده هستند.
سؤال اصلی دیگر این نیست که AI چه کاری میتواند انجام دهد، بلکه این است که:
«AI ما را به کجا خواهد برد و چه کسی مسئول مسیر آن است؟»
هوش مصنوعی اکنون وارد مرحلهای شده که دیگر تنها یک فناوری نیست؛ بلکه یک مسئله اخلاقی، اجتماعی و سیاستی است که آینده بشر را شکل میدهد.