خود را آماده کنید: ظهور یک هوش مصنوعی فوق هوشمند نزدیک است.
آ پست وبلاگ که توسط مدیر عامل OpenAI، سام آلتمن، رئیس OpenAI، گرگ براکمن، و دانشمند ارشد OpenAI Ilya Sutskever نوشته شده است، هشدار می دهد که توسعه هوش مصنوعی برای جلوگیری از سناریوهای بالقوه فاجعه آمیز نیاز به مقررات سنگین دارد.
آلتمن با اذعان به اینکه سیستمهای هوش مصنوعی آینده میتوانند به طور قابلتوجهی از نظر قابلیت از AGI پیشی بگیرند، گفت: اکنون زمان خوبی برای شروع به فکر کردن در مورد حکمرانی ابر هوش است. با توجه به تصویری که اکنون میبینیم، میتوان تصور کرد که در ده سال آینده، سیستمهای هوش مصنوعی در بیشتر حوزهها از سطح مهارتهای متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکتهای امروزی فعالیتهای سازندهای را انجام خواهند داد.
بازتاب نگرانی هایی که آلتمن در کتاب خود مطرح کرده بود شهادت اخیر قبل از کنگره، این سه ستون سه رکن را برای برنامه ریزی استراتژیک آینده تعیین کردند.
نقطه شروع”
اول، OpenAI معتقد است که باید تعادلی بین کنترل و نوآوری وجود داشته باشد، و برای یک توافق اجتماعی “که به ما امکان می دهد ایمنی را حفظ کنیم و به ادغام روان این سیستم ها با جامعه کمک کنیم.”
سپس، آنها از ایده یک “مرجع بین المللی” دفاع کردند که وظیفه بازرسی سیستم، اجرای ممیزی، تست انطباق با استانداردهای ایمنی، و استقرار و محدودیت های امنیتی را دارد. آنها با ترسیم مشابهی با آژانس بین المللی انرژی اتمی، پیشنهاد کردند که یک نهاد نظارتی جهانی هوش مصنوعی چگونه می تواند باشد.
در آخر، آنها بر نیاز به “قابلیت فنی” برای حفظ کنترل بر ابراطلاعات و حفظ آن “ایمن” تاکید کردند. آنچه این مستلزم آن است، حتی برای OpenAI مبهم باقی مانده است، اما این پست نسبت به اقدامات نظارتی طاقتفرسا مانند مجوزها و ممیزیهای فناوری که به زیر نوار ابراطلاعات میرسد، هشدار داد.
در اصل، ایده این است که ابرهوش را در راستای اهداف مربیان خود نگه داریم و از یک «سناریوی فوم» جلوگیری کنیم – انفجاری سریع و غیرقابل کنترل در قابلیتهای هوش مصنوعی که از کنترل انسان پیشی میگیرد.
OpenAI همچنین در مورد تأثیر بالقوه فاجعه باری که توسعه کنترل نشده مدل های هوش مصنوعی می تواند بر جوامع آینده داشته باشد، هشدار می دهد. سایر متخصصان در این زمینه قبلاً نگرانی های مشابهی را از سوی انجمن مطرح کرده اند پدرخوانده هوش مصنوعی به بنیانگذاران شرکت های هوش مصنوعی مانند هوش مصنوعی پایداری و حتی کارگران قبلی OpenAI در گذشته با آموزش GPT LLM درگیر بوده است. این فراخوان فوری برای رویکردی پیشگیرانه نسبت به حکمرانی و مقررات هوش مصنوعی توجه قانونگذاران در سراسر جهان را به خود جلب کرده است.
چالش یک ابرهوش “ایمن”.
OpenAI معتقد است که وقتی به این نکات توجه شود، میتوان از پتانسیل هوش مصنوعی آزادانهتر برای همیشه استفاده کرد: آنها گفتند: «این فناوری میتواند جوامع ما را بهبود بخشد و توانایی خلاقانه همه برای استفاده از این ابزارهای جدید قطعاً ما را شگفتزده خواهد کرد».
نویسندگان همچنین توضیح دادند که فضا در حال حاضر با سرعتی شتابان در حال رشد است و این تغییر نخواهد کرد. در این وبلاگ آمده است: «توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست.
علیرغم این چالشها، رهبری OpenAI همچنان متعهد به بررسی این سوال است: “چگونه میتوانیم اطمینان حاصل کنیم که قابلیت فنی برای ایمن نگه داشتن یک ابراطلاعات به دست آمده است؟” دنیا در حال حاضر پاسخی ندارد، اما قطعا به پاسخی نیاز دارد – پاسخی که ChatGPT نتواند ارائه دهد.