خود را آماده کنید: ظهور یک هوش مصنوعی فوق هوشمند نزدیک است.

آ پست وبلاگ که توسط مدیر عامل OpenAI، سام آلتمن، رئیس OpenAI، گرگ براکمن، و دانشمند ارشد OpenAI Ilya Sutskever نوشته شده است، هشدار می دهد که توسعه هوش مصنوعی برای جلوگیری از سناریوهای بالقوه فاجعه آمیز نیاز به مقررات سنگین دارد.

آلتمن با اذعان به اینکه سیستم‌های هوش مصنوعی آینده می‌توانند به طور قابل‌توجهی از نظر قابلیت از AGI پیشی بگیرند، گفت: اکنون زمان خوبی برای شروع به فکر کردن در مورد حکمرانی ابر هوش است. با توجه به تصویری که اکنون می‌بینیم، می‌توان تصور کرد که در ده سال آینده، سیستم‌های هوش مصنوعی در بیشتر حوزه‌ها از سطح مهارت‌های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت‌های امروزی فعالیت‌های سازنده‌ای را انجام خواهند داد.

بازتاب نگرانی هایی که آلتمن در کتاب خود مطرح کرده بود شهادت اخیر قبل از کنگره، این سه ستون سه رکن را برای برنامه ریزی استراتژیک آینده تعیین کردند.

نقطه شروع”

اول، OpenAI معتقد است که باید تعادلی بین کنترل و نوآوری وجود داشته باشد، و برای یک توافق اجتماعی “که به ما امکان می دهد ایمنی را حفظ کنیم و به ادغام روان این سیستم ها با جامعه کمک کنیم.”

سپس، آنها از ایده یک “مرجع بین المللی” دفاع کردند که وظیفه بازرسی سیستم، اجرای ممیزی، تست انطباق با استانداردهای ایمنی، و استقرار و محدودیت های امنیتی را دارد. آنها با ترسیم مشابهی با آژانس بین المللی انرژی اتمی، پیشنهاد کردند که یک نهاد نظارتی جهانی هوش مصنوعی چگونه می تواند باشد.

در آخر، آنها بر نیاز به “قابلیت فنی” برای حفظ کنترل بر ابراطلاعات و حفظ آن “ایمن” تاکید کردند. آنچه این مستلزم آن است، حتی برای OpenAI مبهم باقی مانده است، اما این پست نسبت به اقدامات نظارتی طاقت‌فرسا مانند مجوزها و ممیزی‌های فناوری که به زیر نوار ابراطلاعات می‌رسد، هشدار داد.

در اصل، ایده این است که ابرهوش را در راستای اهداف مربیان خود نگه داریم و از یک «سناریوی فوم» جلوگیری کنیم – انفجاری سریع و غیرقابل کنترل در قابلیت‌های هوش مصنوعی که از کنترل انسان پیشی می‌گیرد.

OpenAI همچنین در مورد تأثیر بالقوه فاجعه باری که توسعه کنترل نشده مدل های هوش مصنوعی می تواند بر جوامع آینده داشته باشد، هشدار می دهد. سایر متخصصان در این زمینه قبلاً نگرانی های مشابهی را از سوی انجمن مطرح کرده اند پدرخوانده هوش مصنوعی به بنیانگذاران شرکت های هوش مصنوعی مانند هوش مصنوعی پایداری و حتی کارگران قبلی OpenAI در گذشته با آموزش GPT LLM درگیر بوده است. این فراخوان فوری برای رویکردی پیشگیرانه نسبت به حکمرانی و مقررات هوش مصنوعی توجه قانونگذاران در سراسر جهان را به خود جلب کرده است.

چالش یک ابرهوش “ایمن”.

OpenAI معتقد است که وقتی به این نکات توجه شود، می‌توان از پتانسیل هوش مصنوعی آزادانه‌تر برای همیشه استفاده کرد: آنها گفتند: «این فناوری می‌تواند جوامع ما را بهبود بخشد و توانایی خلاقانه همه برای استفاده از این ابزارهای جدید قطعاً ما را شگفت‌زده خواهد کرد».

نویسندگان همچنین توضیح دادند که فضا در حال حاضر با سرعتی شتابان در حال رشد است و این تغییر نخواهد کرد. در این وبلاگ آمده است: «توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست.

علی‌رغم این چالش‌ها، رهبری OpenAI همچنان متعهد به بررسی این سوال است: “چگونه می‌توانیم اطمینان حاصل کنیم که قابلیت فنی برای ایمن نگه داشتن یک ابراطلاعات به دست آمده است؟” دنیا در حال حاضر پاسخی ندارد، اما قطعا به پاسخی نیاز دارد – پاسخی که ChatGPT نتواند ارائه دهد.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.