به نظر میرسد که نگرانیها در مورد تخریب احتمالی که هوش مصنوعی میتواند برای بشریت انجام دهد فراتر از تصورات یا ایدههایی است که مخالفان انقلاب فناوری منتشر کردهاند. حتی توسعه دهندگان و حامیان آن اکنون نگران عواقب بالقوه تلاش انسان برای دنیایی مبتنی بر هوش مصنوعی هستند.
در یادداشت کوتاهی که در وب سایت این شرکت منتشر شده است، رهبران OpenAI، خالقان ChatGPT، خواستار قوانین سختگیرانه تر برای هوش مصنوعی «فوق العاده هوشمند» شده اند تا جهان را از نابودی در دست این ماشین ها نجات دهند.
بنیانگذاران، گرگ براکمن و ایلیا سوتسکور و مدیر اجرایی، سام آلتمن، می گویند که معادل آژانس بین المللی انرژی اتمی (IAEA)، آژانسی که مسئول بررسی استفاده و کاربرد انرژی اتمی و هسته ای در سطح جهان است، نیاز است تا از بشریت در برابر خطر ایجاد تصادفی چیزی با قدرت تخریب آن محافظت کنید.
در این پست، آنها از یک تنظیم کننده بین المللی خواستند تا شروع به کار در مورد چگونگی “بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی، [and] برای کاهش خطر وجودی که چنین سیستمهایی میتوانند ایجاد کنند، محدودیتهایی برای درجات استقرار و سطوح امنیتی ایجاد کنید. نگهبان.
آنها می نویسند: “می توان تصور کرد که در 10 سال آینده، سیستم های هوش مصنوعی در بیشتر حوزه ها از سطح مهارت های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت های امروزی فعالیت های سازنده ای را انجام دهند.”
از نظر جنبههای مثبت و منفی بالقوه، ابر هوش قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است. ما میتوانیم آیندهای بهطور چشمگیری مرفهتر داشته باشیم، اما برای رسیدن به آن باید ریسک را مدیریت کنیم. با توجه به احتمال خطر وجودی، ما نمی توانیم فقط واکنش نشان دهیم.»
در کوتاهمدت، این سه نفر خواستار «درجاتی از هماهنگی» میان شرکتهایی شدند که بر روی تحقیقات پیشرفته هوش مصنوعی کار میکنند، تا اطمینان حاصل شود که توسعه مدلهای قویتر به راحتی با جامعه ادغام میشود و در عین حال ایمنی را در اولویت قرار میدهد. این هماهنگی میتواند از طریق یک پروژه تحت رهبری دولت، به عنوان مثال، یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.
همچنین بخوانید: “نیجریه بزرگترین پذیرنده هوش مصنوعی در آفریقا بوده است” – سم آلتمن از هوش مصنوعی باز
سام آلتمن چرخش را انجام می دهد
من اخیراً این فرصت را داشتم که در اتاقی با سام آلتمن، بنیانگذار و مدیر عامل OpenAI باشم، زیرا او در مورد پتانسیل هوش مصنوعی مولد برای بهبود قابل توجه جهان و کمک به انسان ها در بالا بردن سطح بهره وری خود صحبت کرد.
او خاطرنشان کرد که بدبینی و نگرانی زیادی در مورد برخی از خطرات مرتبط با استفاده از هوش مصنوعی نه تنها در ایالات متحده بلکه در سطح جهانی وجود داشته است، بنابراین نیاز به حل آن در سطح جهانی است. اما او همچنین اشاره کرد که بیشتر نگران نظارت بیش از حد این فناوری است، زیرا مشکلات درک شده هنوز شناخته نشده است.
“کشورهای مختلف قوانین خود را تعیین می کنند، اما صادقانه بگویم، من نگران مقررات بیش از حد هستم. من فکر میکنم با تنظیم بیش از حد، راحتتر میتوان فناوری جدیدی مانند این را اشتباه گرفت. و به طور کلی، قبل از اینکه به آنها رسیدگی کنید، می خواهید ببینید که مشکلات واقعی چیست.”
سام آلتمن
اکنون، در یک چرخش شگفتانگیز، به نظر میرسد که مدیر عامل OpenAI ممکن است ترس بسیاری از افراد در آن فضا را تأیید کند، که هم بنیانگذار سابق او، ایلان ماسک نیز از آن ابراز داشته است. به غیر از ماسک، محققان قبلاً در مورد خطرات بالقوه ابر هوش برای دههها هشدار داده بودند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینیتر شدهاند.
بنابراین، آیا این بدان معناست که هوش مصنوعی واقعاً می تواند بشریت را نابود کند، و اگر می تواند، دقیقاً در چه زمینه ای؟
این 5 مهارت ضروری را برای افزایش شانس خود برای رسیدن به یک شغل هوش مصنوعی با درآمد بالا تسلط دهید
آیا هوش مصنوعی می تواند بشریت را نابود کند؟
مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای “کاهش خطرات هوش مصنوعی در مقیاس اجتماعی” کار می کند، هشت دسته از خطرات “فاجعه بار” و “وجودی” را که توسعه هوش مصنوعی می تواند ایجاد کند، توصیف می کند.
در حالی که برخی نگران این هستند که هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیب های زیانبار دیگری را توصیف می کند.
این نگرانیها قبلاً توسط کشورها، کارشناسان و توسعهدهندگان در سطح جهان ابراز شده است. یکی از زمینه هایی که ممکن است مردم را از خود بیگانه کند، شغل آنها را حذف کند، به فقر گسترده منجر شود یا حتی منجر به مرگ شود، آینده کار بوده است.
نظام ارزشی جهانی و بخش آموزش دو مورد دیگر هستند. توسعه تهاجمی فزاینده روباتهای فوقهوشمند، تهدیدی برای بیگانگی و ویرانی نهایی برای فرهنگها و سیستمهای اجتماعی طولانی مدت، بهویژه در آفریقا است.
اگرچه ممکن است این یک شبه اتفاق نیفتد، اما با توجه به موج کنونی تحقیق و گفتمان درباره احتمالات، ممکن است زودتر اتفاق بیفتد.
رهبران OpenAI می گویند که این خطرات به این معنی است که “مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیت ها و پیش فرض های سیستم های هوش مصنوعی تصمیم بگیرند”، اما اذعان دارند که “ما هنوز نمی دانیم چگونه چنین مکانیزمی را طراحی کنیم”. با این حال، آنها می گویند که توسعه مداوم سیستم های قدرت ارزش ریسک را دارد. اما آیا این است؟
“ما معتقدیم که به دنیایی بسیار بهتر از آنچه امروز میتوانیم تصور کنیم منجر خواهد شد (ما در حال حاضر نمونههای اولیه آن را در زمینههایی مانند آموزش، کار خلاق و بهرهوری شخصی میبینیم).” می نویسند.
آنها هشدار می دهند که توقف توسعه نیز می تواند خطرناک باشد. “از آنجایی که نقاط مثبت بسیار زیاد است، هزینه ساخت آن هر سال کاهش مییابد، تعداد بازیگرانی که آن را میسازند به سرعت در حال افزایش است، و ذاتاً بخشی از مسیر تکنولوژیکی است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست. پس باید درستش کنیم.”
در میان جنگ های هوش مصنوعی توسط گوگل و مایکروسافت، اپل ممکن است حتی با “سکوت” یک گام جلوتر باشد.