یکی از محققین کلیدی سابق OpenAI معتقد است که هوش مصنوعی کنترل بشریت را در دست گرفته و آن را نابود خواهد کرد.

“من فکر می کنم شاید چیزی در حدود 10-20٪ برای تصاحب هوش مصنوعی وجود داشته باشد. [with] زیاد [or] بیشتر انسان ها مرده اند، “پل کریستیانو، که تیم هم ترازی مدل زبان را در آن اداره می کرد OpenAI، گفت: در پادکست بدون بانک. “من آن را کاملا جدی می گیرم.”

کریستیانو، که اکنون ریاست آن را بر عهده دارد مرکز تحقیقات ترازیک سازمان غیرانتفاعی با هدف همسو کردن هوش مصنوعی و سیستم‌های یادگیری ماشین با «علاقه‌های انسانی»، گفت که او به‌ویژه نگران این است که وقتی هوش مصنوعی به ظرفیت منطقی و خلاق یک انسان برسد چه اتفاقی می‌افتد. او گفت: “به طور کلی، شاید ما در مورد احتمال فاجعه 50/50 در مدت کوتاهی پس از اینکه سیستم هایی در سطح انسانی داشته باشیم صحبت می کنیم.”

کریستیانو در شرکت خوبی است. اخیرا تعداد زیادی از دانشمندان در سراسر جهان نامه آنلاین را امضا کرد با اصرار از OpenAI و سایر شرکت‌هایی که برای ساخت هوش مصنوعی سریع‌تر و هوشمندتر مسابقه می‌دهند، دکمه توقف توسعه را فشار دهند. کلاه گیس‌های بزرگ از بیل گیتس تا ایلان ماسک ابراز نگرانی کرده‌اند که هوش مصنوعی، اگر کنترل نشود، خطری آشکار و وجودی برای مردم است.

بد نباش

چرا هوش مصنوعی بد خواهد شد؟ اساساً به همان دلیلی که شخص انجام می دهد: آموزش و تجربه زندگی.

مثل بچه، هوش مصنوعی آموزش دیده است با دریافت کوه‌هایی از داده‌ها بدون اینکه واقعاً بدانیم با آن‌ها چه کنیم. با تلاش برای دستیابی به اهداف خاص با اقدامات تصادفی و صفر کردن نتایج “درست”، همانطور که توسط آموزش تعریف شده است، یاد می گیرد.

تا کنون، با غوطه‌ور شدن در داده‌های جمع‌آوری‌شده در اینترنت، یادگیری ماشینی هوش مصنوعی را قادر می‌سازد تا جهش‌های بزرگی را در کنار هم قرار دادن پاسخ‌های ساختاریافته و منسجم به پرسش‌های انسانی انجام دهد. در عین حال، پردازش کامپیوتری زیربنایی که به یادگیری ماشین قدرت می‌دهد سریع‌تر، بهتر و تخصصی‌تر می‌شود. برخی از دانشمندان بر این باورند که ظرف یک دهه، این قدرت پردازش، همراه با هوش مصنوعی، به این ماشین‌ها اجازه می‌دهد تا مانند انسان‌ها حساس شوند و حسی از خود داشته باشند.

آن وقت است که همه چیز پرمو می شود. و به همین دلیل است که بسیاری از محققین استدلال می‌کنند که ما باید بدانیم که چگونه نرده‌های محافظ را در حال حاضر و نه بعداً اعمال کنیم. تا زمانی که رفتار هوش مصنوعی نظارت شود، آن را قابل کنترل است.

اما اگر سکه روی طرف دیگر بیفتد، حتی یکی از بنیانگذاران OpenAI می گوید که همه چیز می تواند بسیار خوب شود، خیلی بد.

Foomsday؟

این موضوع سالهاست که مطرح است. یکی از معروف ترین مناظرات در این زمینه 11 سال پیش بین محقق هوش مصنوعی رخ داد الیزر یودکوفسکی و اقتصاددان رابین هانسون. دو طرف در مورد امکان رسیدن به “فوم“- که ظاهرا مخفف “Fast Starset of Uhhelming Mastery” است – نقطه ای که در آن هوش مصنوعی به طور تصاعدی از انسان ها باهوش تر می شود و می تواند خود را بهبود بخشد. (مشتق از اصطلاح “فوم” است قابل بحث.)

الیزر و یارانش معتقدند که این امر اجتناب ناپذیر است که هوش مصنوعی بدون هیچ هشداری «فوت» خواهد کرد، به این معنی که یک روز شما یک AGI بسازید. [artificial general intelligence] و ساعت ها یا روزها بعد این چیز به طور بازگشتی به هوش خداگونه تبدیل شده و سپس دنیا را می خورد. آیا این واقع بینانه است؟» پری متزگر، دانشمند رایانه فعال در جامعه هوش مصنوعی، اخیرا توییت کرده است.

متزگر استدلال کرد که حتی زمانی که سیستم‌های کامپیوتری به سطحی از هوش انسانی می‌رسند، هنوز زمان زیادی برای جلوگیری از هرگونه پیامد بد وجود دارد. «آیا «فوم» منطقاً ممکن است؟ شاید. من متقاعد نشده ام، او گفت: “آیا این در دنیای واقعی امکان پذیر است؟ من تقریباً مطمئن هستم که نه. آیا هوش مصنوعی عمیقاً فوق بشری درازمدت چیزی خواهد بود؟ بله، اما نه “فوم””

یکی دیگر از چهره های برجسته، یان لو کان، نیز صدای خود را بلند کرد و ادعا کرد که “کاملا غیر ممکن“برای اینکه بشریت تسلط بر هوش مصنوعی را تجربه کند.” بیایید امیدوار باشیم.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *