یکی از محققین کلیدی سابق OpenAI معتقد است که هوش مصنوعی کنترل بشریت را در دست گرفته و آن را نابود خواهد کرد.
“من فکر می کنم شاید چیزی در حدود 10-20٪ برای تصاحب هوش مصنوعی وجود داشته باشد. [with] زیاد [or] بیشتر انسان ها مرده اند، “پل کریستیانو، که تیم هم ترازی مدل زبان را در آن اداره می کرد OpenAI، گفت: در پادکست بدون بانک. “من آن را کاملا جدی می گیرم.”
کریستیانو، که اکنون ریاست آن را بر عهده دارد مرکز تحقیقات ترازیک سازمان غیرانتفاعی با هدف همسو کردن هوش مصنوعی و سیستمهای یادگیری ماشین با «علاقههای انسانی»، گفت که او بهویژه نگران این است که وقتی هوش مصنوعی به ظرفیت منطقی و خلاق یک انسان برسد چه اتفاقی میافتد. او گفت: “به طور کلی، شاید ما در مورد احتمال فاجعه 50/50 در مدت کوتاهی پس از اینکه سیستم هایی در سطح انسانی داشته باشیم صحبت می کنیم.”
کریستیانو در شرکت خوبی است. اخیرا تعداد زیادی از دانشمندان در سراسر جهان نامه آنلاین را امضا کرد با اصرار از OpenAI و سایر شرکتهایی که برای ساخت هوش مصنوعی سریعتر و هوشمندتر مسابقه میدهند، دکمه توقف توسعه را فشار دهند. کلاه گیسهای بزرگ از بیل گیتس تا ایلان ماسک ابراز نگرانی کردهاند که هوش مصنوعی، اگر کنترل نشود، خطری آشکار و وجودی برای مردم است.
بد نباش
چرا هوش مصنوعی بد خواهد شد؟ اساساً به همان دلیلی که شخص انجام می دهد: آموزش و تجربه زندگی.
مثل بچه، هوش مصنوعی آموزش دیده است با دریافت کوههایی از دادهها بدون اینکه واقعاً بدانیم با آنها چه کنیم. با تلاش برای دستیابی به اهداف خاص با اقدامات تصادفی و صفر کردن نتایج “درست”، همانطور که توسط آموزش تعریف شده است، یاد می گیرد.
تا کنون، با غوطهور شدن در دادههای جمعآوریشده در اینترنت، یادگیری ماشینی هوش مصنوعی را قادر میسازد تا جهشهای بزرگی را در کنار هم قرار دادن پاسخهای ساختاریافته و منسجم به پرسشهای انسانی انجام دهد. در عین حال، پردازش کامپیوتری زیربنایی که به یادگیری ماشین قدرت میدهد سریعتر، بهتر و تخصصیتر میشود. برخی از دانشمندان بر این باورند که ظرف یک دهه، این قدرت پردازش، همراه با هوش مصنوعی، به این ماشینها اجازه میدهد تا مانند انسانها حساس شوند و حسی از خود داشته باشند.
آن وقت است که همه چیز پرمو می شود. و به همین دلیل است که بسیاری از محققین استدلال میکنند که ما باید بدانیم که چگونه نردههای محافظ را در حال حاضر و نه بعداً اعمال کنیم. تا زمانی که رفتار هوش مصنوعی نظارت شود، آن را قابل کنترل است.
اما اگر سکه روی طرف دیگر بیفتد، حتی یکی از بنیانگذاران OpenAI می گوید که همه چیز می تواند بسیار خوب شود، خیلی بد.
Foomsday؟
این موضوع سالهاست که مطرح است. یکی از معروف ترین مناظرات در این زمینه 11 سال پیش بین محقق هوش مصنوعی رخ داد الیزر یودکوفسکی و اقتصاددان رابین هانسون. دو طرف در مورد امکان رسیدن به “فوم“- که ظاهرا مخفف “Fast Starset of Uhhelming Mastery” است – نقطه ای که در آن هوش مصنوعی به طور تصاعدی از انسان ها باهوش تر می شود و می تواند خود را بهبود بخشد. (مشتق از اصطلاح “فوم” است قابل بحث.)
الیزر و یارانش معتقدند که این امر اجتناب ناپذیر است که هوش مصنوعی بدون هیچ هشداری «فوت» خواهد کرد، به این معنی که یک روز شما یک AGI بسازید. [artificial general intelligence] و ساعت ها یا روزها بعد این چیز به طور بازگشتی به هوش خداگونه تبدیل شده و سپس دنیا را می خورد. آیا این واقع بینانه است؟» پری متزگر، دانشمند رایانه فعال در جامعه هوش مصنوعی، اخیرا توییت کرده است.
متزگر استدلال کرد که حتی زمانی که سیستمهای کامپیوتری به سطحی از هوش انسانی میرسند، هنوز زمان زیادی برای جلوگیری از هرگونه پیامد بد وجود دارد. «آیا «فوم» منطقاً ممکن است؟ شاید. من متقاعد نشده ام، او گفت: “آیا این در دنیای واقعی امکان پذیر است؟ من تقریباً مطمئن هستم که نه. آیا هوش مصنوعی عمیقاً فوق بشری درازمدت چیزی خواهد بود؟ بله، اما نه “فوم””
یکی دیگر از چهره های برجسته، یان لو کان، نیز صدای خود را بلند کرد و ادعا کرد که “کاملا غیر ممکن“برای اینکه بشریت تسلط بر هوش مصنوعی را تجربه کند.” بیایید امیدوار باشیم.
از اخبار ارزهای دیجیتال مطلع باشید، بهروزرسانیهای روزانه را در صندوق ورودی خود دریافت کنید.