جفری هینتون، پیشگام هوش مصنوعی که به عنوان یکی از “پدرخوانده های هوش مصنوعی” از سمت خود در گوگل استعفا داد تا بتواند آشکارا نگرانی های خود را در مورد اینکه چگونه هوش مصنوعی می تواند آسیب قابل توجهی به جهان وارد کند بیان کند.
هینتون در الف نیویورک تایمز مصاحبه که او اکنون تا حدی از کار زندگی خود پشیمان است. علیرغم کاربردهای مفید هوش مصنوعی، هینتون میترسد که این فناوری میتواند به طور غیرمسئولانه استفاده شود و عواقب ناخواستهای را به دنبال داشته باشد.
هینتون نگران است که رقابت بین غول های فناوری مانند گوگل و مایکروسافت برای ایجاد پیشرفته ترین هوش مصنوعی منجر به مسابقه ای جهانی خواهد شد که بدون نوعی مقررات جهانی متوقف نخواهد شد. با این حال، او همچنین تاکید کرد که فکر می کند گوگل در تحقیقات خود مسئولانه عمل کرده است:
امروز در نیویورک، کید متز اشاره می کند که من گوگل را ترک کردم تا بتوانم از گوگل انتقاد کنم. در واقع، من آنجا را ترک کردم تا بتوانم در مورد خطرات هوش مصنوعی بدون در نظر گرفتن تأثیر این موضوع بر گوگل صحبت کنم. گوگل بسیار مسئولانه عمل کرده است.
– جفری هینتون (@geoffreyhinton) 1 مه 2023
هینتون به دلیل رایج کردن توسعه نظری شبکه های عصبی شناخته شده است در سال 1986 کار او برای توسعه مدلهای هنری مولد فعلی مانند Stable Diffusion و MidJourney بسیار مهم بود و زمینه را برای تلاشهای آتی OpenAI برای ایجاد GPT-4 برای تعامل با تصاویر فراهم کرد.
حرکت بالقوه دیرهنگام او باعث شده است که بسیاری او را با جی رابرت اوپنهایمر، استاد فیزیک که سازنده بمب اتمی است، مقایسه کنند.
خطرات هوش مصنوعی
یکی از مشکلات فوری که هینتون بر آن تاکید می کند، تکثیر آن است تصاویر جعلی، فیلم هایو به صورت آنلاین پیامک ارسال کنید، که می تواند تشخیص حقیقت را برای افراد عادی به طور فزاینده ای دشوار کند. با ادامه پیشرفت هوش مصنوعی، سازندگان محتوای جعلی و دستکاری میتوانند از این ابزارها برای فریب و گیج کردن مردم استفاده کنند.
هینتون همچنین نگران این است که چگونه هوش مصنوعی می تواند بر مشاغل در آینده تأثیر بگذارد. در حالی که رباتهای چت مانند ChatGPT در حال حاضر مکمل کارکنان انسانی هستند، اما در نهایت میتوانند جایگزین افرادی شوند که کارهای معمولی را انجام میدهند، مانند دستیاران شخصی، حسابداران و مترجمان. اگرچه هوش مصنوعی ممکن است برخی از کارهای یکنواخت را کاهش دهد، اما می تواند مشاغل بیشتری را از حد انتظار حذف کند و تعادل اجتماعی را مختل کند.
در درازمدت، هینتون میترسد که نسخههای آینده این فناوری به دلیل رفتار غیرمنتظرهای که ممکن است از حجم زیادی از دادههایی که تجزیه و تحلیل میکنند یاد بگیرند، تهدیدی برای بشریت باشد. زمانی که سیستمهای هوش مصنوعی اجازه تولید و تولید کنند، این مشکل به وجود میآید کد خود را اجرا کنند.
این دیدگاه بلندمدت همچنین زمانی اهمیت ویژهای پیدا کرد که دیگر چهرههای کلیدی در زمینه هوش مصنوعی شروع به هشدار در مورد امکان سناریوی “فوم”.– که در آن هوش مصنوعی به مراتب از هوش انسانی پیشی میگیرد – و تأثیری که میتواند بر توسعه اجتماعی داشته باشد.
هینتون تنها یکی از هزاران رهبر و محقق فناوری است که از پیشرفت تصاعدی پیشرفتهای هوش مصنوعی در زمینههای مختلف نگران شدهاند (از چت های وابسته به عشق شهوانی به تشخیص پزشکی). ماه گذشته، یک نامه ی سرگشاده محبوبیتی به دست آورد که در آن رهبران خواستار توقف توسعه هوش مصنوعی تا زمانی که کنترل های کافی ایجاد شود، شدند. هینتون آن را امضا نکرد.
تکامل موضع هینتون در مورد هوش مصنوعی نشان دهنده آگاهی روزافزون از خطرات و چالش های مرتبط با فناوری به سرعت در حال تحول است. برای هینتون، استعفا از کار زندگیاش برای جلوگیری از سناریویی که به گفته او هر روز نزدیکتر میشود، مهم بود.
او گفت: «ببینید پنج سال پیش چگونه بود و اکنون چگونه است مجله نیویورک تایمز. “تفاوت را بردارید و آن را به جلو تبلیغ کنید. این ترسناک است.”
از اخبار ارزهای دیجیتال مطلع باشید، بهروزرسانیهای روزانه را در صندوق ورودی خود دریافت کنید.