جفری هینتون، پیشگام هوش مصنوعی که به عنوان یکی از “پدرخوانده های هوش مصنوعی” از سمت خود در گوگل استعفا داد تا بتواند آشکارا نگرانی های خود را در مورد اینکه چگونه هوش مصنوعی می تواند آسیب قابل توجهی به جهان وارد کند بیان کند.

هینتون در الف نیویورک تایمز مصاحبه که او اکنون تا حدی از کار زندگی خود پشیمان است. علیرغم کاربردهای مفید هوش مصنوعی، هینتون می‌ترسد که این فناوری می‌تواند به طور غیرمسئولانه استفاده شود و عواقب ناخواسته‌ای را به دنبال داشته باشد.

هینتون نگران است که رقابت بین غول های فناوری مانند گوگل و مایکروسافت برای ایجاد پیشرفته ترین هوش مصنوعی منجر به مسابقه ای جهانی خواهد شد که بدون نوعی مقررات جهانی متوقف نخواهد شد. با این حال، او همچنین تاکید کرد که فکر می کند گوگل در تحقیقات خود مسئولانه عمل کرده است:

هینتون به دلیل رایج کردن توسعه نظری شبکه های عصبی شناخته شده است در سال 1986 کار او برای توسعه مدل‌های هنری مولد فعلی مانند Stable Diffusion و MidJourney بسیار مهم بود و زمینه را برای تلاش‌های آتی OpenAI برای ایجاد GPT-4 برای تعامل با تصاویر فراهم کرد.

حرکت بالقوه دیرهنگام او باعث شده است که بسیاری او را با جی رابرت اوپنهایمر، استاد فیزیک که سازنده بمب اتمی است، مقایسه کنند.

خطرات هوش مصنوعی

یکی از مشکلات فوری که هینتون بر آن تاکید می کند، تکثیر آن است تصاویر جعلی، فیلم هایو به صورت آنلاین پیامک ارسال کنید، که می تواند تشخیص حقیقت را برای افراد عادی به طور فزاینده ای دشوار کند. با ادامه پیشرفت هوش مصنوعی، سازندگان محتوای جعلی و دستکاری می‌توانند از این ابزارها برای فریب و گیج کردن مردم استفاده کنند.

هینتون همچنین نگران این است که چگونه هوش مصنوعی می تواند بر مشاغل در آینده تأثیر بگذارد. در حالی که ربات‌های چت مانند ChatGPT در حال حاضر مکمل کارکنان انسانی هستند، اما در نهایت می‌توانند جایگزین افرادی شوند که کارهای معمولی را انجام می‌دهند، مانند دستیاران شخصی، حسابداران و مترجمان. اگرچه هوش مصنوعی ممکن است برخی از کارهای یکنواخت را کاهش دهد، اما می تواند مشاغل بیشتری را از حد انتظار حذف کند و تعادل اجتماعی را مختل کند.

در درازمدت، هینتون می‌ترسد که نسخه‌های آینده این فناوری به دلیل رفتار غیرمنتظره‌ای که ممکن است از حجم زیادی از داده‌هایی که تجزیه و تحلیل می‌کنند یاد بگیرند، تهدیدی برای بشریت باشد. زمانی که سیستم‌های هوش مصنوعی اجازه تولید و تولید کنند، این مشکل به وجود می‌آید کد خود را اجرا کنند.

این دیدگاه بلندمدت همچنین زمانی اهمیت ویژه‌ای پیدا کرد که دیگر چهره‌های کلیدی در زمینه هوش مصنوعی شروع به هشدار در مورد امکان سناریوی “فوم”.– که در آن هوش مصنوعی به مراتب از هوش انسانی پیشی می‌گیرد – و تأثیری که می‌تواند بر توسعه اجتماعی داشته باشد.

هینتون تنها یکی از هزاران رهبر و محقق فناوری است که از پیشرفت تصاعدی پیشرفت‌های هوش مصنوعی در زمینه‌های مختلف نگران شده‌اند (از چت های وابسته به عشق شهوانی به تشخیص پزشکی). ماه گذشته، یک نامه ی سرگشاده محبوبیتی به دست آورد که در آن رهبران خواستار توقف توسعه هوش مصنوعی تا زمانی که کنترل های کافی ایجاد شود، شدند. هینتون آن را امضا نکرد.

تکامل موضع هینتون در مورد هوش مصنوعی نشان دهنده آگاهی روزافزون از خطرات و چالش های مرتبط با فناوری به سرعت در حال تحول است. برای هینتون، استعفا از کار زندگی‌اش برای جلوگیری از سناریویی که به گفته او هر روز نزدیک‌تر می‌شود، مهم بود.

او گفت: «ببینید پنج سال پیش چگونه بود و اکنون چگونه است مجله نیویورک تایمز. “تفاوت را بردارید و آن را به جلو تبلیغ کنید. این ترسناک است.”

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *