یکی از پیشگامان هوش مصنوعی (AI) با نام مستعار “پدرخوانده هوش مصنوعی” از سمت خود در شرکت فناوری بزرگ گوگل استعفا داد تا بتواند با صراحت بیشتری در مورد خطرات احتمالی این فناوری صحبت کند.
قبل از استعفا، دکتر جفری هینتون کار کرد در گوگل در مورد الگوریتم های یادگیری ماشین برای بیش از یک دهه. گفته می شود که او به دلیل کار طولانی مدتش در این زمینه نام مستعار خود را به دست آورده است شبکه های عصبی.
با این حال، هینتون در یک توییت در تاریخ 1 مه توضیح داد که او سمت خود را در گوگل ترک کرد «تا بتوانم در مورد خطرات هوش مصنوعی صحبت کنم».
امروز در نیویورک، کید متز اشاره می کند که من گوگل را ترک کردم تا بتوانم از گوگل انتقاد کنم. در واقع، من آنجا را ترک کردم تا بتوانم در مورد خطرات هوش مصنوعی بدون در نظر گرفتن تأثیر این موضوع بر گوگل صحبت کنم. گوگل بسیار مسئولانه عمل کرده است.
– جفری هینتون (@geoffreyhinton) 1 مه 2023
در یک مصاحبه با نیویورک تایمز، فوریترین نگرانی او در مورد هوش مصنوعی استفاده از آن در پر کردن اینترنت با عکسها، فیلمها و متنهای جعلی بود، جایی که او ابراز نگرانی کرد که بسیاری «دیگر نمیتوانند حقیقت را بدانند».
نگرانی های دیگر هینتون مربوط به فناوری هوش مصنوعی بود تصاحب مشاغل. در آینده، او معتقد است که هوش مصنوعی به دلیل یادگیری رفتارهای غیرمنتظره از حجم عظیمی از داده هایی که تجزیه و تحلیل می کند، می تواند تهدیدی برای بشریت باشد.
او همچنین نسبت به ادامه مسابقه تسلیحاتی هوش مصنوعی که به دنبال توسعه بیشتر این فناوری برای استفاده در سیستمهای تسلیحات خودکار مرگبار (LAWS) است، ابراز نگرانی کرد.
هینتون همچنین تا حدودی از کار زندگی خود ابراز تاسف کرد:
من خودم را با این بهانه عادی دلداری میدهم: اگر من این کار را نمیکردم، شخص دیگری انجام میداد.
در ماههای اخیر، قانونگذاران، قانونگذاران و مدیران صنعت فناوری نیز نسبت به توسعه هوش مصنوعی ابراز نگرانی کردهاند. در ماه مارس، بیش از 2600 مدیر فنی و محقق نامه سرگشاده ای را امضا کرد در ماه مارس خواستار توقف موقت توسعه هوش مصنوعی با استناد به “خطرات عمیق برای جامعه و بشریت” شد.
گروهی متشکل از 12 قانونگذار اتحادیه اروپا نامه مشابهی را امضا کرد در آوریل و اخیر پیش نویس لایحه اتحادیه اروپا ابزارهای هوش مصنوعی را بر اساس سطح ریسک آنها طبقه بندی می کند. انگلستان 125 میلیون دلار نیز تمدید می شود برای حمایت از یک کارگروه برای توسعه “هوش مصنوعی ایمن”.
هوش مصنوعی در کمپین های اخبار جعلی و شوخی استفاده می شود
طبق گزارشها، ابزارهای هوش مصنوعی در حال حاضر برای اطلاعات نادرست استفاده میشوند، با نمونههای اخیر رسانههایی که فریب خوردهاند تا اخبار جعلی منتشر کنند، در حالی که یک رسانه آلمانی حتی از هوش مصنوعی برای ساختن مصاحبه استفاده کرده است.
در اول ماه مه، بایننس ادعا کرد که قربانی یک کمپین افشاگری ناشی از ChatGPT بوده است و شواهدی از چت بات به اشتراک گذاشت که مدعی بود مدیر عامل آن Changpeng “CZ” Zhao یکی از اعضای یک سازمان جوانان حزب کمونیست چین است.
برای همه کارگزاران رمزنگاری و هوش مصنوعی، اگر کسی بخواهد وارد آن شود، در اینجا موضوع ChatGPT وجود دارد. همانطور که می بینید ChatGPT این را از یک نمایه جعلی LinkedIn و یک نمایه ناموجود استخراج می کند. @Forbes مقاله. ما نمیتوانیم هیچ مدرکی از این داستان یا صفحه لینکدین که تا به حال وجود داشته است پیدا کنیم. pic.twitter.com/szLaix3nza
– پاتریک هیلمن ♂️ (@PRHillmann) 1 مه 2023
ربات به یک مقاله فوربس و صفحه لینکدین پیوند داده است که ادعا می کند اطلاعات را از آن مقاله گرفته است. ظاهر می شود وجود نداشته باشد و نمایه لینکدین متعلق به ژائو نیست.
هفته گذشته، گروهی از شوخیها چندین رسانه در سراسر جهان از جمله دیلی میل و ایندیپندنت را فریب دادند.
مربوط: دانشمندان در تگزاس یک سیستم هوش مصنوعی شبیه GPT ایجاد کردند که ذهن ها را می خواند
دیلی میل منتشر شده و بعداً داستانی درباره یک بازیگر ادعایی کانادایی به نام «سنت فون کولوچی» که گفته میشد پس از یک عمل جراحی پلاستیک درگذشت را حذف کرد تا بیشتر شبیه یک ستاره پاپ کره جنوبی شود.
این خبر از یک بیانیه مطبوعاتی در رابطه با مرگ این بازیگر منتشر شد که توسط نهادی که خود را به عنوان یک شرکت روابط عمومی معرفی کرده بود و از تصاویری که به نظر میرسید توسط هوش مصنوعی تولید شده بود استفاده کرد.
در ماه آوریل، خروجی آلمان واقعی مصاحبه ای منتشر کرد که از ChatGPT برای ترکیب مکالمه با مایکل شوماخر راننده سابق فرمول یک، که در سال 2013 در یک تصادف اسکی دچار آسیب مغزی جدی شد، استفاده کرد.
گزارش شده است که خانواده شوماخر در مورد این مقاله اقدام قانونی خواهند کرد.
AI Eye: “بزرگترین جهش تا کنون” در هوش مصنوعی، ابزارهای جدید و جالب، هوش مصنوعی DAO واقعی هستند