ده ها متخصص هوش مصنوعی (AI) از جمله مدیران عامل OpenAI، Google DeepMind و Anthropic اخیرا بیانیه ای را امضا کردند که توسط مرکز ایمنی هوش مصنوعی (CAIS) منتشر شده است.
ما فقط یک بیانیه منتشر کردیم:
کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
امضاکنندگان عبارتند از: Hinton، Bengio، Altman، Hassabis، Song و غیره.https://t.co/N9f6hs4bpa
(1/6)
— دن هندریکس (@DanHendrycks) 30 مه 2023
صورتحساب شامل یک جمله واحد:
کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
در میان امضاکنندگان سند، یک “چه کسی” واقعی از افراد برجسته هوش مصنوعی، از جمله “پدرخوانده” هوش مصنوعی، جفری هینتون; استوارت راسل دانشگاه کالیفرنیا، برکلی. و لکس فریدمن از موسسه فناوری ماساچوست. نوازنده گریمز نیز یکی از امضاکنندگان است که در دسته «دیگر چهرههای برجسته» فهرست شده است.
مربوط: نوازنده گریمز مایل است 50 درصد حق امتیاز را با موسیقی تولید شده توسط هوش مصنوعی تقسیم کند
در حالی که این بیانیه ممکن است در ظاهر بی ضرر به نظر برسد، پیام اصلی تا حدودی بحث برانگیز در جامعه هوش مصنوعی است.
تعداد به ظاهر رو به رشدی از کارشناسان بر این باورند که فناوریهای کنونی ممکن است به شکل اجتناب ناپذیری منجر به ظهور یا توسعه یک سیستم هوش مصنوعی شود که میتواند تهدیدی وجودی برای گونهی انسان باشد.
با این حال، نظرات آنها توسط گروهی از کارشناسان با نظرات کاملاً متضاد مخالفت می شود. به عنوان مثال، یان لیکان، دانشمند ارشد هوش مصنوعی متا، چنین کرده است اشاره شد در موارد متعددی که او لزوماً معتقد نیست که هوش مصنوعی غیرقابل کنترل خواهد شد.
هوش مصنوعی ابرانسان در صدر فهرست خطرات وجودی قرار ندارد.
تا حد زیادی به این دلیل که هنوز وجود ندارد.تا زمانی که یک طراحی اساسی برای هوش مصنوعی حتی در سطح سگ (چه رسد به سطح انسانی) نداشته باشیم، بحث در مورد چگونگی ایمن کردن آن زودهنگام است. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) 30 مه 2023
برای او و دیگرانی که با لفاظی «انقراض» مخالف هستند، مانند اندرو نگ، یکی از بنیانگذاران Google Brain و دانشمند ارشد سابق بایدو، هوش مصنوعی مشکل نیست، بلکه پاسخ است.
در طرف دیگر بحث، کارشناسانی مانند هینتون و کانر لیهی، مدیرعامل Conjecture معتقدند که هوش مصنوعی در سطح انسانی اجتنابناپذیر است و به همین دلیل، اکنون زمان اقدام فرا رسیده است.
روسای تمام آزمایشگاههای اصلی هوش مصنوعی این نامه را امضا کردند که به صراحت خطر انقراض ناشی از AGI را تایید کرد.
گامی باورنکردنی به جلو، به دن به خاطر کار باورنکردنی اش در کنار هم گذاشتن آن تبریک می گویم و از همه امضاکنندگان برای انجام سهم خود برای آینده ای بهتر تشکر می کنیم! https://t.co/KDkqWvdJcH
— کانر لیهی (@NPCollapse) 30 مه 2023
با این حال، مشخص نیست که امضاکنندگان بیانیه خواستار چه اقداماتی هستند. مدیران عامل و/یا روسای هوش مصنوعی تقریباً هر شرکت بزرگ هوش مصنوعی، و همچنین دانشمندان مشهور از سراسر دانشگاه، از جمله کسانی هستند که امضا کردند و واضح است که هدف متوقف کردن توسعه این سیستمهای بالقوه خطرناک نیست.
در اوایل ماه جاری، سام آلتمن، مدیر عامل OpenAI، یکی از امضاکنندگان بیانیه فوق الذکر، اولین حضور خود را در کنگره در طی جلسه استماع سنا برای بحث در مورد مقررات هوش مصنوعی انجام داد. شهادت او پس از گذراندن اکثریت آن خبرساز شد از قانونگذاران خواست تا صنعت خود را تنظیم کنند.
Altman’s Worldcoin، پروژه ای که رمزارز و اثبات شخصیت را ترکیب می کند، اخیراً پس از آن در رسانه ها راه اندازی شده است. جمع آوری 115 میلیون دلار بودجه سری C، مجموع بودجه خود را پس از سه دور به 240 میلیون دلار رساند.