بیش از 2600 رهبر فناوری و محقق با امضای نامه ای سرگشاده خواستار توقف موقت توسعه بیشتر هوش مصنوعی (AI) شده اند، زیرا از خطرات عمیق برای جامعه و بشریت می ترسند.

ایلان ماسک، مدیرعامل تسلا، استیو وزنیاک از بنیانگذاران اپل و تعدادی از مدیران عامل هوش مصنوعی، مدیران ارشد فناوری و محققان از جمله امضاکنندگان این نامه بودند. نوشته شده است توسط اندیشکده ایالات متحده مؤسسه آینده زندگی (FOLI) در 22 مارس.

این مؤسسه از همه شرکت‌های هوش مصنوعی خواست تا آموزش سیستم‌های هوش مصنوعی را که از GPT-4 قوی‌تر هستند برای حداقل شش ماه «فوراً متوقف کنند» و نگرانی‌هایی را در مورد اینکه «هوش رقابتی انسانی می‌تواند خطرات عمیقی برای جامعه و بشریت ایجاد کند» را به اشتراک بگذارند. :

هوش مصنوعی پیشرفته می تواند نشان دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود. این موسسه در نامه خود نوشت: متاسفانه این سطح از برنامه ریزی و مدیریت اتفاق نمی افتد.

GPT-4 آخرین نسخه چت ربات مبتنی بر هوش مصنوعی OpenAI است که در 14 مارس منتشر شد. تا به امروز، برخی از سخت‌گیرانه‌ترین موارد را پشت سر گذاشته است امتحانات دبیرستان و حقوق ایالات متحده در صدک 90. گفته می شود که 10 برابر پیشرفته تر از نسخه اصلی ChatGPT است.

FOLI ادعا می‌کند که «مسابقه‌ای خارج از کنترل» بین شرکت‌های هوش مصنوعی برای توسعه هوش مصنوعی قوی‌تر وجود دارد که «هیچ‌کس – حتی سازندگان آنها – نمی‌توانند آن را درک کنند، پیش‌بینی کنند یا به طور قابل اعتماد کنترل کنند».

در میان نگرانی‌های اصلی این بود که آیا ماشین‌ها می‌توانند کانال‌های اطلاعاتی را بالقوه با «تبلیغ و دروغ» پر کنند و آیا ماشین‌ها همه فرصت‌های شغلی را «خودکار» می‌کنند.

FOLI این نگرانی‌ها را یک قدم جلوتر برد و نشان داد که تلاش‌های کارآفرینانه این شرکت‌های هوش مصنوعی ممکن است به یک تهدید وجودی منجر شود:

آیا باید ذهن‌های غیرانسانی را پرورش دهیم که در نهایت ممکن است از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟»

در این نامه افزوده شده است: «چنین تصمیماتی نباید به رهبران فناوری منتخب واگذار شود.

این موسسه همچنین با الف اخیر بیانیه سام آلتمن، بنیانگذار OpenAI مبنی بر اینکه ممکن است قبل از آموزش سیستم های هوش مصنوعی آینده، یک بررسی مستقل لازم باشد.

آلتمن در پست وبلاگ خود در 24 فوریه نیاز به آماده شدن برای ربات های هوش عمومی مصنوعی (AGI) و ابر هوش مصنوعی (ASI) را برجسته کرد.

اگرچه همه کارشناسان هوش مصنوعی برای امضای این طومار عجله نکرده اند. بن گورتزل، مدیر عامل SingularityNET در پاسخ توییتری ۲۹ مارس به گری مارکوس، نویسنده Rebooting.AI توضیح داد که مدل‌های یادگیری زبان (LLM) تبدیل به AGI نمی‌شوند، که تا به امروز وجود داشته است. چند پیشرفت از.

در عوض، او گفت که تحقیق و توسعه برای چیزهایی مانند سلاح‌های زیستی و هسته‌ای باید کند شود:

علاوه بر مدل‌های یادگیری زبان مانند ChatGPT، مجهز به هوش مصنوعی تکنولوژی جعلی عمیق برای ایجاد تصاویر متقاعد کننده، حقه های صوتی و تصویری استفاده شده است. این فناوری همچنین برای ایجاد آثار هنری تولید شده توسط هوش مصنوعی مورد استفاده قرار گرفته است، با نگرانی هایی در مورد اینکه آیا می تواند قوانین کپی رایت را در موارد خاص نقض کند یا خیر.

مربوط: ChatGPT اکنون می تواند با افزونه های OpenAI جدید به اینترنت دسترسی داشته باشد

مایک نووگراتز، مدیرعامل Galaxy Digital اخیراً به سرمایه گذاران گفته است او شوکه شد بیش از حد توجه نظارتی به رمزارزها شده است، در حالی که کمی به سمت هوش مصنوعی شده است.

وقتی به هوش مصنوعی فکر می‌کنم، من را شوکه می‌کند که ما در مورد مقررات ارز دیجیتال صحبت می‌کنیم و چیزی درباره مقررات هوش مصنوعی صحبت نمی‌کنیم. منظورم این است که فکر می‌کنم دولت این موضوع را کاملا وارونه کرده است.

FOLI استدلال کرده است که اگر توسعه هوش مصنوعی به سرعت تصویب نشود، دولت‌ها باید با تعلیق درگیر شوند.

«این مکث باید عمومی و قابل تأیید باشد و همه بازیگران کلیدی را شامل شود. اگر چنین مکثی نمی تواند به سرعت اعمال شود، دولت ها باید وارد عمل شوند و یک تعلیق را وضع کنند.

مجله: چگونه با استفاده از بلاک چین از «نابودی بشریت» توسط هوش مصنوعی جلوگیری کنیم؟



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.