به نظر می‌رسد که نگرانی‌ها در مورد تخریب احتمالی که هوش مصنوعی می‌تواند برای بشریت انجام دهد فراتر از تصورات یا ایده‌هایی است که مخالفان انقلاب فناوری منتشر کرده‌اند. حتی توسعه دهندگان و حامیان آن اکنون نگران عواقب بالقوه تلاش انسان برای دنیایی مبتنی بر هوش مصنوعی هستند.

در یادداشت کوتاهی که در وب سایت این شرکت منتشر شده است، رهبران OpenAI، خالقان ChatGPT، خواستار قوانین سختگیرانه تر برای هوش مصنوعی «فوق العاده هوشمند» شده اند تا جهان را از نابودی در دست این ماشین ها نجات دهند.

بنیانگذاران، گرگ براکمن و ایلیا سوتسکور و مدیر اجرایی، سام آلتمن، می گویند که معادل آژانس بین المللی انرژی اتمی (IAEA)، آژانسی که مسئول بررسی استفاده و کاربرد انرژی اتمی و هسته ای در سطح جهان است، نیاز است تا از بشریت در برابر خطر ایجاد تصادفی چیزی با قدرت تخریب آن محافظت کنید.

در این پست، آنها از یک تنظیم کننده بین المللی خواستند تا شروع به کار در مورد چگونگی “بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی، [and] برای کاهش خطر وجودی که چنین سیستم‌هایی می‌توانند ایجاد کنند، محدودیت‌هایی برای درجات استقرار و سطوح امنیتی ایجاد کنید. نگهبان.

آنها می نویسند: “می توان تصور کرد که در 10 سال آینده، سیستم های هوش مصنوعی در بیشتر حوزه ها از سطح مهارت های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت های امروزی فعالیت های سازنده ای را انجام دهند.”

از نظر جنبه‌های مثبت و منفی بالقوه، ابر هوش قوی‌تر از سایر فناوری‌هایی است که بشر در گذشته مجبور به مبارزه با آن‌ها بوده است. ما می‌توانیم آینده‌ای به‌طور چشمگیری مرفه‌تر داشته باشیم، اما برای رسیدن به آن باید ریسک را مدیریت کنیم. با توجه به احتمال خطر وجودی، ما نمی توانیم فقط واکنش نشان دهیم.»

در کوتاه‌مدت، این سه نفر خواستار «درجاتی از هماهنگی» میان شرکت‌هایی شدند که بر روی تحقیقات پیشرفته هوش مصنوعی کار می‌کنند، تا اطمینان حاصل شود که توسعه مدل‌های قوی‌تر به راحتی با جامعه ادغام می‌شود و در عین حال ایمنی را در اولویت قرار می‌دهد. این هماهنگی می‌تواند از طریق یک پروژه تحت رهبری دولت، به عنوان مثال، یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.

همچنین بخوانید: “نیجریه بزرگترین پذیرنده هوش مصنوعی در آفریقا بوده است” – سم آلتمن از هوش مصنوعی باز

سام آلتمن چرخش را انجام می دهد

من اخیراً این فرصت را داشتم که در اتاقی با سام آلتمن، بنیانگذار و مدیر عامل OpenAI باشم، زیرا او در مورد پتانسیل هوش مصنوعی مولد برای بهبود قابل توجه جهان و کمک به انسان ها در بالا بردن سطح بهره وری خود صحبت کرد.

سام آلتمن در لاگوس
سام آلتمن از OPenAI گفت که نیجریه، در میان تمام کشورهای این قاره، بزرگترین پذیرنده فناوری های آنها بوده است.

او خاطرنشان کرد که بدبینی و نگرانی زیادی در مورد برخی از خطرات مرتبط با استفاده از هوش مصنوعی نه تنها در ایالات متحده بلکه در سطح جهانی وجود داشته است، بنابراین نیاز به حل آن در سطح جهانی است. اما او همچنین اشاره کرد که بیشتر نگران نظارت بیش از حد این فناوری است، زیرا مشکلات درک شده هنوز شناخته نشده است.

“کشورهای مختلف قوانین خود را تعیین می کنند، اما صادقانه بگویم، من نگران مقررات بیش از حد هستم. من فکر می‌کنم با تنظیم بیش از حد، راحت‌تر می‌توان فناوری جدیدی مانند این را اشتباه گرفت. و به طور کلی، قبل از اینکه به آنها رسیدگی کنید، می خواهید ببینید که مشکلات واقعی چیست.”

سام آلتمن

اکنون، در یک چرخش شگفت‌انگیز، به نظر می‌رسد که مدیر عامل OpenAI ممکن است ترس بسیاری از افراد در آن فضا را تأیید کند، که هم بنیانگذار سابق او، ایلان ماسک نیز از آن ابراز داشته است. به غیر از ماسک، محققان قبلاً در مورد خطرات بالقوه ابر هوش برای دهه‌ها هشدار داده بودند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینی‌تر شده‌اند.

بنابراین، آیا این بدان معناست که هوش مصنوعی واقعاً می تواند بشریت را نابود کند، و اگر می تواند، دقیقاً در چه زمینه ای؟

این 5 مهارت ضروری را برای افزایش شانس خود برای رسیدن به یک شغل هوش مصنوعی با درآمد بالا تسلط دهید

آیا هوش مصنوعی می تواند بشریت را نابود کند؟

مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای “کاهش خطرات هوش مصنوعی در مقیاس اجتماعی” کار می کند، هشت دسته از خطرات “فاجعه بار” و “وجودی” را که توسعه هوش مصنوعی می تواند ایجاد کند، توصیف می کند.

در حالی که برخی نگران این هستند که هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیب های زیانبار دیگری را توصیف می کند.

جهانی که در آن سیستم‌های هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست می‌آورند، می‌تواند منجر به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشین‌ها توسط بشر» شود که به عنوان «ناتوانی» توصیف می‌شود. و گروه کوچکی از افراد که سیستم‌های قدرتمند را کنترل می‌کنند، می‌توانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند، که منجر به «قفل کردن ارزش» شود، یک سیستم کاست ابدی بین حاکمان و حاکمان.

این نگرانی‌ها قبلاً توسط کشورها، کارشناسان و توسعه‌دهندگان در سطح جهان ابراز شده است. یکی از زمینه هایی که ممکن است مردم را از خود بیگانه کند، شغل آنها را حذف کند، به فقر گسترده منجر شود یا حتی منجر به مرگ شود، آینده کار بوده است.

نظام ارزشی جهانی و بخش آموزش دو مورد دیگر هستند. توسعه تهاجمی فزاینده روبات‌های فوق‌هوشمند، تهدیدی برای بیگانگی و ویرانی نهایی برای فرهنگ‌ها و سیستم‌های اجتماعی طولانی مدت، به‌ویژه در آفریقا است.

مبارزه با ابزارهای هوش مصنوعی مانند ChatGPT

اگرچه ممکن است این یک شبه اتفاق نیفتد، اما با توجه به موج کنونی تحقیق و گفتمان درباره احتمالات، ممکن است زودتر اتفاق بیفتد.

رهبران OpenAI می گویند که این خطرات به این معنی است که “مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیت ها و پیش فرض های سیستم های هوش مصنوعی تصمیم بگیرند”، اما اذعان دارند که “ما هنوز نمی دانیم چگونه چنین مکانیزمی را طراحی کنیم”. با این حال، آنها می گویند که توسعه مداوم سیستم های قدرت ارزش ریسک را دارد. اما آیا این است؟

ما معتقدیم که به دنیایی بسیار بهتر از آنچه امروز می‌توانیم تصور کنیم منجر خواهد شد (ما در حال حاضر نمونه‌های اولیه آن را در زمینه‌هایی مانند آموزش، کار خلاق و بهره‌وری شخصی می‌بینیم).” می نویسند.

آنها هشدار می دهند که توقف توسعه نیز می تواند خطرناک باشد. “از آنجایی که نقاط مثبت بسیار زیاد است، هزینه ساخت آن هر سال کاهش می‌یابد، تعداد بازیگرانی که آن را می‌سازند به سرعت در حال افزایش است، و ذاتاً بخشی از مسیر تکنولوژیکی است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد، و حتی این کار تضمینی نیست. پس باید درستش کنیم.

در میان جنگ های هوش مصنوعی توسط گوگل و مایکروسافت، اپل ممکن است حتی با “سکوت” یک گام جلوتر باشد.



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.