سام آلتمن، مدیر عامل OpenAI، کریستینا مونتگومری، معاون اعتماد و حریم خصوصی IBM، و گری مارکوس، استاد بازنشسته NYU برنامه ریزی شده است برای شهادت در مقابل کنگره در 16 مه در مورد مقررات و نظارت بر هوش مصنوعی. در حالی که جزئیات در مورد دستور جلسه جلسه کمیاب است، عنوان “نظارت بر هوش مصنوعی: قوانین برای هوش مصنوعی” نشان می دهد که بحث بر روی ایمنی و حریم خصوصی متمرکز خواهد بود. مارکوس، که اخیراً حمایت خود را از یک «مکث» مبتنی بر جامعه در توسعه هوش مصنوعی به مدت شش ماه اعلام کرده است، تنها در میان شرکت‌کنندگان برنامه‌ریزی‌شده است.

ایده مارکوس از مکث هوش مصنوعی در یک باز تعریف شد حرف در 22 مارس در وب سایت موسسه آینده زندگی منتشر شد که بیش از 27500 امضا جمع آوری کرد. هدف این نامه این است که «از همه آزمایشگاه‌های هوش مصنوعی بخواهد تا آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف کنند».

مدیر عامل OpenAI و کریستینا مونتگومری از جمله کسانی هستند که با این مکث مخالف هستند. مونتگومری معتقد است که یک مکث کامل در آموزش هوش مصنوعی، همراه با روندهای موجود که به نظر می‌رسد سرمایه‌گذاری در تلاش‌های اخلاقی هوش مصنوعی صنعت را از اولویت خارج می‌کند، تنها منجر به آسیب‌ها و شکست‌های بیشتر خواهد شد. IBM معتقد است که هوش مصنوعی باید بر اساس ریسک تنظیم شود.

IBM و OpenAI مواضع مخالفی در مورد اخلاق هوش مصنوعی اتخاذ می کنند

OpenAI مسئول است ChatGPT، مسلماً محبوب ترین فناوری هوش مصنوعی موجود در سطح عمومی است. آلتمن از توسعه ایمن و اخلاقی سیستم‌های هوش مصنوعی حمایت می‌کند، اما معتقد است که «همه را در بحث مشارکت می‌دهد» و «این سیستم‌ها را به جهان عرضه می‌کند». مونتگومری، یکی از اعضای کمیته ملی مشاوره هوش مصنوعی ایالات متحده، با تاکید بر لزوم اولویت‌بندی اخلاقیات، رویکرد دقیق‌تری به مقررات هوش مصنوعی ارائه کرد.

جلسه استماع آتی سنا احتمالاً به عنوان یک انجمن برای سؤال پرسیدن اعضای کنگره عمل خواهد کرد. بسته به اینکه به کدام متخصص اعتقاد داشته باشید، این بحث می تواند پیامدهای مخربی داشته باشد. اگر کنگره تشخیص دهد که مقررات هوش مصنوعی مستحق یک دست سنگین است، مونتگومری بیم آن دارد که چنین تلاش‌هایی بدون توجه به نگرانی‌های ایمنی، تأثیر وحشتناکی بر نوآوری داشته باشد.

این آسیب می تواند به بخش های عملیاتی که در آن فناوری GPT زیربنای تعداد زیادی از ربات ها و خدمات است، نفوذ کند. کارشناسانی مانند مارکوس و ایلان ماسک نگران هستند که عدم اجرای سیاست عقل سلیم مرتبط با نظارت بر هوش مصنوعی می تواند منجر به یک بحران وجودی برای بشریت شود.

جلسه استماع آتی سنا احتمالاً به این نیاز خواهد پرداخت هوش مصنوعی مقررات و نظارت در حالی که آلتمن و مونتگومری با توقف کامل توسعه هوش مصنوعی مخالف هستند، مارکوس از آن حمایت می کند. این بحث بسته به اینکه کنگره تشخیص دهد که مقررات هوش مصنوعی مستحق رسیدگی سنگین است یا خیر، می‌تواند پیامدهای مخربی داشته باشد. در حالی که مونتگومری از تأثیر وحشتناک نوآوری می ترسد، مارکوس و ماسک نگرانند که عدم اجرای سیاست عقل سلیم می تواند منجر به یک بحران وجودی برای نوع بشر شود.

سلب مسئولیت. اطلاعات ارائه شده توصیه تجاری نیست. Cryptopolitan.com هیچ مسئولیتی در قبال سرمایه گذاری های انجام شده بر اساس اطلاعات ارائه شده در این صفحه ندارد. ما قویاً تحقیق مستقل و/یا مشاوره با یک متخصص واجد شرایط را قبل از هر گونه تصمیم گیری برای سرمایه گذاری توصیه می کنیم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.