سام آلتمن، مدیر عامل OpenAI، کریستینا مونتگومری، معاون اعتماد و حریم خصوصی IBM، و گری مارکوس، استاد بازنشسته NYU برنامه ریزی شده است برای شهادت در مقابل کنگره در 16 مه در مورد مقررات و نظارت بر هوش مصنوعی. در حالی که جزئیات در مورد دستور جلسه جلسه کمیاب است، عنوان “نظارت بر هوش مصنوعی: قوانین برای هوش مصنوعی” نشان می دهد که بحث بر روی ایمنی و حریم خصوصی متمرکز خواهد بود. مارکوس، که اخیراً حمایت خود را از یک «مکث» مبتنی بر جامعه در توسعه هوش مصنوعی به مدت شش ماه اعلام کرده است، تنها در میان شرکتکنندگان برنامهریزیشده است.
ایده مارکوس از مکث هوش مصنوعی در یک باز تعریف شد حرف در 22 مارس در وب سایت موسسه آینده زندگی منتشر شد که بیش از 27500 امضا جمع آوری کرد. هدف این نامه این است که «از همه آزمایشگاههای هوش مصنوعی بخواهد تا آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف کنند».
مدیر عامل OpenAI و کریستینا مونتگومری از جمله کسانی هستند که با این مکث مخالف هستند. مونتگومری معتقد است که یک مکث کامل در آموزش هوش مصنوعی، همراه با روندهای موجود که به نظر میرسد سرمایهگذاری در تلاشهای اخلاقی هوش مصنوعی صنعت را از اولویت خارج میکند، تنها منجر به آسیبها و شکستهای بیشتر خواهد شد. IBM معتقد است که هوش مصنوعی باید بر اساس ریسک تنظیم شود.
IBM و OpenAI مواضع مخالفی در مورد اخلاق هوش مصنوعی اتخاذ می کنند
OpenAI مسئول است ChatGPT، مسلماً محبوب ترین فناوری هوش مصنوعی موجود در سطح عمومی است. آلتمن از توسعه ایمن و اخلاقی سیستمهای هوش مصنوعی حمایت میکند، اما معتقد است که «همه را در بحث مشارکت میدهد» و «این سیستمها را به جهان عرضه میکند». مونتگومری، یکی از اعضای کمیته ملی مشاوره هوش مصنوعی ایالات متحده، با تاکید بر لزوم اولویتبندی اخلاقیات، رویکرد دقیقتری به مقررات هوش مصنوعی ارائه کرد.
جلسه استماع آتی سنا احتمالاً به عنوان یک انجمن برای سؤال پرسیدن اعضای کنگره عمل خواهد کرد. بسته به اینکه به کدام متخصص اعتقاد داشته باشید، این بحث می تواند پیامدهای مخربی داشته باشد. اگر کنگره تشخیص دهد که مقررات هوش مصنوعی مستحق یک دست سنگین است، مونتگومری بیم آن دارد که چنین تلاشهایی بدون توجه به نگرانیهای ایمنی، تأثیر وحشتناکی بر نوآوری داشته باشد.
این آسیب می تواند به بخش های عملیاتی که در آن فناوری GPT زیربنای تعداد زیادی از ربات ها و خدمات است، نفوذ کند. کارشناسانی مانند مارکوس و ایلان ماسک نگران هستند که عدم اجرای سیاست عقل سلیم مرتبط با نظارت بر هوش مصنوعی می تواند منجر به یک بحران وجودی برای بشریت شود.
جلسه استماع آتی سنا احتمالاً به این نیاز خواهد پرداخت هوش مصنوعی مقررات و نظارت در حالی که آلتمن و مونتگومری با توقف کامل توسعه هوش مصنوعی مخالف هستند، مارکوس از آن حمایت می کند. این بحث بسته به اینکه کنگره تشخیص دهد که مقررات هوش مصنوعی مستحق رسیدگی سنگین است یا خیر، میتواند پیامدهای مخربی داشته باشد. در حالی که مونتگومری از تأثیر وحشتناک نوآوری می ترسد، مارکوس و ماسک نگرانند که عدم اجرای سیاست عقل سلیم می تواند منجر به یک بحران وجودی برای نوع بشر شود.