برای دومین بار در این ماه، سام آلتمن، مدیر عامل OpenAI به واشنگتن رفت تا در مورد هوش مصنوعی با ایالات متحده گفتگو کند سیاست گذاران. آلتمن در کنار کریستینا مونتگومری، افسر ارشد حریم خصوصی و اعتماد IBM و گری مارکوس، پروفسور بازنشسته در دانشگاه نیویورک، در مقابل کمیته قضایی سنای ایالات متحده ظاهر شد.
هنگامی که سناتور لوئیزیانا جان کندی پرسید که چگونه باید هوش مصنوعی را تنظیم کنند، آلتمن گفت که یک اداره دولتی باید تشکیل شود و مسئول تعیین استانداردها شود.
آلتمن گفت: «من یک آژانس جدید تشکیل خواهم داد که به هر تلاشی بالاتر از مقیاس مشخصی از قابلیتها مجوز میدهد و میتواند آن مجوز را بگیرد و از انطباق با استانداردهای ایمنی اطمینان حاصل کند». فن آوری.
او گفت: «نه فقط از طرف شرکت یا آژانس، بلکه کارشناسانی که میتوانند بگویند مدل مطابق با وضعیت و آستانه ایمنی و این درصدهای عملکرد در سؤال X یا Y است یا نیست.»
در حالی که آلتمن گفت دولت باید این فناوری را تنظیم کند، او از ایده رهبری آژانس خودداری کرد. او گفت: «من عاشق شغل فعلی ام هستم.
پروفسور مارکوس با استفاده از FDA به عنوان مثال گفت که باید یک بررسی ایمنی برای هوش مصنوعی انجام شود که مشابه نحوه بررسی داروها قبل از عرضه به بازار باشد.
پروفسور مارکوس افزود: “اگر می خواهید چیزی را به 100 میلیون نفر معرفی کنید، کسی باید به آن توجه کند.”
او گفت که آژانس باید زیرک باشد و بتواند آنچه را که در صنعت می گذرد دنبال کند. پروژهها را از قبل بازبینی میکند و همچنین پس از انتشار در جهان، آنها را بررسی میکند – با اختیار فراخواندن فناوری در صورت لزوم.
مونتگومری از IBM افزود: «این به شفافیت و توضیح در هوش مصنوعی برمی گردد. “ما باید بیشترین استفاده از ریسک را تعریف کنیم، [and] نیاز به مواردی مانند ارزیابی تاثیر و شفافیت، الزام شرکتها برای نشان دادن کار خود، و حفاظت از دادههای مورد استفاده برای آموزش هوش مصنوعی در وهله اول.”
دولت ها در سراسر جهان همچنان با گسترش هوش مصنوعی در جریان اصلی دست و پنجه نرم می کنند. در ماه دسامبر، اتحادیه اروپا قانون هوش مصنوعی را برای ترویج جعبههای ایمنی نظارتی که توسط مقامات دولتی برای آزمایش هوش مصنوعی قبل از انتشار آن ایجاد شده بود، تصویب کرد.
پارلمان اروپا برای اطمینان از توسعه انسان محور و اخلاقی هوش مصنوعی در اروپا، نمایندگان پارلمان اروپا قوانین جدید شفافیت و مدیریت ریسک را برای سیستم های هوش مصنوعی تایید کردند. نوشت.
در ماه مارس، ایتالیا به دلیل نگرانیهای مربوط به حفظ حریم خصوصی، ChatGPT OpenAI را ممنوع کرد. ممنوعیت بود برداشته شد در آوریل، پس از آن که OpenAI تغییراتی را در تنظیمات حریم خصوصی خود ایجاد کرد تا به کاربران اجازه دهد از استفاده از داده های خود برای آموزش ربات چت خودداری کنند و سابقه چت خود را خاموش کنند.
مونتگومری ادامه داد: «در پاسخ به این سوال که آیا ما به یک آژانس مستقل نیاز داریم، فکر میکنم نمیخواهیم در حال حاضر سرعت مقررات را برای رسیدگی به ریسکهای واقعی کاهش دهیم.
او اذعان کرد که این نهادهای نظارتی فاقد منابع هستند و فاقد اختیارات لازم هستند.
مونتگومری گفت: «هوش مصنوعی اساساً باید در نقطه خطر تنظیم شود. “و این نقطه ای است که در آن فناوری با جامعه ملاقات می کند.”