مقامات گروه هفت (G7) هفته آینده جلسه ای تشکیل خواهند داد تا در مورد اهمیت سیاست های نظارتی هوش مصنوعی و چالش های ارائه شده توسط ابزارهای مولد هوش مصنوعی، از جمله ChatGPT، رویترز گفتگو کنند. گزارش ها.
ژاپن ریاست این نشست را بر عهده خواهد داشت تا در مورد موضوعات مختلف مربوط به حفاظت از مالکیت معنوی، اطلاعات نادرست و حاکمیت چنین فناوری صحبت کند.
در بیانیه سالانه اجلاس سران، خوانده شد در این راستا، ما وزرای مربوطه را موظف میکنیم تا فرآیند هوش مصنوعی هیروشیما را از طریق یک گروه کاری G7، به شیوهای فراگیر و با همکاری OECD و GPAI، برای بحث در مورد هوش مصنوعی مولد تا پایان سال جاری ایجاد کنند.
رهبران G7 قبلاً توافق کرده بودند که “فرآیند هوش مصنوعی هیروشیما” را ایجاد کنند، یک انجمن بین دولتی که به بررسی نگرانیهای مرتبط با ابزارهای هوش مصنوعی در حال پیشرفت سریع اختصاص دارد. این گفتگوها در G7 در بحبوحه تلاشهای جهانی تنظیمکنندههای فناوری برای ارزیابی تأثیر سرویسهای هوش مصنوعی محبوب مانند ChatGPT که توسط OpenAI و با پشتیبانی مایکروسافت توسعه یافته است، انجام میشود.
در ادامه این بیانیه آمده است:ما نیاز به بررسی فرصتها و چالشهای هوش مصنوعی مولد فوری را تشخیص میدهیم، که به طور فزایندهای در بین کشورها و بخشها برجسته است و سازمانهای بینالمللی مانند OECD را تشویق میکند تا تجزیه و تحلیل تأثیر تحولات سیاست و مشارکت جهانی بر هوش مصنوعی (GPAI) را در نظر بگیرند. برای انجام پروژه های عملی
همچنین قانونگذاران اروپایی در حال بررسی وضع مقررات سختگیرانه بر فناوری هوش مصنوعی هستند. در صورت اجرا، این مقررات می تواند به اولین قانون جامع هوش مصنوعی در جهان تبدیل شود و به عنوان سابقه ای برای سایر اقتصادهای پیشرفته عمل کند.
هوش مصنوعی مولد در میان فقدان سیاست های نظارتی هوش مصنوعی اوج می گیرد
ما شاهد نمونه های متعددی از تصاویر جعلی تولید شده توسط هوش مصنوعی بوده ایم که توجه گسترده ای را در سراسر جهان به خود جلب کرده است. نمونهها از عکس «چکة مقدس» پاپ گرفته تا تصاویر دستکاری شدهای که دستگیری دونالد ترامپ یا رئیسجمهور پوتین را در پشت میلههای زندان به تصویر میکشد. این تصاویر، در نگاه اول، فوقالعاده واقعی به نظر میرسیدند و پتانسیل آن را داشتند که کمپینها یا اعتراضات قابل توجهی را برانگیزند.
همچنین بخوانید: بنیانگذاران OpenAI نگرانند که اگر هوش مصنوعی «فوقهوشمند» جهان را نابود کند، اگر نظارت دقیقی نداشته باشد.
اخیراً یک مورد به خصوص قابل توجه با یک عکس ساختگی از انفجار پنتاگون ظاهر شد که نه تنها باعث سردرگمی شد، بلکه پتانسیل تأثیرگذاری بر بازار سهام را نیز داشت. یورونیوز گزارش داد. این حادثه نمونه قابل توجهی را نشان می دهد که در آن یک تصویر تولید شده توسط هوش مصنوعی فراتر از ایجاد سردرگمی رفته است و این پتانسیل را دارد که پیامدهای گسترده تری داشته باشد.
علاوه بر پیامدهای جعلی های عمیق و تصاویر تولید شده توسط هوش مصنوعی، هوش مصنوعی تولیدی نیز بر نگرانی های امنیت ملی تأثیر گذاشته است. در حالی که هوش مصنوعی می تواند کارایی عملیاتی و اثربخشی سازمان های دفاعی و امنیتی را افزایش دهد، استفاده از آن خطرات قابل توجهی را نیز به همراه دارد.
یکی از این خطرات شامل پتانسیل سیستمهای هوش مصنوعی مولد برای اتخاذ تصمیمهای مغرضانه یا تبعیضآمیز است. علاوه بر این، با توجه به توانایی هوش مصنوعی در پردازش حجم وسیعی از داده ها و ایجاد بینش، خطر هک، دستکاری و استفاده از هوش مصنوعی در سیستم های تسلیحاتی خودمختار افزایش می یابد.
این نگرانی های اخلاقی خطرات قابل توجهی را برای غیرنظامیان، امنیت ملی و حتی نقض بالقوه قوانین بین المللی ایجاد می کند. این موضوعات اهمیت بررسی دقیق پیامدهای خط مشی پیرامون استفاده از هوش مصنوعی و اجرای مقرراتی را که هنجارهای اخلاقی و قانونی را ترویج می کنند، توسط سیاستگذاران برجسته می کند.
با توجه به آسیب های احتمالی که می تواند از سوء استفاده یا استقرار کنترل نشده هوش مصنوعی به وجود بیاید، برای سیاست گذاران ضروری است که به طور فعال به این چالش ها رسیدگی کنند و چارچوب هایی ایجاد کنند که عملکردهای هوش مصنوعی مسئولانه و پاسخگو را تضمین کند. با انجام این کار، آنها می توانند محیطی ایجاد کنند که در آن از فناوری های مولد هوش مصنوعی برای حفظ استانداردهای اخلاقی، محافظت از افراد و جوامع و رعایت اصول قانونی استفاده شود.
نشست G7 که قرار است هفته آینده برگزار شود، به بررسی این چالش های حاکمیتی مشترک و شناسایی شکاف ها و پراکندگی های بالقوه در حکمرانی فناوری جهانی می پردازد.