مقامات گروه هفت (G7) هفته آینده جلسه ای تشکیل خواهند داد تا در مورد اهمیت سیاست های نظارتی هوش مصنوعی و چالش های ارائه شده توسط ابزارهای مولد هوش مصنوعی، از جمله ChatGPT، رویترز گفتگو کنند. گزارش ها.

ژاپن ریاست این نشست را بر عهده خواهد داشت تا در مورد موضوعات مختلف مربوط به حفاظت از مالکیت معنوی، اطلاعات نادرست و حاکمیت چنین فناوری صحبت کند.

در بیانیه سالانه اجلاس سران، خوانده شد در این راستا، ما وزرای مربوطه را موظف می‌کنیم تا فرآیند هوش مصنوعی هیروشیما را از طریق یک گروه کاری G7، به شیوه‌ای فراگیر و با همکاری OECD و GPAI، برای بحث در مورد هوش مصنوعی مولد تا پایان سال جاری ایجاد کنند.

رهبران G7 قبلاً توافق کرده بودند که “فرآیند هوش مصنوعی هیروشیما” را ایجاد کنند، یک انجمن بین دولتی که به بررسی نگرانی‌های مرتبط با ابزارهای هوش مصنوعی در حال پیشرفت سریع اختصاص دارد. این گفتگوها در G7 در بحبوحه تلاش‌های جهانی تنظیم‌کننده‌های فناوری برای ارزیابی تأثیر سرویس‌های هوش مصنوعی محبوب مانند ChatGPT که توسط OpenAI و با پشتیبانی مایکروسافت توسعه یافته است، انجام می‌شود.

در ادامه این بیانیه آمده است:ما نیاز به بررسی فرصت‌ها و چالش‌های هوش مصنوعی مولد فوری را تشخیص می‌دهیم، که به طور فزاینده‌ای در بین کشورها و بخش‌ها برجسته است و سازمان‌های بین‌المللی مانند OECD را تشویق می‌کند تا تجزیه و تحلیل تأثیر تحولات سیاست و مشارکت جهانی بر هوش مصنوعی (GPAI) را در نظر بگیرند. برای انجام پروژه های عملی

همچنین قانونگذاران اروپایی در حال بررسی وضع مقررات سختگیرانه بر فناوری هوش مصنوعی هستند. در صورت اجرا، این مقررات می تواند به اولین قانون جامع هوش مصنوعی در جهان تبدیل شود و به عنوان سابقه ای برای سایر اقتصادهای پیشرفته عمل کند.

هوش مصنوعی مولد در میان فقدان سیاست های نظارتی هوش مصنوعی اوج می گیرد

کشورهای G7 در میان چالش‌های بالقوه درباره سیاست‌های نظارتی هوش مصنوعی بحث می‌کنند

ما شاهد نمونه های متعددی از تصاویر جعلی تولید شده توسط هوش مصنوعی بوده ایم که توجه گسترده ای را در سراسر جهان به خود جلب کرده است. نمونه‌ها از عکس «چکة مقدس» پاپ گرفته تا تصاویر دستکاری شده‌ای که دستگیری دونالد ترامپ یا رئیس‌جمهور پوتین را در پشت میله‌های زندان به تصویر می‌کشد. این تصاویر، در نگاه اول، فوق‌العاده واقعی به نظر می‌رسیدند و پتانسیل آن را داشتند که کمپین‌ها یا اعتراضات قابل توجهی را برانگیزند.

همچنین بخوانید: بنیانگذاران OpenAI نگرانند که اگر هوش مصنوعی «فوق‌هوشمند» جهان را نابود کند، اگر نظارت دقیقی نداشته باشد.

اخیراً یک مورد به خصوص قابل توجه با یک عکس ساختگی از انفجار پنتاگون ظاهر شد که نه تنها باعث سردرگمی شد، بلکه پتانسیل تأثیرگذاری بر بازار سهام را نیز داشت. یورونیوز گزارش داد. این حادثه نمونه قابل توجهی را نشان می دهد که در آن یک تصویر تولید شده توسط هوش مصنوعی فراتر از ایجاد سردرگمی رفته است و این پتانسیل را دارد که پیامدهای گسترده تری داشته باشد.

علاوه بر پیامدهای جعلی های عمیق و تصاویر تولید شده توسط هوش مصنوعی، هوش مصنوعی تولیدی نیز بر نگرانی های امنیت ملی تأثیر گذاشته است. در حالی که هوش مصنوعی می تواند کارایی عملیاتی و اثربخشی سازمان های دفاعی و امنیتی را افزایش دهد، استفاده از آن خطرات قابل توجهی را نیز به همراه دارد.

Home Land Security امروز

یکی از این خطرات شامل پتانسیل سیستم‌های هوش مصنوعی مولد برای اتخاذ تصمیم‌های مغرضانه یا تبعیض‌آمیز است. علاوه بر این، با توجه به توانایی هوش مصنوعی در پردازش حجم وسیعی از داده ها و ایجاد بینش، خطر هک، دستکاری و استفاده از هوش مصنوعی در سیستم های تسلیحاتی خودمختار افزایش می یابد.

این نگرانی های اخلاقی خطرات قابل توجهی را برای غیرنظامیان، امنیت ملی و حتی نقض بالقوه قوانین بین المللی ایجاد می کند. این موضوعات اهمیت بررسی دقیق پیامدهای خط مشی پیرامون استفاده از هوش مصنوعی و اجرای مقرراتی را که هنجارهای اخلاقی و قانونی را ترویج می کنند، توسط سیاستگذاران برجسته می کند.

با توجه به آسیب های احتمالی که می تواند از سوء استفاده یا استقرار کنترل نشده هوش مصنوعی به وجود بیاید، برای سیاست گذاران ضروری است که به طور فعال به این چالش ها رسیدگی کنند و چارچوب هایی ایجاد کنند که عملکردهای هوش مصنوعی مسئولانه و پاسخگو را تضمین کند. با انجام این کار، آنها می توانند محیطی ایجاد کنند که در آن از فناوری های مولد هوش مصنوعی برای حفظ استانداردهای اخلاقی، محافظت از افراد و جوامع و رعایت اصول قانونی استفاده شود.

نشست G7 که قرار است هفته آینده برگزار شود، به بررسی این چالش های حاکمیتی مشترک و شناسایی شکاف ها و پراکندگی های بالقوه در حکمرانی فناوری جهانی می پردازد.



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *