مقامات اتحادیه اروپا (EU) از اقدامات اضافی برای ترویج شفافیت در ابزارهای هوش مصنوعی (AI) از جمله ChatGPT OpenAI برای مقابله با گسترش اطلاعات نادرست حمایت می کنند. ورا جورووا، معاون ارزشها و شفافیت در کمیسیون اروپا، بر نیاز شرکتهایی که از ابزارهای هوش مصنوعی مولد برای برچسبگذاری محتوای خود و اجرای تدابیر حفاظتی در برابر انتشار اطلاعات نادرست تولید شده توسط هوش مصنوعی استفاده میکنند، تاکید کرد.
ژورووا از امضاکنندگان، از جمله شرکتهای فناوری بزرگ مانند مایکروسافت و گوگل خواست تا پتانسیل هوش مصنوعی مولد برای تولید اطلاعات نادرست را بشناسند و اقداماتی را برای برچسبگذاری واضح چنین محتوایی انجام دهند. این حرکت کاربران را قادر می سازد تا بین اطلاعات واقعی و بالقوه گمراه کننده تفاوت قائل شوند. «آیین نامه عمل در مورد اطلاعات نادرست» موجود اتحادیه اروپا، که در سال 2018 ایجاد شد، به عنوان یک استاندارد خودتنظیمی برای صنعت فناوری برای مبارزه با اطلاعات نادرست عمل می کند. چندین شرکت فناوری برجسته، از جمله گوگل، مایکروسافت و متا پلتفرمها، کد اتحادیه اروپا را امضا کردهاند و انتظار میرود که در ماه جولای در مورد پادمانهای جدید خود برای محتوای تولید شده توسط هوش مصنوعی گزارش دهند.
با این حال، جورووا خاطر نشان خروج اخیر توییتر از این کد را اعلام کرد و هشدار داد که اقدامات این شرکت و انطباق با قوانین اتحادیه اروپا به دقت مورد بررسی قرار خواهد گرفت. همچنین معاون رئیس جمهور بر اهمیت رعایت استانداردهای نظارتی و مواجهه با ارزیابی دقیق توییتر تاکید کرد.
این بحث ها در مورد شفافیت و برچسب گذاری محتوای تولید شده توسط هوش مصنوعی بخشی از تلاش های گسترده اتحادیه اروپا برای تنظیم استفاده از فناوری هوش مصنوعی است. قانون آتی هوش مصنوعی اتحادیه اروپا با هدف ایجاد دستورالعمل های جامع برای استفاده عمومی از هوش مصنوعی و شرکت هایی که از آن استفاده می کنند، است. در حالی که انتظار میرود قوانین رسمی در دو تا سه سال آینده اجرا شوند، مقامات اتحادیه اروپا شرکتها را تشویق کردهاند تا یک کد رفتار داوطلبانه برای توسعهدهندگان هوش مصنوعی مولد در این دوره اتخاذ کنند.
رسیدگی به نگرانی ها و محافظت در برابر اطلاعات نادرست تولید شده توسط هوش مصنوعی
از آنجایی که محبوبیت ابزارهای مولد هوش مصنوعی مانند ChatGPT و Bard همچنان در حال افزایش است، نگرانی هایی در مورد سوء استفاده احتمالی و گسترش اطلاعات نادرست پدید آمده است. ورا جورووا، معاون کمیسیون اروپا، بر اهمیت شرکتهایی که محتوای تولید شده توسط هوش مصنوعی را برای مبارزه با انتشار اخبار جعلی برچسبگذاری میکنند، تاکید کرد.
Jourova بر ChatGPT OpenAI با پشتیبانی مایکروسافت و Bard گوگل به عنوان ابزارهای هوش مصنوعی مولد که باید حفاظت های لازم را برای جلوگیری از استفاده عوامل مخرب برای تولید اطلاعات نادرست در خود جای دهند، برجسته کرد. این شرکتها با پیادهسازی فناوری برای شناسایی و برچسبگذاری محتوای تولید شده توسط هوش مصنوعی، میتوانند شفافیت را افزایش داده و به کاربران قدرت دهند تا درباره اطلاعاتی که مصرف میکنند قضاوت آگاهانه داشته باشند.
مطابق با آئین نامه عمل اتحادیه اروپا در مورد اطلاعات نادرست، انتظار می رود شرکت هایی که ثبت نام کرده اند، از جمله گوگل، مایکروسافت، و متا پلتفرم ها، در مورد اقدامات حفاظتی که برای مبارزه با اطلاعات نادرست تولید شده توسط هوش مصنوعی اعمال کرده اند، گزارش دهند. جورووا همچنین به توییتر که اخیراً از این کد خارج شده است هشدار داد تا نظارت های نظارتی بیشتری را پیش بینی کند و بر لزوم پیروی این شرکت با قوانین اتحادیه اروپا تأکید کرد.
تمرکز اتحادیه اروپا بر رسیدگی به اطلاعات نادرست تولید شده توسط هوش مصنوعی با تلاش های گسترده تر آن برای ایجاد دستورالعمل هایی برای استفاده مسئولانه از هوش مصنوعی همسو است. قانون آتی هوش مصنوعی اتحادیه اروپا دستورالعملهای جامعی را برای استفاده عمومی از هوش مصنوعی و شرکتهایی که از آن استفاده میکنند ارائه میکند. در همین حال، مقامات اروپایی از شرکتها میخواهند تا اقدامات پیشگیرانه و اتخاذ یک کد رفتار داوطلبانه را برای اطمینان از توسعه و استقرار مسئولانه فناوری هوش مصنوعی مولد اتخاذ کنند.