در 31 می 2023، OpenAI ساخت اعلامیه با توجه به تلاش هایش برای رسیدگی به یک چالش حیاتی در صنعت هوش مصنوعی – وقوع توهمات هوش مصنوعی.

انتشار ChatGPT-4 در مارس 2023 نقطه عطف مهمی در تلاش برای ادغام هوش مصنوعی در برنامه های کاربردی روزمره بود. با این حال، چت ربات‌های مولد هوش مصنوعی، مانند ChatGPT، نشان داده شده است که در حفظ دقت واقعی با مشکلاتی مواجه هستند. آنها گاهی اوقات محتوایی به نام “توهم” تولید می کنند.

این محتوای “توهم” به اشکال مختلف از جمله ایجاد محتوای نادرست، جعل رویدادها یا افراد ناموجود و انتشار اطلاعات اشتباه در مورد موضوعات خاص مشاهده شده است.

OpenAI قصد دارد قابلیت‌های حل مسئله ChatGPT، مدل زبان AI محبوب آنها را افزایش دهد، زیرا آنها معتقدند این برای توسعه هوش مصنوعی همسو و کاهش توهمات حیاتی است. شرکت هوش مصنوعی این موضوع و تحقیقات در حال انجام خود را برای رسیدگی به این موضوع در مقاله ای که در وب سایت خود منتشر کرد، فاش کرد.

در مقالهOpenAI تحقیقات خود را در مورد دو نوع مکانیسم بازخورد برای مقابله با این مشکل شرح داد: نظارت بر نتیجه و نظارت بر فرآیند. نظارت بر فرآیند شامل هدایت سیستم هوش مصنوعی در هر مرحله از فرآیند تفکر و ارائه مشاوره و اصلاحات در طول مسیر است. برعکس، نظارت بر نتیجه بر بازخورد مبتنی بر نتیجه نهایی تولید شده توسط سیستم هوش مصنوعی متمرکز است. OpenAI آزمایش‌هایی را با استفاده از مسائل ریاضی برای آزمایش این مدل‌های بازخورد، ایجاد راه‌حل‌های متعدد و انتخاب بهترین راه‌حل بر اساس بازخورد از هر رویکرد نظارتی انجام داد.

از طریق تجزیه و تحلیل جامع، تیم تحقیقاتی دریافتند که نظارت بر فرآیند نتایج برتری را به همراه دارد. با ایجاد انگیزه در مدل برای پیروی از یک روش تایید شده توسط انسان، نظارت بر فرآیند در به حداقل رساندن توهمات در مقایسه با نظارت بر نتیجه، که چالش‌ها و ناسازگاری‌های بیشتری را به همراه داشت، مؤثرتر بود.

OpenAI پیامدهای گسترده تر نظارت بر فرآیند را تصدیق کرد و بر نیاز به تحقیقات بیشتر برای درک اثربخشی آن در حوزه های مختلف تأکید کرد. آنها پیشنهاد کردند که اگر نتایج مشاهده شده در زمینه های گسترده تر صادق باشند، نظارت بر فرآیند می تواند تعادل مطلوب تری بین عملکرد و همسویی در مقایسه با نظارت بر نتیجه ایجاد کند. برای تسهیل تحقیقات در این زمینه، OpenAI کل مجموعه داده نظارت فرآیند را برای عموم منتشر کرد با این امید که تحقیقات و مطالعه بیشتر را تشویق کند.

حادثه اخیر در دادگاه ایالات متحده اهمیت تلاش های مداوم OpenAI برای رسیدگی به توهمات و افزایش قابلیت اطمینان محتوای تولید شده توسط هوش مصنوعی را برجسته کرد. وکیل استیون شوارتز پذیرفته استفاده از ChatGPT به عنوان یک ابزار تحقیقاتی در دعوای دادگاه Mata v. Avianca Airlines. با این حال، بعداً مشخص شد که اطلاعات ارائه شده توسط ChatGPT کاملاً نادرست است.

آقای شوارتز ادعا کرد که به دلیل عدم تجربه اش در ChatGPT، از پتانسیل آن برای تولید اطلاعات نادرست بی اطلاع بوده است. آقای شوارتز به قاضی اطلاع داد که صریحاً از ابزار برای تأیید صحت پرونده ها خواسته است و این ابزار اعتبار آنها را تأیید کرده است.

اگر می‌خواهید مقالات خبری بیشتری از این قبیل بخوانید، به این سایت مراجعه کنید سیاره دیفای و ما را دنبال کنید توییتر، لینکدین، فیس بوک، اینستاگرام، و انجمن CoinMarketCap.

“با MARKETS PRO، مجموعه ابزارهای تحلیلی DeFi Planet، سبد ارزهای دیجیتال خود را کنترل کنید.”




دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *