تیم کوک، مدیر عامل شرکت، در طول بخش پرسش و پاسخ از تماس درآمد اخیر، هنگامی که از او درباره هوش مصنوعی مولد (AI) پرسیده شد و اینکه «آن را به کجا میبیند»، نگاه اجمالی نادری به باغ دیواری اپل داشت.
کوک از افشای برنامه های اپل خودداری کرد و پیش از این اظهار داشت: “ما در مورد نقشه راه محصول اظهار نظر نمی کنیم.” با این حال، او انجام داد صمیمی که شرکت به این فضا علاقه مند بود:
“من فکر می کنم بسیار مهم است که در نحوه برخورد با این موارد سنجیده و متفکر باشید. و تعدادی از مسائل وجود دارد که باید مرتب شوند. … اما پتانسیل مطمئناً بسیار جالب است.”
مدیرعامل بعداً اضافه کرد که این شرکت «هوش مصنوعی» را بزرگ میداند و «به کارکردن آن در محصولات ما بر مبنایی بسیار متفکرانه ادامه خواهد داد».
نظرات کوک در مورد اتخاذ یک رویکرد “عمدی و متفکرانه” می تواند غیبت این شرکت را در فضای هوش مصنوعی مولد توضیح دهد. با این حال، نشانه هایی وجود دارد که اپل در حال انجام تحقیقات خود در مورد مدل های مرتبط است.
یک مقاله تحقیقاتی برنامه ریزی شده است قرار است در کنفرانس طراحی تعامل و کودکان در ژوئن منتشر شود، جزئیات یک سیستم جدید برای مبارزه با سوگیری در توسعه مجموعه داده های یادگیری ماشین است.
سوگیری – تمایل یک مدل هوش مصنوعی برای پیش بینی های ناعادلانه یا نادرست بر اساس داده های نادرست یا ناقص – اغلب ذکر شده به عنوان یکی از مبرم ترین نگرانی ها برای توسعه ایمن و اخلاقی مدل های هوش مصنوعی مولد.
بنابراین خوشحالم که OpenAI تعصب خود را کنترل می کند. pic.twitter.com/y4a7FUochR
– بروکلین نش (@realBrookNash) 27 آوریل 2023
کاغذ، که در حال حاضر می تواند باشد خواندن در پیش چاپ، سیستمی را به تفصیل شرح می دهد که توسط آن چندین کاربر با ورودی یکسان در توسعه مجموعه داده های یک سیستم هوش مصنوعی مشارکت می کنند.
توسعه هوش مصنوعی مولد وضعیت موجود تا مراحل بعدی به بازخورد انسانی اضافه نمیکند، زمانی که مدلها معمولاً قبلاً تعصب آموزشی را به دست آوردهاند.
تحقیقات جدید اپل بازخوردهای انسانی را در مراحل اولیه توسعه مدل یکپارچه می کند تا اساساً فرآیند انتخاب داده ها را دموکراتیک کند. به گفته محققان، نتیجه، سیستمی است که از «رویکرد مشارکتی و عملی برای معرفی استراتژیهایی برای ایجاد مجموعه دادههای متعادل» استفاده میکند.
مربوط: مشکل جعبه سیاه هوش مصنوعی: چالش ها و راه حل ها برای آینده شفاف
لازم به ذکر است که این مطالعه تحقیقاتی به عنوان یک الگوی آموزشی برای تشویق علاقه مبتدیان به توسعه یادگیری ماشین طراحی شده است.
مقیاسبندی تکنیکهای توصیفشده در مقاله برای استفاده در آموزش مدلهای زبان بزرگ (LLM) مانند ChatGPT و Google Bard ممکن است دشوار باشد. با این حال، این تحقیق یک رویکرد جایگزین برای مبارزه با سوگیری را نشان می دهد.
در نهایت، ایجاد یک LLM بدون سوگیری ناخواسته میتواند نقطه عطفی در مسیر توسعه سیستمهای هوش مصنوعی در سطح انسانی باشد.
چنین سیستم هایی می توانند هر جنبه ای از بخش فناوری، به ویژه دنیای فین تک را مختل کنند. تجارت ارز دیجیتال و بلاک چین برای مثال، رباتهای معاملاتی بیطرفانه سهام و ارزهای دیجیتال که قادر به استدلال در سطح انسانی هستند، میتوانند با دموکراتیک کردن دانش تجارت سطح بالا، بازار مالی جهانی را تکان دهند.
علاوه بر این، نشان دادن یک LLM بیطرفانه میتواند راه درازی به سوی رضایتبخش باشد امنیت و نگرانی های اخلاقی دولت برای صنعت مولد هوش مصنوعی
این امر مخصوصاً برای اپل قابل توجه است، زیرا هر محصول مولد هوش مصنوعی که توسعه دهد یا برای پشتیبانی انتخاب کند، از چیپست هوش مصنوعی یکپارچه آیفون و ردپای 1.5 میلیاردی آن بهره می برد.