• غول رسانه‌های اجتماعی متا مدل Segment Anything را اعلام می‌کند و به کاربران اجازه می‌دهد موارد موجود در تصاویر را به راحتی شناسایی کنند.
  • مدل آموزش دیده بر روی 11 میلیون تصویر، در Github تحت مجوز باز مجاز، Apache 2.0 در دسترس است، اما نگرانی هایی را در مورد حفظ حریم خصوصی و استفاده از داده ها ایجاد می کند.
  • رهبران جهانی نگرانی‌های خود را ابراز کرده و تحقیقاتی را در مورد فناوری هوش مصنوعی متا آغاز می‌کنند و بر نیاز به شفافیت، حفظ حریم خصوصی و استفاده مسئولانه از هوش مصنوعی در پلتفرم‌های رسانه‌های اجتماعی تاکید می‌کنند.

متا، غول رسانه‌های اجتماعی، جدیدترین پروژه خود را با نام Segment Anything Model اعلام کرده است که به کاربران امکان می‌دهد تنها با چند کلیک موارد خاصی را در تصاویر شناسایی کنند.

این مدل بر روی بیش از 11 میلیون تصویر آموزش داده شده است و در حال حاضر برای جامعه تحقیقاتی تحت مجوز باز مجاز، آپاچی 2.0، در GitHub در دسترس است. متا بیان کرد که این مدل به لطف مقیاس داده ها و عمومیت در آموزش، قابلیت های چشمگیری برای مدیریت انواع مختلف تصاویر، مانند تصاویر من محور، میکروسکوپ، یا عکس های زیر آب نشان می دهد.
با این حال، نگرانی هایی در مورد حفظ حریم خصوصی و استفاده از داده های شخصی در فناوری هوش مصنوعی مطرح شده است. قوانین حفظ حریم خصوصی مستلزم جمع‌آوری شفاف داده‌ها با رضایت فردی است و شرکت‌ها باید از اشتراک‌گذاری داده‌های چهره با اشخاص ثالث بدون رضایت خودداری کنند. شرکت ها باید اولویت بندی کنند حریم خصوصی و شفافیت هنگام توسعه و اجرای فناوری هوش مصنوعی، و کاربران باید از حقوق خود مطلع شوند و گزینه‌هایی برای انصراف از مدل‌های آموزشی آینده به آنها داده شود.

به دست آوردن داده های آموزشی در مقیاس بزرگ از شبکه های رسانه های اجتماعی نگرانی هایی را در مورد حریم خصوصی ایجاد می کند و شرکت ها از تکنیک های حفظ حریم خصوصی استفاده می کنند که به کاربران امکان می دهد محتوای توهین آمیز را گزارش کنند تا از استفاده مسئولانه از داده ها اطمینان حاصل کنند.

تغییر متا از جاه‌طلبی‌های متاورس به تمرکز بر هوش مصنوعی باعث ایجاد ابروها شده است و رهبران جهانی نگرانی‌های خود را ابراز کرده و تحقیقاتی را در مورد پیامدهای این فناوری برای حفظ حریم خصوصی و ایمنی کاربر آغاز کرده‌اند. برای شرکت ها بسیار مهم است که با شفاف بودن در مورد استفاده از داده ها، محافظت از حریم خصوصی و اطمینان از استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی، اعتماد خود را با کاربران ایجاد کنند.

شرکت‌ها باید بندهای یادگیری ماشینی را برای اطلاع دادن به کاربران در نظر بگیرند و به آنها اجازه دهند از مدل‌های آموزشی آینده انصراف دهند و اقداماتی برای حذف محتوای توهین‌آمیز از مجموعه داده‌ها انجام دهند. با اولویت دادن به حریم خصوصی و شفافیت، شرکت ها می توانند استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی را تضمین کنند.

همچنین بخوانید – نمایش 3 روزه Doge به پایان رسید: Birdy به لوگوی توییتر بازگشت

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.