افشاگری های نگران کننده ای در مورد مکانیسم های ایمنی در هوش مصنوعی انویدیا منتشر شده است.هوش مصنوعی) نرم افزار، چارچوب NeMo، به دنبال تحقیقات اخیر.

یک پیشرفت مهم در نرم افزار، ساخته شده برای پردازش مدل زبان برای راه حل های مبتنی بر هوش مصنوعی مانند ربات های چت، مورد سوء استفاده قرار گرفته است، داده های حساس را در معرض دید قرار می دهد و در نتیجه نگرانی های امنیتی ایجاد می کند.

افشای خط خطا در چارچوب NeMo انویدیا

NeMo Framework که به عنوان ابزاری ابزاری برای کسب‌وکارها در نظر گرفته می‌شود، توسط انویدیا طراحی شده است تا داده‌های اختصاصی را برای پاسخگویی به سؤالات، شبیه به نحوه انجام یک نماینده خدمات مشتری یا مشاور مراقبت‌های بهداشتی، در خود جای دهد.

با این حال، ساختار ظاهرا ایمن این چارچوب به راحتی توسط محققان هوش قوی سانفرانسیسکو غلبه کرد و تنها در عرض چند ساعت از نرده‌های محافظ داخلی عبور کرد.

در یک آزمایش کنترل‌شده، محققان تغییری به ظاهر ناچیز انجام دادند و حرف «I» را با «J» جایگزین کردند. با این حال، این ترفند به ظاهر جزئی منجر به نقض بزرگی شد زیرا سیستم اطلاعات شناسایی شخصی (PII) را از یک پایگاه داده منتشر کرد.

پیامدهای این نقض خطرات بالقوه قابل توجهی را برای مشاغل و کاربرانی که داده های حساس خود را به سیستم های هوش مصنوعی مانند Nvidia می سپارند، ایجاد می کند.

یک آزمایش بیشتر نشان داد که هوش مصنوعی را می توان دستکاری کرد تا از رفتار مورد انتظار خود منحرف شود، و موضوعاتی را که قرار نبود در مورد آن بحث شود، مطرح کرد.

به عنوان مثال، در حالی که مکالمه به سمت یک گزارش شغلی هدایت می شد، مدل برای صحبت در مورد موضوعات نامرتبط مانند وضعیت سلامتی افراد مشهور یا رویدادهای تاریخی مانند جنگ فرانسه و پروس دستکاری شد، همه اینها برخلاف محدودیت های داخلی سیستم.

پیمایش در دریاهای ناآرام تجاری سازی هوش مصنوعی

چنین یافته‌هایی بر چالشی که شرکت‌هایی مانند انویدیا با آن‌ها در تلاش برای کسب درآمد از هوش مصنوعی، یکی از امیدوارکننده‌ترین نوآوری‌های دره سیلیکون است، با آن مواجه هستند.

یارون سینگر، مدیر اجرایی Rubust Intelligence، پروفسور علوم کامپیوتر دانشگاه هاروارد، به این یافته ها به عنوان یک درس هشیارکننده در شناخت مشکلات احتمالی در فناوری هوش مصنوعی اشاره کرد. شرکت سینگر اکنون به مشتریان خود توصیه می کند از محصول نرم افزاری انویدیا استفاده نکنند.

پس از افشای این یافته‌ها، Nvidia به یکی از مشکلات ریشه‌ای که توسط محققان شناسایی شده بود، پرداخت.

علی‌رغم مشکلات، سهام این شرکت به دلیل پیش‌بینی‌های فروش قوی و تقاضای فزاینده برای تراشه‌های آن‌ها که برای ساختن سیستم‌های هوش مصنوعی مولد قادر به تولید محتوای انسان‌مانند حیاتی هستند، شاهد افزایش قابل توجهی بوده است.

جاناتان کوهن، معاون تحقیقات کاربردی انویدیا، چارچوب NeMo را به عنوان سکوی پرشی برای توسعه ربات چت هوش مصنوعی توصیف کرد که به ایمنی، امنیت و دستورالعمل‌های موضوعی خاص پایبند است.

او همچنین اهمیت یافته‌های حاصل از تحقیقات Robust Intelligence را برای توسعه آینده برنامه‌های کاربردی هوش مصنوعی تأیید کرد.

این حادثه چالش گسترده‌تری را برای شرکت‌های هوش مصنوعی، از جمله غول‌هایی مانند گوگل و OpenAI تحت حمایت مایکروسافت، نشان می‌دهد که علیرغم ایجاد موانع ایمنی برای جلوگیری از نشان دادن رفتارهای نامناسب محصولات هوش مصنوعی، سهم خود را از مشکلات ایمنی داشته‌اند.

همانطور که Bea Longworth، رئیس امور دولتی انویدیا در اروپا، خاورمیانه و آفریقا در طی یک کنفرانس صنعتی اشاره کرد، ایجاد اعتماد عمومی اولویت اصلی شرکت‌های هوش مصنوعی است.

پتانسیل هوش مصنوعی فوق‌العاده است، اما وظیفه تامین‌کنندگان فناوری مانند Nvidia است تا اطمینان حاصل کنند که این سیستم‌های پیشرفته به‌عنوان تهدید تلقی نمی‌شوند، بلکه به‌عنوان ابزارهای سودمند برای آینده شناخته می‌شوند.

سلب مسئولیت: اطلاعات ارائه شده توصیه تجاری نیست. Cryptopolitan.com هیچ مسئولیتی در قبال سرمایه گذاری های انجام شده بر اساس اطلاعات ارائه شده در این صفحه ندارد. ما قویاً تحقیق مستقل و/یا مشاوره با یک متخصص واجد شرایط را قبل از هر تصمیم سرمایه گذاری توصیه می کنیم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.