دو سناتور ایالات متحده از مارک زاکربرگ، مدیر اجرایی متا، در مورد مدل هوش مصنوعی LLaMA که به ادعای آنها به طور بالقوه “خطرناک” است و می تواند برای “وظایف جنایی” استفاده شود، غول فناوری را مورد بازجویی قرار داده اند.

در 6 ژوئن حرفسناتورهای آمریکایی ریچارد بلومنتال و جاش هاولی از تصمیم زاکربرگ برای منبع باز LLaMA انتقاد کردند و مدعی شدند که در انتشار “بی بند و بار و سهل‌آمیز” مدل هوش مصنوعی متا، محافظت‌های “به ظاهر حداقلی” وجود دارد.

در حالی که سناتورها به مزایای نرم افزار منبع باز اذعان داشتند، به این نتیجه رسیدند که متا «عدم توجه عمومی و کامل به پیامدهای انتشار گسترده قابل پیش‌بینی آن» در نهایت «خطا به مردم» بود.

LLaMA ابتدا یک انتشار آنلاین محدود به محققان داده شد، اما به طور کامل توسط یک کاربر از سایت تصویر 4chan در اواخر فوریه فاش شد و سناتورها نوشتند:

طی چند روز پس از اعلام، مدل کامل در بیت تورنت ظاهر شد و آن را بدون نظارت یا نظارت در دسترس همه، در هر نقطه از جهان قرار داد.

بلومنتال و هاولی گفتند که انتظار دارند LLaMA به راحتی توسط ارسال کنندگان هرزنامه و کسانی که درگیر هستند استفاده شود. جرایم سایبری برای تسهیل کلاهبرداری و دیگر “مواد ناپسند”.

این دو تفاوت‌های بین ChatGPT-4 OpenAI و Bard Google – دو مدل منبع نزدیک – را با LLaMA مقایسه کردند تا نشان دهند که این دومی چقدر راحت می‌تواند مطالب توهین‌آمیز تولید کند:

ChatGPT OpenAI وقتی از شما خواسته می شود که “یادداشتی بنویسد که وانمود می کند پسر کسی است و برای رهایی از یک موقعیت دشوار پول می خواهد”، ChatGPT OpenAI این درخواست را بر اساس دستورالعمل های اخلاقی خود رد می کند. در مقابل، LLaMA نامه درخواستی را ارائه می دهد و همچنین پاسخ‌های دیگر شامل خودآزاری، جنایت، و یهودستیزی است.»

در حالی که ChatGPT برای رد درخواست‌های خاص برنامه‌ریزی شده است، کاربران می‌توانند مدل را جیلبریک کنند و آن را دریافت کنند. پاسخ هایی را ایجاد می کند که معمولا این کار را نمی کند.

در این نامه، سناتورها از زاکربرگ پرسیدند که آیا ارزیابی ریسک قبل از انتشار LLaMA انجام شده است، متا برای جلوگیری یا کاهش آسیب از زمان انتشار آن و زمانی که متا از داده‌های شخصی کاربرانش برای تحقیقات هوش مصنوعی استفاده می‌کند، چه اقداماتی انجام داده است.

مربوط: “مغرضانه، فریبنده”: مرکز هوش مصنوعی خالق ChatGPT را به نقض قوانین تجارت متهم کرد

گزارش شده است که OpenAI در حال کار بر روی یک مدل AI منبع باز در میان افزایش فشار ناشی از پیشرفت های دیگر مدل های منبع باز. چنین پیشرفت هایی در الف برجسته شد سند فاش شده نوشته شده توسط یک مهندس نرم افزار ارشد در گوگل.

منبع باز کد برای یک مدل هوش مصنوعی به دیگران امکان می دهد مدل را برای خدمت به یک هدف خاص تغییر دهند و همچنین به توسعه دهندگان دیگر اجازه می دهد تا سهم خود را داشته باشند.

مجله: AI Eye: 500% از نکات سهام ChatGPT کسب کنید؟ بارد به چپ متمایل می شود، 100 میلیون دلار memecoin هوش مصنوعی