بایننس قربانی یک کمپین افشاگری توسط یک ربات چت مبتنی بر هوش مصنوعی شده است که اطلاعات نادرستی را در مورد بنیانگذار آن چانگ پنگ ژائو (CZ) و وابستگی احتمالی او به حزب کمونیست چین منتشر می کند.
طبق گزارشها، بایننس دهها سؤال از دفاتر کنگره در مورد CZ و ارتباط او با شرکت ملی نفت چین (CNPC) در چند روز گذشته دریافت کرده است.
این درخواست ها در ارتباط با گفتگوی ChatGPT است که ادعا می کند CZ یک پلت فرم رسانه اجتماعی برای CNPC ایجاد کرده است.
با این حال، پاتریک هیلمن، مدیر ارشد استراتژی بایننس، فاش کرد که این اطلاعات هیچ مبنای واقعی ندارد.
“برای همه کارگزاران رمزنگاری و هوش مصنوعی، اگر کسی میخواهد وارد آن شود، در اینجا موضوع ChatGPT وجود دارد. همانطور که میبینید ChatGPT این را از نمایه جعلی LinkedIn و یک مقاله ناموجود فوربس استخراج میکند. ما نمیتوانیم هیچ موردی را پیدا کنیم. شواهدی از این داستان و صفحه لینکدین که تاکنون وجود داشته است.”
به گفته هیلمن، ChatGPT این اطلاعات را از یک نمایه ساختگی لینکدین که وجود ندارد و یک مقاله فوربس، که همچنین وجود ندارد، به دست آورده است.
هیلمن از ChatGPT به دلیل گمراه کردن مردم و آسیب رساندن به شهرت Binance انتقاد کرد.
“مانند هر فناوری جدید، بازیگران بد سعی می کنند در روزهای اولیه برای سود یا منافع سیاسی از آن بهره ببرند. امیدوارم افزایش آگاهی در مورد مسائلی از این دست مانع از آن شود که مردم وقتی به دنبال تحقیر کسی هستند، پاسخ تولید شده توسط هوش مصنوعی را منبع انحصاری کنند. “
او همچنین خاطرنشان کرد که بایننس زمان و منابع قابل توجهی را برای بررسی چگونگی کارکرد فناوری بلاک چین و هوش مصنوعی اختصاص داده است.
رباتهای چت هوش مصنوعی محبوبیت خود را افزایش میدهند، اما از اشتباه مصون نیستند
از زمان انتشار ChatGPT OpenAI در نوامبر سال گذشته، چت ربات های هوش مصنوعی این کار را انجام داده اند اینترنت را طوفان کرده است.
این ابزارها با وجود پتانسیل نامحدود و عملکرد گسترده، از اشتباه مصون نیستند. در واقع، برخی از رباتهای چت هوش مصنوعی توسط شرکتهای فناوری محبوب، قبلاً اشتباهات وحشتناکی مرتکب شدهاند.
به عنوان مثال، در اولین نمایش خود، چت ربات هوش مصنوعی گوگل بارد به اشتباه گفت تلسکوپ فضایی جیمز وب اولین عکسها را از سیارهای خارج از منظومه شمسی گرفته است.
از آنجایی که توانایی هوش مصنوعی در تولید اطلاعات نادرست یا گمراهکننده میتواند صدمات واقعی به افراد و سازمانها وارد کند، بسیاری از سازمانها خواستار تدابیر ایمنی در برابر انتشار اطلاعات نادرست توسط چنین ابزارهایی شدهاند.
دولت بایدن پنج اصل را توصیه کرده است که شرکت ها باید در مورد توسعه فناوری های هوش مصنوعی از طریق یک داوطلب رعایت کنند.منشور حقوق“
این اصول شامل حریم خصوصی داده ها، محافظت در برابر تبعیض الگوریتمی، و شفافیت در مورد زمان و نحوه استفاده از سیستم های خودکار است.
مؤسسه ملی استاندارد و فناوری همچنین نردههای محافظ داوطلبانه ای را ارائه کرده است که شرکتها میتوانند از آنها برای محدود کردن خطر آسیب رساندن به ابزارهای هوش مصنوعی به مردم استفاده کنند.