دیوید شوارتز با در نظر گرفتن چشم انداز دیپ فیک ها و تأثیر آنها بر فرآیندهای اجتماعی، اقتصادی و سیاسی شروع به نگرانی در مورد توسعه هوش مصنوعی کرد.

مدیر ارشد فناوری ریپل: هوش مصنوعی می‌تواند حملات تروریستی را که هرگز اتفاق نیفتاده‌اند، پخش کند

مدیر ارشد فناوری و یکی از معماران طراحی فنی XRP Ledger (XRPL) در توییتر نگرانی های خود را در مورد فناوری هوش مصنوعی (AI) به اشتراک گذاشته است.

او تاکید کرد که توسعه هوش مصنوعی هرگز برای او خطرناک به نظر نمی رسید. اما اخیراً او شروع به نگرانی در مورد جریان های دیپ فیک به عنوان یکی از چشمگیرترین پیاده سازی های مفهوم هوش مصنوعی کرده است. به گفته وی، طی 20 سال، 1 میلیون دلار بودجه برای شروع “ده ها” پخش ویدئویی از رویدادهایی که واقعاً اتفاق نمی افتد کافی است.

هر یک از این جریان‌ها «تعاملی» و کافی برای ایجاد شواهدی از رویدادهای کاملا جعلی با اهمیت عمومی خواهند بود. به عنوان مثال، جهان ممکن است در حال تماشای ویدیوهای دیپ فیک درباره حملات تروریستی باشد.

در نهایت، فناوری ها ممکن است بتوانند حقایق سیاسی مسلم را خراب کنند. بنابراین، استفاده از هوش مصنوعی ممکن است اوضاع را در مقایسه با وضعیت امروزی بسیار بدتر کند.

کریپتو جولانگاه دیپ فیک است

آقای شوارتز همچنین نگران نقش CBDCها در پیشرفت ارزهای دیجیتال و توسعه اقتصادی جوامع مدرن است. همانطور که قبلا توسط U.Today پوشش داده شد، ریپل در ابتکارات متعدد CBDC در سراسر جهان شرکت دارد.

در Web3، عملیات دیپ فیک قبلاً منجر به از دست دادن میلیون ها دلار شده است. در سال 2020، بدکاران از آواتار تولید شده توسط هوش مصنوعی جاستین سان برای جعل هویت بنیانگذار ترون (TRX) و سرقت پول سرمایه گذاران استفاده کردند.

Deepfakes Elon Musk، Changpeng “CZ” Zhao و Vitalik Buterin سه ابزار محبوب برای کلاهبرداری های رمزنگاری TikTok، YouTube و Instagram هستند.



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *