فهرست
دیوید شوارتز با در نظر گرفتن چشم انداز دیپ فیک ها و تأثیر آنها بر فرآیندهای اجتماعی، اقتصادی و سیاسی شروع به نگرانی در مورد توسعه هوش مصنوعی کرد.
مدیر ارشد فناوری ریپل: هوش مصنوعی میتواند حملات تروریستی را که هرگز اتفاق نیفتادهاند، پخش کند
مدیر ارشد فناوری و یکی از معماران طراحی فنی XRP Ledger (XRPL) در توییتر نگرانی های خود را در مورد فناوری هوش مصنوعی (AI) به اشتراک گذاشته است.
چند سالی است که مردم درباره خطری که هوش مصنوعی می تواند برای جامعه ما ایجاد کند به من هشدار می دهند. من حتی کوچکترین نگران آن نبودم. ولی الان کم کم دارم نگران میشم 1/3
— 𝐃𝐚𝐯𝐢𝐝 ❝𝐉𝐨𝐞𝐥𝐊𝐚𝐭𝐳❞ 𝐒𝐜𝐡 31 اکتبر 2022
او تاکید کرد که توسعه هوش مصنوعی هرگز برای او خطرناک به نظر نمی رسید. اما اخیراً او شروع به نگرانی در مورد جریان های دیپ فیک به عنوان یکی از چشمگیرترین پیاده سازی های مفهوم هوش مصنوعی کرده است. به گفته وی، طی 20 سال، 1 میلیون دلار بودجه برای شروع “ده ها” پخش ویدئویی از رویدادهایی که واقعاً اتفاق نمی افتد کافی است.
هر یک از این جریانها «تعاملی» و کافی برای ایجاد شواهدی از رویدادهای کاملا جعلی با اهمیت عمومی خواهند بود. به عنوان مثال، جهان ممکن است در حال تماشای ویدیوهای دیپ فیک درباره حملات تروریستی باشد.
در نهایت، فناوری ها ممکن است بتوانند حقایق سیاسی مسلم را خراب کنند. بنابراین، استفاده از هوش مصنوعی ممکن است اوضاع را در مقایسه با وضعیت امروزی بسیار بدتر کند.
کریپتو جولانگاه دیپ فیک است
آقای شوارتز همچنین نگران نقش CBDCها در پیشرفت ارزهای دیجیتال و توسعه اقتصادی جوامع مدرن است. همانطور که قبلا توسط U.Today پوشش داده شد، ریپل در ابتکارات متعدد CBDC در سراسر جهان شرکت دارد.
در Web3، عملیات دیپ فیک قبلاً منجر به از دست دادن میلیون ها دلار شده است. در سال 2020، بدکاران از آواتار تولید شده توسط هوش مصنوعی جاستین سان برای جعل هویت بنیانگذار ترون (TRX) و سرقت پول سرمایه گذاران استفاده کردند.
Deepfakes Elon Musk، Changpeng “CZ” Zhao و Vitalik Buterin سه ابزار محبوب برای کلاهبرداری های رمزنگاری TikTok، YouTube و Instagram هستند.