در دنیایی که اخبار جعلی با سرعت سرسام آوری منتشر می شود، تشخیص واقعیت از داستان به طور فزاینده ای دشوار است. و علیرغم ساعات بیشماری کار و میلیونها دلار سرمایهگذاری در پروژهها و سیاستهایی با هدف ترویج روزنامهنگاری واقعی، وضعیت همچنان پابرجاست. دور از ایده آل– و این قبل از آن بود که هوش مصنوعی بتواند برای ایجاد استفاده کند تصاویر جعلی با ظاهر واقعی.
در حقیقت، بر اساس این گزارش، اخبار جعلی آزادی بیان در نظر گرفته می شود ناظر حفاظت از داده اروپاو مبارزه با اطلاعات نادرست تقریباً غیرممکن است زیرا “انبوه اخبار جعلی منتشر شده در رسانه های اجتماعی را نمی توان به صورت دستی مدیریت کرد.”
خوشبختانه، و به درستی، هوش مصنوعی میتواند نقشی در افشای نقاب اخبار جعلی داشته باشد – صرف نظر از نحوه تولید آن. این قدرت در درجه اول از طریق رشد انفجاری مدل های زبان بزرگ مانند GPT-4 به دست می آید.
به عنوان مثال، توسعه دهندگان ناشناس راه اندازی شده اند AI Fact Checker، ابزاری است که برای استفاده از هوش مصنوعی برای بررسی واقعیت اطلاعات ایجاد شده است. هنگامی که کاربر ادعایی را در جستجوگر وارد می کند، پلتفرم به دنبال منابع قابل اعتماد در اینترنت می گردد، داده ها را تجزیه و تحلیل می کند و آن اطلاعات را با ادعای ارائه شده مقایسه می کند. سپس مشخص می کند که آیا ادعا یا واقعیت درست، نادرست یا نامشخص است و منابعی برای پشتیبان گیری از نتایج خود ارائه می دهد.
رمزگشایی عملکرد ابزار را آزمایش کرد و هنگام بررسی واقعیت اخبار، رویدادهای تاریخی و اطلاعات متفرقه، سطح دقت 100% را نشان داد. با این حال، هنگامی که نوبت به اخبار مشاوره در مورد قیمت کالاها، خدمات و وسایل سرمایه گذاری می رسید، این ابزار دچار مشکل شد و شروع به اشتباه گرفتن اخبار پیش بینی با رفتار واقعی قیمت کرد.
هدف دیگر ابزارهای هوش مصنوعی نیز همین مشکل است: گوگل ابزارهای بررسی واقعیت، واقعیت کامل، و حشره واقعی از معروف ترین ها هستند. حتی جایگزین های غیرمتمرکز مانند پروتکل واقعیت و اکنون از بین رفته است مدنی. اما یک جایگزین به دلیل سهولت استفاده و دقت در حال متمایز شدن از دیگر افراد است: مرورگر و موتور جستجوی مایکروسافت با هوش مصنوعی.
این غول نرم افزاری GPT-4 را در مرورگر Edge خود ادغام کرده است و به کاربران یک ربات هوش مصنوعی را در دستان خود می دهد. برخلاف ChatGPT (که نمیتواند در وب برای اطلاعات جستجو کند و دارای مجموعه داده ثابتی از قبل از سال 2021 است)، Bing جدید با GPT-4 قادر به گشت و گذار در وب است، بنابراین میتواند پاسخهای دقیق و بهروز را فوراً ارائه دهد و پیوندهایی را ارائه دهد. به منابع موثق برای هر سؤالی – از جمله تأیید یا رد کردن یک واقعیت مشکوک.
برای تأیید اخبار جعلی با استفاده از GPT-4 با Bing، کافی است آخرین نسخه مرورگر Edge را دانلود کنید و روی نماد آرم Bing در گوشه سمت راست بالا کلیک کنید. یک منوی نوار کناری با سه گزینه باز می شود. سپس گزینه Chat را انتخاب کنید، آنچه را که می خواهید بدانید بپرسید و هوش مصنوعی مایکروسافت پاسخ شما را خواهد داد.
کاربران همچنین میتوانند روی گزینه Insights کلیک کنند و هوش مصنوعی مبتنی بر GPT مایکروسافت اطلاعات مرتبطی را در مورد وبسایتی که اخبار را منتشر میکند، از جمله موضوعات تحت پوشش، موضوعات مرتبط، ترافیک صفحه و شفافسازی انتقادات رایج ارائه میدهد. بر خلاف ابزار AI Fact Checker، این ابزار پاسخ مشخصی را ارائه نمی دهد که “این درست است” یا “این نادرست است”، اما اطلاعات کافی برای رسیدن به نتیجه را ارائه می دهد.
روی دیگر سکه
در حالی که هوش مصنوعی میتواند چندین منبع اطلاعاتی را در چند ثانیه ردیابی و مقایسه کند، استفاده از الگوریتمهای هوش مصنوعی برای تأیید اخبار خطراتی نیز دارد. برخی از کاستی های هوش مصنوعی عبارتند از:
آموزش مدل های معیوب: اگر یک الگوریتم هوش مصنوعی با داده های نادرست یا مغرضانه آموزش داده شود، عملکرد آن می تواند تأثیر منفی بگذارد و نتایج نادرستی ایجاد کند. اطمینان از اینکه دادههای مورد استفاده برای آموزش الگوریتمهای هوش مصنوعی دقیق و نماینده هستند، بسیار مهم است.
توهمات هوش مصنوعی: الگوریتمهای هوش مصنوعی میتوانند اطلاعاتی را تولید کنند که قابل قبول به نظر میرسند اما مبنای واقعی ندارند. این توهمات می تواند منجر به نتیجه گیری نادرست هنگام تأیید اخبار شود.
آسیب پذیری در برابر دستکاری: الگوریتمهای هوش مصنوعی میتوانند مستعد حملات و دستکاریهایی مانند تزریق دادههای جعلی یا مغرضانه به فرآیند یادگیری خود باشند. اینها تا حدودی معادل الف هستند حمله 51 درصد، اما در زمینه هوش مصنوعی. تعداد بیشتری از تقویتکنندههای نادرست استفاده میشود، که باعث میشود مدل دادههای اشتباه را درست فرض کند.
سیستم های هوش مصنوعی مانند ChatGPT مستعد حملات مسمومیت هستند. این نوع حملات زمانی مرتبط هستند که عوامل تهدید به مجموعه داده های آموزشی حمله کنند، یک زنجیره اثبات چنین سناریوهایی را حذف می کند.
— Gummo (@GummoXXX) 23 مارس 2023
این امر به ویژه در مدلهایی که بر تعامل انسانی متکی هستند یا در مدلهایی که تابع یک نهاد مرکزی است که آنها را مدیریت میکند نگرانکننده است.این دقیقاً همان چیزی است که با OpenAI و ChatGPT اتفاق می افتد.
از اخبار ارزهای دیجیتال مطلع باشید، بهروزرسانیهای روزانه را در صندوق ورودی خود دریافت کنید.