در دنیایی که اخبار جعلی با سرعت سرسام آوری منتشر می شود، تشخیص واقعیت از داستان به طور فزاینده ای دشوار است. و علیرغم ساعات بی‌شماری کار و میلیون‌ها دلار سرمایه‌گذاری در پروژه‌ها و سیاست‌هایی با هدف ترویج روزنامه‌نگاری واقعی، وضعیت همچنان پابرجاست. دور از ایده آل– و این قبل از آن بود که هوش مصنوعی بتواند برای ایجاد استفاده کند تصاویر جعلی با ظاهر واقعی.

در حقیقت، بر اساس این گزارش، اخبار جعلی آزادی بیان در نظر گرفته می شود ناظر حفاظت از داده اروپاو مبارزه با اطلاعات نادرست تقریباً غیرممکن است زیرا “انبوه اخبار جعلی منتشر شده در رسانه های اجتماعی را نمی توان به صورت دستی مدیریت کرد.”

خوشبختانه، و به درستی، هوش مصنوعی می‌تواند نقشی در افشای نقاب اخبار جعلی داشته باشد – صرف نظر از نحوه تولید آن. این قدرت در درجه اول از طریق رشد انفجاری مدل های زبان بزرگ مانند GPT-4 به دست می آید.

به عنوان مثال، توسعه دهندگان ناشناس راه اندازی شده اند AI Fact Checker، ابزاری است که برای استفاده از هوش مصنوعی برای بررسی واقعیت اطلاعات ایجاد شده است. هنگامی که کاربر ادعایی را در جستجوگر وارد می کند، پلتفرم به دنبال منابع قابل اعتماد در اینترنت می گردد، داده ها را تجزیه و تحلیل می کند و آن اطلاعات را با ادعای ارائه شده مقایسه می کند. سپس مشخص می کند که آیا ادعا یا واقعیت درست، نادرست یا نامشخص است و منابعی برای پشتیبان گیری از نتایج خود ارائه می دهد.

رمزگشایی عملکرد ابزار را آزمایش کرد و هنگام بررسی واقعیت اخبار، رویدادهای تاریخی و اطلاعات متفرقه، سطح دقت 100% را نشان داد. با این حال، هنگامی که نوبت به اخبار مشاوره در مورد قیمت کالاها، خدمات و وسایل سرمایه گذاری می رسید، این ابزار دچار مشکل شد و شروع به اشتباه گرفتن اخبار پیش بینی با رفتار واقعی قیمت کرد.

هدف دیگر ابزارهای هوش مصنوعی نیز همین مشکل است: گوگل ابزارهای بررسی واقعیت، واقعیت کامل، و حشره واقعی از معروف ترین ها هستند. حتی جایگزین های غیرمتمرکز مانند پروتکل واقعیت و اکنون از بین رفته است مدنی. اما یک جایگزین به دلیل سهولت استفاده و دقت در حال متمایز شدن از دیگر افراد است: مرورگر و موتور جستجوی مایکروسافت با هوش مصنوعی.

این غول نرم افزاری GPT-4 را در مرورگر Edge خود ادغام کرده است و به کاربران یک ربات هوش مصنوعی را در دستان خود می دهد. برخلاف ChatGPT (که نمی‌تواند در وب برای اطلاعات جستجو کند و دارای مجموعه داده ثابتی از قبل از سال 2021 است)، Bing جدید با GPT-4 قادر به گشت و گذار در وب است، بنابراین می‌تواند پاسخ‌های دقیق و به‌روز را فوراً ارائه دهد و پیوندهایی را ارائه دهد. به منابع موثق برای هر سؤالی – از جمله تأیید یا رد کردن یک واقعیت مشکوک.

برای تأیید اخبار جعلی با استفاده از GPT-4 با Bing، کافی است آخرین نسخه مرورگر Edge را دانلود کنید و روی نماد آرم Bing در گوشه سمت راست بالا کلیک کنید. یک منوی نوار کناری با سه گزینه باز می شود. سپس گزینه Chat را انتخاب کنید، آنچه را که می خواهید بدانید بپرسید و هوش مصنوعی مایکروسافت پاسخ شما را خواهد داد.

هوش مصنوعی مبتنی بر GPT مایکروسافت عنوان Decrypt را تأیید می کند. ما اخبار جعلی را منتشر نمی کنیم.

کاربران همچنین می‌توانند روی گزینه Insights کلیک کنند و هوش مصنوعی مبتنی بر GPT مایکروسافت اطلاعات مرتبطی را در مورد وب‌سایتی که اخبار را منتشر می‌کند، از جمله موضوعات تحت پوشش، موضوعات مرتبط، ترافیک صفحه و شفاف‌سازی انتقادات رایج ارائه می‌دهد. بر خلاف ابزار AI Fact Checker، این ابزار پاسخ مشخصی را ارائه نمی دهد که “این درست است” یا “این نادرست است”، اما اطلاعات کافی برای رسیدن به نتیجه را ارائه می دهد.

روی دیگر سکه

در حالی که هوش مصنوعی می‌تواند چندین منبع اطلاعاتی را در چند ثانیه ردیابی و مقایسه کند، استفاده از الگوریتم‌های هوش مصنوعی برای تأیید اخبار خطراتی نیز دارد. برخی از کاستی های هوش مصنوعی عبارتند از:

آموزش مدل های معیوب: اگر یک الگوریتم هوش مصنوعی با داده های نادرست یا مغرضانه آموزش داده شود، عملکرد آن می تواند تأثیر منفی بگذارد و نتایج نادرستی ایجاد کند. اطمینان از اینکه داده‌های مورد استفاده برای آموزش الگوریتم‌های هوش مصنوعی دقیق و نماینده هستند، بسیار مهم است.

توهمات هوش مصنوعی: الگوریتم‌های هوش مصنوعی می‌توانند اطلاعاتی را تولید کنند که قابل قبول به نظر می‌رسند اما مبنای واقعی ندارند. این توهمات می تواند منجر به نتیجه گیری نادرست هنگام تأیید اخبار شود.

آسیب پذیری در برابر دستکاری: الگوریتم‌های هوش مصنوعی می‌توانند مستعد حملات و دستکاری‌هایی مانند تزریق داده‌های جعلی یا مغرضانه به فرآیند یادگیری خود باشند. اینها تا حدودی معادل الف هستند حمله 51 درصد، اما در زمینه هوش مصنوعی. تعداد بیشتری از تقویت‌کننده‌های نادرست استفاده می‌شود، که باعث می‌شود مدل داده‌های اشتباه را درست فرض کند.

این امر به ویژه در مدل‌هایی که بر تعامل انسانی متکی هستند یا در مدل‌هایی که تابع یک نهاد مرکزی است که آنها را مدیریت می‌کند نگران‌کننده است.این دقیقاً همان چیزی است که با OpenAI و ChatGPT اتفاق می افتد.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *