به گفته مدیر عامل نیوز کورپ استرالیا، سازندگان برنامه های کاربردی مبتنی بر هوش مصنوعی (AI) باید هزینه اخبار و محتوای مورد استفاده برای بهبود محصولات خود را بپردازند.
در 2 آوریل سرمقاله مایکل میلر در استرالیایی خواستار «سازندگان روزنامهنگاری و محتوای اصلی» شد تا از اشتباهات گذشته که «صنایع آنها را نابود کرد» که به گفته او به شرکتهای فناوری اجازه میداد از استفاده از داستانها و اطلاعات آنها بدون پرداخت غرامت سود ببرند، اجتناب کنند.
چت بات ها نرم افزارهایی هستند که بلع می شوند اخبار، داده ها و سایر اطلاعات برای پاسخگویی به پرسشهایی که گفتار نوشتاری یا گفتاری انسان را تقلید میکنند، که مهمترین آنها چت ربات ChatGPT-4 است. شرکت هوش مصنوعی OpenAI.
به گفته میلر، ظهور سریع هوش مصنوعی مولد حرکت دیگری از سوی شرکتهای دیجیتال قدرتمند برای توسعه یک ظرف طلای جدید برای به حداکثر رساندن درآمد و سود با استفاده از محتوای خلاقانه دیگران بدون پرداخت پاداش برای کار اصلیشان است.
با استفاده از OpenAI به عنوان مثال، میلر ادعا کرد که این شرکت “به سرعت یک تجارت” به ارزش 30 میلیارد دلار با “استفاده از محتوای اصلی و خلاقیت دیگران بدون پاداش و انتساب ایجاد کرد.”
دولت فدرال استرالیا اجرا شد کد چانه زنی رسانه های خبری در سال 2021، که پلتفرم های فناوری در استرالیا را موظف می کند به ناشران اخبار برای محتوای خبری که در پلتفرم های آنها در دسترس یا پیوند داده شده است، پول پرداخت کنند.
میلر می گوید قوانین مشابهی برای هوش مصنوعی لازم است، بنابراین همه تولیدکنندگان محتوا به طور مناسب برای کار خود جبران می کنند.
سازندگان به دلیل استفاده از موتورهای هوش مصنوعی که به سبک و لحن نه تنها روزنامهنگاران بلکه (به نام چند نفر) موسیقیدانان، نویسندگان، شاعران، مورخان، نقاشان، فیلمسازان و عکاسان حمله میکنند، شایسته دریافت جایزه هستند.»
بیش از 2600 رهبر و محقق فناوری اخیرا نامه سرگشاده ای را امضا کرده است خواستار توقف موقت در توسعه بیشتر هوش مصنوعی (AI) به دلیل ترس از “خطرات عمیق برای جامعه و بشریت”.
در همین حال، ناظر ایتالیایی مسئول حفاظت از داده ها اعلام کرد بلوک موقت ChatGPT و تحقیقاتی را در مورد نقض مشکوک قوانین حفظ حریم خصوصی داده ها آغاز کرد.
میلر معتقد است که سازندگان محتوا و شرکتهای هوش مصنوعی میتوانند هر دو از یک توافق سود ببرند، به جای مسدود کردن یا ممنوعیت کامل این فناوری.
من به نگرانی ها احترام می گذارم اما این را امضا نمی کنم. LLM ها به AGI تبدیل نمی شوند. آنها مانند بسیاری از چیزها خطرات اجتماعی را به همراه دارند. آنها همچنین پتانسیل خوبی برای خوبی دارند. فشار اجتماعی برای کاهش سرعت تحقیق و توسعه باید برای سلاح های زیستی و هسته ای و غیره باشد نه موارد پیچیده مانند این.
– بن گورتزل (@bengoertzel) 29 مارس 2023
او توضیح داد که با «حفاظهای مناسب»، هوش مصنوعی پتانسیل تبدیل شدن به یک منبع روزنامهنگاری ارزشمند را دارد و میتواند به ایجاد محتوا کمک کند و میتواند «سریعتر حقایق را جمعآوری کند» و به انتشار در چندین پلتفرم و تسریع تولید ویدیو کمک میکند.
مربوط: “مغرضانه، فریبنده”: مرکز هوش مصنوعی خالق ChatGPT را به نقض قوانین تجارت متهم کرد
صنعت کریپتو نیز شروع به دیدن کرده است پروژه های بیشتر با استفاده از هوش مصنوعی، اگرچه هنوز در مراحل اولیه است.
میلر معتقد است که اگر موتورهای هوش مصنوعی نتوانند مردم را متقاعد کنند که اطلاعات آنها قابل اعتماد و معتبر است، برای موفقیت آینده خود با خطر مواجه می شوند، “برای رسیدن به این هدف، آنها باید به کسانی که مواد لازم برای موفقیت خود را ارائه می دهند، جبران خسارت کنند.”
مجله: همه چیز برای قاضی روبات افزایش می یابد: هوش مصنوعی و بلاک چین می توانند سالن دادگاه را متحول کنند