OpenAI یک ربات چت با هوش مصنوعی فوق‌العاده پیشرفته توسعه داده است که به یک حس ویروسی تبدیل شده است. این یکی از سریع‌ترین برنامه‌هایی است که تا کنون راه‌اندازی شده است و تعاملات هوش مصنوعی انسانی را برای بیش از 100 میلیون کاربر فراهم می‌کند. اما چگونه اینقدر پیشرفت کرد؟ و واقعاً چیست ChatGPT و مشکل حریم خصوصی داده های هوش مصنوعی؟

پیامد پیشرفت سریع هوش مصنوعی، واقعیت خطر حفظ حریم خصوصی است که برای هر کسی که تا به حال در اینترنت پست گذاشته است، مورد بحث قرار نگرفته است. ChatGPT تنها بارزترین نمونه از یادگیری فناوری از طریق میلیاردها کلمه شما است – بدون رضایت شما.

چگونه هوش مصنوعی را آموزش دادید

منبع: فوربس

هر گونه مشاهده در هوش مصنوعی مولد نیاز به درک سطح پایه از مدل های زبان دارد. اینها فناوری هایی هستند که اساساً پایه چیزی مانند ChatGPT و سیستم هایی مانند آن هستند. با این حال، برای اینکه این مدل‌های زبان به فناوری تبدیل شوند که امروزه می‌بینیم، به مقادیر باورنکردنی داده‌ای که به آن‌ها وارد می‌شود، برای آموزش آن‌ها نیاز دارند. یا به عبارت بهتر به آنها آموزش دهیم.

هرچه داده‌های بیشتری در مدل زبان جمع‌آوری شود، پیشرفته‌تر به نظر می‌رسد و بهتر می‌شود. بنابراین، چه مقدار داده در چت ربات ویروسی OpenAI ریخته شد؟ برآورد فقط حدود 300 میلیارد کلمه است. با این حال، کلمات مربوط به ChatGPT و مشکل حفظ حریم خصوصی داده های هوش مصنوعی نیستند، اما این کلمات جایی است که پیدا شدند.

ChatGPT: آیا می تواند راه را برای ایجاد ETF رمزنگاری هموار کند؟
منبع: فناوری اردو

OpenAI این کلمات را از سراسر اینترنت حذف کرد. کتاب‌ها، مقاله‌ها، وب‌سایت‌ها و پست‌های وبلاگ همگی در تغذیه مدل زبان GPT مورد استفاده قرار گرفتند. چیزی که همه چیز را وهم‌آورتر می‌کند این است که این کلمات می‌توانند اطلاعات شخصی شما را داشته باشند – می‌توانند کلمات و اطلاعات شما را داشته باشند – بدون هیچ رضایتی.

اگر تا به حال در وبلاگی نوشته اید یا روی مقاله ای نظر داده اید، شانس ChatGPT با استفاده از کلمات شما برای آموزش آن بسیار زیاد است. و این بدون شک یک مشکل است.

ChatGPT و GDPR

منبع: Martech

مقررات عمومی حفاظت از داده ها (GDPR) یک حق تضمین شده است که به افراد در اتحادیه اروپا اعطا می شود. این قوانینی است که برای حفظ حریم خصوصی افراد طراحی شده است و به هر کس اجازه می دهد تا حریم خصوصی خود را حفظ کند و بنا به صلاحدید خود. هدف اصلی GDPR؟ موجودیت هایی که حجم انبوهی از داده ها را جمع آوری می کنند.

GDPR یک اقدام قانونی مهم است که به دنبال محافظت از اطلاعات ما در عصری است که همه چیز همیشه به راحتی در دسترس است. با این حال، هیچ راهی برای دانستن اینکه آیا OpenAI با قوانین GDPR مطابقت دارد وجود ندارد. علاوه بر این، سایر کشورها از تاکتیک‌های انباشت داده‌های آنلاین محافظت مشابهی ندارند.

آنچه GDPR برای افراد اجرا می کند، حقی است که باید فراموش شود. در مورد ChatGPT، هیچ تعیین واقعی درباره اینکه چه اتفاقی برای داده های جمع آوری شده توسط مدل زبان افتاده است وجود ندارد. OpenAI هیچ رویه‌ای برای دانستن اینکه آیا داده‌های شما جمع‌آوری شده است یا بیشتر در مورد اینکه آنها با آن چه کرده‌اند، ندارد.

سیاست حفظ حریم خصوصی که حفره عمیقی را حفر می کند

منبع: OpenAI

ابزارهایی که ChatGPT داده ها را جمع آوری می کند به اندازه کافی نگران کننده است، اما به همین جا ختم نمی شود. استفاده از ChatGPT اساساً خود یک ریسک داده است. با پرس و جو از فناوری، ممکن است خطری برای اطلاعات حساس ایجاد کنید.

پس از آن، اگر شرکتی از فناوری استفاده می کند و اطلاعات حساس را وارد می کند، آن اطلاعات اکنون در پایگاه داده پلت فرم وارد می شود. این داده‌ها اکنون ابزار را بیشتر آموزش می‌دهند، و حتی می‌توانند توسط این فناوری برای درخواست‌های دیگران بازیابی شوند. علاوه بر این، ChatGPT قبلاً اطلاعاتی را از کاربران مطابق با آن جمع آوری می کند سیاست حفظ حریم خصوصی، از جمله آدرس های IP، انواع مرورگر، تنظیمات و داده های نحوه استفاده آنها از وب سایت.

در نهایت، کل فرض ایجاد و حفظ فناوری مصنوعی بر کلمات و اطلاعات شما متکی است. با این حال، موضوع رضایت از نظر داده‌های شما یک نقطه اختلاف بزرگ برای توسعه مداوم سیستم است.

تنها پاسخ واقعی

چه مدت طول کشید تا ChatGPT به 1 میلیون کاربر برسد؟
منبع: ATRIA Innovation

فناوری مصنوعی از بین نخواهد رفت. در هر صورت، فقط پیشرفته تر و برجسته تر می شود. با شرکت مایکروسافت و گوگل در مسابقه تسلیحاتی هوش مصنوعی، نمی توان انکار کرد که این مشکلی است که برطرف نخواهد شد.

پاسخ قبلاً توسط خالق برنامه مطرح شده بود که بیان کرد هوش مصنوعی و شرکت های سازنده آن نیاز به مقررات دارند. GDPR گامی درخشان در حفاظت از داده‌های افراد و حق حفظ حریم خصوصی بود، اما برجستگی هوش مصنوعی دلیل این است که چرا این احساسات نظارتی باید در سال‌های آینده افزایش یابد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *