OpenAI یک ربات چت با هوش مصنوعی فوقالعاده پیشرفته توسعه داده است که به یک حس ویروسی تبدیل شده است. این یکی از سریعترین برنامههایی است که تا کنون راهاندازی شده است و تعاملات هوش مصنوعی انسانی را برای بیش از 100 میلیون کاربر فراهم میکند. اما چگونه اینقدر پیشرفت کرد؟ و واقعاً چیست ChatGPT و مشکل حریم خصوصی داده های هوش مصنوعی؟
پیامد پیشرفت سریع هوش مصنوعی، واقعیت خطر حفظ حریم خصوصی است که برای هر کسی که تا به حال در اینترنت پست گذاشته است، مورد بحث قرار نگرفته است. ChatGPT تنها بارزترین نمونه از یادگیری فناوری از طریق میلیاردها کلمه شما است – بدون رضایت شما.
چگونه هوش مصنوعی را آموزش دادید
هر گونه مشاهده در هوش مصنوعی مولد نیاز به درک سطح پایه از مدل های زبان دارد. اینها فناوری هایی هستند که اساساً پایه چیزی مانند ChatGPT و سیستم هایی مانند آن هستند. با این حال، برای اینکه این مدلهای زبان به فناوری تبدیل شوند که امروزه میبینیم، به مقادیر باورنکردنی دادهای که به آنها وارد میشود، برای آموزش آنها نیاز دارند. یا به عبارت بهتر به آنها آموزش دهیم.
هرچه دادههای بیشتری در مدل زبان جمعآوری شود، پیشرفتهتر به نظر میرسد و بهتر میشود. بنابراین، چه مقدار داده در چت ربات ویروسی OpenAI ریخته شد؟ برآورد فقط حدود 300 میلیارد کلمه است. با این حال، کلمات مربوط به ChatGPT و مشکل حفظ حریم خصوصی داده های هوش مصنوعی نیستند، اما این کلمات جایی است که پیدا شدند.
OpenAI این کلمات را از سراسر اینترنت حذف کرد. کتابها، مقالهها، وبسایتها و پستهای وبلاگ همگی در تغذیه مدل زبان GPT مورد استفاده قرار گرفتند. چیزی که همه چیز را وهمآورتر میکند این است که این کلمات میتوانند اطلاعات شخصی شما را داشته باشند – میتوانند کلمات و اطلاعات شما را داشته باشند – بدون هیچ رضایتی.
اگر تا به حال در وبلاگی نوشته اید یا روی مقاله ای نظر داده اید، شانس ChatGPT با استفاده از کلمات شما برای آموزش آن بسیار زیاد است. و این بدون شک یک مشکل است.
ChatGPT و GDPR
مقررات عمومی حفاظت از داده ها (GDPR) یک حق تضمین شده است که به افراد در اتحادیه اروپا اعطا می شود. این قوانینی است که برای حفظ حریم خصوصی افراد طراحی شده است و به هر کس اجازه می دهد تا حریم خصوصی خود را حفظ کند و بنا به صلاحدید خود. هدف اصلی GDPR؟ موجودیت هایی که حجم انبوهی از داده ها را جمع آوری می کنند.
GDPR یک اقدام قانونی مهم است که به دنبال محافظت از اطلاعات ما در عصری است که همه چیز همیشه به راحتی در دسترس است. با این حال، هیچ راهی برای دانستن اینکه آیا OpenAI با قوانین GDPR مطابقت دارد وجود ندارد. علاوه بر این، سایر کشورها از تاکتیکهای انباشت دادههای آنلاین محافظت مشابهی ندارند.
آنچه GDPR برای افراد اجرا می کند، حقی است که باید فراموش شود. در مورد ChatGPT، هیچ تعیین واقعی درباره اینکه چه اتفاقی برای داده های جمع آوری شده توسط مدل زبان افتاده است وجود ندارد. OpenAI هیچ رویهای برای دانستن اینکه آیا دادههای شما جمعآوری شده است یا بیشتر در مورد اینکه آنها با آن چه کردهاند، ندارد.
سیاست حفظ حریم خصوصی که حفره عمیقی را حفر می کند
ابزارهایی که ChatGPT داده ها را جمع آوری می کند به اندازه کافی نگران کننده است، اما به همین جا ختم نمی شود. استفاده از ChatGPT اساساً خود یک ریسک داده است. با پرس و جو از فناوری، ممکن است خطری برای اطلاعات حساس ایجاد کنید.
پس از آن، اگر شرکتی از فناوری استفاده می کند و اطلاعات حساس را وارد می کند، آن اطلاعات اکنون در پایگاه داده پلت فرم وارد می شود. این دادهها اکنون ابزار را بیشتر آموزش میدهند، و حتی میتوانند توسط این فناوری برای درخواستهای دیگران بازیابی شوند. علاوه بر این، ChatGPT قبلاً اطلاعاتی را از کاربران مطابق با آن جمع آوری می کند سیاست حفظ حریم خصوصی، از جمله آدرس های IP، انواع مرورگر، تنظیمات و داده های نحوه استفاده آنها از وب سایت.
در نهایت، کل فرض ایجاد و حفظ فناوری مصنوعی بر کلمات و اطلاعات شما متکی است. با این حال، موضوع رضایت از نظر دادههای شما یک نقطه اختلاف بزرگ برای توسعه مداوم سیستم است.
تنها پاسخ واقعی
فناوری مصنوعی از بین نخواهد رفت. در هر صورت، فقط پیشرفته تر و برجسته تر می شود. با شرکت مایکروسافت و گوگل در مسابقه تسلیحاتی هوش مصنوعی، نمی توان انکار کرد که این مشکلی است که برطرف نخواهد شد.
پاسخ قبلاً توسط خالق برنامه مطرح شده بود که بیان کرد هوش مصنوعی و شرکت های سازنده آن نیاز به مقررات دارند. GDPR گامی درخشان در حفاظت از دادههای افراد و حق حفظ حریم خصوصی بود، اما برجستگی هوش مصنوعی دلیل این است که چرا این احساسات نظارتی باید در سالهای آینده افزایش یابد.