محققان ETH Zürich، Swiss Data Science Center و SRI International در نیویورک از قدرت معماری GPT-2 OpenAI برای توسعه استفاده کرده اند. PassGPT، یک مدل حدس رمز عبور ساخته شده بر روی یک مدل زبان بزرگ (LLM). و بر روی مجموعه ای از رمزهای عبور فاش شده از هک ها و سوء استفاده های مختلف آموزش دیده است.

هدف اصلی PassGPT رمزگشایی ویژگی‌های رمزنگاری شده در هزارتوی گذرواژه‌های تولید شده توسط انسان است، همگی با هدف ارائه رمزهای عبور قوی‌تر و پیچیده‌تر به کاربران برای استفاده و شناسایی رمزهای عبور احتمالی با توجه به مجموعه‌ای از ورودی‌ها. نوآوری این مدل نه تنها در توانایی پیش بینی آن، بلکه در روش منحصر به فرد ایجاد آن نیز نهفته است.

برخلاف مدل‌های قبلی که رمزهای عبور را به‌عنوان موجودیت‌های کامل می‌سازند، PassGPT یک استراتژی نوآورانه را معرفی می‌کند: نمونه‌گیری پیشرونده. این روش رمزهای عبور را کاراکتر به کاراکتر می سازد و از رمز عبور بسیار پیچیده اطمینان می دهد و بر روی مجموعه ای از میلیون ها رمز عبور قبلاً فاش شده آموزش داده شده است.

“آموزش داده شده در RockYou جاوی راندو، خالق آن، اظهار داشت: PassGPT می‌تواند 20 درصد بیشتر از مدل‌های پیشرفته GAN گذرواژه‌های دیده نشده را حدس بزند.

شبکه های متخاصم مولد (GAN) را به عنوان تطابق بین دو شبکه تصور کنید. یکی، Generator، سعی می‌کند محتوایی ایجاد کند که آنقدر واقع‌بینانه باشد که بتواند دیگری را فریب دهد، Discriminator، که هدف آن تشخیص زمانی است که محتوای مصنوعی ارائه می‌شود. با هر دور این مسابقه، هر شبکه از اشتباهات خود درس می گیرد و پیشرفت می کند. کیفیت کلی مدل افزایش می‌یابد تا زمانی که به نقطه‌ای می‌رسد که تشخیص‌دهنده به سختی می‌تواند بین آنچه واقعی است و آنچه توسط ژنراتور ایجاد شده است تفاوت قائل شود.

راندو همچنین به منحصربه‌فرد بودن پسوردهای تولید شده توسط PassGPT اشاره کرد، زیرا توضیح داد که این یک مدل تولیدی صریح است که به ما امکان می‌دهد به توزیع مدل‌سازی شده دسترسی داشته باشیم و احتمال هر رمز عبور داده شده را در مدل محاسبه کنیم. ما از این قابلیت برای تجزیه و تحلیل آسیب پذیری های قدرت رمز عبور استفاده می کنیم.”

PassGPT استعداد متمایز در کشف الگوهایی دارد که توسط تخمین‌گرهای قدرت رمز عبور قوی تلقی می‌شوند، اما حدس زدن آنها با استفاده از تکنیک‌های تولیدی نسبتاً آسان است.

راندو توضیح داد: «گذرواژه‌های غیرانگلیسی برای اکتشافی مبتنی بر فرهنگ لغت سخت هستند، با این حال PassGPT الگوها را در چندین زبان یاد می‌گیرد.» این مهارت چند زبانه معیار جدیدی را در تحقیقات امنیتی رمز عبور تعیین می‌کند. این مدل همچنین توانایی خود را برای حدس زدن رمزهای عبور جدید ثابت کرده است. بخشی از مجموعه داده آن

قابل ذکر است، LLM هایی مانند PassGPT را می توان با استفاده از مجموعه داده های مختلف برای برنامه های خاص سفارشی کرد. نمونه موردی: Google در حال آموزش یک AI LLM بر اساس داده های پزشکی است، در حالی که نتایج جالب دیگری از LLM هایی که در موضوعات مختلف آموزش دیده اند ظاهر شده است. زبان سیاسی نادرست از 4Chan یا تفاوت های ظریف در سبک گفتار یوتیوبرهای محبوب.

جالب اینجاست که فاش شدن رمز عبور صرفاً برای هکرهایی که به دنبال دسترسی به سیستم هستند، یک موهبت نیست. آنها همچنین فرصتی را برای محققان فراهم می کنند الگوهای پنهان را بررسی کنید در رمزهای عبور تولید شده توسط کاربر، با پتانسیل افزایش ابزارهای شکستن رمز عبور. بنابراین جنبه متناقض امنیت رمز عبور آشکار می شود.

حوزه یادگیری ماشینی (ML) در استخراج بینش‌های ارزشمند از نقض گسترده رمز عبور مفید است. این استخراج به پیشرفت های مهم در حدس زدن رمز عبور و تنظیم دقیق الگوریتم های تخمین قدرت رمز عبور کمک می کند.

با این پس‌زمینه، مدل‌های زبان بزرگ (LLM) با مانند مدل‌های ترانسفورماتور از پیش آموزش‌دیده مولد (GPT) گام‌های مهمی در پردازش و درک زبان طبیعی برداشته‌اند.از جمله پالم و LLaMA– در خط مقدم

توجه داشته باشید که اگرچه این PassGPT یک ساخته قانونی است، قبلاً یک جوک روز اول آوریل وجود داشت. به همین نام– پس در حین انجام تحقیقات خود مراقب باشید.

PassGPT گواه دیگری است که نشان می دهد هوش مصنوعی به طور فزاینده ای برای همه چیز وجود دارد. و با هوش مصنوعی مانند PassGPT در کار، ممکن است به زودی متوجه شوید که نام گربه‌تان همراه با تاریخ تولدتان، دیگر قلعه غیرقابل کشف رمز عبوری نیست که زمانی فکر می‌کردید.


علاقه مند به یادگیری بیشتر در مورد هوش مصنوعی هستید؟ آخرین دوره آموزشی رمزگشایی U ما را بررسی کنید، «شروع با هوش مصنوعی». همه چیز از تاریخچه هوش مصنوعی گرفته تا یادگیری ماشینی، ChatGPT و ChainGPT را پوشش می دهد. اطلاعات بیشتر اینجا.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.