یک وکیل از نیویورک، استیون شوارتز از شرکت حقوقی Levidow، Levidow & Oberman، به دلیل گنجاندن ChatGPT، یک مدل زبان هوش مصنوعی، در تحقیقات حقوقی خود در حین رسیدگی به شکایت علیه خطوط هوایی Avianca مورد انتقاد قرار گرفته است. این پرونده مربوط به رابرت ماتا است که ادعا می کند طبق گزارش CNN Business در 28 مه، در طول پرواز با شرکت هواپیمایی کلمبیا در سال 2019 از یک گاری سرویس آسیب دیده است.

وکیل اسناد اشتباهی را ارائه کرد که از ChatGPT گرفته شده بود

زمانی که قاضی ناظر بر رسیدگی متوجه تناقضات و اشتباهات واقعی در اسناد ارائه شده شد، پرونده چرخش غیرمنتظره ای به خود گرفت. شوارتز در سوگندنامه ای به تاریخ 24 مه پذیرفته به استفاده از ChatGPT برای تحقیقات حقوقی خود و ادعا کرد که از پتانسیل اطلاعات نادرست در محتوای آن بی اطلاع بوده است. وی همچنین اظهار داشت که این اولین بار است که از مدل هوش مصنوعی برای تحقیقات حقوقی استفاده می کند.

بررسی دقیق قاضی نشان داد که چندین پرونده ارائه شده توسط وکیل، ساختگی به نظر می‌رسد و دارای نقل قول‌های ساختگی و استنادهای داخلی نادرست است. علاوه بر این، برخی از پرونده‌های ارجاع‌شده وجود نداشتند، و نمونه‌ای وجود داشت که یک شماره سند به اشتباه با پرونده دادگاه دیگری مرتبط شد.

وکیل از تکیه بر چت ربات هوش مصنوعی بدون انجام بررسی های لازم ابراز تاسف کرد. در سوگندنامه وی تأکید شده است که وی از استفاده از هوش مصنوعی مولد در فرآیند تحقیق بسیار پشیمان است و متعهد شده است که این عمل را بدون تأیید صحت مطلق تکرار نکند.

تحلیلگران درباره پتانسیل هوش مصنوعی جایگزین انسان بحث می کنند

ادغام ChatGPT در جریان های کاری حرفه ای بحث های مداومی را در مورد مناسب بودن و قابلیت اطمینان آن برانگیخته است. در حالی که هوش مدل‌های هوش مصنوعی مانند ChatGPT به پیشرفت خود ادامه می‌دهد، تردیدها در مورد توانایی آن‌ها برای جایگزینی کامل کارگران انسانی وجود دارد. سید غضنفر، ع بلاک چین توسعه دهنده، ارزش ChatGPT را تصدیق می کند، اما مهارت های ارتباطی آن را به عنوان یک جایگزین کامل برای تعامل انسانی زیر سوال می برد. او تأکید می‌کند که زبان‌های برنامه‌نویسی برای رسیدگی به الزاماتی ایجاد شده‌اند که ممکن است به طور مؤثر در زبان انگلیسی مادری منتقل نشوند.

همانطور که فناوری هوش مصنوعی پیشرفت می کند، توسعه دهندگان و متخصصان به طور یکسان تعادل ظریف بین استفاده از قابلیت های آن و اطمینان از صحت و اعتبار اطلاعات تولید شده را دنبال می کنند. پرونده مربوط به استیون شوارتز و استفاده او از ChatGPT به عنوان یک داستان هشدار دهنده عمل می کند و بر اهمیت نظارت انسانی و ارزیابی انتقادی در تحقیقات حقوقی و سایر زمینه های حرفه ای تأکید می کند.

در حالی که مدل های هوش مصنوعی دوست دارند ChatGPT می تواند در ساده سازی وظایف خاص کمک کند، آنها باید در ارتباط با تخصص انسانی و فرآیندهای راستی آزمایی کامل برای به حداقل رساندن خطر نادرستی و اطلاعات نادرست استفاده شوند. با گسترش مرزهای قابلیت‌های هوش مصنوعی، برای حرفه‌ای‌ها حفظ احتیاط و تشخیص هنگام استفاده از چنین ابزارهایی در کارشان ضروری است.

سلب مسئولیت. اطلاعات ارائه شده توصیه تجاری نیست. Cryptopolitan.com هیچ مسئولیتی در قبال سرمایه گذاری های انجام شده بر اساس اطلاعات ارائه شده در این صفحه ندارد. ما قویاً تحقیق مستقل و/یا مشاوره با یک متخصص واجد شرایط را قبل از هر گونه تصمیم گیری برای سرمایه گذاری توصیه می کنیم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *