یک وکیل از نیویورک، استیون شوارتز از شرکت حقوقی Levidow، Levidow & Oberman، به دلیل گنجاندن ChatGPT، یک مدل زبان هوش مصنوعی، در تحقیقات حقوقی خود در حین رسیدگی به شکایت علیه خطوط هوایی Avianca مورد انتقاد قرار گرفته است. این پرونده مربوط به رابرت ماتا است که ادعا می کند طبق گزارش CNN Business در 28 مه، در طول پرواز با شرکت هواپیمایی کلمبیا در سال 2019 از یک گاری سرویس آسیب دیده است.
وکیل اسناد اشتباهی را ارائه کرد که از ChatGPT گرفته شده بود
زمانی که قاضی ناظر بر رسیدگی متوجه تناقضات و اشتباهات واقعی در اسناد ارائه شده شد، پرونده چرخش غیرمنتظره ای به خود گرفت. شوارتز در سوگندنامه ای به تاریخ 24 مه پذیرفته به استفاده از ChatGPT برای تحقیقات حقوقی خود و ادعا کرد که از پتانسیل اطلاعات نادرست در محتوای آن بی اطلاع بوده است. وی همچنین اظهار داشت که این اولین بار است که از مدل هوش مصنوعی برای تحقیقات حقوقی استفاده می کند.
بررسی دقیق قاضی نشان داد که چندین پرونده ارائه شده توسط وکیل، ساختگی به نظر میرسد و دارای نقل قولهای ساختگی و استنادهای داخلی نادرست است. علاوه بر این، برخی از پروندههای ارجاعشده وجود نداشتند، و نمونهای وجود داشت که یک شماره سند به اشتباه با پرونده دادگاه دیگری مرتبط شد.
وکیل از تکیه بر چت ربات هوش مصنوعی بدون انجام بررسی های لازم ابراز تاسف کرد. در سوگندنامه وی تأکید شده است که وی از استفاده از هوش مصنوعی مولد در فرآیند تحقیق بسیار پشیمان است و متعهد شده است که این عمل را بدون تأیید صحت مطلق تکرار نکند.
تحلیلگران درباره پتانسیل هوش مصنوعی جایگزین انسان بحث می کنند
ادغام ChatGPT در جریان های کاری حرفه ای بحث های مداومی را در مورد مناسب بودن و قابلیت اطمینان آن برانگیخته است. در حالی که هوش مدلهای هوش مصنوعی مانند ChatGPT به پیشرفت خود ادامه میدهد، تردیدها در مورد توانایی آنها برای جایگزینی کامل کارگران انسانی وجود دارد. سید غضنفر، ع بلاک چین توسعه دهنده، ارزش ChatGPT را تصدیق می کند، اما مهارت های ارتباطی آن را به عنوان یک جایگزین کامل برای تعامل انسانی زیر سوال می برد. او تأکید میکند که زبانهای برنامهنویسی برای رسیدگی به الزاماتی ایجاد شدهاند که ممکن است به طور مؤثر در زبان انگلیسی مادری منتقل نشوند.
همانطور که فناوری هوش مصنوعی پیشرفت می کند، توسعه دهندگان و متخصصان به طور یکسان تعادل ظریف بین استفاده از قابلیت های آن و اطمینان از صحت و اعتبار اطلاعات تولید شده را دنبال می کنند. پرونده مربوط به استیون شوارتز و استفاده او از ChatGPT به عنوان یک داستان هشدار دهنده عمل می کند و بر اهمیت نظارت انسانی و ارزیابی انتقادی در تحقیقات حقوقی و سایر زمینه های حرفه ای تأکید می کند.
در حالی که مدل های هوش مصنوعی دوست دارند ChatGPT می تواند در ساده سازی وظایف خاص کمک کند، آنها باید در ارتباط با تخصص انسانی و فرآیندهای راستی آزمایی کامل برای به حداقل رساندن خطر نادرستی و اطلاعات نادرست استفاده شوند. با گسترش مرزهای قابلیتهای هوش مصنوعی، برای حرفهایها حفظ احتیاط و تشخیص هنگام استفاده از چنین ابزارهایی در کارشان ضروری است.