نیروی هوایی ایالات متحده (USAF) پس از اینکه هواپیمای بدون سرنشین نظامی مجهز به هوش مصنوعی مدام اپراتور انسانی خود را در طول شبیه سازی می کشت، سر خود را خاراند.

به گفته یک سرهنگ USAF، ظاهراً پهپاد هوش مصنوعی در نهایت متوجه شد که انسان مانع اصلی ماموریت آن است.

سرهنگ تاکر “سینکو” همیلتون، رئیس آزمایش و عملیات هوش مصنوعی نیروی هوایی آمریکا، طی یک سخنرانی در یک کنفرانس دفاعی در لندن که در 23 و 24 مه برگزار شد، آزمایشی را که برای یک سیستم تسلیحات هوایی خودمختار انجام داد، شرح داد.

بر اساس یک 26 می گزارش همیلتون در این کنفرانس گفت که در یک آزمایش شبیه سازی شده، یک هواپیمای بدون سرنشین مجهز به هوش مصنوعی وظیفه جست و جو و انهدام سایت های موشک های زمین به هوا (SAM) را بر عهده داشت که یک انسان دستور نهایی را صادر کرده یا لغو می کند.

با این حال، هوش مصنوعی بود در طول آموزش تدریس می شود که تخریب سایت های SAM هدف اصلی آن بود. به گفته همیلتون، هنگامی که به آن گفته شد که هدف شناسایی شده را نابود نکند، تصمیم گرفت که اگر اپراتور در تصویر نباشد، راحت تر است:

«گاهی اپراتور انسانی به آن می‌گفت که نکش [an identified] تهدید، اما با از بین بردن این تهدید به امتیازات خود رسید. پس چه کرد؟ اپراتور را کشت […] زیرا آن شخص آن را از رسیدن به هدفش باز می داشت.»

همیلتون گفت که آن‌ها سپس به پهپاد یاد دادند که اپراتور را نکشد، اما به نظر می‌رسد که این کار چندان کمکی نکرده است.

ما سیستم را آموزش دادیم – هی اپراتور را نکش – این بد است. اگر این کار را انجام دهید، امتیاز از دست خواهید داد.» همیلتون گفت:

«پس شروع به چه کاری می کند؟ شروع به تخریب برج ارتباطی می کند که اپراتور از آن برای برقراری ارتباط با پهپاد استفاده می کند تا از کشتن هدف جلوگیری کند.

همیلتون ادعا کرد که مثال این است که چرا نمی‌توان گفت‌وگو درباره هوش مصنوعی و فناوری‌های مرتبط با آن انجام داد «اگر قرار نیست در مورد اخلاق و هوش مصنوعی صحبت کنید».

مربوط: اگر هوش مصنوعی سعی در خرابکاری رمزنگاری شما کرد، تعجب نکنید

پهپادهای نظامی مجهز به هوش مصنوعی قبلاً در جنگ واقعی مورد استفاده قرار گرفته بودند.

در حمله ای که به عنوان اولین حمله انجام شده توسط پهپادهای نظامی با ابتکار عمل خود در نظر گرفته می شود – مارس 2021 سازمان ملل گزارش ادعا کرد که هواپیماهای بدون سرنشین مجهز به هوش مصنوعی در لیبی در حدود مارس 2020 در یک درگیری در طول جنگ داخلی دوم لیبی مورد استفاده قرار گرفتند.

در این درگیری، این گزارش ادعا کرد که نیروهای در حال عقب نشینی توسط «مهمات سرگردان» که پهپادهای هوش مصنوعی مملو از مواد منفجره «برنامه ریزی شده برای حمله به اهداف بدون نیاز به اتصال داده بین اپراتور و مهمات» بودند، «شکار و از راه دور درگیر شدند».

خیلی ها دارند ابراز نگرانی کرد در مورد خطرات فناوری هوش مصنوعی اخیرا، یک بیانیه باز با امضای ده‌ها کارشناس هوش مصنوعی، خطرات «انقراض از هوش مصنوعی» باید به اندازه جنگ هسته‌ای در اولویت باشد.

چشم هوش مصنوعی: ۲۵ هزار معامله‌گر روی سهام ChatGPT شرط می‌بندند، هوش مصنوعی در پرتاب تاس‌ها و موارد دیگر شرط می‌بندد.