به گفته یکی از نمایندگان حزب سیاسی مخالف بریتانیا، توسعه دهندگانی که بر روی هوش مصنوعی کار می کنند باید به طور مشابه در صنایع داروسازی، پزشکی یا هسته ای مجوز و مقررات داشته باشند.

لوسی پاول، سیاستمدار و سخنگوی دیجیتال حزب کارگر بریتانیا، در 5 ژوئن به گاردین گفت که شرکت‌هایی مانند OpenAI یا گوگل که مدل‌های هوش مصنوعی ایجاد کرده‌اند باید «برای ساخت این مدل‌ها مجوز داشته باشند» و افزود:

“نقطه نگرانی واقعی من فقدان مقرراتی در مورد مدل های زبان بزرگ است که می تواند در طیف وسیعی از ابزارهای هوش مصنوعی اعمال شود، خواه بر نحوه ساخت آنها، نحوه مدیریت آنها یا نحوه کنترل آنها نظارت کند.”

پاول استدلال می‌کند که تنظیم کردن توسعه برخی فناوری‌ها گزینه بهتری نسبت به ممنوعیت آنها مانند اتحادیه اروپا است ابزارهای تشخیص چهره ممنوع.

او افزود که هوش مصنوعی «می‌تواند عواقب ناخواسته زیادی داشته باشد» اما اگر توسعه‌دهندگان مجبور شوند در مورد مدل‌های آموزشی هوش مصنوعی و مجموعه داده‌های خود صحبت کنند، دولت می‌تواند برخی از خطرات را کاهش دهد.

او گفت: «این فناوری به قدری سریع در حال حرکت است که به یک رویکرد دولتی فعال و مداخله جویانه نیاز دارد.

پاول همچنین معتقد است که چنین فناوری پیشرفته‌ای می‌تواند تأثیر زیادی بر اقتصاد بریتانیا بگذارد و ظاهراً حزب کارگر در حال تکمیل سیاست‌های خود در مورد هوش مصنوعی و فناوری‌های مرتبط است.

هفته آینده، کیر استارمر، رهبر حزب کارگر، در حال برنامه ریزی برای برگزاری جلسه ای با کابینه سایه این حزب در دفاتر گوگل در بریتانیا است تا بتواند با مدیران متمرکز بر هوش مصنوعی صحبت کند.

مربوط: مقامات اتحادیه اروپا می خواهند تمام محتوای تولید شده توسط هوش مصنوعی برچسب گذاری شود

در همین حال، مت کلیفورد، رئیس آژانس تحقیقات و اختراعات پیشرفته – آژانس تحقیقاتی دولتی که در فوریه گذشته تأسیس شد – در 5 ژوئن در TalkTV ظاهر شد تا به این موضوع هشدار دهد.هوش مصنوعی می تواند انسان ها را تهدید کند در کمتر از دو سال

او گفت: “اگر اکنون به فکر چگونگی تنظیم مقررات و ایمنی نباشیم، پس از دو سال متوجه خواهیم شد که سیستم هایی داریم که واقعاً بسیار قدرتمند هستند.” کلیفورد تصریح کرد، با این حال، یک جدول زمانی دو ساله “پایان صعودی طیف” است.

کلیفورد تاکید کرد که ابزارهای هوش مصنوعی امروزه می توانند برای کمک به “راه اندازی حملات سایبری در مقیاس بزرگ” استفاده شوند. OpenAI دارد 1 میلیون دلار ارائه کرد برای حمایت از فناوری امنیت سایبری به کمک هوش مصنوعی برای خنثی کردن چنین استفاده هایی.

او گفت: «من فکر می‌کنم سناریوهای مختلفی وجود دارد که باید نگران آن‌ها باشیم. مطمئناً فکر می کنم درست است که باید در دستور کار سیاست گذاران بسیار مهم باشد.»

BitCulture: هنرهای زیبا در سولانا، موسیقی هوش مصنوعی، پادکست + نقد کتاب