به گفته یکی از نمایندگان حزب سیاسی مخالف بریتانیا، توسعه دهندگانی که بر روی هوش مصنوعی کار می کنند باید به طور مشابه در صنایع داروسازی، پزشکی یا هسته ای مجوز و مقررات داشته باشند.
لوسی پاول، سیاستمدار و سخنگوی دیجیتال حزب کارگر بریتانیا، در 5 ژوئن به گاردین گفت که شرکتهایی مانند OpenAI یا گوگل که مدلهای هوش مصنوعی ایجاد کردهاند باید «برای ساخت این مدلها مجوز داشته باشند» و افزود:
“نقطه نگرانی واقعی من فقدان مقرراتی در مورد مدل های زبان بزرگ است که می تواند در طیف وسیعی از ابزارهای هوش مصنوعی اعمال شود، خواه بر نحوه ساخت آنها، نحوه مدیریت آنها یا نحوه کنترل آنها نظارت کند.”
پاول استدلال میکند که تنظیم کردن توسعه برخی فناوریها گزینه بهتری نسبت به ممنوعیت آنها مانند اتحادیه اروپا است ابزارهای تشخیص چهره ممنوع.
او افزود که هوش مصنوعی «میتواند عواقب ناخواسته زیادی داشته باشد» اما اگر توسعهدهندگان مجبور شوند در مورد مدلهای آموزشی هوش مصنوعی و مجموعه دادههای خود صحبت کنند، دولت میتواند برخی از خطرات را کاهش دهد.
او گفت: «این فناوری به قدری سریع در حال حرکت است که به یک رویکرد دولتی فعال و مداخله جویانه نیاز دارد.
قبل از سخنرانی در کنفرانس TechUk فردا، من با گاردین در مورد رویکرد کارگر به فناوری دیجیتال و هوش مصنوعی صحبت کردم. https://t.co/qzypKE5uJU
– لوسی پاول نماینده مجلس (@LucyMPowell) 5 ژوئن 2023
پاول همچنین معتقد است که چنین فناوری پیشرفتهای میتواند تأثیر زیادی بر اقتصاد بریتانیا بگذارد و ظاهراً حزب کارگر در حال تکمیل سیاستهای خود در مورد هوش مصنوعی و فناوریهای مرتبط است.
هفته آینده، کیر استارمر، رهبر حزب کارگر، در حال برنامه ریزی برای برگزاری جلسه ای با کابینه سایه این حزب در دفاتر گوگل در بریتانیا است تا بتواند با مدیران متمرکز بر هوش مصنوعی صحبت کند.
مربوط: مقامات اتحادیه اروپا می خواهند تمام محتوای تولید شده توسط هوش مصنوعی برچسب گذاری شود
در همین حال، مت کلیفورد، رئیس آژانس تحقیقات و اختراعات پیشرفته – آژانس تحقیقاتی دولتی که در فوریه گذشته تأسیس شد – در 5 ژوئن در TalkTV ظاهر شد تا به این موضوع هشدار دهد.هوش مصنوعی می تواند انسان ها را تهدید کند در کمتر از دو سال
انحصاری: مت کلیفورد، مشاور گروه ویژه هوش مصنوعی نخستوزیر، میگوید جهان ممکن است تنها دو سال فرصت داشته باشد تا هوش مصنوعی را قبل از اینکه رایانهها برای کنترل انسان بیش از حد قدرتمند شوند، مهار کند.
– TalkTV (@TalkTV) 5 ژوئن 2023
او گفت: “اگر اکنون به فکر چگونگی تنظیم مقررات و ایمنی نباشیم، پس از دو سال متوجه خواهیم شد که سیستم هایی داریم که واقعاً بسیار قدرتمند هستند.” کلیفورد تصریح کرد، با این حال، یک جدول زمانی دو ساله “پایان صعودی طیف” است.
کلیفورد تاکید کرد که ابزارهای هوش مصنوعی امروزه می توانند برای کمک به “راه اندازی حملات سایبری در مقیاس بزرگ” استفاده شوند. OpenAI دارد 1 میلیون دلار ارائه کرد برای حمایت از فناوری امنیت سایبری به کمک هوش مصنوعی برای خنثی کردن چنین استفاده هایی.
او گفت: «من فکر میکنم سناریوهای مختلفی وجود دارد که باید نگران آنها باشیم. مطمئناً فکر می کنم درست است که باید در دستور کار سیاست گذاران بسیار مهم باشد.»
BitCulture: هنرهای زیبا در سولانا، موسیقی هوش مصنوعی، پادکست + نقد کتاب