پذیرش سریع هوش مصنوعی بشریت را در معرض خطرات فاجعه بار قرار می دهد. دکتر جفری هینتون، که به طور گسترده به عنوان «پدرخوانده هوش مصنوعی» شناخته می شود، در یک چرخش تکان دهنده از سمت خود در گوگل استعفا داد و هشداری جدی در مورد خطرات هوش مصنوعی صادر کرد.
به ما بپیوندید تا انقلاب ارزهای دیجیتال را هربار به نمایش بگذاریم. اکنون مشترک شوید تا اخبار روزانه و بهروزرسانیهای بازار را در صندوق ورودی خود به همراه میلیونها مشترک دیگر ما دریافت کنید (درست است، میلیونها نفر ما را دوست دارند!) – منتظر چه هستید؟
هوش مصنوعی بزرگترین تهدید برای بشریت است
بر اساس گزارش ها، «پدرخوانده هوش مصنوعی» از سمت خود در گوگل استعفا داده است تا بتواند با صراحت بیشتری درباره خطرات احتمالی هوش مصنوعی صحبت کند. فن آوری. دکتر جفری هینتون قبل از ترک شرکت بیش از یک دهه در گوگل روی الگوریتم های یادگیری ماشین کار می کرد. بنا بر گزارش ها، کار مادام العمر او در شبکه های عصبی، این نام را برای او به ارمغان آورده است.
استعفای دکتر جفری در بحبوحه نگرانی های فزاینده در مورد استفاده از هوش مصنوعی صورت می گیرد. در صنایع مختلف از جمله مراقبت های بهداشتی، مالی و حمل و نقل. منتقدان استدلال می کنند که هوش مصنوعی می تواند منجر به جابجایی شغل، نقض حریم خصوصی و حتی توسعه سلاح های مستقل شود.
هینتون همچنین نگران بود که فناوری هوش مصنوعی جایگزین نیروی انسانی شود. او معتقد است که هوش مصنوعی به دلیل توانایی آن در به دست آوردن رفتارهای غیرمنتظره از حجم عظیمی از داده هایی که تجزیه و تحلیل می کند، می تواند تهدیدی برای بشریت در آینده باشد. هینتون همچنین از کار زندگی خود ابراز تاسف کرد:
من خودم را با این بهانه عادی دلداری میدهم: اگر من این کار را نمیکردم، دیگری انجام میداد.
دکتر جفری هینتون
استعفای دکتر جفری هینتون موجی از شوک را در سراسر صنعت فناوری وارد کرده است و بسیاری از کارشناسان خواستار نظارت و نظارت بیشتر بر هوش مصنوعی هستند. همانطور که بحث در مورد خطرات و مزایای هوش مصنوعی ادامه دارد، واضح است که مشارکت پیشگامانی مانند دکتر جفری هینتون در شکل دادن به آینده این فناوری به سرعت در حال تکامل بسیار مهم خواهد بود.
بسیاری از کارشناسان فناوری در مورد خطرات هوش مصنوعی هشدار می دهند
در ماههای اخیر، قانونگذاران، قانونگذاران و رهبران صنعت فناوری، همگی در مورد توسعه هوش مصنوعی ابراز نگرانی کردهاند. بیش از 2600 مدیر فناوری و محقق در ماه مارس نامه ای سرگشاده را امضا کردند که در آن خواستار تعلیق موقت توسعه هوش مصنوعی با اشاره به “خطرات جدی برای جامعه و بشریت” شدند.
در ماه آوریل، دوازده قانونگذار اتحادیه اروپا نامه مشابهی را امضا کردند و پیش نویس لایحه اخیر اتحادیه اروپا ابزارهای هوش مصنوعی را بر اساس سطح خطر طبقه بندی می کند. علاوه بر این، بریتانیا 125 میلیون دلار به یک کارگروه برای توسعه “هوش مصنوعی ایمن” اختصاص خواهد داد.
بر اساس گزارشها، ابزارهای هوش مصنوعی در حال حاضر برای اطلاعات نادرست استفاده میشوند و نمونههای اخیر رسانهها برای انتشار اخبار نادرست فریب خوردهاند. علاوه بر این، یک رسانه آلمانی از هوش مصنوعی برای جعل مصاحبه استفاده کرد.
بایننس در اول ماه مه ادعا کرد که مدیر عامل آن Changpeng “CZ” Zhao عضو یک سازمان دانشجویی حزب کمونیست چین است که توسط یک ربات چت نشات گرفته از ChatGPT منتشر شده است، همانطور که تصاویر صفحه نمایش چت بات نشان می دهد.
هفته گذشته، گروهی از شوخیها چندین رسانه در سراسر جهان از جمله دیلی میل و ایندیپندنت را فریب دادند. دیلی میل داستانی در مورد یک بازیگر کانادایی به نام “سنت فون کولوچی” منتشر کرد که گفته می شود پس از انجام عمل جراحی پلاستیک درگذشت تا او را بیشتر شبیه یک ستاره پاپ کره جنوبی کند. دیلی میل متعاقباً این مقاله را حذف کرد.
خطرات قابل پیش بینی هوش مصنوعی برای بشریت چیست؟
چندین خطر قابل پیش بینی هوش مصنوعی برای بشریت وجود دارد که برخی از آنها در حال حاضر تجربه شده اند و برخی دیگر ممکن است در آینده رخ دهند. در اینجا برخی از نگران کننده ترین خطرات ذکر شده است:
2. سلاح های خودمختار: توسعه تسلیحات خودمختار، که می تواند تصمیم بگیرد که چه کسی را هدف قرار دهد و چه زمانی حمله کند، بدون دخالت انسان، یک نگرانی بزرگ است. این سلاحها به طور بالقوه میتوانند به آسیبهای ناخواسته منجر شوند، زیرا ممکن است دچار نقص یا هک شوند.
3. پیامدهای ناخواسته: با پیچیدهتر شدن سیستمهای هوش مصنوعی، این خطر وجود دارد که آنها عواقب ناخواستهای داشته باشند که میتواند مضر باشد. به عنوان مثال، یک هوش مصنوعی. سیستمی که برای به حداکثر رساندن سود برای یک شرکت طراحی شده است، می تواند به طور ناخواسته به محیط زیست یا جامعه آسیب برساند.
4. تعصب و تبعیض: سیستمهای هوش مصنوعی فقط به اندازه دادههایی که روی آنها آموزش دیدهاند بیطرف هستند، به این معنی که اگر دادههایی که برای آموزش آنها استفاده میشود مغرضانه باشد، سیستم هوش مصنوعی نیز سوگیری خواهد داشت. این می تواند عواقب جدی داشته باشد، به ویژه در زمینه هایی مانند عدالت کیفری، که در آن سیستم های هوش مصنوعی مغرضانه می تواند منجر به رفتار ناعادلانه با گروه های خاص شود.
5. خطرات امنیت سایبری: همانطور که سیستم های هوش مصنوعی پیشرفته تر می شوند، می توانند در برابر حملات سایبری نیز آسیب پذیرتر شوند. اگر یک سیستم هوش مصنوعی هک شود، می تواند به طور بالقوه برای آسیب رساندن یا اختلال در سیستم های حیاتی مورد استفاده قرار گیرد.
6. عدم شفافیت و پاسخگویی: اگر سیستمهای هوش مصنوعی تصمیمات مهمی در مورد زندگی افراد میگیرند، مانند اینکه آیا به آنها وام داده میشود یا با وثیقه آزاد میشوند، مهم است که این سیستمها شفاف و پاسخگو باشند. با این حال، نگرانی هایی وجود دارد که برخی از سیستم های هوش مصنوعی ممکن است غیرشفاف باشند و درک یا ممیزی آن دشوار باشد.