پذیرش سریع هوش مصنوعی بشریت را در معرض خطرات فاجعه بار قرار می دهد. دکتر جفری هینتون، که به طور گسترده به عنوان «پدرخوانده هوش مصنوعی» شناخته می شود، در یک چرخش تکان دهنده از سمت خود در گوگل استعفا داد و هشداری جدی در مورد خطرات هوش مصنوعی صادر کرد.

به ما بپیوندید تا انقلاب ارزهای دیجیتال را هربار به نمایش بگذاریم. اکنون مشترک شوید تا اخبار روزانه و به‌روزرسانی‌های بازار را در صندوق ورودی خود به همراه میلیون‌ها مشترک دیگر ما دریافت کنید (درست است، میلیون‌ها نفر ما را دوست دارند!) – منتظر چه هستید؟

هوش مصنوعی بزرگترین تهدید برای بشریت است

بر اساس گزارش ها، «پدرخوانده هوش مصنوعی» از سمت خود در گوگل استعفا داده است تا بتواند با صراحت بیشتری درباره خطرات احتمالی هوش مصنوعی صحبت کند. فن آوری. دکتر جفری هینتون قبل از ترک شرکت بیش از یک دهه در گوگل روی الگوریتم های یادگیری ماشین کار می کرد. بنا بر گزارش ها، کار مادام العمر او در شبکه های عصبی، این نام را برای او به ارمغان آورده است.

استعفای دکتر جفری در بحبوحه نگرانی های فزاینده در مورد استفاده از هوش مصنوعی صورت می گیرد. در صنایع مختلف از جمله مراقبت های بهداشتی، مالی و حمل و نقل. منتقدان استدلال می کنند که هوش مصنوعی می تواند منجر به جابجایی شغل، نقض حریم خصوصی و حتی توسعه سلاح های مستقل شود.

که در یک مصاحبه او با نیویورک تایمز اظهار داشت که بیشترین نگرانی را در مورد استفاده از هوش مصنوعی برای پر کردن اینترنت با تصاویر، فیلم‌ها و متن‌های جعلی دارد تا جایی که مردم دیگر «نمی‌توانند حقیقت را بدانند».

هینتون همچنین نگران بود که فناوری هوش مصنوعی جایگزین نیروی انسانی شود. او معتقد است که هوش مصنوعی به دلیل توانایی آن در به دست آوردن رفتارهای غیرمنتظره از حجم عظیمی از داده هایی که تجزیه و تحلیل می کند، می تواند تهدیدی برای بشریت در آینده باشد. هینتون همچنین از کار زندگی خود ابراز تاسف کرد:

من خودم را با این بهانه عادی دلداری می‌دهم: اگر من این کار را نمی‌کردم، دیگری انجام می‌داد.

دکتر جفری هینتون

استعفای دکتر جفری هینتون موجی از شوک را در سراسر صنعت فناوری وارد کرده است و بسیاری از کارشناسان خواستار نظارت و نظارت بیشتر بر هوش مصنوعی هستند. همانطور که بحث در مورد خطرات و مزایای هوش مصنوعی ادامه دارد، واضح است که مشارکت پیشگامانی مانند دکتر جفری هینتون در شکل دادن به آینده این فناوری به سرعت در حال تکامل بسیار مهم خواهد بود.

بسیاری از کارشناسان فناوری در مورد خطرات هوش مصنوعی هشدار می دهند

در ماه‌های اخیر، قانون‌گذاران، قانون‌گذاران و رهبران صنعت فناوری، همگی در مورد توسعه هوش مصنوعی ابراز نگرانی کرده‌اند. بیش از 2600 مدیر فناوری و محقق در ماه مارس نامه ای سرگشاده را امضا کردند که در آن خواستار تعلیق موقت توسعه هوش مصنوعی با اشاره به “خطرات جدی برای جامعه و بشریت” شدند.

در ماه آوریل، دوازده قانونگذار اتحادیه اروپا نامه مشابهی را امضا کردند و پیش نویس لایحه اخیر اتحادیه اروپا ابزارهای هوش مصنوعی را بر اساس سطح خطر طبقه بندی می کند. علاوه بر این، بریتانیا 125 میلیون دلار به یک کارگروه برای توسعه “هوش مصنوعی ایمن” اختصاص خواهد داد.

بر اساس گزارش‌ها، ابزارهای هوش مصنوعی در حال حاضر برای اطلاعات نادرست استفاده می‌شوند و نمونه‌های اخیر رسانه‌ها برای انتشار اخبار نادرست فریب خورده‌اند. علاوه بر این، یک رسانه آلمانی از هوش مصنوعی برای جعل مصاحبه استفاده کرد.

بایننس در اول ماه مه ادعا کرد که مدیر عامل آن Changpeng “CZ” Zhao عضو یک سازمان دانشجویی حزب کمونیست چین است که توسط یک ربات چت نشات گرفته از ChatGPT منتشر شده است، همانطور که تصاویر صفحه نمایش چت بات نشان می دهد.

هفته گذشته، گروهی از شوخی‌ها چندین رسانه در سراسر جهان از جمله دیلی میل و ایندیپندنت را فریب دادند. دیلی میل داستانی در مورد یک بازیگر کانادایی به نام “سنت فون کولوچی” منتشر کرد که گفته می شود پس از انجام عمل جراحی پلاستیک درگذشت تا او را بیشتر شبیه یک ستاره پاپ کره جنوبی کند. دیلی میل متعاقباً این مقاله را حذف کرد.

خطرات قابل پیش بینی هوش مصنوعی برای بشریت چیست؟

چندین خطر قابل پیش بینی هوش مصنوعی برای بشریت وجود دارد که برخی از آنها در حال حاضر تجربه شده اند و برخی دیگر ممکن است در آینده رخ دهند. در اینجا برخی از نگران کننده ترین خطرات ذکر شده است:

1. جابجایی شغل: همانطور که هوش مصنوعی پیشرفته تر می شود، این خطر وجود دارد که جایگزین کارگران انسانی در بسیاری از صنایع شود و منجر به از دست دادن شغل گسترده و اختلالات اقتصادی شود. الون ماسک اشاره کرد که مشاغلی وجود دارد که ربات ها آنها را به عهده می گیرند و بهتر از انسان ها عمل می کنند

2. سلاح های خودمختار: توسعه تسلیحات خودمختار، که می تواند تصمیم بگیرد که چه کسی را هدف قرار دهد و چه زمانی حمله کند، بدون دخالت انسان، یک نگرانی بزرگ است. این سلاح‌ها به طور بالقوه می‌توانند به آسیب‌های ناخواسته منجر شوند، زیرا ممکن است دچار نقص یا هک شوند.

3. پیامدهای ناخواسته: با پیچیده‌تر شدن سیستم‌های هوش مصنوعی، این خطر وجود دارد که آنها عواقب ناخواسته‌ای داشته باشند که می‌تواند مضر باشد. به عنوان مثال، یک هوش مصنوعی. سیستمی که برای به حداکثر رساندن سود برای یک شرکت طراحی شده است، می تواند به طور ناخواسته به محیط زیست یا جامعه آسیب برساند.

4. تعصب و تبعیض: سیستم‌های هوش مصنوعی فقط به اندازه داده‌هایی که روی آن‌ها آموزش دیده‌اند بی‌طرف هستند، به این معنی که اگر داده‌هایی که برای آموزش آنها استفاده می‌شود مغرضانه باشد، سیستم هوش مصنوعی نیز سوگیری خواهد داشت. این می تواند عواقب جدی داشته باشد، به ویژه در زمینه هایی مانند عدالت کیفری، که در آن سیستم های هوش مصنوعی مغرضانه می تواند منجر به رفتار ناعادلانه با گروه های خاص شود.

5. خطرات امنیت سایبری: همانطور که سیستم های هوش مصنوعی پیشرفته تر می شوند، می توانند در برابر حملات سایبری نیز آسیب پذیرتر شوند. اگر یک سیستم هوش مصنوعی هک شود، می تواند به طور بالقوه برای آسیب رساندن یا اختلال در سیستم های حیاتی مورد استفاده قرار گیرد.

6. عدم شفافیت و پاسخگویی: اگر سیستم‌های هوش مصنوعی تصمیمات مهمی در مورد زندگی افراد می‌گیرند، مانند اینکه آیا به آنها وام داده می‌شود یا با وثیقه آزاد می‌شوند، مهم است که این سیستم‌ها شفاف و پاسخگو باشند. با این حال، نگرانی هایی وجود دارد که برخی از سیستم های هوش مصنوعی ممکن است غیرشفاف باشند و درک یا ممیزی آن دشوار باشد.

7. خطرات وجودی: برخی از کارشناسان این نگرانی را مطرح کرده اند که توسعه هوش مصنوعی می تواند یک تهدید وجودی برای بشریت باشد، چه از طریق توسعه هوش مصنوعی فوق هوشمند که خارج از کنترل انسان است یا از طریق استفاده از هوش مصنوعی به روش های نظامی یا سایر روش های مخرب.



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

I agree to these terms.