تاریخ انتشار : چهارشنبه 10 خرداد 1402 - 10:25
163 بازدید
کد خبر : 3563

خطر انقراض توسط هوش مصنوعی به اندازه پاندمی و جنگ هسته ای است

خطر انقراض توسط هوش مصنوعی به اندازه پاندمی و جنگ هسته ای است

مدیران ارشد اجرایی شرکت های هوش مصنوعی، کارشناسان و اساتید درباره خطر هوش مصنوعی برای جامعه هشدار دادند و آن را به اندازه خطر پاندمی یا جنگ هسته ای دانسته اند.

به گزارش خبرگزاری مهر به نقل از رویترز، مدیران ارشد اجرایی هوش مصنوعی از جمله سم آلتمن از شرکت «اوپن ای آی» روز گذشته همراه کارشناسان و پروفسورها درباره ریسک انقراض بشر در نتیجه گسترش هوش مصنوعی هشدار دادند. به اعتقاد آنها سیاست گذاران باید خطر ناشی از هوش مصنوعی را با ریسک پاندمی ها و جنگ هسته ای یکسان بدانند.

بیش از ۳۵۰ امضا کننده در نامه ای که توسط مرکز ایمنی هوش مصنوعی(CAIS) منتشر کرده، نوشته اند: خطر انقراض در نتیجه هوش مصنوعی باید همراه دیگر ریسک های بزرگ مانند پاندمی ها و جنگ هسته ای به یک اولویت جهانی تبدیل شود.

علاوه بر آلتمن، مدیر ارشد اجرایی شرکت های دیپ مایند و آنتروپیک و همچنین مایکروسافت و گوگل این بیانیه را امضا کردند. در کنار آنها جفری هینتون و یوشوا بنجیو (دو نفر از سه پدرخوانده هوش مصنوعی که در سال ۲۰۱۸ میلادی جایزه تورینگ را برای فعالیت خود در یادگیری عمیق دریافت کردند) و همچنین پروفسورهایی از انستیتوهای مختلف از هاروارد گرفته تا دانشگاه تسینگهوا چین نیز نامه را امضا کردند.

البته میان امضا کنندگان بیانیه CAIS نامی از شرکت متا دیده نمی شود چراکه سومین پدرخوانده هوش مصنوعی یعنی یان لی سون در آنجا کار می کند.

انتشار این نامه با ملاقات هیات تجارت و فناوری آمریکا و اتحادیه اروپا در سوئد مصادف شد که قرار بود طی آن درباره قانونمندسازی هوش مصنوعی گفتگو شود.

ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعتی جزو نخستین افرادی بودند که در ماه آوریل درباره ریسک های احتمالی فناوری برای جامعه هشدار دادند.

برچسب ها :

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.