تاریخ انتشار : دوشنبه 29 فروردین 1401 - 3:08
145 بازدید
کد خبر : 1531

پنتاگون برای هوش مصنوعی دستورالعمل اخلاقی منتشر کرد

پنتاگون برای هوش مصنوعی دستورالعمل اخلاقی منتشر کرد

هیئتی در پنتاگون پیش نویس دستورالعملی اخلاقی برای سیستم های هوش مصنوعی منتشر کرده است. در این دستورالعمل اشاره شده سیستم های مذکور باید عاری از هرگونه تعصب باشند.

به گزارش خبرگزاری مهر به نقل از انگجت، هرچند شرکت های فناوری برای ایجاد پس زمینه اخلاقی مناسب درباره کاربردهای هوش مصنوعی با چالش هایی روبرو هستند اما وزارت دفاع آمریکا در این زمینه پیشقدم شده است. 

هیات نوآوری دفاعی آمریکا به تازگی پیش نویس دستورالعملی اخلاقی هوش مصنوعی در وزارت دفاع را منتشر کرده که هدف آن کنترل فناوری های نوین است. برخی از این دستورالعمل ها قابل اجرا هستند مانند بررسی اعتبار  فناوری یا آنکه ریشه در سیاست های قدیمی دارند مانند لزوم مسئولیت پذیری انسانی در هر مرحله. اما بقیه موارد دستورالعمل های نوینی در حوزه عمومی و خصوصی هستند.

 طبق این پیش نویس سیستم هوش مصنوعی اخلاق مدار باید از تعصب ناخواسته در الگوریتم ها مانند نژاد پرستی جلوگیری کند. گاهی اوقات سیستم های هوش مصنوعی سبب می شوند که با افراد ناعادلانه رفتار شود. این هیئت از ارتش خواست که اطمینان حاصل کند نه فقط کد ها بلکه منابع اطلاعاتی نیز خنثی هستند.

 همچنین در این پیش نویس هیئت پنتاگون خواستار آن شده سیستم هوش مصنوعی قابل کنترل  باشد و چنانچه تشخیص دهد که عملکرد آن خسارتی غیرضروری به بار می آورد، خود را متوقف کند  یا  یک اپراتور انسانی بتواند آن را متوقف کند.

این امر اجازه تولید اسلحه های تمام خودکار را نمی دهد و  احتمال چالش زا شدن هوش مصنوعی را نیز می کاهد.  بر این اساس پیش نویس شامل فراخوانی برای خروجی هوش مصنوعی قابل ردیابی است که به مردم اجازه می دهد ببینند چگونه یک سیستم به نتیجه خود رسیده است.

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.