تاریخ انتشار : پنجشنبه 1 تیر 1402 - 6:15
142 بازدید
کد خبر : 3752

قوانین ایالات‌متحده آمریکا در هوش مصنوعی کدامند؟ /۲/

قوانین ایالات‌متحده آمریکا در هوش مصنوعی کدامند؟ /۲/

ایسنا/خراسان رضوی چت بات جی چی تی (ChatGPT)، یک محصول هوش مصنوعی است که در ماه نوامبر ۲۰۲۲ پا به عرصه زندگی بشر گذاشت، ظرفیت شگفت‌انگیزی برای نوشتن مقاله، شرکت در بحث‌های فلسفی و تولید کدهای کامپیوتری دارد اما این چت بات محبوب چه خطراتی به همراه دارد؟ با پیشرفت روزافزون هوش مصنوعی بسیاری از

ایسنا/خراسان رضوی چت بات جی چی تی (ChatGPT)، یک محصول هوش مصنوعی است که در ماه نوامبر ۲۰۲۲ پا به عرصه زندگی بشر گذاشت، ظرفیت شگفت‌انگیزی برای نوشتن مقاله، شرکت در بحث‌های فلسفی و تولید کدهای کامپیوتری دارد اما این چت بات محبوب چه خطراتی به همراه دارد؟

با پیشرفت روزافزون هوش مصنوعی بسیاری از افراد خطر را احساس کردند و خواهان وضع مقررات فوری در این زمینه شدند. بسیاری از کشورهای جهان در حال وضع قوانین مربوط به استفاده از هوش مصنوعی و یا در شرف انجام آن هستند و ایالات‌متحده آمریکا نیز مطالعه قوانین احتمالی برای تنظیم هوش مصنوعی را در دستور کار خود قرار داده و به تازگی فعالیت‌های مقدماتی و خاص ارائه شده است که سرنخ‌هایی درباره نحوه تفکر دولت فدرال ایالات‌متحده در مورد هوش مصنوعی و نحوه اداره آن را در آینده می‌دهد.

قوانین ایالات‌متحده آمریکا در هوش مصنوعی کدامند؟ /۲/

موسسه ملی فناوری و استانداردها

در ۲۶ ژانویه ۲۰۲۳، موسسه ملی فناوری و استانداردها (NIST)، یکی از آژانس‌های وزارت بازرگانی ایالات‌متحده، چارچوب مدیریت ریسک هوش مصنوعی ۱.۰ (RMF) خود را به‌عنوان راهنمایی داوطلبانه، غیربخشی برای شرکت‌های فناوریی منتشر کرد که در حال طراحی، توسعه، استقرار یا استفاده از سیستم‌های هوش مصنوعی هستند و هدف از آن کمک به مدیریت خطرات فراوان هوش مصنوعی خواهد بود؛ این قوانین فراتر از مدیریت ریسک، به دنبال ارتقاء توسعه و استفاده قابل اعتماد و مسئولانه از سیستم‌های هوش مصنوعی است.

به‌عنوان هماهنگ‌کننده استانداردهای هوش مصنوعی فدرال، موسسه ملی فناوری و استانداردها با رهبران دولت و صنعت هم در ایالات‌متحده و هم در سطح بین‌المللی برای توسعه استانداردهای فنی برای ترویج پذیرش هوش مصنوعی همکاری می‌کند و قوانینی را در بخش «استانداردهای فنی هوش مصنوعی» در وب سایت خود ذکر کرده است. علاوه بر این، بخش ۵۳۰۱ قانون مجوز دفاع ملی سال مالی ۲۰۲۱ به موسسه ملی فناوری و استانداردها دستور داد تا یک چارچوب مدیریت ریسک داوطلبانه برای سیستم‌های هوش مصنوعی قابل اعتماد در چارچوب مدیریت ریسک هوش مصنوعی ایجاد کند. اگرچه چارچوب مدیریت ریسک هوش مصنوعی داوطلبانه است اما بینش خوبی در مورد ملاحظاتی ارائه می‌دهد که دولت فدرال احتمالا برای مقررات آینده هوش مصنوعی در نظر می‌گیرد و همانطور که تکامل می‌یابد، در نهایت می‌تواند به عنوان یک استاندارد صنعتی پذیرفته شود که جنبه‌های کلیدی آن در ذیل خلاصه شده است.

تشخیص کلیدی توسط چارچوب مدیریت ریسک هوش مصنوعی این است که انسان‌ها معمولا سیستم‌های هوش مصنوعی را عینی و دارای عملکرد بالا فرض می‌کنند. این فرض می‌تواند به‌طور ناخواسته به افراد، جوامع، سازمان‌ها یا اکوسیستم‌های وسیع‌تر از جمله محیط زیست آسیب برساند. افزایش قابلیت اطمینان به یک سیستم هوش مصنوعی می‌تواند به کاهش خطرات این آسیب کمک کند. چارچوب مدیریت ریسک هوش مصنوعی قابلیت اعتماد را به‌عنوان داشتن هفت ویژگی تعریف شده بیان کرده است:

۱. ایمن بودن: ارائه نظارت در زمان واقعی، پشتیبان یا سایر مداخلات سیستم هوش مصنوعی برای جلوگیری از آسیب فیزیکی یا روانی، یا به خطر انداختن جان، سلامت یا دارایی انسان؛

۲. ایمن و انعطاف‌پذیر بودن: استفاده از پروتکل‌هایی برای جلوگیری، محافظت در برابر یا پاسخ به حملات علیه سیستم هوش مصنوعی و مقاومت در برابر حوادث نامطلوب؛

۳. قابل توضیح و تفسیر بودن: درک و زمینه‌سازی مناسب مکانیسم‌های یک سیستم هوش مصنوعی همچنین خروجی آن؛

۴. افزایش حریم خصوصی: حفاظت از استقلال انسان با محافظت از ناشناس بودن، محرمانه بودن و کنترل؛

۵. بی‌طرفانه بودن: ترویج برابری  و مدیریت سوگیری‌های سیستمی، محاسباتی و آماری و انسانی-شناختی

۶. پاسخگویی و شفافیت: در دسترس قرار دادن اطلاعات مربوط به سیستم هوش مصنوعی برای افرادی که با آن در مراحل مختلف چرخه حیات هوش مصنوعی تعامل دارند و حفظ شیوه‌های سازمانی و حاکمیت برای کاهش آسیب‌های احتمالی و

۷. معتبر و قابل اعتماد بودن: نشان دادن از طریق آزمایش یا نظارت مداوم برای تایید عملکرد سیستم هوش مصنوعی همانطور که در نظر گرفته شده است.

قوانین ایالات‌متحده آمریکا در هوش مصنوعی کدامند؟ /۲/

چارچوب مدیریت ریسک هوش مصنوعی همچنین خاطرنشان کرد که سیستم‌های هوش مصنوعی در معرض خطرات منحصر به فردی مانند موارد ذکر شده در ذیل هستند:

• استفاده از داده‌های شخصی ممکن است شرکت‌های هوش مصنوعی را مشمول قوانین حفظ حریم خصوصی دولتی یا سایر خطرات حفظ حریم خصوصی به دلیل قابلیت‌های تجمیع داده‌های هوش مصنوعی کند.

• مجموعه داده‌های آموزشی ممکن است مشمول حفاظت از حق نسخه‌برداری باشد.

• مسائل مربوط به کیفیت داده‌ها (از جمله داده‌های نادرست، ناقص یا مغرضانه) می‌تواند بر قابلیت اعتماد سیستم‌های هوش مصنوعی تاثیر بگذارد.

• در مورد روش‌ها و معیارهای اندازه‌گیری قوی و قابل تایید، اتفاق نظر وجود ندارد.

چارچوب مدیریت ریسک هوش مصنوعی چهار عملکرد کلیدی را برای هوش مصنوعی شرح می‌دهد که در طول چرخه عمر سیستم هوش مصنوعی برای مدیریت ریسک و تقسیم این عملکردهای اصلی به زیر مجموعه‌های بیشتر استفاده خواهد شد. پلی بوک همراه چارچوب مدیریت ریسک هوش مصنوعی موارد ذیل را برای کمک به شرکت‌ها در اجرای این عملکردهای اصلی پیشنهاد می‌کند:

۱. طرح: جمع‌آوری دانش کافی در مورد  سیستم هوش مصنوعی برای اطلاع‌رسانی تصمیمات سازمانی در طراحی، توسعه یا استقرار آن؛

۲. اندازه‌گیری: اجرای فرآیندهای آزمایش، ارزیابی، راستی آزمایی و اعتبارسنجی برای اطلاع از تصمیمات مدیریت؛

۳. نظارت: ایجاد فرهنگ سازمانی که مدیریت ریسک هوش مصنوعی را در سیاست‌ها و عملیات خود گنجانده، آنها را به طور موثر اجرا همچنین مسئولیت‌پذیری و تنوع، برابری و شمول را تشویق کند و

۴. مدیریت: اولویت‌بندی و نظارت خطرات سیستم هوش مصنوعی و واکنش به حوادث خطر و بازیابی آنها در نظر گرفته شود.

قوانین ایالات‌متحده آمریکا در هوش مصنوعی کدامند؟ /۲/

کمیسیون تجارت فدرال

علاوه بر انتشار چارچوب مدیریت ریسک هوش مصنوعی توسط موسسه ملی فناوری و استانداردها، برخی از راهنمایی‌های اخیر از سوی سایر نهادها در داخل دولت فدرال نیز ایجاد شده است. به عنوان مثال،  کمیسیون تجارت فدرال پیشنهاد کرده که ممکن است به زودی نظارت خود را بر مشاغلی که از هوش مصنوعی استفاده می‌کنند افزایش دهد. قابل ذکر است، به تازگی کمیسیون تجارت فدرال پست‌های وبلاگی مختلفی از جمله «ادعاهای هوش مصنوعی خود را کنترل کنید» و «چت‌ربات‌ها، دیپ‌فیک‌ها و کلون‌های صوتی؛ فریب هوش مصنوعی برای فروش» را منتشر کرده که به کسب‌وکارها هشدار داده است تا از اقدامات ناعادلانه یا گمراه‌کننده اجتناب کنند.

قوانین ایالات‌متحده آمریکا در هوش مصنوعی کدامند؟ /۲/

سازمان غذا و دارو

برای شرکت‌هایی که علاقه‌مند به استفاده از فناوری‌های هوش مصنوعی برای تصمیم‌گیری مرتبط با مراقبت‌های بهداشتی هستند،  سازمان غذا و دارو (FDA)  اعلام کرده است که قصد دارد بسیاری از ابزارهای پشتیبانی تصمیم‌گیری بالینی مبتنی بر هوش مصنوعی را به عنوان دستگاه تنظیم کند.

در حالی که اقدامات اخیر با جزئیات زیاد توسط موسسه ملی فناوری و استانداردها، کمیسیون تجارت فدرال، و سازمان غذا و دارو منتشرشده است موارد اندکی از مقررات آینده هوش مصنوعی ایالات‌متحده را ارائه می‌دهد، شکی نیست که در حال حاضر، قوانین سخت و سریع کمی وجود دارد که شرکت‌های هوش مصنوعی ایالات‌متحده می‌توانند بر اساس آن فعالیت کنند. به نظر می‌رسد، اجتناب‌ناپذیر است که باید مقررات به نوعی در نهایت ظاهر شود اما اینکه چه زمانی رخ خواهد داد، هر کسی حدس می‌زند.

منابع

www.euronews.com

www.reuters.com

www.openaccessgovernment.org

انتهای پیام

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.