تاریخ انتشار : دوشنبه 22 آبان 1402 - 5:11
101 بازدید
کد خبر : 4352

تلاش غول‌های فناوری برای جلوگیری از دخالت «دیپ‌فیک» در انتخابات آمریکا

تلاش غول‌های فناوری برای جلوگیری از دخالت «دیپ‌فیک» در انتخابات آمریکا

با توجه به گسترش یافتن استفاده از فناوری‌های مولد مبتنی بر هوش مصنوعی مانند «دیپ‌فیک»، شرکت‌های بزرگ فناوری سعی دارند از تاثیر احتمالی آنها بر انتخابات ۲۰۲۴ آمریکا جلوگیری کنند. به گزارش ایسنا و به نقل از فست کمپانی، با وجود فناوری‌های مولد هوش مصنوعی که اکنون تقریبا برای همه در دسترس هستند، شاید فصل

با توجه به گسترش یافتن استفاده از فناوری‌های مولد مبتنی بر هوش مصنوعی مانند «دیپ‌فیک»، شرکت‌های بزرگ فناوری سعی دارند از تاثیر احتمالی آنها بر انتخابات ۲۰۲۴ آمریکا جلوگیری کنند.

به گزارش ایسنا و به نقل از فست کمپانی، با وجود فناوری‌های مولد هوش مصنوعی که اکنون تقریبا برای همه در دسترس هستند، شاید فصل انتخابات سال آینده آمریکا فضای اطلاعاتی را به سالنی از آینه تبدیل کند که در آن هیچ کس مطمئن نباشد که چه محتوایی واقعی است و چه چیزی توسط هوش مصنوعی تولید شده است. اگر افراد سیاسی در سال‌های ۲۰۱۶ و ۲۰۲۰ رسانه‌های اجتماعی را به سلاح تبدیل کردند، در سال ۲۰۲۳ ممکن است با دیپ‌فیک‌ها به این عرصه وارد شوند.

آمریکایی‌ها اکنون از این احتمال می‌ترسند. نظرسنجی مشترک شرکت «مورنینگ کانسالت»(Morning Consult) و وب‌گاه «آکسیوس»(Axios) در ماه اوت نشان داد که بیش از نیمی از آمریکایی‌ها معتقدند اطلاعات نادرست به تعیین کردن برنده انتخابات ریاست جمهوری ۲۰۲۴ کمک خواهد کرد و بیش از یک سوم گفتند که هوش مصنوعی، اعتماد آنها را نسبت به نتیجه انتخابات آمریکا کاهش می‌دهد.

با رونق گرفتن هوش مصنوعی و رقابت‌های داغ انتخابات ۲۰۲۴، فشار بر کنگره آمریکا و شرکت‌های فناوری برای پیش گرفتن یک اقدام در حال افزایش است. در حالی که کنگره هفته پیش جلسه‌ای را در مورد این موضوع برگزار کرد، شرکت‌های «متا»(Meta) و «مایکروسافت»(Microsoft) گام‌های جدیدی را برای مقابله با دیپ‌فیک و سایر انواع هوش مصنوعی دستکاری‌کننده حقیقت برداشتند.

متا قوانین جدیدی را در مورد نحوه ارائه کردن محتوای سیاسی تولید شده به صورت عکس، ویدیو یا صدا در فیس‌بوک و اینستاگرام وضع کرد. این شرکت گفت از کمپین‌های سیاسی و گروه‌های ذی‌نفع می‌خواهد برچسب افشاگری را روی هرگونه تبلیغات سیاسی یا اجتماعی بگذارند که با استفاده از فناوری‌های هوش مصنوعی ایجاد می‌شود. به عنوان مثال، اگر گروه «دونالد ترامپ» از فناوری هوش مصنوعی برای تولید یک ویدیوی ساختگی از سقوط «جو بایدن» حین توقف مبارزات انتخاباتی استفاده کند، باید این واقعیت همراه با ویدیو فاش شود.

این سیاست که از ابتدای سال آینده آغاز می‌شود، برای همه تبلیغ‌کنندگان سیاسی در سراسر جهان اعمال خواهد شد. متا اولین محرک در فضای تبلیغاتی نبود. «گوگل» در ماه سپتامبر اعلام کرد تبلیغ‌کنندگان ملزم به برچسب زدن تبلیغات تولیدشده توسط هوش مصنوعی هستند که در پلتفرم‌های یوتیوب و گوگل اجرا می‌شوند.

همچنین، متا اذعان کرد که تبلیغ‌کنندگان را از به کار بردن فناوری‌های هوش مصنوعی خود برای ایجاد تبلیغات در گروه‌های حساس یا تحت نظارت مانند مسکن، اشتغال، اعتبار، سلامت، داروسازی یا خدمات مالی منع می‌کند. تبلیغات در گروه‌هایی که حاوی محتوای تولیدشده با استفاده از فناوری‌های شخص ثالث مانند «دال-ئی»(DALL-E) یا «میدجرنی»(Midjourney) هستند، به برچسب افشا نیاز دارند.

پلتفرم‌های اجتماعی، چندین گزینه را برای مقابله کردن با دیپ‌فیک دارند. چالش، یافتن رویکردی است که آسیب رسیدن به آزادی بیان و یکپارچگی انتخابات را به حداقل برساند. «کیتی هاربث»(Katie Harbath) مدیر سابق سیاست عمومی فیس بوک گفت: این پرسش فلسفی وجود دارد که آیا دیپ‌فیک‌ها باید از پلتفرم حذف شوند یا این که بررسی واقعیت، برچسب‌گذاری و کاهش توزیع آنها کافی است. این بیشتر یک پرسش پیرامون ارزش آزادی بیان است.

متا یک راه‌حل سبک‌تر را انتخاب کرد. این شرکت همه تبلیغات حاوی محتوای تولیدشده توسط هوش مصنوعی را ملزم نمی‌کند که دارای برچسب باشند. هاربث خاطرنشان کرد که وقتی محتوا به صورت دیجیتالی ایجاد می‌شود یا به روش‌هایی تغییر می‌کند که برای ادعا یا موضوع مطرح‌شده بی‌اهمیت است، نیازی به برچسب نیست.

«رابرت وایزمن»(Robert Weissman) عضو گروه حمایت از مصرف‌کننده «پابلیک سیزن»(Public Citizen) گفت که سازمان او ترجیح می‌دهد ممنوعیت کامل تبلیغات دیپ‌فیک سیاسی را ببیند اما او از تصمیم متا حمایت می‌کند. وی افزود: به کار بردن برچسب در این فضا می‌تواند آسیب را تا حد زیادی کاهش دهد.

ایرادی که پابلیک سیزن به متا وارد می‌کند، محدود کردن برچسب‌ها به دیپ‌فیک در تبلیغات است. این سازمان می‌گوید که برخی از تأثیرگذارترین و ویروسی‌ترین دیپ‌فیک‌های سیاسی ممکن است به‌عنوان پست‌های معمولی نشان داده شوند. وایزمن ادامه داد: دیپ‌فیک‌ها احتمالا به این دلیل بر انتخابات تأثیر می‌گذارند که رسمیت بیشتری را به همراه دارند.

توجه داشته باشید که سیاست رسانه‌ای دستکاری‌شده متا که همه محتوای فیس‌بوک و اینستاگرام را پوشش می‌دهد، با هدف حذف ویدیوی تولیدشده توسط هوش مصنوعی در پیش گرفته شده است و موضوع آن، جملاتی هستند که افراد مورد نظر نگفته‌اند.

شناسایی دیپ‌فیک‌های سیاسی در میان میلیاردها پست دیگر این پلتفرم، داستان دیگری است. هاربث گفت: این پرسش وجود دارد که این فناوری تا چه اندازه برای شناسایی پیشگیرانه دیپ‌فیک خوب است. این فقط مشکل متا نیست، بلکه یک مشکل در سطح صنعت است که سال‌ها روی آن کار کرده‌اند.

متا برای شناسایی کردن اطلاعات نادرست و سایر محتوای مضر، به شدت به سیستم‌های هوش مصنوعی متکی است اما این سیستم‌ها برای شناسایی کردن آن در برخی فرمت‌ها مانند «میم‌ها» تلاش کرده‌اند.

متا به درخواست‌های مصاحبه پاسخ نداد.

در حالی که متا سعی دارد از رای‌دهندگان در برابر گمراه شدن توسط هوش مصنوعی محافظت کند، مایکروسافت و دیگران بر ارائه فناوری‌هایی به کمپین‌های انتخاباتی برای کنترل محتوا و شباهت آنها تمرکز دارند. مایکروسافت فناوری جدیدی را برای علامت‌گذاری دیجیتالی معرفی کرد که به سازندگانی مانند کمپین‌های انتخاباتی امکان می‌دهد تا محتوای خود را به صورت دیجیتالی برچسب‌گذاری کنند تا مشخص شود که چه زمانی، چگونه، چرا و توسط چه کسی ساخته شده است. سپس، اگر طرف دیگری سعی داشته باشد محتوا را برای گمراه کردن(شاید با تغییر یا برچسب‌گذاری اشتباه) انتخاب کند، منشا و هدف واقعی عکس یا ویدیو را می‌توان به راحتی در داده‌های رمزنگاری موجود در فایل پیدا کرد. سرویس واترمارک دیجیتال در بهار سال پیش رو برای گروه کوچکی از کاربران شامل کمپین‌های سیاسی راه‌اندازی می‌شود.

اگرچه کمپین‌ها معمولا از فناوری‌های مایکروسافت برای ایجاد محتوای تبلیغاتی استفاده نمی‌کنند اما از محصولات امنیتی و بهره‌وری مایکروسافت برخوردار می‌شوند. به احتمال زیاد یک کمپین انتخاباتی از محصولات شرکت «ادوبی»(Adobe) برای ایجاد محتوای تبلیغاتی استفاده خواهند کرد. ادوبی نیز یک فناوری منبع باز به نام «Content Credentials» ارائه کرده است که می‌توان آن را در فناوری‌ها و پلتفرم‌های ایجاد محتوا جاسازی کرد. «نیویورک تایمز» و «وال استریت ژورنال» از این فناوری برای احراز هویت اخبار استفاده خواهند کرد. شرکت «انویدیا»(Nvidia) و یک استارتاپ هوش مصنوعی تولیدکننده تصویر موسوم به «Stability AI» از آن برای احراز هویت محتوای تولیدشده استفاده خواهند کرد. شرکت‌های سازنده دوربین عکاسی مانند «نیکون»(Nikon) و «لایکا»(Leica) آن را برای شناسایی تصاویر به کار خواهند برد.

صحنه سیاسی آمریکا قبلا شاهد آغاز استفاده کردن از دیپ‌فیک بوده است. در ماه ژوئن، کمپین «ران دسنتیس»(Ron DeSantis) سیاست‌مدار آمریکایی متهم شد تصاویر ایجادشده توسط هوش مصنوعی را از ترامپ در یک ویدیوی آنلاین منتشر کرده است. در ماه آوریل، «کمیته ملی جمهوری‌خواهان آمریکا»(RNC) یک تبلیغ ویدیویی را از یک آینده ویران‌شهری آمریکا با تصاویر تولیدشده توسط هوش مصنوعی منتشر کرد که در آن بایدن مجددا به عنوان رئیس‌جمهور انتخاب شد. البته در آن تبلیغ، استفاده کردن از هوش مصنوعی فاش شد.

اطلاعیه‌های متا و مایکروسافت هم‌زمان با یک جلسه استماع در مورد دیپ‌فیک‌ها منتشر شدند که توسط کمیته فرعی مجلس نمایندگان آمریکا در مورد امنیت سایبری، فناوری اطلاعات و نوآوری دولتی برگزار شد. قانون‌گذاران، بخش قابل توجهی از سال جاری را به منظور آماده شدن برای تصویب مقررات مربوط به هوش مصنوعی مسئول صرف کرده‌اند. وایزمن باور دارد که موضوع اطلاعات نادرست سیاسی تولیدشده توسط هوش مصنوعی، در صدر فهرست اولویت‌های بسیاری از قانون‌گذاران قرار گرفته زیرا این واقعیت آشکار است که می‌توان از دیپ‌فیک‌ها مستقیما علیه آنها در انتخابات مجدد استفاده کرد.

مایکروسافت، ادوبی و سایر شرکت‌های فناوری، حمایت خود را از لایحه دو حزبی به نام «قانون محافظت از انتخابات در برابر هوش مصنوعی فریبنده» ابراز داشته‌اند که توسط «ایمی کلوبوچار»(Amy Klobuchar)، «جاش هاولی»(Josh Hawley)، «کریس کونز»(Chris Coons) و «سوزان کالینز»(Susan Collins) سناتورهای آمریکا ارائه شده است. به گفته منابع، این لایحه که حق نامزد آسیب‌دیده از دیپ‌فیک را برای شکایت و دریافت خسارت‌های قانونی تثبیت می‌کند، در ساختمان کنگره مطرح شده است اما هیچ چیز قطعی نیست.

انتهای پیام

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.