تاریخ انتشار : پنجشنبه 9 آذر 1402 - 5:16
55 بازدید
کد خبر : 4461

فناوری که از جعل صدای شما جلوگیری می‌کند

فناوری که از جعل صدای شما جلوگیری می‌کند

یکی از توانایی‌های سیستم‌های هوش مصنوعی جعل عمیق توانایی شبیه‌سازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که می‌تواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرم‌افزار جدید به نام ضدجعل(AntiFake) می‌تواند به جلوگیری از وقوع آن کمک کند. به گزارش ایسنا و به

یکی از توانایی‌های سیستم‌های هوش مصنوعی جعل عمیق توانایی شبیه‌سازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که می‌تواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرم‌افزار جدید به نام ضدجعل(AntiFake) می‌تواند به جلوگیری از وقوع آن کمک کند.

به گزارش ایسنا و به نقل از نیواطلس، در سایر قابلیت‌های هوش مصنوعی، از نسخه‌های جعلی صدای افراد به همراه ویدیوهای جعلی می‌توان به گونه‌ای استفاده کرد که به نظر برسد گویی یک سیاستمدار یا شخصیت مشهور چیزی را گفته که هرگز در واقعیت نگفته‌ است.

علاوه بر این مواردی وجود داشته که افراد تماس‌های تلفنی دریافت کرده‌اند که در آن صدای جعلی یکی از دوستان یا اعضای خانواده را شنیده‌اند که از آنها خواسته تا در اسرع وقت، به دلیل شرایط اضطراری، پولی برای شخص واریز کنند. علاوه بر این، از صداهای جعلی می‌توان برای دور زدن سیستم‌های امنیتی تشخیص صدا استفاده کرد.

اگرچه در حال حاضر فناوری‌هایی طراحی شده‌اند که تشخیص دهند آیا صداهای ظاهرا قانونی جعل عمیق هستند یا خیر، طبق گزارش‌ها، آنتی‌فیک یکی از اولین سیستم‌هایی است که از تولید چنین جعل‌هایی در وهله اول جلوگیری می‌کند.

به طور خلاصه، این نرم‌افزار کار را با سخت‌تر کردن خواندن ویژگی‌های صوتی خاص در فایل ضبط شده صدای افراد توسط سیستم‌های هوش مصنوعی انجام می‌دهد.

نینگ ژانگ(Ning Zhang)، مخترع، استادیار علوم و مهندسی رایانه در دانشگاه واشنگتن در سنت لویی می‌گوید: این ابزار از روش هوش مصنوعی مخرب استفاده می‌کند که در ابتدا بخشی از نرم‌افزارهای مجرمان سایبری بود، اما اکنون ما از آن برای دفاع در برابر آنها استفاده می‌کنیم.

ما سیگنال صوتی ضبط شده را اندکی تخریب می‌کنیم به اندازه‌ای که همچنان برای شنوندگان انسانی درست به نظر برسد اما برای هوش مصنوعی کاملا متفاوت باشد.

این بدان معنی است که حتی اگر یک جعل عمیق از روی یک فایل ضبط شده تغییر یافته با آنتی‌فیک ایجاد شود، نتیجه شبیه صدای واقعی گوینده نخواهد بود. آزمایش‌های انجام‌شده تاکنون نشان داده‌اند که این فناوری بیش از ۹۵ درصد در جلوگیری از ایجاد جعل‌های عمیق مؤثر بوده است.

ژانگ می‌گوید: اگرچه من نمی‌دانم در آینده در حوزه فناوری تولید صدا با هوش مصنوعی چه اتفاقی رخ می‌دهد زیرا ابزارها و قابلیت‌های جدید همیشه در حال توسعه هستند اما من فکر می‌کنم استراتژی ما برای استفاده از روش‌های رقبا علیه آن‌ها همچنان موثر خواهد بود.

انتهای پیام

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

دیدگاه