
فناوری Deepfake از زمان ورود به آگاهی عمومی ، از دغدغه های مهم حفظ حریم شخصی بوده است. در صورتی که نمی دانید ، یک نقاشی عمیق چهره تولید شده توسط رایانه است که بر روی تصویر شخص دیگر در یک فیلم نقشه برداری می شود. با استفاده از روشهای پیشرفته یادگیری ماشین ، می توانید واقعاً یک شخص را به تصویر دیگری منتقل کنید. یک مثال مشهور در اینجا وجود دارد:
کیفیت عمق بسیار زیاد است ، اما آنها روز به روز واقع بین تر می شوند. که مسئله حقیقت و تبلیغات را مطرح می کند. از این گذشته ، اگر شما بخواهید رئیس جمهور ایالات متحده را به هیچ وجه حرفی بزنید ، می توانید سردرگمی فراوانی ایجاد کنید. به عنوان مثال ، به این ژرفای باراک اوباما که توسط جوردن پیل بازی شده است نگاهی بیندازید.
این خیلی خوب کار می کند زیرا جردن پیل یک شخصیت حرفه ای است ، اما اگر کسی بتواند صدای کاملی را جعل کند ، چه می شود؟ این وعده ایجاد عمیق صوتی است ، و می تواند یک تهدیدکننده بازی برای این تهدید جدید در مورد حفظ حریم خصوصی باشد.
یک داستان دو سیریس

وقتی برای اولین بار است که دستیار دیجیتال سیری اپل را امتحان کردم ، من را منفجر کردم. چقدر طبیعی صداش صدا شد این به این معنی نیست که صدای نسل اول سیری عالی بود. هر کسی می تواند بگوید که این صدای انسان نیست ، اما آنقدر نزدیک بود که احساسات ترکیب صدا طبیعی را تغییر داد.
امروز ، در سال 2020 ، صدای سیری احساس بی عیب و نقصی می کند. در واقع ، تقریباً در مورد هر صدای ترکیبی سطح بالا ، من شنیده ام که از یک شخص واقعی قابل تشخیص نیست. سیستم Duplex گوگل به اندازه کافی انسانی به نظر می رسد که می تواند مردم را از طریق تلفن فریب دهد.
این اولین قسمت از معماهای فن آوری عمیق آوازی است. اکنون می توانیم صداهای مصنوعی ایجاد کنیم که به اندازه کافی واقعی به نظر برسند که یک فرد عادی نتواند آنها را جدا از صداهای طبیعی انسان بیان کند. حال سوال اینجاست که آیا می توانیم صدای یک شخص واقعی را به همان میزان تکرار کنیم.
آیا می توانید اکنون مرا بشنوید؟

پاسخ کوتاه بله است.
با استفاده از آموزش ماشین و وضعیت هنر هنگامی که نوبت به سنتز آواز می رسد ، این نرم افزار اکنون می تواند صدای شخص واقعی را کلون کند و آن را به هر چیزی که می خواهید بگوید تبدیل کند.
Lyrebird را در نظر بگیرید که همانطور که من این را می نویسم ، در بتا خصوصی است. این یک ابزار مبتنی بر هوش مصنوعی است که می تواند یک کلون از صدای شما را بر اساس نمونه نسبتاً کوچکی ایجاد کند.
این یک ابزار تجاری است ، اما پیشرفت کلی فناوری صدای کلون شده در حال حاضر دلیلی برای نگرانی است. کمیسیون تجارت فدرال در گفتگو با Verge اظهار داشت که آنها نسبت به سوء استفاده احتمالی این فناوری بسیار نگران هستند. چرا؟ خوب ، اگر شما نمی توانید تصور کنید كه كلونینگ صوتی صدمه می تواند انجام دهد ، در اینجا چند مثال عالی وجود دارد.
با استفاده از صدای شیطان

اما این همه خبر بد نیست. روش های مثبت زیادی وجود دارد که می توان از این نوع کلونینگ صوتی استفاده کرد. با کمی تخیل ، می تواند در حال تغییر جهانی باشد.
بیایید با برنامه های پزشکی شروع کنیم. به شخصی مثل مرحوم استاد استفان هاوکینگ فکر کنید که به صدای ترانزیت صوتی خام اعتماد کرد تا صدای او باشد. با استفاده از این فناوری جدید ، می توان از ضبط های قبلی صدای وی برای بازسازی آنچه پیش از قطع شدن صدای او به نظر می رسید ، استفاده کرد. این می تواند راهی برای حفظ صدا به عنوان پروتز دیجیتال باشد.
یکی دیگر از کاربردها ، همانطور که توسط Lyrebird در نظر گرفته شده ، این است که افرادی که از صداهای خود برای اهداف خلاق استفاده می کنند. مانند پادکست یا سازندگان ویدیو که صوتی را انجام می دهند. اگر به سادگی می توانید متن و دستورالعمل های عملکرد را با صدای مصنوعی تغذیه کنید ، دامنه تولید محتوا گسترده است. کلمات مکتوب نویسندگان تا زمانی که ضبط نمونه وجود داشته باشد می توانند دوباره به صدای خود برگردند.
به سیستم های تعاملی و سرگرمی فکر کنید ، مانند بازی های ویدیویی که در آن صداهای شخصیت لازم نیست ضبط شوند. در عوض ، متن به گفتار می تواند مکالمات پویا و خطوط گفتاری ایجاد کند. همین مورد می تواند در مورد chatbots های AI اعمال شود.
مانند هر فناوری ، چه مضر باشد و چه فایده ای در چگونگی استفاده ما دارد واقعیت عمیق که باید در خاطر داشته باشیم این است که ممکن است به زودی صدای انسان دیگر تنها قشر بدن انسان نباشد.
