جعل عمیق یا دیپ فیک (Deep fake) چیست؟
کد خبر: ۲۲۹۱۷۳
تاریخ انتشار: 2021 November 24    -    ۰۳ آذر ۱۴۰۰ - ۱۷:۳۰
دیپ فیک (Deepfake) یا جعل عمیق، نوعی فناوری بر پایه هوش مصنوعی است که جهت تولید یا تغییر محتوای ویدیویی استفاده می‌شود تا ویدیو نمایانگر چیزی باشد که اصلاً اتفاق نیافتاده است.

جعل عمیق یا دیپ فیک (Deep fake) چیست؟

دیپ فیک (Deepfake) یا جعل عمیق، نوعی فناوری بر پایه هوش مصنوعی است که جهت تولید یا تغییر محتوای ویدیویی استفاده می‌شود تا ویدیو نمایانگر چیزی باشد که اصلاً اتفاق نیافتاده است.

اسم دیپ فیک به پیروی از نام کاربری یک کاربر Reddit به نام deepfakes گذاشته شده است که دسامبر ۲۰۱۷ از فناوری یادگیری عمیق، جهت جای‌گذاری چهره سلبریتی‌ها (افراد مشهور) به‌جای چهره افراد در فیلم‌های مستهجن استفاده کرده بود.

این عبارت که هم به فناوری مورد استفاده و هم ویدیو‌های ساخته‌شده آن اشاره دارد، ترکیبی از یادگیری عمیق (deep learning) و جعل (fake) است.

ویدیوی جعل عمیق به‌وسیله دو سیستم هوش مصنوعی رقیب ایجاد می‌شود که یکی تولیدکننده و دیگری تفکیک‌کننده نام دارند. تولیدکننده، ویدیویی جعلی می‌سازد و از تفکیک‌کننده می‌پرسد که آیا ویدیو واقعی است یا نه. هر بار که تفکیک‌کننده، ویدیویی را به‌درستی، جعلی تشخیص دهد، به تولیدکننده درباره کاری که نباید هنگام ساخت ویدیو بعدی انجام دهد، سر نخ می‌دهد.

تولیدکننده و تفکیک‌کننده با هم، یک شبکه تخاصمی تولیدی (Generative Adversaridf al Network) یا GAN تشکیل می‌دهند. نخستین گام در تشکیل یک GAN، شناسایی خروجی مطلوب و ساخت یک مجموعه داده تمرینی برای تولیدکننده است. هنگامی‌که تولیدکننده، تولید خروجی‌های قابل قبول را آغاز کند، کلیپ‌های ویدیویی (نماهنگ‌ها) را می‌توان وارد تفکیک‌کننده کرد.

با بهبود تولیدکننده در تولید این کلیپ‌ها، تفکیک‌کننده نیز آن‌ها را بهتر شناسایی می‌کند. بر عکس، با بهبود تفکیک‌کننده در شناسایی ویدیو‌های جعلی، تولیدکننده، آن‌ها را بهتر می‌سازد.

تا همین اواخر، تغییر محتوای ویدیویی به‌ طرز محسوس، بسیار سخت‌تر بود. با این حال، چون جعل عمیق به‌وسیله هوش مصنوعی ساخته می‌شود، مهارت چشمگیر مورد نیاز جهت تولید ویدیویی واقع‌گرا به روش‌های دیگر را نیاز ندارد. متأسفانه، این به آن معنا است که هر کس می‌تواند یک ویدیوی جعلی عمیق، جهت ترویج موضوع مد نظر خود تولید کند.

یکی از خطرات مرتبط، این است که افراد ممکن است این ویدیو‌ها را باور کنند. خطر دیگر این‌که ممکن است دیگر به اعتبار هیچ ویدیویی، نتوان اعتماد کرد.

خبرگزاری صدا و سیما

نام:
ایمیل:
* نظر:
آخرین اخبار
نیازمندیها
بلیت هواپیما چارتر