دسته : جامعهتاریخ: ۱۴۰۲/۰۳/۲۰
«دیپ‌فیک» چگونه درک ما از واقعیت را مخدوش می‌کند؟!

سایه‌آنلاین؛ کامپیوترها در شبیه‌سازی واقعیت به‌‌میزانی فزاینده بهتر؛ و محصولات رسانه‌ایِ تولیدی توسط «هوش مصنوعی» (AI)، به سرفصل‌هایی جدی تبدیل شده‌اند؛ به‌ویژه ویدئوهایی که برای «تقلیدکردنِ» کسی طراحی شده‌اند و چنین وانمود می‌کنند که او «چیزی را گفته» یا «کاری را کرده» که «نگفته» یا «نکرده»! یکی از استریمرهایِ Twitch (یک سرویس ویدئوییِ آنلاین که پخش زنده مسابقات ورزش الکترونیک، موزیک، محتوای خلاقانه و استریم‌های زندگی واقعی را ارائه می‌دهد؛ و زیرمجموعه Amazon است) به‌خاطر ساخت و انتشار محتوای پورنوگرافی از همکارانش توسط هوش مصنوعی، دستگیر شد. گروهی از دانش‌آموزانِ نیویورکی، ویدئویی از مدیر مدرسه‌شان تهیه کردند که با سخنانی نژادپرستانه دانش‌آموزان را تهدید می‌کرد. در ونزوئلا، از ویدئوهای تولیدی برای تبلیغات سیاسی استفاده می‌شود … در هر سه‌مورد، ویدئوی تولیدشده توسط هوش مصنوعی؛ با هدف متقاعدکردن شما ساخته شده که در آن، کارهایی به شخصی منتسب شده و او را حین انجام عملی یا صحبتی می‌بینید؛ که روحش نیز از آن‌ها بی‌خبر است! یک واژه جدید برای این‌نوع محتوا هست: Deepfake! گزارش ۶ آوریل ۲۰۲۳ در رسانه Business Insider قصد دارد ما را با این پدیده آشنا کند.

 

«دیپ‌فیک» چیست؟

در Deepfakes از «هوش مصنوعی» برای تولید ویدئو یا صوتِ کاملاً جدید استفاده می‌شود؛ آن‌هم با هدف نهاییِ به‌تصویرکشیدن چیزی‌که واقعاً در واقعیت رخ نداده است. اصطلاح Deepfake از فناوری زیربنایی (الگوریتم‌های یادگیری عمیق) می‌آید که آموخته‌اند مشکلات را با مجموعه‌ بزرگی از داده‌ها حل کنند و درعین‌حال می‌توانند برای «ایجاد محتوای جعلی از افراد واقعی» به‌کار روند. «کریستینا لوپز»؛ تحلیلگر ارشد در Graphika(شرکتی که درمورد جریان اطلاعات در شبکه‌های دیجیتال تحقیق می‌کند)، می‌گوید: «دیپ‌فیک، فیلمی‌ست که توسط رایانه‌ای تولید می‌شود که ازطریق تصاویر موجود آموزش دیده است. البته فقط هرگونه تصویر جعلی یا گمراه‌کننده نیست؛ مثلاً تصویر پاپ فرانسیس با ژاکت پفی (پافر) که توسط هوش مصنوعی تولیدشده؛ یا صحنه‌های جعلی دستگیریِ دونالد ترامپ که اندکی‌ قبل از اعلام‌جرم او منتشر شد، به‌همین‌شیوه تولید شده؛ اما دیپ‌فیک نیستند. آنچه دیپ‌فیک را از این‌نوع تصاویر مصنوعی جدا می‌کند، عنصرِ ورودی (دخل‌وتصرف) انسان است. وقتی از دیپ‌فیک می‌گوییم، کاربر فقط در پایان فرآیندِ تولید تصمیم می‌گیرد که آیا آنچه ایجاد شده، همان‌چیزی‌ست‌که می‌خواسته یا نه. خارج از تنظیم داده‌های آموزشی و گفتن بله یا نه، به آنچه رایانه بعد از این واقعیت تولید می‌کند، هیچ نظری درمورد نحوه انتخاب رایانه برای ساخت آن ندارند». در تبیینِ این‌امر «لوپز» می‌‌گوید: «فناوری‌های رایانه‌ای نظیرِ Photoshop و CGI نیز معمولاً برای تولید مدیا استفاده می‌شوند؛ اما تفاوت این‌است‌که در آن‌ها انسان‌ها در هر مرحله از فرآیند، مشارکت دارند. شما از هوش مصنوعی برای CGI بسیار کمک می‌گیرید؛ اما در‌پایان، یک انسان با دیدگاه انسانی هست که خروجی را کنترل می‌کند».

 

«دیپ‌فیک» چگونه خلق می‌شود؟

روش‌های مختلفی برای خلق «دیپ‌فیک» وجود دارد؛ اما رایج‌ترینشان‌، استفاده از «شبکه‌های عصبی عمیق» (DNN) است که از تکنیک «تعویض چهره» استفاده می‌کنند. دراین‌روش، ابتدا به یک ویدئوی هدف برای استفاده به‌عنوان پایه «دیپ‌فیک»؛ و سپس، مجموعه‌ای از کلیپ‌های ویدئویی از شخصی که می‌خواهید در هدفتان (محصول نهایی) قرار دهید، نیاز دارید. ویدئوها می‌توانند کاملاً نامرتبط باشند؛ مثلاً هدف می‌تواند کلیپی از یک فیلم هالیوودی باشد؛ و ویدئوهای شخصی که می‌خواهید در فیلم بگنجانید، کلیپ‌هایی تصادفی که از You Tube دانلود شده‌اند. ‌برنامه، از زوایای مختلف و شرایط متنوع، ظاهرِ یک فرد را حدس می‌زند و بعد با یافتن ویژگی‌های مشترک، آن شخص را بر روی هدف در ویدئوی موردنظر، می‌گذارد. نوع دیگر از «یادگیری ماشینی» (ML) به این ترکیب اضافه ‌شده است به‌نام «شبکه مولد تخاصمی» (GANs) که هرگونه نقص در «دیپ‌فیکِ» تولیدی را در چند‌دُور شناسایی می‌کند و بهبود می‌بخشد تا رمزگشایی برای آشکارسازهایِ «دیپ‌فیک»، سخت‌تر شوند و به‌عبارتی ساده‌تر، محصول نهایی به‌راحتی «لو» نرود! اگرچه فرآیند پیچیده است؛ اما نرم‌افزار نسبتاً دردسترس است. چندین برنامه، تولید «دیپ‌فیک» را حتی برای مبتدیان آسان کرد‌ه‌اند؛ مانند ZAO، Face Swap، DeepFace Lab، FakeApp و بسیاری‌دیگر که می‌توان آن‌ها را در GitHub (سرویس میزبانیِ وب دارای پروژه‌های متن‌باز) یافت و تهیه کرد.

 

از «دیپ‌فیک» چگونه استفاده می‌شود؟

فناوری Deepfake طی عمر خود، برای مقاصد غیرقانونی؛ ازجمله تولید «هرزه‌نگاریِ جعلیِ» استفاده شده است. در سال ۲۰۱۷، یکی از کاربران Reddit انجمنی به‌نام deepfakes را برای خلقِ پورن ایجاد کرد؛ که در آن، از چهره بازیگران سوءاستفاده کرده بود. ازآن‌زمان، پورن (به‌ویژه پورن انتقام‌جویانه) بارها خبرساز شد و شدیداً به شهرت سلبریتی‌ها و چهره‌های برجسته لطمه زد. طبق گزارش DeepTrace؛ محتوای ضدِ‌اخلاقی، ۹۶‌درصد از ویدئوهای «دیپ‌فیک» را در سال ۲۰۱۹ تشکیل داده بود! البته ویدئوی Deepfake در «سیاست» نیز مورداستفاده قرار گرفته است؛ مثلاً در سال ۲۰۱۸، یک حزب سیاسی بلژیکی، ویدئویی از سخنرانی «دونالد ترامپ» منتشر کرد؛ که وی طیِ آن، از «بلژیک» خواست تا از «توافقنامه آب‌وهوای پاریس» خارج شود؛ و خب؛ «ترامپ» هرگز آن سخنرانی را انجام نداده بود! بله؛ Deepfake بود. این اما اولین و آخرین به‌کارگیریِ «دیپ‌فیک» در ایجاد محتوای گمراه‌کننده نبوده و نیست. کارشناسانِ سیاسیِ آگاه از فناوری، درحال‌آماده‌سازی موجی از اخبار جعلی در آینده‌اند که جعلیاتی «متقاعدکننده» خواهند بود. بااین‌حال، گروه‌های حقوق بشر و فناوران رسانه کاربردهایی مثبت از این پدیده را هم به‌یاد دارند: مستندِ «به چچن خوش آمدید» (محصول ۲۰۲۰ شبکه HBO)، از فناوری «دیپ‌فیک» برای پنهان‌کردن هویت گروه اقلیتی از پناه‌جویان روسی که زندگی‌شان درخطر بود و درعین‌حال، ماجراهای آن‌ها را نیز برای مخاطب بازمی‌گفت، استفاده کرد. سازمان WITNESS که بر استفاده از مدیاها به‌جهتِ «دفاع از حقوق بشر» متمرکز است، نسبت به این فناوری ابراز خوش‌بینی کرده؛ هرچند «تهدیدات دیجیتال» را نیز به‌رسمیت می‌شناسد. «شیرین آنلن»؛ تکنسین مهندسیِ رسانه دراین‌نهاد، توضیح می‌دهد: «بخشی از کار ما واقعاً کاوش در استفاده مثبت از این پدیده است؛ از محافظت از افراد مانند فعالان در ویدئو گرفته تا اتخاذ رویکردهای حمایتی و طنز سیاسی». درواقع، این پدیده برای این متخصص و سازمانش، چیزی نیست که باید کاملاً از آن ترسید. درعوض، باید آن‌را به‌عنوان یک «ابزار» دید. او می‌گوید: «این، برپایه یک رابطه طولانی‌مدت است که ما با وسایل سمعی و بصری داشته‌ایم؛ ما قبلاً صدا را دست‌کاری کرده‌ایم. ما قبلاً تصاویر را به‌روش‌های مختلف دست‌کاری کرده‌ایم». کارشناسانی مانند «آنلن» و «لوپز» براین‌باورندکه بهترین رویکردی که عموم مردم می‌توانند در قبال «دیپ‌فیک»‌ اتخاذ کنند، «ترسیدن» نیست؛ بلکه «اطلاع از فناوری و قابلیت‌های آن» است.

 

نحوه تشخیص «دیپ‌فیک»

تعداد انگشت‌شماری «سنجه» وجود دارد که «دیپ‌فیک» را «لو» می‌دهد:

– آیا جزئیات «تار» یا «مبهم» به‌نظر می‌رسند؟ به‌دنبال مشکلات پوست یا مو یا چهره‌هایی باشید که به‌نظر می‌رسد تارتر از محیطی که در آن قرار دارند، هستند. فوکوس ممکن است به‌طور غیرطبیعی «نرم» به‌نظر برسد.

– آیا «نورپردازی» غیرطبیعی به‌نظر می‌رسد؟ الگوریتم‌های «دیپ‌فیک» نور کلیپ‌هایی را که به‌عنوان مدل‌هایی برای ویدئوی جعلی استفاده می‌شد، اغلب حفظ می‌کنند که با نورپردازی ویدئوی موردنظر «مطابقتِ ضعیفی» دارد.

– آیا کلمات یا صداها با تصاویر «مطابقت» ندارند؟ صدا ممکن است با فرد منطبق نباشد؛ به‌خصوص اگر ویدئو جعلی بوده؛ اما صدای اصلی به‌دقت «دست‌کاری» نشده باشد.

– آیا از منبع قابل‌اعتماد ارسال شده است؟ یکی از تکنیک‌هایی که روزنامه‌نگاران و محققان اغلب برای بررسی منبع واقعی یک تصویر استفاده می‌کنند که می‌توانید ‌الآن انجام دهید، جست‌وجوی تصویرِ معکوس است. همچنین باید بررسی کنید: چه‌کسی تصویر را ارسال کرده، کجا پست شده و آیا انجام این‌کار برای آن‌ها منطقی‌ست یا خیر؟

 

مبارزه با «دیپ‌فیک» با تکنولوژی

با پیشرفت فناوری، تشخیص اختلاف بین محتوای واقعی و جعلی «دشوارتر» خواهد شد. ازاین‌رو، کارشناسانی مانند «آنلن» معتقدند که تشخیص «دیپ‌فیک» طبیعتاً نباید بر دوش افراد باشد. «آنلن» می‌گوید: «مسئولیت باید برعهده توسعه‌دهندگان، خالقانِ ابزار و شرکت‌های فناوری باشد تا با ایجادِ واترمارک‌های نامرئی، نشان دهند منبع تصویر چیست. البته تعدادی از شرکت‌های نوپا درحال‌توسعه روش‌هایی برای شناسایی دیپ‌فیک هستند؛ مثلاً Sensity یک پلتفرم تشخیص شبیه به آنتی‌ویروس برای دیپ‌فیک‌ها ایجاد کرده که به کاربران ازطریق ایمیل هنگام تماشای چیزی‌که دارای اثرانگشتِ گویا از مدیاهای تولیدی توسط هوش مصنوعی‌ست، هشدار می‌دهد. این ابزار نیز البته از همان فرآیندهای یادگیری عمیق استفاده می‌کند که برای ایجاد ویدئوهای جعلی استفاده می‌شود». رویکرد ساده‌تری برای شناسایی «دیپ‌فیک» را Operation Minerva ارائه داده است: الگوریتم این شرکت، «دیپ‌فیک»‌ احتمالی را با ویدئوهای مطرح که قبلاً «اثرانگشت دیجیتالی» شده‌اند، مقایسه می‌کند؛ مثلاً می‌تواند نمونه‌هایی از هرزه‌نگاریِ انتقام‌جویانه را با تشخیص اینکه ویدئوی «دیپ‌فیک» نسخه اصلاح‌شده یک ویدئوی موجود است‌ (که Minerva قبلاً فهرست‌بندی کرده) شناسایی کند. به‌‌رغم این پیشرفت‌ها؛ «نصیر ممون» (استاد علوم و مهندسی کامپیوتر در دانشگاه نیویورک) می‌گوید: «هیچ تلاشی برای مبارزه با دیپ‌فیک‌ در مقیاس بزرگ صورت نگرفته و هر راه‌حلی که بیاید، در متوقف‌کردن دیپ‌فیک‌‌های مضرِ درحال‌گسترش، ثمربخش نخواهد بود. به‌نظرم؛ راه‌حل کلاً مبتنی‌بر فناوری نیست؛ بلکه آموزش، آگاهی، مدل‌های تجاریِ مناسب، مشوق‌ها، سیاست‌ها و قوانین است». در «آمریکا» چندین ایالت؛ ازجمله «کالیفرنیا، نیویورک و ویرجینیا» قوانینی را تصویب یا تلاش کرده‌اند که استفاده از «دیپ‌فیک» را در موارد خاص مانند «هرزه‌نگاری» یا «سیاست» غیرقانونی کنند. یک مشکل روبه‌رشد استفاده از «دیپ‌فیک» در محیط‌های آنلاین، «پنهان‌کردن هویت فرد درلحظه» است؛ مانند تماس‌های تصویری یا جلساتی در برنامه‌هایی نظیرِ ZOOM. به‌گفته «ممون»؛ تهدید شخصی که از هویت جعلی استفاده می‌کند، می‌تواند در هر موقعیتی، از مصاحبه شغلی گرفته تا امتحاناتِ از راه دور و درخواست ویزا، ایجاد شود. حتی خبرنگاران رسانه Insider مجبور شده‌اند که با کلاه‌برداری‌های ناشی از تولید محتوا توسط AI که از آن‌ها و رسانه‌شان به‌عنوان «منبع موثق» یاد کرده‌اند، مقابله کنند. «ممون» گفت: «مشکلِ بزرگ این‌است‌که فرد، جریان یا نهادِ درخطرافتاده است که باید از خودش دفاع کند و واقعیتِ قلب‌شده را از ذهن مخاطبان برانَد؛ آیا شدنی‌ست؟ در جعل‌های ساده‌تر از این نیز، مردم اصلاً متقاعد نمی‌شوند». اگرچه بعضی از کارشناسان می‌گویند که در حالت ایدئال، فناوری برای شناسایی این‌نوع «دیپ‌فیک‌‌های زنده (‌آنلاین)» نیز ایجاد می‌شود و توسعه می‌یابد؛ بااین‌حال، «ممون» انتظار ندارد که این‌نوع رویکرد، پایانی بر این جعلِ عمیق باشد. او می‌گوید: «هیچ‌چیز مشکل را کاملاً حل نمی‌کند. اصالت همیشه باید در جامعه آزمایش شود»؛ پس با مشاهده هر تصویر یا ویدئویی، برای «قضاوت» درباره آن «عجله» نکنید!

مصطفی رفعت