سایهآنلاین؛ کامپیوترها در شبیهسازی واقعیت بهمیزانی فزاینده بهتر؛ و محصولات رسانهایِ تولیدی توسط «هوش مصنوعی» (AI)، به سرفصلهایی جدی تبدیل شدهاند؛ بهویژه ویدئوهایی که برای «تقلیدکردنِ» کسی طراحی شدهاند و چنین وانمود میکنند که او «چیزی را گفته» یا «کاری را کرده» که «نگفته» یا «نکرده»! یکی از استریمرهایِ Twitch (یک سرویس ویدئوییِ آنلاین که پخش زنده مسابقات ورزش الکترونیک، موزیک، محتوای خلاقانه و استریمهای زندگی واقعی را ارائه میدهد؛ و زیرمجموعه Amazon است) بهخاطر ساخت و انتشار محتوای پورنوگرافی از همکارانش توسط هوش مصنوعی، دستگیر شد. گروهی از دانشآموزانِ نیویورکی، ویدئویی از مدیر مدرسهشان تهیه کردند که با سخنانی نژادپرستانه دانشآموزان را تهدید میکرد. در ونزوئلا، از ویدئوهای تولیدی برای تبلیغات سیاسی استفاده میشود … در هر سهمورد، ویدئوی تولیدشده توسط هوش مصنوعی؛ با هدف متقاعدکردن شما ساخته شده که در آن، کارهایی به شخصی منتسب شده و او را حین انجام عملی یا صحبتی میبینید؛ که روحش نیز از آنها بیخبر است! یک واژه جدید برای ایننوع محتوا هست: Deepfake! گزارش ۶ آوریل ۲۰۲۳ در رسانه Business Insider قصد دارد ما را با این پدیده آشنا کند.
«دیپفیک» چیست؟
در Deepfakes از «هوش مصنوعی» برای تولید ویدئو یا صوتِ کاملاً جدید استفاده میشود؛ آنهم با هدف نهاییِ بهتصویرکشیدن چیزیکه واقعاً در واقعیت رخ نداده است. اصطلاح Deepfake از فناوری زیربنایی (الگوریتمهای یادگیری عمیق) میآید که آموختهاند مشکلات را با مجموعه بزرگی از دادهها حل کنند و درعینحال میتوانند برای «ایجاد محتوای جعلی از افراد واقعی» بهکار روند. «کریستینا لوپز»؛ تحلیلگر ارشد در Graphika(شرکتی که درمورد جریان اطلاعات در شبکههای دیجیتال تحقیق میکند)، میگوید: «دیپفیک، فیلمیست که توسط رایانهای تولید میشود که ازطریق تصاویر موجود آموزش دیده است. البته فقط هرگونه تصویر جعلی یا گمراهکننده نیست؛ مثلاً تصویر پاپ فرانسیس با ژاکت پفی (پافر) که توسط هوش مصنوعی تولیدشده؛ یا صحنههای جعلی دستگیریِ دونالد ترامپ که اندکی قبل از اعلامجرم او منتشر شد، بههمینشیوه تولید شده؛ اما دیپفیک نیستند. آنچه دیپفیک را از ایننوع تصاویر مصنوعی جدا میکند، عنصرِ ورودی (دخلوتصرف) انسان است. وقتی از دیپفیک میگوییم، کاربر فقط در پایان فرآیندِ تولید تصمیم میگیرد که آیا آنچه ایجاد شده، همانچیزیستکه میخواسته یا نه. خارج از تنظیم دادههای آموزشی و گفتن بله یا نه، به آنچه رایانه بعد از این واقعیت تولید میکند، هیچ نظری درمورد نحوه انتخاب رایانه برای ساخت آن ندارند». در تبیینِ اینامر «لوپز» میگوید: «فناوریهای رایانهای نظیرِ Photoshop و CGI نیز معمولاً برای تولید مدیا استفاده میشوند؛ اما تفاوت ایناستکه در آنها انسانها در هر مرحله از فرآیند، مشارکت دارند. شما از هوش مصنوعی برای CGI بسیار کمک میگیرید؛ اما درپایان، یک انسان با دیدگاه انسانی هست که خروجی را کنترل میکند».
«دیپفیک» چگونه خلق میشود؟
روشهای مختلفی برای خلق «دیپفیک» وجود دارد؛ اما رایجترینشان، استفاده از «شبکههای عصبی عمیق» (DNN) است که از تکنیک «تعویض چهره» استفاده میکنند. دراینروش، ابتدا به یک ویدئوی هدف برای استفاده بهعنوان پایه «دیپفیک»؛ و سپس، مجموعهای از کلیپهای ویدئویی از شخصی که میخواهید در هدفتان (محصول نهایی) قرار دهید، نیاز دارید. ویدئوها میتوانند کاملاً نامرتبط باشند؛ مثلاً هدف میتواند کلیپی از یک فیلم هالیوودی باشد؛ و ویدئوهای شخصی که میخواهید در فیلم بگنجانید، کلیپهایی تصادفی که از You Tube دانلود شدهاند. برنامه، از زوایای مختلف و شرایط متنوع، ظاهرِ یک فرد را حدس میزند و بعد با یافتن ویژگیهای مشترک، آن شخص را بر روی هدف در ویدئوی موردنظر، میگذارد. نوع دیگر از «یادگیری ماشینی» (ML) به این ترکیب اضافه شده است بهنام «شبکه مولد تخاصمی» (GANs) که هرگونه نقص در «دیپفیکِ» تولیدی را در چنددُور شناسایی میکند و بهبود میبخشد تا رمزگشایی برای آشکارسازهایِ «دیپفیک»، سختتر شوند و بهعبارتی سادهتر، محصول نهایی بهراحتی «لو» نرود! اگرچه فرآیند پیچیده است؛ اما نرمافزار نسبتاً دردسترس است. چندین برنامه، تولید «دیپفیک» را حتی برای مبتدیان آسان کردهاند؛ مانند ZAO، Face Swap، DeepFace Lab، FakeApp و بسیاریدیگر که میتوان آنها را در GitHub (سرویس میزبانیِ وب دارای پروژههای متنباز) یافت و تهیه کرد.
از «دیپفیک» چگونه استفاده میشود؟
فناوری Deepfake طی عمر خود، برای مقاصد غیرقانونی؛ ازجمله تولید «هرزهنگاریِ جعلیِ» استفاده شده است. در سال ۲۰۱۷، یکی از کاربران Reddit انجمنی بهنام deepfakes را برای خلقِ پورن ایجاد کرد؛ که در آن، از چهره بازیگران سوءاستفاده کرده بود. ازآنزمان، پورن (بهویژه پورن انتقامجویانه) بارها خبرساز شد و شدیداً به شهرت سلبریتیها و چهرههای برجسته لطمه زد. طبق گزارش DeepTrace؛ محتوای ضدِاخلاقی، ۹۶درصد از ویدئوهای «دیپفیک» را در سال ۲۰۱۹ تشکیل داده بود! البته ویدئوی Deepfake در «سیاست» نیز مورداستفاده قرار گرفته است؛ مثلاً در سال ۲۰۱۸، یک حزب سیاسی بلژیکی، ویدئویی از سخنرانی «دونالد ترامپ» منتشر کرد؛ که وی طیِ آن، از «بلژیک» خواست تا از «توافقنامه آبوهوای پاریس» خارج شود؛ و خب؛ «ترامپ» هرگز آن سخنرانی را انجام نداده بود! بله؛ Deepfake بود. این اما اولین و آخرین بهکارگیریِ «دیپفیک» در ایجاد محتوای گمراهکننده نبوده و نیست. کارشناسانِ سیاسیِ آگاه از فناوری، درحالآمادهسازی موجی از اخبار جعلی در آیندهاند که جعلیاتی «متقاعدکننده» خواهند بود. بااینحال، گروههای حقوق بشر و فناوران رسانه کاربردهایی مثبت از این پدیده را هم بهیاد دارند: مستندِ «به چچن خوش آمدید» (محصول ۲۰۲۰ شبکه HBO)، از فناوری «دیپفیک» برای پنهانکردن هویت گروه اقلیتی از پناهجویان روسی که زندگیشان درخطر بود و درعینحال، ماجراهای آنها را نیز برای مخاطب بازمیگفت، استفاده کرد. سازمان WITNESS که بر استفاده از مدیاها بهجهتِ «دفاع از حقوق بشر» متمرکز است، نسبت به این فناوری ابراز خوشبینی کرده؛ هرچند «تهدیدات دیجیتال» را نیز بهرسمیت میشناسد. «شیرین آنلن»؛ تکنسین مهندسیِ رسانه درایننهاد، توضیح میدهد: «بخشی از کار ما واقعاً کاوش در استفاده مثبت از این پدیده است؛ از محافظت از افراد مانند فعالان در ویدئو گرفته تا اتخاذ رویکردهای حمایتی و طنز سیاسی». درواقع، این پدیده برای این متخصص و سازمانش، چیزی نیست که باید کاملاً از آن ترسید. درعوض، باید آنرا بهعنوان یک «ابزار» دید. او میگوید: «این، برپایه یک رابطه طولانیمدت است که ما با وسایل سمعی و بصری داشتهایم؛ ما قبلاً صدا را دستکاری کردهایم. ما قبلاً تصاویر را بهروشهای مختلف دستکاری کردهایم». کارشناسانی مانند «آنلن» و «لوپز» براینباورندکه بهترین رویکردی که عموم مردم میتوانند در قبال «دیپفیک» اتخاذ کنند، «ترسیدن» نیست؛ بلکه «اطلاع از فناوری و قابلیتهای آن» است.
نحوه تشخیص «دیپفیک»
تعداد انگشتشماری «سنجه» وجود دارد که «دیپفیک» را «لو» میدهد:
– آیا جزئیات «تار» یا «مبهم» بهنظر میرسند؟ بهدنبال مشکلات پوست یا مو یا چهرههایی باشید که بهنظر میرسد تارتر از محیطی که در آن قرار دارند، هستند. فوکوس ممکن است بهطور غیرطبیعی «نرم» بهنظر برسد.
– آیا «نورپردازی» غیرطبیعی بهنظر میرسد؟ الگوریتمهای «دیپفیک» نور کلیپهایی را که بهعنوان مدلهایی برای ویدئوی جعلی استفاده میشد، اغلب حفظ میکنند که با نورپردازی ویدئوی موردنظر «مطابقتِ ضعیفی» دارد.
– آیا کلمات یا صداها با تصاویر «مطابقت» ندارند؟ صدا ممکن است با فرد منطبق نباشد؛ بهخصوص اگر ویدئو جعلی بوده؛ اما صدای اصلی بهدقت «دستکاری» نشده باشد.
– آیا از منبع قابلاعتماد ارسال شده است؟ یکی از تکنیکهایی که روزنامهنگاران و محققان اغلب برای بررسی منبع واقعی یک تصویر استفاده میکنند که میتوانید الآن انجام دهید، جستوجوی تصویرِ معکوس است. همچنین باید بررسی کنید: چهکسی تصویر را ارسال کرده، کجا پست شده و آیا انجام اینکار برای آنها منطقیست یا خیر؟
مبارزه با «دیپفیک» با تکنولوژی
با پیشرفت فناوری، تشخیص اختلاف بین محتوای واقعی و جعلی «دشوارتر» خواهد شد. ازاینرو، کارشناسانی مانند «آنلن» معتقدند که تشخیص «دیپفیک» طبیعتاً نباید بر دوش افراد باشد. «آنلن» میگوید: «مسئولیت باید برعهده توسعهدهندگان، خالقانِ ابزار و شرکتهای فناوری باشد تا با ایجادِ واترمارکهای نامرئی، نشان دهند منبع تصویر چیست. البته تعدادی از شرکتهای نوپا درحالتوسعه روشهایی برای شناسایی دیپفیک هستند؛ مثلاً Sensity یک پلتفرم تشخیص شبیه به آنتیویروس برای دیپفیکها ایجاد کرده که به کاربران ازطریق ایمیل هنگام تماشای چیزیکه دارای اثرانگشتِ گویا از مدیاهای تولیدی توسط هوش مصنوعیست، هشدار میدهد. این ابزار نیز البته از همان فرآیندهای یادگیری عمیق استفاده میکند که برای ایجاد ویدئوهای جعلی استفاده میشود». رویکرد سادهتری برای شناسایی «دیپفیک» را Operation Minerva ارائه داده است: الگوریتم این شرکت، «دیپفیک» احتمالی را با ویدئوهای مطرح که قبلاً «اثرانگشت دیجیتالی» شدهاند، مقایسه میکند؛ مثلاً میتواند نمونههایی از هرزهنگاریِ انتقامجویانه را با تشخیص اینکه ویدئوی «دیپفیک» نسخه اصلاحشده یک ویدئوی موجود است (که Minerva قبلاً فهرستبندی کرده) شناسایی کند. بهرغم این پیشرفتها؛ «نصیر ممون» (استاد علوم و مهندسی کامپیوتر در دانشگاه نیویورک) میگوید: «هیچ تلاشی برای مبارزه با دیپفیک در مقیاس بزرگ صورت نگرفته و هر راهحلی که بیاید، در متوقفکردن دیپفیکهای مضرِ درحالگسترش، ثمربخش نخواهد بود. بهنظرم؛ راهحل کلاً مبتنیبر فناوری نیست؛ بلکه آموزش، آگاهی، مدلهای تجاریِ مناسب، مشوقها، سیاستها و قوانین است». در «آمریکا» چندین ایالت؛ ازجمله «کالیفرنیا، نیویورک و ویرجینیا» قوانینی را تصویب یا تلاش کردهاند که استفاده از «دیپفیک» را در موارد خاص مانند «هرزهنگاری» یا «سیاست» غیرقانونی کنند. یک مشکل روبهرشد استفاده از «دیپفیک» در محیطهای آنلاین، «پنهانکردن هویت فرد درلحظه» است؛ مانند تماسهای تصویری یا جلساتی در برنامههایی نظیرِ ZOOM. بهگفته «ممون»؛ تهدید شخصی که از هویت جعلی استفاده میکند، میتواند در هر موقعیتی، از مصاحبه شغلی گرفته تا امتحاناتِ از راه دور و درخواست ویزا، ایجاد شود. حتی خبرنگاران رسانه Insider مجبور شدهاند که با کلاهبرداریهای ناشی از تولید محتوا توسط AI که از آنها و رسانهشان بهعنوان «منبع موثق» یاد کردهاند، مقابله کنند. «ممون» گفت: «مشکلِ بزرگ ایناستکه فرد، جریان یا نهادِ درخطرافتاده است که باید از خودش دفاع کند و واقعیتِ قلبشده را از ذهن مخاطبان برانَد؛ آیا شدنیست؟ در جعلهای سادهتر از این نیز، مردم اصلاً متقاعد نمیشوند». اگرچه بعضی از کارشناسان میگویند که در حالت ایدئال، فناوری برای شناسایی ایننوع «دیپفیکهای زنده (آنلاین)» نیز ایجاد میشود و توسعه مییابد؛ بااینحال، «ممون» انتظار ندارد که ایننوع رویکرد، پایانی بر این جعلِ عمیق باشد. او میگوید: «هیچچیز مشکل را کاملاً حل نمیکند. اصالت همیشه باید در جامعه آزمایش شود»؛ پس با مشاهده هر تصویر یا ویدئویی، برای «قضاوت» درباره آن «عجله» نکنید!
مصطفی رفعت