«هفته بعد ویدیویی 20 دقیقهای با عنوان «بزرگترین افشاگری در تاریخ ایران» از سخنرانی یک مقام کاملا شناختهشده و معتبر سیاسی در یک جمع بزرگ به دستتان خواهد رسید که در آن بسیاری از رویدادها، حوادث و اخباری که سالها تصور میکردیم همانگونه که در اخبار و تاریخ روایت شده رخ دادهاند، به یکباره تغییر کرده و روایت کاملا معکوس از آنها بیان میشود.
این کلیپ که حاوی فیلمی کاملا شفاف و از نزدیک از چهره و صدای این مقام است، هر مخاطبی را با شوکی عمیق مواجه میکند؛ چون تمام باورهای مردم را زیر و رو کرده و در نتیجه به علت اهمیت و حرفهای تکاندهندهای که در آن مطرح میشود، ظرف کمتر از یک ساعت به دست نزدیک به 50 میلیون ایرانی در داخل و خارج کشور میرسد.
سخنران در بخشهایی از این فیلم مردم را نیز با الفاظ زشت و زنندهای مورد خطاب قرار میدهد که سالهاست بهراحتی فریبخورده و بازیچه شدهاند، در نتیجه خشم و انزجار کل جامعه را دربر میگیرد و عدهاي از مردم حتی به خیابانها ریخته و کشور ظرف چند ساعت از یک زندگی آرام و روزمره، تبدیل به کشوری ملتهب شده و در آستانه یک درگیری تمامعیار قرار میگیرد.
پلیس و نیروهای ضدشورش وارد عمل میشوند، مقامات عالی و امنیتی کشور جلسه اضطراری تشکیل میدهند تا به بررسی دقیق ماجرای کلیپ بپردازند. چند ساعت بعد نتیجه معلوم میشود. شبکههای خبری صداوسیما اطلاعیه شورایعالی امنیت ملی را با این مضمون پخش میکنند: «به اطلاع میرساند نتیجه بررسیهای بهعملآمده گویای دروغ و ساختگیبودن این کلیپ است.»
متعاقب آن انبوهی از کارشناسان و مسوولان راهی شبکههای تلویزیونی میشوند تا به مردم نشان دهند این کلیپ چگونه و با استفاده از چه فناوریهایی ساخته شده است.
بخشهایی از مردم این توضیحات را باور کرده و بخشهایی از مردم آن را باور نمیکنند و در نتیجه التهابات و هزینههای سیاسی، اجتماعی، اقتصادی ناشی از آن کلیپ 20 دقیقهای ادامه مییابد...
سطوری که تا کنون میخواندید، صرفا یک فرضیه فانتزی نیست. «فاجعه مرگ حقیقت» و تحقق آنچه میگوید «چیزی که چشمهایت هم میبینند باور نکن» بسیار به ما نزدیک است؛ چراکه اکنون هوش مصنوعی و فناوری ساخت بشر، توانسته پدیده شوم و خطرناک «اخبار جعلی» را از مرحله جعل کلمات و اخبار به مرحلهای بسیار خطرناکتر، پیچیدهتر و عمیقتر، یعنی جعل صدا و تصویر ببرد که از آن با نام DEEPFAKE یا «جعل عمیق» یاد میشود؛ موضوعی که دنیای غرب یعنی محل تولد این فناوریهای پیچیده را عمیقا با خود درگیر کرده و حالا درصدد آموزشهای گسترده و عمیق به مردم و روزنامهنگاران هستند تا امکان و مهارت تشخیص DEEPFAKEها را پیدا کنند.
اما اینکه چه میزان در این مورد موفق باشند بسیار محل بحث و ابهام است؛ چراکه به موازات این تلاشها، فناوریهای ساخت جعلیات نیز با سرعتی باورنکردنی روز به روز پیشرفتهتر میشوند، تا جایی که چهبسا امکان تشخیص آن برای کسی وجود نداشته باشد. شاید راهحل اولیه، رفتن سراغ فرد زندهای باشد که فیلم مذکور به او منتسب شده است، اما سوال اینجاست که از کجا میتوان تشخیص داد که او راست میگوید، یا اگر این فیلمها به فردی که در قید حیات نیست منتسب شده باشد، تکلیف چیست؟
اگر مایلید بدانید DEEPFAKE چیست و چگونه عمل میکند و دنیا با چه چالشهایی برای مهار آن مواجه است، ادامه متن حاضر را که برگرفته از یک دوره آموزشی از سوی روزنامه والاستریتژورنال و برای روزنامهنگاران شاغل در این رسانه است بخوانید. مطالعه این گزارش بهویژه برای مسوولان توصیه میشود.
مقدمه
فناوری با سرعتی باورنکردنی در حال پیشرفت است و ساخت و انتشار اخبار جعلي نيز هر روز ابعاد تازهتري مييابد. ساخت اخبار جعلی اما قدمتی به اندازه تاریخ دارد. اما حالا اخبار جعلی به کمک فناوری با سرعت و پیچیدگیهای بیسابقهای مرزهای سایبری را درنوردیده و میتوانند سرنوشت و آینده یک کشور و ملت را با خطراتی بیسابقه مواجه کنند. اما سوال این است که آیا روند فعلي تا ابد ادامه مییابد یا سرانجام اين مسابقه براي ساخت اخبار جعلي از يكسو و كشف آنها از ديگر سو متوقف ميشود؟
این روزها فناوری هوش مصنوعی وضعیت انتشار اطلاعات جعلی و غلط را وارد فازی جدید و پیچیده کرده است. اخبار جعلی که به کمک هوش مصنوعی ساخته و ارایه میشوند حتي باعث شده چالش عمیقی برای اتاقهاي خبر رسانهها و تحریریههای روزنامهها به وجود آيد.
تصوير زير از روي دو فايل ويديويي ثبت شده كه يكي اصلي است و ديگري از طريق هوش مصنوعي شبيهسازي شده است. آيا ميتوانيد تشخيص دهيد كداميك اصلي و كداميك جعلي است؟
تصوير شماره1
والاستريتژورنال براي بررسي صحت ويديوها و جلوگيري از گمراه شدن تحريريه خود با DEEPFAKEها (جعل عميق) يك نيروي كاري حرفهاي براي تشخيص آنها پرورش داده كه با استانداردهاي خاصي به بررسي صحت اخبار پرداخته و حتي در زمينه DEEPFAKE پروژههاي تحقيق و توسعه را به انجام ميرسانند.
اين گروه از كارشناسان والاستريتژورنال به منظور تشخيص «جعل عميق» در فايلهاي ويديويي، تصاوير، تحقيقها و پلتفرمها آموزش ديدهاند.
فراتر از اين اما امروز رسانههاي معتبر جهان براي آموزش تحريريههاي خود در خصوص اخبار جعلي عميق با موسسات آموزشي شناختهشدهاي همچون Cornell Tech براي آموزش روشهاي شناخت اين اخبار به خبرنگاران همكاري ميكنند تا بتوانند مانع نفوذ خبرهاي جعلي به سرخط رسانههاي خود شوند و با پديده جديد اخبار جعلي عميق مقابله كنند.
کریستین گلنسی، معاون سردبیر تیم نظارت بر استانداردهاي اخبار جعلي عميق در والاستريتژورنال معتقد است كه **ميبايست هشدارهاي بيشتري در زمينه پدیده «جعل عميق» به اتاقهاي خبري داده شود، زیرا از آنجا كه نميدانيم دقيقا چه زماني و پيرامون چه موضوعي اخبار جعلي عميق منتشر ميشوند، بايد هميشه با چشمان باز تمام اخباري را كه منتشر ميشود رصد كنيم.**
اخبار جعلي عميق چگونه ساخته شدهاند؟
توليد بيشتر اخبار جعلي بر اساس يك تكنيك ماشيني كه با عنوان «شبكههاي اخبار تبليغي مولد» يا GAN شناخته ميشود، انجام ميگيرد. با اين شيوه ميتوان چهره يك سياستمدار يا هنرپيشه مشهور را جعل كرد و وي را در حال صحبت كردن در خصوص هر مطلبي كه مورد نظر باشد، نشان داد. به اين ترتيب يك بار فردي درحاليكه از او فيلمبرداري ميشود مطالبي را بيان ميكند و در مرحله بعد به كمك فناوري ساخت جعل عميق، الگوريتم به دنبال موقعيتهايي ميگردد كه چهره فرد مشهور موقعيتي مشابه صحبتكننده داشته باشد يا عبارات مشابهي را به كار برده باشد؛ در پسزمينه هم هوش مصنوعي بهترين تركيب ممكن براي كنار هم قرار گرفتن اين تكهها را انتخاب ميكند.
از آنجا كه تحقيقات صورتگرفته در خصوص ديپفيكها عرضه عمومي شده و در اختيار همه قرار دارد، امكان ساخت اخبار جعلي عميق توسط هركسي حتي اشخاص عادي هر لحظه افزايش مييابد. در حال حاضر هر فردی كه يكسري اطلاعات كلي تكنيكال داشته باشد و يك كارت گرافيك قدرتمند نيز در اختيار داشته باشد ميتواند از طريق برنامههاي متنباز اقدام به ساخت اخبار جعلي عميق يا همان ديپفيك كند.
برخي از موسسات دانشگاهي مثل دانشگاه نيويورك، روشهاي منحصر بهفردي براي آموزش و ارتقاي سواد رسانهاي در نظر گرفتهاند.
يكي از كلاسهاي آنلاين اين موسسه قصد دارد به دانشجويان آموزش دهد كه چگونه اخبار جعلي عميق بسازند تا از اين طريق آنها را با خطرات اخبار جعلي عميق كاملا آشنا كنند.
كولمارتين كه اين كلاسها را اداره ميكند، بر اين نظر است كه اين شيوه برخورد باعث ميشود كه نهتنها دانشجويان با قابليتهاي اخبار جعلي عميق آشنا شوند، بلكه حتي محدوديتهاي اين حوزه و راههاي شناسايي آنها را نيز بشناسند.
تكنيكهاي ساخت جعل عميق
اخبار جعلي عميق ميتوانند از طرق بسيار مختلف و گوناگوني ساخته شوند كه در ادامه شما را با برخي از اين شيوهها آشنا ميكنيم:
عوض كردن صورت:
يك الگوريتم ميتواند يكپارچگي صورت فرد را در يك ويديو هدف قرار دهد. از اين تكنيك ميتوان براي قرار دادن سر يك فرد ناشناخته بر بدن يك چهره مشهور مثل يك بازيگر استفاده کرد و فرد را در موقعيتي قرار داد كه هرگز در آن حضور نداشته است.
هماهنگي لبها:
در اين تكنيك از فردي كه لب و دهانش شبيه به چهره فرد مشهور باشد خواسته ميشود جملاتي را كه مورد نظر است بگويد و از او فيلمبرداري ميشود. در مرحله بعد فيلم چهره مشهور با لبهاي جعلي جايگذاري ميشود. در نهايت صداگذاري صورت ميگيرد و نتيجه آن است كه اينطور به نظر ميرسد كه آن چهره مشهور اين صحبتها را مطرح كرده است.
بازسازي صورت:
جاعلان همچنین ميتوانند حالات صورت يك فرد را روي تصوير يا ويديوی فردي ديگر جايگذاري كنند؛ با استفاده از اين تكنيك اين امكان وجود دارد كه حالت صورت فرد عصباني، نگران، خوشحال يا در هر حالت ديگري نشان داده شود.
انتقال حرکت:
محققان همچنین تكنيكي خلق كردهاند كه به كمك آن ميتوانند حرکات بدن فرد را در یک ویدیو منبع به یک فرد در یک ویدیو هدف منتقل كنند. براي مثال، آنها میتوانند حرکات يك رقصنده را گرفته و بازیگر هدف را كه ميتواند هر چهره شناختهشدهاي باشد همانند آن حرکت دهند. در همکاری با محققان دانشگاه کالیفرنیا، یک روزنامهنگار توانست این روش را برای خودش انجام دهد و بدون آنكه ژیمناستيك يا رقص بلد باشد در يك ويديو اينطور نشان دهد كه همچون يك ژيمناست حرفهاي حركت ميكند.
روش شناسايي اخبار جعلي
در حال حاضر محققان در حال ساختن و كار كردن روي ابزاري هستند كه بتواند جعليات عميق را تشخيص داده و شناسايي كند. منابع رسانهاي ميتوانند از كارشناسان فناوريهاي مرتبط براي بررسي اخبار جعلي كمك بگيرند و استانداردهايي را به منظور تاييد يك ويديو يا تصوير منتشرشده در نظر بگيرند.
آنطور که در آموزشهای والاستریتژورنال برای روزنامهنگاران این رسانه آمده است، يكي از راههاي كشف اخبار جعلي عميق، بررسي فريم به فريم ويديو از طريق برنامههاي ويرايش فايلهاي ويديويي است. در اين روش بايد دنبال هرگونه عنصر غيرطبيعي يا اضافهشده بگرديد.
اخبار جعلي عميق عموما از روي نسخهاي از صحبت كردن يا سخنراني چهرهاي كه تصويرش جعل شده ارايه ميشوند، بنابراين سعي كنيد در گوگل به دنبال تصاوير و ويديوهاي قديميتري بگرديد كه با فيلم يا تصويري كه به دستتان رسيده شباهت دارد. عموما سازندگان اخبار جعلي عميق ويديوي خود را از روي يكي از تصاوير يا ويديوهايي كه از چهره مشهور مورد نظر پيش از اين به صورت آنلاين منتشر شده ميسازند.
همچنين برنامههای ویرایشی مانند Final Cut روزنامهنگاران را قادر میسازند تا فیلمها را آهسته نگه دارند، تصویر را بزرگنمایی کنند و چند بار آنها را به فریم بکشند یا مکث کنند. این امر کمک میکند كه ناهماهنگيهاي احتمالي اطراف دهان قابل تشخيص باشد، يا اگر بين رنگ پوست دست و صورت فرد تفاوت هست، يا به لحاظ نور و حالت پوست تفاوتهايی در بخشهاي مختلف پوست فرد وجود دارد بتوان آنها را تشخيص داد و فهميد كه خبر مورد نظر جعل عميق است.
شكل دندانها، حركات غيرطبيعي چانه و گردن و تغيير يا مشكلي كه در شكل پسزمينه ايجاد شده باشد، همگي از نشانههاي اخبار جعلي عميق هستند.
اگرچه فناوري ساخت اخبار جعلي عميق پيچيده و قدرتمند است اما همواره احتمال اختلال در صدا وجود دارد، پس اگر ويدیويي كه به دستتان رسيده صدا دارد، به صداهاي روباتیک و غيرطبيعي مثل تنفسهاي نامنظم توجه كنيد؛ چراكه اين مورد نيز از ديگر نشانههاي جعلي بودن ويديوها است. البته خبر بد اینکه این اختلالهای صوتی توسط فناوریهای عرضه شده روز به روز بهبود یافته و در حال اصلاح هستند.
**توجه كنيد كه اگر كسي يك دقيقه از صداي فردي را در اختيار داشته باشد ميتواند براساس آن فايل صوتي بسازد كه اظهارات متفاوتي در آن بيان شده است؛ پس به فايلهاي صوتي نيز هرگز اعتماد نكنيد. جالب است بدانيد كه توسعهدهندگان بازيهاي ويدیويي از طريق برنامههاي مرتبط با صداسازي عموما صداهاي مورد نظر را براساس نمونههاي قبلي شبيهسازي ميكنند.**
واقعيت اين است كه توسعه فناوريهاي هوش مصنوعي جهت شبيهسازي ويديوها و اصوات براي به كارگيري در بازيهاي ويدیويي ميتواند ناخواسته باعث گسترده شدن ساخت و انتشار اخبار جعلي عميق شود. مارک وارنر و مارکو روبیو، دو سناتور آمريكا هشدارهايي را در خصوص توسعه فناوري هوش مصنوعي و اثر احتمالي آن بر ايجاد اخبار جعلي عميق مطرح كردهاند و به دنبال راهكارهايي براي جلوگيري از ساخت جعل عميق هستند.
البته در اين ميان نبايد روش اصلي روزنامهنگاري را نيز ناديده گرفت، پس اگر در رسانهاي كار ميكنيد حتما بهعنوان يك روزنامهنگار با كسي كه ويديويي از او به دستتان رسيده تماس گرفته و صحت فايل را از اين طريق نيز بررسي كنيد.
بررسي منبع
اگر کسی فیلم مشکوکي را برايتان ارسال کرده است، گام اول این است که سعی کنید با منبع تماس بگیرید. این شخص چگونه آن را به دست آورده است؟ چرا و کجا فیلمبرداری شده است؟ تا جايي كه ممكن است از كسي كه فايل را در اختيار شما گذاشته اطلاعات بگيريد و درخواست اثبات درستي اطلاعات ارايهشده را داده و از قبول سريع آنچه ميبينيد اجتناب كنيد. اگر ويديو آنلاين است و ناشر آن شناختهشده نيست، ببینيد قبلا چه كسي آن را منتشر كرده؟ توسط چه كساني به اشتراك گذاشته شده است؟ با چه كساني به اشتراك گذاشته شده است؟
با كمك ابزارهايي همچون InVID و همچنين ديگر برنامههاي بررسيكننده متاديتاها ميتوانيد تمام اين اطلاعات را به دست آوريد.
وقتي فايل ويدیويي مشكوكي در يك شبكه اجتماعي ميبينيد، در مرحله اول اگر به منبع اصلي خبر دسترسي داريد، سعي كنيد منبع اصلي را كه ادعا شده خبر از روي آن نقل يا منتشر شده بررسي كنيد. براي مثال، **اگر ديديد در يك شبكه اجتماعي تصوير يا ويديويي غيرمعمول از يك چهره سرشناس منتشر شده كه صحبتهاي عجيبي را مطرح كرده، ببينيد آن ويديو يا تصوير به نقل از چه خبرگزاري يا روزنامهاي منتشر شده، سپس به صفحه رسمي آن خبرگزاري يا روزنامه رفته و ببينيد آيا خبري در آن باره هست يا خير؟**
در حال حاضر سازمانهاي تاييد محتوا مثل اسوشيتدپرس و استوريفول در زمينه تاييد ويديوها و اخبار به صورت رسمي فعاليت ميكنند. البته هر روز نيز ابزار جديدي براب تاييد صحت و بررسي جعلي نبودن فايلهاي تصويري منتشر ميشود. براي مثال، ابزارهای جدیدی از جمله TruePic و Serelay از بلاكچين برای احراز هویت عکس استفاده میکنند. صرفنظر از تکنولوژی مورد استفاده، انسان در اتاق خبر در مرکز این روند قرار دارد.
**سعيد رجيو، كارشناس ارشد بررسي اخبار جعلي معتقد است كه به هر صورت فناوري بهتنهايي نميتواند راهحل كشف و از بين بردن اخبار جعلي باشد، بلكه اين تركيب هوش مصنوعي، فناوري و نيروي انساني است كه ميتواند باعث كشف اخبار جعلي شود.**
لزوم هشدار درباره جعل عميق
واقعيت اين است كه امروز روزنامهنگاران وظيفه مهمي در زمينه اطلاعرساني به مردم در خصوص اخبار جعلي عميق و خطرات و چالشهاي هوش مصنوعي دارند. نبايد فراموش كرد كه حزب نازي و هيتلر با كمك تبليغات رسانهاي در آلمان راي آورده و روي كار آمدند و هيتلر با كمك گوبلز، وزير تبليغات خود و نمايش فيلمهاي نژادپرستانه توانست مردم آلمان را تشويق به ورود به يك جنگ جهاني كند.
با اين تفاسير طبيعي است كه رسانه، قدرت و تواناييهاي زيادي داشته و داراي توان اثرگذاري بر مردم است. اگر در دوره هيتلر سينما فناوري جديدي حساب شده و آثار بيش از انتظاري را بر مردم گذاشت، امروز شبكههاي اجتماعي و ويديوهاي منتشرشده بر بستر آنها براي مردم فناوري نويني محسوب ميشوند و درنتيجه احتمال فريب آنها با توجه به اثرگذاري بالاي تصاوير ويديويي وجود دارد.
از سوي ديگر نبايد از نظر دور داشت كه حس ديدن همواره براي بشر از هر حس ديگري باورپذيري بيشتري دارد و بيان عباراتي نظير «خودم با چشمان خودم ديدم» گوياي باور رايج عموم به اين حس است. لذا وقتي تصاوير ويديويي تغيير و تحريف شوند شايد مردم به سبب باورهاي فرهنگي و روانشناختي خود و حسشان مبني بر باورپذيري حس بصري اخبار جعلي عميق را راحتتر باور كنند.
به اين ترتيب به نظر ميرسد كه امروز روزنامهنگاران، خبرنگاران و كارشناسان امور رسانهاي بيش از هر زمان ديگر لازم است مردم را در سراسر جهان با خطرات اخبار جعلي عميق آشنا كنند تا مانع شكلگيري فريب عمومي و هدايت افكار عمومي توسط قدرتمندان شوند.
محققان MIT در یک مطالعه که در طول سالهاي 2006 تا 2017 انجام شده دريافتند که «دروغ بهطور قابل توجهی سریعتر، عمیقتر و گستردهتر از حقیقت در تمام دستههای اطلاعات منتشر شده است». داستانهای دروغین 70 درصد احتمال بیشتری برای بازتوییت نسبت به حقايق دارند و البته با سرعت شش برابر از حقیقت هم منتشر ميشوند.
در نهایت اینکه كارشناسان معتقدند كه پيشرفت فناوري تولید و توسعه اخبار جعلي تا سال 2020 كه انتخابات بعدي آمريكا خواهد بود با سرعت ادامه خواهد داشت و پس از آن سرعت توسعه اين فناوري تا حدودي فروكش خواهد كرد.
این موضوع به معنای پایان اخبار جعلی و فاز بعدی آن یعنی جعل عمیق نیست، بلکه کارشناسان معتقدند صرفا فناوری تولید این موضوعات به واسطه نزدیکی به انتخابات 2020 آمریکا و احتمالا حداکثر تاثیرگذاری بر آن به بلوغ خود رسیده و تا حدودی متوقف میشوند، نه تولید و تکثیر اخبار جعلی.
اگرچه این فناوری مهلک موضوع خیلی جدیدی محسوب نمیشود، اما نگرانی اصلی و بزرگ ارزان شدن و افتادن این فناوری به دست خرابکاران و سودجویان است که میتواند به باجگیری از افراد، تحریف تاریخ، کلاهبرداری و حتی بههمریختن زندگیها از طریق ساخت فیلمهای جعل عمیق نیز بینجامد.
لذا نیاز به توضیح زیادی نیست که فناوری «جعل عمیق» چه فجایع و مشکلات عمیقی با خود به همراه خواهد داشت و درحالیکه در کشوری همچون ایران حتی گامهای عملی و ابتدایی برای مهار حداقلی اخبار جعلی برداشته نشده، تصور کنید ورود جعل عمیق چه آثاری بر جای خواهد گذاشت.
نکته دیگر اینکه به واسطه پیچیدهشدن روز افزون جعلیات در فضای سایبری و در هم تنیدهشدن زندگی مردم با این فضا، امکان تشخیص دروغ از حقیقت نیز روز به روز پیچیدهتر میشود و چهبسا در آینده شاهد شکلگیری مشاغل و تخصصهای جدید برای تشخیص جعلیات خواهیم بود.
و در نهایت نکته پایانی اینکه، **بعضی از مسایل اصلا شوخیبردار نیستند و نمیتوان بهسادگی و بدون برنامه منتظر ورود آنها ماند؛ چراکه تولید جعلیات در فضای سایبری، همچون یک بیماری ناشناخته و فعلا غیرقابل درمان است که در صورت حمله به مردم یک کشور، چهبسا امکانی برای درمان قطعی در اختیار متولیان و مسوولان کشور نمیگذارد.**
لذا از هماكنون اقدامات اوليه براي افزايش سواد رسانهاي و ارايه پيشآگاهي به عموم جامعه و نهادهاي خبري براي كاهش از عواقب احتمالي اجتنابناپذير است.