همراه ما باشید
هفته نامه عصر ارتباط
اولیـن و پرتیـراژتـرین هفتـه نـامه ICT کشـور

اخبار جعلی به کمک فناوری وارد فاز خطرناک و عمیق‌تری می‌شود

فاجعه «مرگ حقیقت» تا سال 2020

نادر نينوايی / علی شمیرانی

«هفته بعد ویدیویی 20 دقیقه‌ای با عنوان «بزرگ‌ترین افشاگری در تاریخ ایران» از سخنرانی یک مقام کاملا شناخته‌شده و معتبر سیاسی در یک جمع بزرگ به دستتان خواهد رسید که در آن بسیاری از رویدادها، حوادث و اخباری که سال‌ها تصور می‌کردیم همان‌گونه که در اخبار و تاریخ روایت شده رخ داده‌اند، به یکباره تغییر کرده و روایت کاملا معکوس از آنها بیان می‌شود.

این کلیپ که حاوی فیلمی کاملا شفاف و از نزدیک از چهره و صدای این مقام است، هر مخاطبی را با شوکی عمیق مواجه می‌کند؛ چون تمام باورهای مردم را زیر و رو کرده و در نتیجه به علت اهمیت و حرف‌های تکان‌دهنده‌ای که در آن مطرح می‌شود، ظرف کمتر از یک ساعت به دست نزدیک به 50 میلیون ایرانی در داخل و خارج کشور می‌رسد.

سخنران در بخش‌هایی از این فیلم مردم را نیز با الفاظ زشت و زننده‌ای مورد خطاب قرار می‌دهد که سال‌هاست به‌راحتی فریب‌خورده و بازیچه شده‌اند، در نتیجه خشم و انزجار کل جامعه را دربر می‌گیرد و عده‌اي از مردم حتی به خیابان‌ها ریخته و کشور ظرف چند ساعت از یک زندگی آرام و روزمره، تبدیل به کشوری ملتهب شده و در آستانه یک درگیری تمام‌عیار قرار می‌گیرد.

پلیس و نیروهای ضدشورش وارد عمل می‌شوند، مقامات عالی و امنیتی کشور جلسه اضطراری تشکیل می‌دهند تا به بررسی دقیق ماجرای کلیپ بپردازند. چند ساعت بعد نتیجه معلوم می‌شود. شبکه‌های خبری صدا‌وسیما اطلاعیه شورای‌عالی امنیت ملی را با این مضمون پخش می‌کنند: «به اطلاع می‌رساند نتیجه بررسی‌های به‌عمل‌آمده گویای دروغ و ساختگی‌بودن این کلیپ است.»

متعاقب آن انبوهی از کارشناسان و مسوولان راهی شبکه‌های تلویزیونی می‌شوند تا به مردم نشان دهند این کلیپ چگونه و با استفاده از چه فناوری‌هایی ساخته شده است.

بخش‌هایی از مردم این توضیحات را باور کرده و بخش‌هایی از مردم آن را باور نمی‌کنند و در نتیجه التهابات و هزینه‌های سیاسی، اجتماعی، اقتصادی ناشی از آن کلیپ 20 دقیقه‌ای ادامه می‌یابد...

سطوری که تا کنون می‌خواندید، صرفا یک فرضیه فانتزی نیست. «فاجعه مرگ حقیقت» و تحقق آنچه می‌گوید «چیزی که چشم‌هایت هم می‌بینند باور نکن» بسیار به ما نزدیک است؛ چراکه اکنون هوش مصنوعی و فناوری ساخت بشر، توانسته پدیده شوم و خطرناک «اخبار جعلی» را از مرحله جعل کلمات و اخبار به مرحله‌ای بسیار خطرناک‌تر، پیچیده‌تر و عمیق‌تر، یعنی جعل صدا و تصویر ببرد که از آن با نام DEEPFAKE یا «جعل عمیق» یاد می‌شود؛ موضوعی که دنیای غرب یعنی محل تولد این فناوری‌های پیچیده را عمیقا با خود درگیر کرده و حالا درصدد آموزش‌های گسترده و عمیق به مردم و روزنامه‌نگاران هستند تا امکان و مهارت تشخیص DEEPFAKEها را پیدا کنند.

اما اینکه چه میزان در این مورد موفق باشند بسیار محل بحث و ابهام است؛ چراکه به موازات این تلاش‌ها، فناوری‌های ساخت جعلیات نیز با سرعتی باورنکردنی روز به روز پیشرفته‌تر می‌شوند، تا جایی که چه‌بسا امکان تشخیص آن برای کسی وجود نداشته باشد. شاید راه‌حل اولیه، رفتن سراغ فرد زنده‌ای باشد که فیلم مذکور به او منتسب شده است، اما سوال اینجاست که از کجا می‌توان تشخیص داد که او راست می‌گوید، یا اگر این فیلم‌ها به فردی که در قید حیات نیست منتسب شده باشد، تکلیف چیست؟

اگر مایلید بدانید DEEPFAKE چیست و چگونه عمل می‌کند و دنیا با چه چالش‌هایی برای مهار آن مواجه است، ادامه متن حاضر را که برگرفته از یک دوره آموزشی از سوی روزنامه وال‌استریت‌ژورنال و برای روزنامه‌نگاران شاغل در این رسانه ‌است بخوانید. مطالعه این گزارش به‌ویژه برای مسوولان توصیه می‌شود.

مقدمه

فناوری با سرعتی باورنکردنی در حال پیشرفت است و ساخت و انتشار اخبار جعلي نيز هر روز ابعاد تازه‌تري مي‌يابد. ساخت اخبار جعلی اما قدمتی به اندازه تاریخ دارد. اما حالا اخبار جعلی به کمک فناوری با سرعت و پیچیدگی‌های بی‌سابقه‌ای مرزهای سایبری را درنوردیده و می‌توانند سرنوشت و آینده یک کشور و ملت را با خطراتی بی‌سابقه مواجه کنند. اما سوال این است که آیا روند فعلي تا ابد ادامه می‌یابد یا سرانجام اين مسابقه براي ساخت اخبار جعلي از يك‌سو و كشف آنها از ديگر سو متوقف مي‌شود؟

این روزها فناوری هوش مصنوعی وضعیت انتشار اطلاعات جعلی و غلط را وارد فازی جدید و پیچیده کرده است. اخبار جعلی که به کمک هوش مصنوعی ساخته و ارایه می‌شوند حتي باعث شده چالش عمیقی برای اتاق‌هاي خبر رسانه‌ها و تحریریه‌های روزنامه‌ها به وجود آيد.

تصوير زير از روي دو فايل ويديويي ثبت شده كه يكي اصلي است و ديگري از طريق هوش مصنوعي شبيه‌سازي شده است. آيا مي‌توانيد تشخيص دهيد كدام‌يك اصلي و كدام‌يك جعلي است؟

تصوير شماره1

وال‌استريت‌ژورنال براي بررسي صحت ويديوها و جلوگيري از گمراه شدن تحريريه خود با DEEPFAKEها (جعل عميق) يك نيروي كاري حرفه‌اي براي تشخيص آنها پرورش داده كه با استانداردهاي خاصي به بررسي صحت اخبار پرداخته و حتي در زمينه DEEPFAKE پروژه‌هاي تحقيق و توسعه را به انجام مي‌رسانند.

اين گروه از كارشناسان وال‌استريت‌ژورنال به منظور تشخيص «جعل عميق» در فايل‌هاي ويديويي، تصاوير، تحقيق‌ها و پلتفرم‌ها آموزش ديده‌اند.

فراتر از اين‌ اما امروز رسانه‌هاي معتبر جهان براي آموزش تحريريه‌هاي خود در خصوص اخبار جعلي عميق با موسسات آموزشي شناخته‌شده‌اي همچون Cornell Tech براي آموزش روش‌هاي شناخت اين اخبار به خبرنگاران همكاري مي‌كنند تا بتوانند مانع نفوذ خبرهاي جعلي به سرخط رسانه‌هاي خود شوند و با پديده جديد اخبار جعلي عميق مقابله كنند.

کریستین گلنسی، معاون سردبیر تیم نظارت بر استانداردهاي اخبار جعلي عميق در وال‌استريت‌ژورنال معتقد است كه **مي‌بايست هشدارهاي بيشتري در زمينه پدیده «جعل عميق» به اتاق‌هاي خبري داده شود، زیرا از آنجا كه نمي‌دانيم دقيقا چه زماني و پيرامون چه موضوعي اخبار جعلي عميق منتشر مي‌شوند، بايد هميشه با چشمان باز تمام اخباري را كه منتشر مي‌شود رصد كنيم.**

اخبار جعلي عميق چگونه ساخته شده‌اند؟

توليد بيشتر اخبار جعلي بر اساس يك تكنيك ماشيني كه با عنوان «شبكه‌هاي اخبار تبليغي مولد» يا GAN شناخته مي‌شود، انجام مي‌گيرد. با اين شيوه مي‌توان چهره يك سياستمدار يا هنرپيشه مشهور را جعل كرد و وي را در حال صحبت كردن در خصوص هر مطلبي كه مورد نظر باشد، نشان داد. به اين ترتيب يك بار فردي درحالي‌كه از او فيلم‌برداري مي‌شود مطالبي را بيان مي‌كند و در مرحله بعد به كمك فناوري ساخت جعل عميق، الگوريتم به دنبال موقعيت‌هايي مي‌گردد كه چهره فرد مشهور موقعيتي مشابه صحبت‌كننده داشته باشد يا عبارات مشابهي را به كار برده باشد؛ در پس‌زمينه هم هوش مصنوعي بهترين تركيب ممكن براي كنار هم قرار گرفتن اين تكه‌ها را انتخاب مي‌كند.

از آنجا كه تحقيقات صورت‌گرفته در خصوص ديپ‌فيك‌ها عرضه عمومي شده و در اختيار همه قرار دارد، امكان ساخت اخبار جعلي عميق توسط هركسي حتي اشخاص عادي هر لحظه افزايش مي‌يابد. در حال حاضر هر فردی كه يك‌سري اطلاعات كلي تكنيكال داشته باشد و يك كارت گرافيك قدرتمند نيز در اختيار داشته باشد مي‌تواند از طريق برنامه‌هاي متن‌باز اقدام به ساخت اخبار جعلي عميق يا همان ديپ‌فيك كند.

برخي از موسسات دانشگاهي مثل دانشگاه نيويورك، روش‌هاي منحصر به‌فردي براي آموزش و ارتقاي سواد رسانه‌اي در نظر گرفته‌اند.

يكي از كلاس‌هاي آنلاين اين موسسه قصد دارد به دانشجويان آموزش دهد كه چگونه اخبار جعلي عميق بسازند تا از اين طريق آنها را با خطرات اخبار جعلي عميق كاملا آشنا كنند.

كول‌مارتين كه اين كلاس‌ها را اداره مي‌كند، بر اين نظر است كه اين شيوه برخورد باعث مي‌شود كه نه‌تنها دانشجويان با قابليت‌هاي اخبار جعلي عميق آشنا شوند، بلكه حتي محدوديت‌هاي اين حوزه و راه‌هاي شناسايي آنها را نيز بشناسند.

تكنيك‌هاي ساخت جعل عميق

اخبار جعلي عميق مي‌توانند از طرق بسيار مختلف و گوناگوني ساخته شوند كه در ادامه شما را با برخي از اين شيوه‌ها آشنا مي‌كنيم:

عوض كردن صورت:

يك الگوريتم مي‌تواند يكپارچگي صورت فرد را در يك ويديو هدف قرار دهد. از اين تكنيك مي‌توان براي قرار دادن سر يك فرد ناشناخته بر بدن يك چهره مشهور مثل يك بازيگر استفاده کرد و فرد را در موقعيتي قرار داد كه هرگز در آن حضور نداشته است.

هماهنگي لب‌ها:

در اين تكنيك از فردي كه لب و دهانش شبيه به چهره فرد مشهور باشد خواسته مي‌شود جملاتي را كه مورد نظر است بگويد و از او فيلم‌برداري مي‌شود. در مرحله بعد فيلم چهره مشهور با لب‌هاي جعلي جاي‌گذاري مي‌شود. در نهايت صداگذاري صورت مي‌گيرد و نتيجه آن است كه اين‌طور به نظر مي‌رسد كه آن چهره مشهور اين صحبت‌ها را مطرح كرده است.

بازسازي صورت:

جاعلان همچنین مي‌توانند حالات صورت يك فرد را روي تصوير يا ويديوی فردي ديگر جاي‌گذاري كنند؛ با استفاده از اين تكنيك اين امكان وجود دارد كه حالت صورت فرد عصباني، نگران، خوشحال يا در هر حالت ديگري نشان داده شود.

انتقال حرکت:

محققان همچنین تكنيكي خلق كرده‌اند كه به كمك آن مي‌توانند حرکات بدن فرد را در یک ویدیو منبع به یک فرد در یک ویدیو هدف منتقل كنند. براي مثال، آنها می‌توانند حرکات يك رقصنده را گرفته و بازیگر هدف را كه مي‌تواند هر چهره شناخته‌شده‌اي باشد همانند آن حرکت دهند. در همکاری با محققان دانشگاه کالیفرنیا، یک روزنامه‌نگار توانست این روش را برای خودش انجام دهد و بدون آنكه ژیمناستيك يا رقص بلد باشد در يك ويديو اين‌طور نشان دهد كه همچون يك ژيمناست حرفه‌اي حركت مي‌كند.

روش شناسايي اخبار جعلي

در حال حاضر محققان در حال ساختن و كار كردن روي ابزاري هستند كه بتواند جعليات عميق را تشخيص داده و شناسايي كند. منابع رسانه‌اي مي‌توانند از كارشناسان فناوري‌هاي مرتبط براي بررسي اخبار جعلي كمك بگيرند و استانداردهايي را به منظور تاييد يك ويديو يا تصوير منتشرشده در نظر بگيرند.

آن‌طور که در آموزش‌های وال‌استریت‌ژورنال برای روزنامه‌نگاران این رسانه آمده است، يكي از راه‌هاي كشف اخبار جعلي عميق، بررسي فريم به فريم ويديو از طريق برنامه‌هاي ويرايش فايل‌هاي ويديويي است. در اين روش بايد دنبال هرگونه عنصر غيرطبيعي يا اضافه‌شده بگرديد.

اخبار جعلي عميق عموما از روي نسخه‌اي از صحبت كردن يا سخنراني چهره‌اي كه تصويرش جعل شده ارايه مي‌شوند، بنابراين سعي كنيد در گوگل به دنبال تصاوير و ويديوهاي قديمي‌تري بگرديد كه با فيلم يا تصويري كه به دستتان رسيده شباهت دارد. عموما سازندگان اخبار جعلي عميق ويديوي خود را از روي يكي از تصاوير يا ويديوهايي كه از چهره مشهور مورد نظر پيش از اين به صورت آنلاين منتشر شده مي‌سازند.

همچنين برنامه‌های ویرایشی مانند Final Cut روزنامه‌نگاران را قادر می‌سازند تا فیلم‌ها را آهسته نگه دارند، تصویر را بزرگنمایی کنند و چند بار آنها را به فریم بکشند یا مکث کنند. این امر کمک می‌کند كه ناهماهنگي‌هاي احتمالي اطراف دهان قابل تشخيص باشد، يا اگر بين رنگ پوست دست و صورت فرد تفاوت هست، يا به لحاظ نور و حالت پوست تفاوت‌هايی در بخش‌هاي مختلف پوست فرد وجود دارد بتوان آنها را تشخيص داد و فهميد كه خبر مورد نظر جعل عميق است.

شكل دندان‌ها، حركات غيرطبيعي چانه و گردن و تغيير يا مشكلي كه در شكل پس‌زمينه ايجاد شده باشد، همگي از نشانه‌هاي اخبار جعلي عميق هستند.

اگرچه فناوري ساخت اخبار جعلي عميق پيچيده و قدرتمند است اما همواره احتمال اختلال در صدا وجود دارد، پس اگر ويدیويي كه به دستتان رسيده صدا دارد، به صداهاي روباتیک و غيرطبيعي مثل تنفس‌هاي نامنظم توجه كنيد؛ چراكه اين مورد نيز از ديگر نشانه‌هاي جعلي بودن ويديوها است. البته خبر بد اینکه این اختلال‌های صوتی توسط فناوری‌های عرضه شده روز به روز بهبود یافته و در حال اصلاح هستند.

**توجه كنيد كه اگر كسي يك دقيقه از صداي فردي را در اختيار داشته باشد مي‌تواند براساس آن فايل صوتي بسازد كه اظهارات متفاوتي در آن بيان شده است؛ پس به فايل‌هاي صوتي نيز هرگز اعتماد نكنيد. جالب است بدانيد كه توسعه‌دهندگان بازي‌هاي ويدیويي از طريق برنامه‌هاي مرتبط با صداسازي عموما صداهاي مورد نظر را براساس نمونه‌هاي قبلي شبيه‌سازي مي‌كنند.**

واقعيت اين است كه توسعه فناوري‌هاي هوش مصنوعي جهت شبيه‌سازي ويديوها و اصوات براي به كارگيري در بازي‌هاي ويدیويي مي‌تواند ناخواسته باعث گسترده شدن ساخت و انتشار اخبار جعلي عميق شود. مارک وارنر و مارکو روبیو، دو سناتور آمريكا هشدارهايي را در خصوص توسعه فناوري هوش مصنوعي و اثر احتمالي آن بر ايجاد اخبار جعلي عميق مطرح كرده‌اند و به دنبال راهكارهايي براي جلوگيري از ساخت جعل عميق هستند.

البته در اين ميان نبايد روش اصلي روزنامه‌نگاري را نيز ناديده گرفت، پس اگر در رسانه‌اي كار مي‌كنيد حتما به‌عنوان يك روزنامه‌نگار با كسي كه ويديويي از او به دستتان رسيده تماس گرفته و صحت فايل را از اين طريق نيز بررسي كنيد.

بررسي منبع

اگر کسی فیلم مشکوکي را برايتان ارسال کرده است، گام اول این است که سعی کنید با منبع تماس بگیرید. این شخص چگونه آن را به دست آورده است؟ چرا و کجا فیلم‌برداری شده است؟ تا جايي كه ممكن است از كسي كه فايل را در اختيار شما گذاشته اطلاعات بگيريد و درخواست اثبات درستي اطلاعات ارايه‌شده را داده و از قبول سريع آنچه مي‌بينيد اجتناب كنيد. اگر ويديو آنلاين است و ناشر آن شناخته‌شده نيست، ببینيد قبلا چه كسي آن را منتشر كرده؟ توسط چه كساني به اشتراك گذاشته شده است؟ با چه كساني به اشتراك گذاشته شده است؟

با كمك ابزارهايي همچون InVID و همچنين ديگر برنامه‌هاي بررسي‌كننده متاديتاها مي‌توانيد تمام اين اطلاعات را به دست آوريد.

وقتي فايل ويدیويي مشكوكي در يك شبكه اجتماعي مي‌بينيد، در مرحله اول اگر به منبع اصلي خبر دسترسي داريد، سعي كنيد منبع اصلي را كه ادعا شده خبر از روي آن نقل يا منتشر شده بررسي كنيد. براي مثال، **اگر ديديد در يك شبكه اجتماعي تصوير يا ويديويي غيرمعمول از يك چهره سرشناس منتشر شده كه صحبت‌هاي عجيبي را مطرح كرده، ببينيد آن ويديو يا تصوير به نقل از چه خبرگزاري يا روزنامه‌اي منتشر شده، سپس به صفحه رسمي آن خبرگزاري يا روزنامه رفته و ببينيد آيا خبري در آن باره هست يا خير؟**

در حال حاضر سازمان‌هاي تاييد محتوا مثل اسوشيتدپرس و استوري‌فول در زمينه تاييد ويديوها و اخبار به صورت رسمي فعاليت مي‌كنند. البته هر روز نيز ابزار جديدي براب تاييد صحت و بررسي جعلي نبودن فايل‌هاي تصويري منتشر مي‌شود. براي مثال، ابزارهای جدیدی از جمله TruePic و Serelay از بلاك‌چين برای احراز هویت عکس استفاده می‌کنند. صرف‌نظر از تکنولوژی مورد استفاده، انسان در اتاق خبر در مرکز این روند قرار دارد.

**سعيد رجيو، كارشناس ارشد بررسي اخبار جعلي معتقد است كه به هر صورت فناوري به‌تنهايي نمي‌تواند راه‌حل كشف و از بين بردن اخبار جعلي باشد، بلكه اين تركيب هوش مصنوعي، فناوري و نيروي انساني است كه مي‌تواند باعث كشف اخبار جعلي شود.**

لزوم هشدار درباره جعل عميق

واقعيت اين است كه امروز روزنامه‌نگاران وظيفه مهمي در زمينه اطلاع‌رساني به مردم در خصوص اخبار جعلي عميق و خطرات و چالش‌هاي هوش مصنوعي دارند. نبايد فراموش كرد كه حزب نازي و هيتلر با كمك تبليغات رسانه‌اي در آلمان راي آورده و روي كار آمدند و هيتلر با كمك گوبلز، وزير تبليغات خود و نمايش فيلم‌هاي نژادپرستانه توانست مردم آلمان را تشويق به ورود به يك جنگ جهاني كند.

با اين تفاسير طبيعي است كه رسانه، قدرت و توانايي‌هاي زيادي داشته و داراي توان اثرگذاري بر مردم است. اگر در دوره هيتلر سينما فناوري جديدي حساب شده و آثار بيش از انتظاري را بر مردم گذاشت، امروز شبكه‌هاي اجتماعي و ويديوهاي منتشر‌شده بر بستر آنها براي مردم فناوري نويني محسوب مي‌شوند و درنتيجه احتمال فريب آنها با توجه به اثرگذاري بالاي تصاوير ويديويي وجود دارد.

از سوي ديگر نبايد از نظر دور داشت كه حس ديدن همواره براي بشر از هر حس ديگري باورپذيري بيشتري دارد و بيان عباراتي نظير «خودم با چشمان خودم ديدم» گوياي باور رايج عموم به اين حس است. لذا وقتي تصاوير ويديويي تغيير و تحريف شوند شايد مردم به سبب باورهاي فرهنگي و روان‌شناختي خود و حسشان مبني بر باورپذيري حس بصري اخبار جعلي عميق را راحت‌تر باور كنند.

به اين ترتيب به نظر مي‌رسد كه امروز روزنامه‌نگاران، خبرنگاران و كارشناسان امور رسانه‌اي بيش از هر زمان ديگر لازم است مردم را در سراسر جهان با خطرات اخبار جعلي عميق آشنا كنند تا مانع شكل‌گيري فريب عمومي و هدايت افكار عمومي توسط قدرتمندان شوند.

محققان MIT در یک مطالعه که در طول سال‌هاي 2006 تا 2017 انجام شده دريافتند که «دروغ به‌طور قابل توجهی سریع‌تر، عمیق‌تر و گسترده‌تر از حقیقت در تمام دسته‌های اطلاعات منتشر شده است». داستان‌های دروغین 70 درصد احتمال بیشتری برای بازتوییت نسبت به حقايق دارند و البته با سرعت شش برابر از حقیقت هم منتشر مي‌شوند.

در نهایت اینکه كارشناسان معتقدند كه پيشرفت فناوري تولید و توسعه اخبار جعلي تا سال 2020 كه انتخابات بعدي آمريكا خواهد بود با سرعت ادامه خواهد داشت و پس از آن سرعت توسعه اين فناوري تا حدودي فروكش خواهد كرد.

این موضوع به معنای پایان اخبار جعلی و فاز بعدی آن یعنی جعل عمیق نیست، بلکه کارشناسان معتقدند صرفا فناوری تولید این موضوعات به واسطه نزدیکی به انتخابات 2020 آمریکا و احتمالا حداکثر تاثیرگذاری بر آن به بلوغ خود رسیده و تا حدودی متوقف می‌شوند، نه تولید و تکثیر اخبار جعلی.

اگرچه این فناوری مهلک موضوع خیلی جدیدی محسوب نمی‌شود، اما نگرانی اصلی و بزرگ ارزان شدن و افتادن این فناوری به دست خرابکاران و سودجویان است که می‌تواند به باج‌گیری از افراد، تحریف تاریخ، کلاهبرداری و حتی به‌هم‌ریختن زندگی‌ها از طریق ساخت فیلم‌های جعل عمیق نیز بینجامد.

لذا نیاز به توضیح زیادی نیست که فناوری «جعل عمیق» چه فجایع و مشکلات عمیقی با خود به همراه خواهد داشت و درحالی‌که در کشوری همچون ایران حتی گام‌های عملی و ابتدایی برای مهار حداقلی اخبار جعلی برداشته نشده، تصور کنید ورود جعل عمیق چه آثاری بر جای خواهد گذاشت.

نکته دیگر اینکه به واسطه پیچیده‌شدن روز افزون جعلیات در فضای سایبری و در هم تنیده‌شدن زندگی مردم با این فضا، امکان تشخیص دروغ از حقیقت نیز روز به روز پیچیده‌تر می‌شود و چه‌بسا در آینده شاهد شکل‌گیری مشاغل و تخصص‌های جدید برای تشخیص جعلیات خواهیم بود.

و در نهایت نکته پایانی اینکه، **بعضی از مسایل اصلا شوخی‌بردار نیستند و نمی‌توان به‌سادگی و بدون برنامه منتظر ورود آنها ماند؛ چراکه تولید جعلیات در فضای سایبری، همچون یک بیماری ناشناخته و فعلا غیرقابل درمان است که در صورت حمله به مردم یک کشور، چه‌بسا امکانی برای درمان قطعی در اختیار متولیان و مسوولان کشور نمی‌گذارد.**

لذا از هم‌اكنون اقدامات اوليه براي افزايش سواد رسانه‌اي و ارايه پيش‌آگاهي به عموم جامعه و نهادهاي خبري براي كاهش از عواقب احتمالي اجتناب‌ناپذير است.

درج دیدگاه

عصــر بــازی