سعید طاهری
به گفته مقامات آمریکایی، محتوای جعلی تولیدشده توسط هوش مصنوعیِ آماده انتشار در سال 2020، همان عواملی هستند که با دولتهای چین و ایران کار میکنند تا بر انتخابات ریاستجمهوری ایالات متحده آمریکا تاثیر بگذارند.
یک منبع در گفتوگو با سیانان مدعی شد که آژانس امنیت ملی، شواهدی از ظرفیت کشورهای چین و ایران برای تولید دیپفیک را پیدا کرده است.
یک مقام ارشد سابق آمریکایی اعلام کرد: «اکنون این سوال پیش میآید که ما چقدر سریع میتوانیم ناهنجاری را تشخیص دهیم و سپس آن را به سرعت در داخل ایالات متحده اشتراکگذاری کنیم. آیا ما در رقابت با یکسری از دشمنانی که ممکن است در داخل آمریکا فعالیت کنند، پیروز میشویم؟ این، یک چالش است.»
کنسانتریک در نوامبر گذشته نیز مدعی شده بود: «دشمنان اصلی ایالات متحده، شامل چین، روسیه و ایران، با استفاده از تاکتیکهایی از جمله کمپینهای اطلاعات نادرست و پیشبرد قابلیتهای نظامی بدون سرنشین، به طور استراتژیک از هوش مصنوعی برای کاهش نفوذ آمریکا در مناطق هدف استفاده میکنند.»
در حال حاضر، چین حداقل 130 مدل زبان بزرگ (LLM) دارد که پس از آمریکا با سهم 50 درصدی، 40 درصدِ کل زبان جهانی را به خود اختصاص داده است.
در نوامبر 2021، وزارت دادگستری «دو شهروند ایرانی را به دلیل دست داشتن در یک کمپین سایبری برای ارعاب و تاثیرگذاری بر رایدهندگان آمریکایی، تضعیف اعتماد آنها و ایجاد اختلاف در زمینه انتخابات ریاست جمهوری 2020 آمریکا متهم کرد.»
همچنین FBI در ماه مارس هشدار داد کخ بازیگران مخرب، مطمئنا در 12 تا 18 ماه آینده از محتوای مصنوعی برای عملیات نفوذ سایبری و خارجی استفاده خواهند کرد. در حال حاضر، بازیگران خارجی از محتوای مصنوعی در کمپینهای نفوذ بهره میبرند. از اینرو، FBI پیشبینی میکند که این موضوع به طور فزاینده توسط بازیگران سایبری خارجی برای فیشنیگ نیزهای و مهندسی اجتماعی در تکامل تجارت عملیات سایبری استفاده شود.
بر اساس گزارشهای تحقیقاتی متعدد توسط بخش خصوصی، بازیگران روسی و چینیزبان، از تصاویر نمایه مصنوعی مشتقشده از شبکه عصبی GAN استفاده میکنند.
به گفته همین منابع، این تصاویر پروفایلی، با کمپینهای نفوذ خارجی مرتبط است.
در این رابطه، FBIدرباره چگونگی تشخیص جعلی بودن یک تصویر معتقد است نشانگرهای بصری مانند اعوجاج، تاب برداشتن یا ناسازگاری تصاویر و ویدئو، بهویژه در آواتارهای پروفایل رسانههای اجتماعی، ممکن است بیانگر تصاویر مصنوعی باشند. به عنوان مثال، فاصله چشمی متمایز و ثابت و نیز قرار گرفتن در بین نمونه وسیع تصاویر مصنوعی، نشانه شاخصی از محتوای مصنوعی است. علاوه بر این، در ویدئوهای مصنوعی معمولا ناهماهنگیهای بصری مشابه وجود دارد که اغلب در قالب حرکات قابل توجه سر و تنه و مشکلات همگامسازی بین حرکت صورت و لب و نیز هرگونه صدای مرتبط نشان داده میشود.