اتهام جدیدی که مقامات آمریکایی مطرح کردند

هجوم ایران با هوش مصنوعی به انتخابات آمریکا

  • توسط نویسنده
  • ۲۳ روز پیش
  • ۰

سعید طاهری

به گفته مقامات آمریکایی، محتوای جعلی تولیدشده توسط هوش مصنوعیِ آماده انتشار در سال 2020، همان عواملی هستند که با دولت‌های چین و ایران کار می‌کنند تا بر انتخابات ریاست‌جمهوری ایالات متحده آمریکا تاثیر بگذارند.

یک منبع در گفت‌وگو با سی‌ان‌ان مدعی شد که آژانس امنیت ملی، شواهدی از ظرفیت کشورهای چین و ایران برای تولید دیپ‌فیک را پیدا کرده است.

یک مقام ارشد سابق آمریکایی اعلام کرد: «اکنون این سوال پیش می‌آید که ما چقدر سریع می‌توانیم ناهنجاری را تشخیص دهیم و سپس آن را به سرعت در داخل ایالات متحده اشتراک‌گذاری کنیم. آیا ما در رقابت با یک‌سری از دشمنانی که ممکن است در داخل آمریکا فعالیت کنند، پیروز می‌شویم؟ این، یک چالش است.»

کنسانتریک در نوامبر گذشته نیز مدعی شده بود: «دشمنان اصلی ایالات متحده، شامل چین، روسیه و ایران، با استفاده از تاکتیک‌هایی از جمله کمپین‌های اطلاعات نادرست و پیشبرد قابلیت‌های نظامی بدون سرنشین، به طور استراتژیک از هوش مصنوعی برای کاهش نفوذ آمریکا در مناطق هدف استفاده می‌کنند.»

در حال حاضر، چین حداقل 130 مدل زبان بزرگ (LLM) دارد که پس از آمریکا با سهم 50 درصدی، 40 درصدِ کل زبان جهانی را به خود اختصاص داده است.

در نوامبر 2021، وزارت دادگستری «دو شهروند ایرانی را به دلیل دست داشتن در یک کمپین سایبری برای ارعاب و تاثیرگذاری بر رای‌دهندگان آمریکایی، تضعیف اعتماد آنها و ایجاد اختلاف در زمینه انتخابات ریاست جمهوری 2020 آمریکا متهم کرد.»

همچنین FBI در ماه مارس هشدار داد کخ بازیگران مخرب، مطمئنا در 12 تا 18 ماه آینده از محتوای مصنوعی برای عملیات نفوذ سایبری و خارجی استفاده خواهند کرد. در حال حاضر، بازیگران خارجی از محتوای مصنوعی در کمپین‌های نفوذ بهره می‌برند. از این‌رو، FBI پیش‌بینی می‌کند که این موضوع به طور فزاینده‌ توسط بازیگران سایبری خارجی برای فیشنیگ نیزه‌ای و مهندسی اجتماعی در تکامل تجارت عملیات سایبری استفاده شود.

بر اساس گزارش‌های تحقیقاتی متعدد توسط بخش خصوصی، بازیگران روسی و چینی‌زبان، از تصاویر نمایه مصنوعی مشتق‌شده از شبکه عصبی GAN استفاده می‌کنند.

به گفته همین منابع، این تصاویر پروفایلی، با کمپین‌های نفوذ خارجی مرتبط است.

در این رابطه،  FBIدرباره چگونگی تشخیص جعلی بودن یک تصویر معتقد است نشانگرهای بصری مانند اعوجاج، تاب برداشتن یا ناسازگاری تصاویر و ویدئو، به‌ویژه در آواتارهای پروفایل رسانه‌های اجتماعی، ممکن است بیانگر تصاویر مصنوعی باشند. به عنوان مثال، فاصله چشمی متمایز و ثابت و نیز قرار گرفتن در بین نمونه وسیع تصاویر مصنوعی، نشانه شاخصی از محتوای مصنوعی است. علاوه بر این، در ویدئوهای مصنوعی معمولا ناهماهنگی‌های بصری مشابه وجود دارد که اغلب در قالب حرکات قابل ‌توجه سر و تنه و مشکلات همگام‌سازی بین حرکت صورت و لب و نیز هرگونه صدای مرتبط نشان داده می‌شود.

  • facebook
  • googleplus
  • twitter
  • linkedin
  • linkedin

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *