دستکاری افکار عمومی با استعمار الگوریتمی هوش مصنوعی

  • توسط نویسنده
  • ۶ ماه پیش
  • ۰

دکتر مسلم تقی زاده

پژوهشگر هوش مصنوعی و تحول دیجیتال دانشگاه تهران

هوش مصنوعی یک نیروی قدرتمند است و بسته به اینکه چگونه از آن استفاده کنیم و چه کسی آن را کنترل می‌کند، می‌تواند تأثیر مثبت یا منفی بر جامعه بگذارد.

سیستم‌های هوش مصنوعی اغلب روی مجموعه داده‌های عظیمی‌ آموزش داده می‌شوند که معمولاً برای مقرون‌به‌صرفه بودن و سهولت از وب حذف می‌شوند.

اما این بدان معناست که هوش مصنوعی می‌تواند همه سوگیری‌های انسان‌هایی که آنها را طراحی می‌کنند و هر موجودی در داده‌هایی که آنها را تغذیه می‌کند به ارث ببرد. نتیجه نهایی آینه جامعه است، با تمام زشتی‌ها.

از سوی دیگر؛ هوش مصنوعی در حال بازطراحی نظم جهانی است و یکی از پیامدهای منفی هوش مصنوعی این است که می‌توان از آن برای ایجاد و انتشار اطلاعات نادرست یا گمراه‌کننده، دروغ‌ها و حقایق توهم‌آمیز استفاده کرد که می‌تواند اعتماد، هویت و احساس واقعیت ما را تضعیف کند.

این همان چیزی است که آن را باید دنیای پسا حقیقت هوش مصنوعی بنامیم.

 به عنوان مثال، برخی افراد از هوش مصنوعی برای ایجاد تصاویر یا ویدیوهای جعلی استفاده می‌کنند که واقعی به نظر می‌رسند اما واقعی نیستند. آنها می‌توانند از اینها برای انتشار اطلاعات نادرست، تبلیغات، یا شایعاتی استفاده کنند که می‌تواند ما را گیج کند یا ما را وادار کند چیزهایی را باور کنیم که درست نیستند. این می‌تواند بر اعتماد، هویت و احساس واقعیت ما تأثیر بگذارد.

به عنوان مثال، ممکن است ویدیوهای جعلی از افراد مشهور یا سیاستمداران دیده باشید که کارهایی را انجام می‌دهند که هرگز انجام نداده‌اند. از این ویدئوها می‌توان برای دستکاری افکار عمومی ‌یا آسیب رساندن به شهرت استفاده کرد.

دنیای پسا حقیقت هوش مصنوعی همچنین می‌تواند با ایجاد دروغ‌هایی که بی‌عدالتی را که برخی گروه‌ها یا مناطق با آن مواجه هستند، توجیه یا پنهان کند،  و به استعمار الگوریتمی ‌کمک کند. به عنوان مثال، برخی از دولت‌ها ممکن است از هوش مصنوعی برای سانسور یا تحریف اطلاعاتی استفاده کنند که نقض حقوق بشر یا فساد آنها را افشا می‌کند. این می‌تواند شناخت حقیقت و پاسخگویی آنها را برای ما دشوارتر کند.

دنیای پسا حقیقت هوش مصنوعی می‌تواند پیامدهای عمیقی برای معماران و طراحان جوانی داشته باشد که برای کار خود به اطلاعات و ارتباطات متکی هستند. آنها ممکن است برای تأیید منابع و صحت داده‌هایی که استفاده می‌کنند یا خروجی‌هایی که با ابزارهای هوش مصنوعی تولید می‌کنند به کمک نیاز داشته باشند.

آنها همچنین ممکن است با استفاده از ابزارهای هوش مصنوعی که ممکن است اطلاعات یا تصاویر نادرست یا مضر ایجاد کنند، با معضلات اخلاقی روبرو شوند. آنها همچنین ممکن است در صورت استفاده ناآگاهانه از محتوای جعلی یا ناقض ایجاد شده توسط هوش مصنوعی یا به اشتراک گذاری آن با خطرات قانونی روبرو شوند.

برای جلوگیری یا مقابله با دنیای پسا حقیقت هوش مصنوعی، معماران و طراحان جوان باید:

  • از آخرین پیشرفت‌ها و روندهای فناوری هوش مصنوعی و کاربردهای آن در طراحی و معماری آگاه و مطلع باشند.
  • نسبت به ابزارهای هوش مصنوعی که استفاده می‌کنند و خروجی‌هایی که تولید می‌کنند، انتخابی و انتقادی باشند و کورکورانه یا غیرانتقادی به آن‌ها تکیه نکنند.
  • در استفاده از هوش مصنوعی برای طراحی و معماری اخلاقی ؛ مسئولیت پذیر باشند و تأثیرات اجتماعی و محیطی کار خود را در نظر بگیرند.
  • مراقب اطلاعاتی که مصرف می‌کنند یا به‌صورت آنلاین به اشتراک می‌گذارند، باشید و قبل از اعتماد یا انتشار آن، منابع و شواهد را بررسی کنید.

اما یکی دیگر از پیامدهای منفی هوش مصنوعی این است که می‌توان از آن برای سوء استفاده بهره برد.

برای مثال، برخی از نهادهای قدرتمند، مانند شرکت‌های بزرگ فناوری یا دولت‌ها، از هوش مصنوعی برای جمع‌آوری، تجزیه و تحلیل و استفاده از داده‌ها، منابع یا افراد ما بدون رضایت یا منفعت ما استفاده می‌کنند.

آنها می‌توانند از اینها برای پول درآوردن یا به دست آوردن قدرت با هزینه ما استفاده کنند.

این چیزی است که آن را استعمار اگوریتمی‌می‌نامیم. به عنوان مثال، ممکن است شنیده باشید که چگونه فیس بوک داده‌های میلیون‌ها کاربر را بدون اطلاع آنها جمع آوری کرده و با کمبریج آنالیتیکا به اشتراک گذاشته است. این شرکت مشاوره سیاسی از آن برای تأثیرگذاری بر انتخابات در سراسر جهان استفاده کرد.

قدرت استعماری سنتی به دنبال قدرت و سلطه یک جانبه بر مردم استعمار شده از طریق کنترل حوزه اجتماعی، اقتصادی و سیاسی است. در عصر الگوریتم‌ها، این کنترل و تسلط نه از طریق نیروی فیزیکی بی‌رحم ، بلکه از طریق مکانیسم‌های نامرئی و ظریف مانند کنترل اکوسیستم‌ها و زیرساخت‌های دیجیتال اتفاق می‌افتد.

اشتراک استعمار سنتی و الگوریتمی، تمایل به تسلط، نظارت و تأثیرگذاری بر گفتمان اجتماعی، سیاسی و فرهنگی از طریق کنترل رسانه‌های ارتباطی و زیرساختی اصلی است.

در حالی که استعمار سنتی اغلب توسط نیروهای سیاسی و دولتی هدایت می‌شود، استعمار الگوریتمی ‌توسط انحصارات فناوری شرکت‌ها هدایت می‌شود – که هر دو در جستجوی انباشت ثروت هستند.

استعمار الگوریتمی ‌همچنین می‌تواند با ایجاد شکاف یا تفاوت در افرادی که به فناوری‌های هوش مصنوعی و روباتیک در میان جوامع یا کشورهای مختلف دسترسی دارند یا از آن بهره می‌برند، بر انقلاب اتوماسیون روبات‌ها تأثیر بگذارد.

به عنوان مثال، برخی از کشورها ممکن است منابع یا مهارت‌های بیشتری برای توسعه و استفاده از هوش مصنوعی و روباتیک نسبت به سایرین داشته باشند و این باعث عدم تعادل قدرت و ثروت می‌شود. این می‌تواند رقابت یا همکاری در بازار جهانی را برای ما دشوارتر کند.

استعمار الگوریتمی‌ همچنین می‌تواند با ایجاد مشکلات یا معضلاتی که فناوری‌های هوش مصنوعی باید آن‌ها را اخلاقی یا مسئولانه حل کنند، آنها را به چالش بکشد. برای نمونه، برخی از نهادها ممکن است از هوش مصنوعی برای نقض حقوق، حیثیت یا رفاه ما از طریق تجاوز به حریم خصوصی، تبعیض علیه ما یا آسیب رساندن به ما استفاده کنند. این می‌تواند اعتماد یا بهره مندی از فناوری‌های هوش مصنوعی را برای ما دشوارتر کند.

در نتیجه؛ استعمار الگوریتمی‌ با حداکثر کردن سود به هر قیمتی هدایت می‌شود، و فرض می‌کند که روح، رفتار و کنش انسان، مواد خامی‌ برای گرفتن است. در در یک کلام ؛ استعمار الگوریتمی‌ «نظرات تعبیه شده در کد» هستند.

  • facebook
  • googleplus
  • twitter
  • linkedin
  • linkedin

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *