کوشش جهانی برای اخلاقی‌سازی هوش مصنوعی

  • توسط نویسنده
  • ۶ روز پیش
  • ۰

 

عباس پورخصالیان

منظور از تهیۀ این یادداشت، نشان دادن اهمیت تشکیل نهاد اخلاق علم و فناوری و کارگروه اخلاق هوش مصنوعی در بخش ارتباطات و فناوری اطلاعات و در زیربخش هوش مصنوعی، در عصری است که به عصر هوش مصنوعی (AI Era) و عصر انقلاب هوش مصنوعی (AI Revolution) ملقب شده است.

همچنان که بیش از 10 سال پیش در وزارت بهداشت، «شورای عالی اخلاق پزشکی» شکل گرفت و در پی آن، در اکثر دانشکده‌های پزشکی و بیمارستان‌های کشور، کمیته‌ها و کارگروه‌های اخلاق تشکیل شدند، به نظرم وظیفۀ نهاد ریاست جمهوری و وزیر ارتباطات و فناوری اطاعات در دولت چهاردهم است که به منظور اخلاقی‌سازی جامعۀ اطلاعات کشور، ابتدا به تشکیل شورای عالی اخلاق علم و فناوری در نهاد ریاست جمهوری و سپس شورای اخلاق هوش مصنوعی در وزارت ارتباطات و فناوری اطلاعات اقدام کنند و بدین وسیله به تدریج مشوق تشکیل نهادهای مرتبط در کمیسیون و سازمان تنظیم مقررات ارتباطات، در بخش فاوا و نظام صنفی رایانه‌ای برای اخلاقی‌سازی جامعۀ اطلاعات باشند. این تلاش باید همه‌گیر شود و به تشکیل کمیسیون اخلاق علم و فناوری در نهادهای قوۀ مقننۀ کشور بیانجامد تا قوۀ مقننه در نهایت (در کنار دیگر دستاوردهایش) به تصویب قانون اخلاق هوش مصنوعی نایل شود.

به نظرم، سردرگمی‌چند سالۀ اخیر قوۀ مقننه در ج.ا. در مورد مشکل تصویب طرح صیانت از فضای سایبری، نشانه‌ای است از درک نکردن اهمیت تشکیل نهاد اخلاق علم و فناوری و تأثیرگذاریِ شکل‌گیریِ کارگروهِ اخلاق در مرکز پژوهش‌های مجلس (به علاوۀ تشکیل کمیسیون اخلاق در مرکز پژوهش‌های شورای نگهبان) به عنوان نهادهای مشاوره دهنده به قوۀ مقننه.

برای درک اهمیت مبحث اخلاق و ضرورت تشکیل کمیسیون‌ها و کارگروه‌های اخلاق به عنوان مشاوره‌دهنده به قوای مجریه و مقننه، به یاد بیاوریم که انگیزۀ اصلی آموزه‌های دوهزار و سیصدسال پیش سقراط، اخلاقی‌سازی نظام اجتماعی شهرهای یونان (polis) بود و بسیاری از آموزه‌های شاگردش ارسطو (بخصوص در کتاب اخلاق نیکوماخوس) تأثیرگذار بر تأسیس فلسفۀ سیاسی فارابی و مدینۀ فاضلۀ او در هزاروصد سال پیش شد. امروزه می‌توان پذیرفت که زیربنای دانش و فلسفۀ قانونگذاری، فلسفه حقوق است و زیربنای فلسفۀ حقوق نیز، فلسفۀ اخلاق به عنوان کاربردی ترین بخش در بنای عظیمِ اندیشۀ فلسفی است.

همچنین به یاد بیاوریم که از سال 1874 میلادی، زمانی که میرزا یوسف خان تبریزی، ملقب به مستشارالدوله، کتاب «یک کلمه» خود را نوشت تاکنون، آن «یک کلمه» (که منظور، «قانون» است) لقلقۀ زبان ماست، زیرا که آن «یک کلمه» فاقد زیربنای لازم (فلسفۀ اخلاق) بود و بنای قانونگذاریِ ما از آن دو زیربنا (اخلاق و حقوق)، دور بوده یا به مرور زمان دور شده است. لذا با ایجاد نهاد اخلاق علم و فناوری و کارگروه اخلاق هوش مصنوعی در نظام صنفی رایانه، در بخش فاوا، در وزارت ارتباطات و فناوری اطلاعات و در مرکز پژوهش‌های مجلس (و مرکز پژوهش‌های شورای نگهبان) شاید بتوان این زیربنای معنوی تمام زیربناهای نظام، از آنجمله زیربنای جامعۀ اطلاعات کشور را احیا کرد.

  • کوشش اروپای واحد برای اخلاقی‌سازی هوش مصنوعی

 اروپای واحد نخستین قاره و منطقۀ جهان است که دارای کد اخلاقی هوش مصنوعی، حقوق هوش مصنوعی و قانون هوش مصنوعی است. دستورالعمل‌های اتحادیۀ اروپا در مورد هوش مصنوعی به AI communities یعنی جماعات تولیدکنندۀ فراورده‌های هومص  و استفاده کننده از آنها توصیه می‌کنند که همگان باید از حفظ حریم خصوصی و داده‌های شخصی، هم در هنگام ساخت و هم در وقتِ اجرای یک سیستم هوش مصنوعی، اطمینان حاصل کنند. شهروندانی که امروزه دارند به وفور از محصولات هوش مصنوعی استفاده می‌کنند، باید بر داده‌های خود کنترل کامل داشته باشند و هیچ نهادی نباید از داده‌های آنها برای آسیب رساندن به کسی یا تبعیض علیه شهروندان استفاده کند.

شاید بپرسید: منشاء این دستاورد بزرگ اتحادیۀ اروپا (قانون هوش مصنوعی) چیست؟ – با مقدمه‌ای که در بالا ذکر کردم، پاسخ مشخص است: نهادهای راهبری اخلاق در شورای اروپا و در کشورهای عضو اتحادیۀ اروپا!

  • اخلاق هوش مصنوعی

 بدون اخلاق، سیاست عادلانه و قانون انسانی نمی‌تواند وجود داشته باشد. در جوامع پیچیدۀ نوین، اخلاق در حقوق و در آزادی‌های اساسی و گاه در حقوق اجتماعی نیز صورتبندی شده است؛ حقوقی که از مردم در برابر قدرت دولت یا اشخاص ثالث (بخصوص صاحبان پلتفرم‌ها) محافظت می‌کند! این حقوق در واقع از فلسفۀ اخلاق مشتق شده‌اند.

در اتحادیۀ اروپا برخی نهادهای مشورتی هستند که برای اخلاقی کردن جامعۀ اروپا می‌کوشند. یکی از آنها کمیته راهبری اخلاق زیستی شورای اروپا (CDBI) است که در سال 1992 تأسیس شد و به کشورهای عضو شورای اروپا در مورد مسائل اخلاق زیستی مشاوره می‌دهد. نهاد دیگر، گروه اروپایی اخلاق در علوم طبیعی و فناوریهای جدید (EGE: European Group on Ethics in Science and Technologies) نام دارد که توسط کمیسیون اروپا در سال 1991 راه اندازی شد.

گروه EGE در مورد تمام جنبه‌های قوانین و سیاست‌های اتحادیۀ اروپا، در جایی که مسائل اخلاقی، اجتماعی و حقوق اساسی با توسعه علم و فناوری‌های جدید تلاقی می‌کند، به کمیسیون اروپا، با کیفیت بالا مشاوره می‌دهد. این گروه یک نهاد مشورتی مستقل از رئیس کمیسیون اروپا است.

دو نهاد مذکور (EGE وCDBI) به علاوۀ نهادهای ملی مربوط در کشورهای عضو اتحادیۀ اروپا (مثل مؤسسۀ علم و اخلاق در دانشگاه بن آلمان: Das Institut für Wissenschaft und Ethik (IWE) ) کمک می‌کنند تا توسعه علوم زیستی و فناوری‌های جدید در کشورهای عضو اتحادیۀ اروپا- و تا جایی که امکان دارد، در جهان-  اخلاقی شود.

در نوامبر 2020، اجلاسی مشترک متشکل از نهادهای راهبری اخلاق در کمیسیون اروپا (Steering Committee on Bioethics) و “شورای اخلاق آلمان” (Deutscher Ethikrat: ethikrat.org) برگزار شد که در آن شوراهای ملی اخلاق اروپا در مورد موضوعاتی مانند اخلاق هوش مصنوعی و اصول اخلاقی استراتژی مقابله علیه انواع همه‌گیری‌ها تبادل نظر کردند.

وظیفه این کمیته‌های اروپایی، دادن مشاوره به کشورهای عضو و به کمیسیون اروپا در مورد استانداردهای اخلاقی و امکان تبادل نظر بین شوراهای ملی اخلاق بود و بس! یعنی آنها هیچ قدرت تصمیم‌گیری نداشتند و در درجۀ اول اهمیت، در خدمت ارائۀ مشاوره به قانونگذاران و سیاستمداران در سطح اروپا بودند.

خطوط کلی اخلاق هوش مصنوعی با پیشرفت محققان در توسعۀ دانش و فناوری روز و ورود برنامه‌ها و پلتفرم‌های بیشتر به بخش خصوصی و عمومی، مورد توجه ویژه قرار می‌گیرد. مانند فناوری‌های قبلی [مثلِ شکافت هسته‌ای و دِنا (DNA)] فناوری‌های هوش مصنوعی معایب و مزایایی را برای افراد و جوامع به همراه دارند و خواهند داشت. به عنوان مثال، ایمنی عابران پیاده در مسیر وسایل نقلیه خودران، حفظ حریم خصوصی مصرف‌کنندگان به‌عنوان سوژه داده‌ها، و عادلانه بودن روش‌های انتخاب برای متقاضیان وام یا شغل – همانطور که (به‌طور الگوریتمی) «بررسی می‌شوند») به طور فزاینده‌ای افزایش خواهند یافت. تفویض قدرت انتخاب به الگوریتم‌های هومص، نگران کننده است و این نوع نگرانی‌ها، قانونگذاران را با وضعیت اخلاقی و قانونی جدیدی رو در رو می‌کند. ریسک‌ها عمدتاً به عنوان توجیه‌کننده پاداش‌ها تلقی می‌شوند، و انتظار می‌رود که پاداش واقعاً قابل توجه باشد. پیش‌بینی‌های اقتصادی حاکی از رشد درآمد و بهره‌وری قوی و نسبتاً قطعی از هوش مصنوعی برای چند دهه آینده است، اما همزمان با کاهش بازارهای کار صنعتی به دلیل برون‌سپاری سریع نیروی کار ماهر و غیر ماهر، بیکاری عمومی‌افزایش می‌یابد.

در سطح جهان، هوش مصنوعی به تغییر جهان علم و مهندسی ادامه خواهد داد، اما می‌توان از آن برای تامین هزینه‌های اوقات فراغت و گسترش دانش در علوم انسانی نیز استفاده کرد. زمانی که هوش مصنوعی با تکنیک‌های کارآمد جمع‌آوری داده‌ها و پیشرفت‌هایی در ژنتیک، علوم نانو و علوم شناختی ترکیب شود، تقریباً مطمئناً ما را به تسلط بیشتر بر سیاره‌مان ترغیب می‌کند. شاید هوش مصنوعی ابتدا از مرحله‌ای از تلاش‌ها، از طریق نظارت، پلیس و نظامی‌سازی برای تسلط بر سایر انسان‌ها عبور کند. در مواجهه با این انبوه نگرانی‌های اخلاقی هوش مصنوعی باید از خود بپرسیم که: چگونه باید به اخلاق هوش مصنوعی نزدیک شد؟ یا به عبارت دیگر، اخلاق اخلاق هوش مصنوعی چیست؟

چیستی اخلاق هوش مصنوعی، نه فقط به عنوان اخلاق فردی و اخلاق خصوصی بلکه همچنین به مثابۀ اخلاق تیمی، اخلاق شرکتی، اخلاق مدنی، اخلاق اجتماعی، اخلاق دولتی، اخلاق دیپلماسی، اخلاق بین المللی، اخلاق جامعۀ اطلاعات و اخلاق فضای سایبری، مبحثی مفصل است که بحث در این زمینه‌ها نیاز به مطالعۀ در نصوص تخصصی دارد [مثلِ: The Oxford Handbook of Ethics of AI که انشاءالله در یادداشت‌های آینده به آن خواهم پرداخت].

  • facebook
  • googleplus
  • twitter
  • linkedin
  • linkedin

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *