
عباس پورخصالیان
«اصول اخلاق هوش مصنوعی»، در نظر اول، عنوانی عجیب و صورت مسألهای غریب مینماید! اما وقتی به یاد آوریم که سیستمهای هوش مصنوعیِ امروزمان فقط سامانههایی خودکار نیستند، بلکه مبدِل (Transformer) و مولد (Generator) نیز هستند (آنچنان که حروف T و G در نامِ ChatGPT، مبدل بودن و تولیدکننده بودن این چتبات را لو میدهند) آن وقت باید بپذیریم که ChatGPT و همۀ سامانههای مشابه آن، چون که دارای سطحی از عاملیت و تأثیرگذاری در جامعۀ انسانی و مناسبات جمعی ما هستند باید از اصول اخلاقی واحدی پیروی کنند که ضرورتاً باید جهانشمول تدوین شوند و بومی اجرا شوند!
اما اندیشهورزان کدام جامعه میتوانند اهمیت و ضرورت صورتبندی اصول اخلاق هوش مصنوعی را به موقع درک کنند تا سپس به تدویناش همت گمارند؟
جامعههای عقبافتادهای که از اصول اخلاق فردی و اصول اخلاق خصوصی، فراتر نرفتهاند و همان اصول اخلاقی جامعۀ سنتی خود را نیز گاه و بیگاه در عرصههای عمومی آشکارا و بیپروا نقض میکنند، مشکل بتوانند ضرورت تدوین «اصول اخلاق هوش مصنوعی» را درک کنند یا حتی اگر درکاش کنند، مشکل بتوانند به پیادهسازی آن به منظور اخلاقی سازی هوش مصنوعی اقدام کنند!
برای درک صورت مسألۀ «اصول اخلاق هوش مصنوعی»، نخبگان جوامع امروز باید روی سطوح متنوعی از اصول اخلاق اجتماعی، از قبل اندیشه ورزی کرده باشند؛ از آنجمله روی این سطوح:
- اصول اخلاق گروهی، اصول اخلاق تیمی، اصول اخلاق شرکتی، اصول اخلاق مدنی، اصول اخلاق گروهی، اصول اخلاق دولتی، اصول اخلاق دیپلماسی، اصول اخلاق بین المللی،
- اصول اخلاق فناوری اطلاعات، اصول اخلاق دولت الکترونیکی، اصول اخلاق کلان دادهها، اصول اخلاق جامعۀ اطلاعات، اصول اخلاق فضای سایبری، اصول اخلاق خودرانها، و
- به علاوۀ سطوح دیگری از اصول اخلاقی زندگی اجتماعیِ بسیار پیچیدۀ امروز که مدام پیچیدهتر نیز میشود.
برای درک صورت مسألۀ «اصول اخلاق هوش مصنوعی»، باید روی تمام این سطوح قبلاً اندیشهورزی کرد، تا بتوان اصول اخلاق هوش مصنوعی را تدوین و تصویب کرد و آن اصول را در قالب حقوق هوش مصنوعی، مقررات هوش مصنوعی و قانون هوش مصنوعی جا انداخت!
به نظرم: جامعۀ دانشگاهیان، حقوقدانان، قانونگذاران و سیاستمداران ما در ج.ا. راه دور و درازی را برای رسیدن به «اصول اخلاق هوش مصنوعی» در پیش دارند اما با رواج بهمنوارِ پلتفرمهای هوش مصنوعی مولد، ضرورت طرح مسألۀ “اصول اخلاق هوش مصنوعی” را بخوبی درک میکنند!
- کتاب راهنمای اخلاق هوش مصنوعی
ما، برای بحث در زمینۀ اصول اخلاق هوش مصنوعی، نخست به مطالعۀ عمیق در فلسفۀ اخلاق و کُتُب تخصصی مربوط نیازمند هستیم؛ یکی از این کتب، کتاب راهنمای اخلاق هوش مصنوعی یا The Oxford Handbook of Ethics of AI (با حجمیحدود 900 صفحه) است. لذا در یادداشت حاضر مایلم سرفصلهای کتاب مذکور را اجمالاً مرور کنم و در حد بضاعتم اندکی به مطالب آن بپردازم (مثل موردی که در رابطه با سامانۀ Sentient AI ذیلاً توضیح خواهم داد).
- معرفی کتاب
کتاب راهنمای اخلاق هوش مصنوعی در سال 2020 در واحد انتشارات دانشگاه آکسفورد در ایالات متحده منتشر شد. این کتاب از پنج بخش تشکیل شده است به شرح زیر:
بخش 1، تحت عنوانِ Introduction and Overview به مقدمه و بررسی اجمالی کتاب راهنمای اخلاق هوش مصنوعی میپردازد و حاوی سه مقاله (یا رساله) است که عبارتند از:
- اخلاقیات هوش مصنوعی: مروری مقدماتی برای قانون گذاری و تنظیم مقررات
- اخلاقِ “اخلاق هوش مصنوعی”؛ و
- مسائل اخلاقی در رابطه ما با هستارهای مصنوعی.
بخش 2: تحت عنوانِ Frameworks and Modes چارچوبها و شیوههای نظری بررسی اخلاق در حوزۀ هوش مصنوعی را مورد بحث قرار میدهد و دارای 5 رساله است به شرح زیر:
- چارچوبها و حالتها
- حکمرانی هوش مصنوعی توسط طراحی، مشورت و نظارت با محوریت حقوق بشر: پایانی بر اخلاقشویی (An End to Ethics Washing)
- ابتکارات ناسازگارِ هوش مصنوعیِ بخش خصوصی (Private-Sector AI)
- شیوههای هنجاری (Normative Modes): کدها و استانداردها
- نقش هنجارهای حرفهای در حکمرانی اخلاق هوش مصنوعی (Governance of AI)؛
بخش 3: تحت عنوانِ Concepts and Issues، مفاهیم و مسایل اخلاق هوش مصنوعی را مطرح و 14 رساله را به شرح زیر معرفی میکند:
- مفاهیم و مسائل
- ما یک چارچوب اخلاقی عدالت را در هوش مصنوعی از دست دادهایم: در مورد محدودیتها، شکستها و اخلاقِ انصاف (Ethics of Fairness)
- مسئولیت پذیری در سیستمهای رایانهای
- شفافیت
- پاسخگو بودن و هوش مصنوعی
- مفهوم گذشت و چشمپوشی (The Concept of Handoff) به عنوان مدلی برای تحلیل و طراحی اخلاقی
- آیندۀ کار و شغل در عصر هوش مصنوعی: جابجایی یا تغییر ریسک (Displacement or Risk-Shifting)؟ [جالب است که یکی از نویسندگان این رساله، خانمی است با نامِ «پگاه مرادی»]
- هوش مصنوعی به عنوان دارندۀ حق اخلاقی (Moral Right-Holder)
- آیا میتوانید با هوش مصنوعی ادغام شوید؟ تأملاتی در مورد تکینگی و تقویت رادیکال مغز (Singularity and Radical Brain Enhancement)
- آیا روباتهایی از نوع هوش مصنوعیِ احساسدار (Sentient AIs) باید «شخصیتی حقیقی» به حساب آیند؟
برای ارائۀ توضیح پیرامون Sentient AIs و اخلاقیات آن، فهرست رسالات بخش 3 را در اینجا رها میکنم و بقیۀ رسالات این بخش را پس از ارائۀ توضیحات زیر معرفی خواهم کرد.
- اخلاقیاتِ Sentient AI
سامانۀ Sentient AI، هستاری (Entity) است که هنوز ساخته نشده ولی اگر در آینده ساخته شود، گفته میشود روباتی دارای احساس است! در مورد سامانۀ Sentient AI باید دو نکته را در نظر گرفت:
- نخست این نکته را که گیاهان مجهز به حسگرهایی هستند و لذا حس میکنند اما دستخوش احساس نمیشوند
- و نکتۀ دوم این که حیوانات هم حس میکنند و هم احساس! اما هم گیاهان و هم حیوانات فاقد کیفیتی هستند که در حوزههای فلسفی و دینی به آن کیفیت، «خودآگاهی» یا «روح» میگویند.
اکنون برای درک اهمیت اخلاقیاتِ هستارِ Sentient AI که هم حس میکند و هم احساس، اما فاقد «خودآگاهی» و «روح» ، لطفاً به 8 توضیح زیر توجه کنید:
1) عاملیت اخلاقی و مسئولیت هستارِ Sentient AI: این نوع هوش مصنوعی باید در قبال اعمال خود پاسخگو باشد. این امر مستلزم ایجاد سازوکارهایی برای نظارت و تنظیم مقررات در ساخت و بهره برداری از آنها است تا این اطمینان حاصل شود که «رفتار و تصمیمات هوش مصنوعی» با هنجارهای اخلاقی و ارزشهای اجتماعی ما انسانها همسو است.
2) حقوق و منزلت هستارِ Sentient AI: ظهور هوش مصنوعیِ دارای احساس سؤالاتی را در مورد حقوق و منزلت آنها مطرح میکند. آیا موجودات هوش مصنوعی احساسدار باید دارای حقوقی مشابه حقوقی باشند که به انسانها اعطا شده است؟ برای حفاظت از حقوق روباتهای احساسدار، آیا باید چارچوبهای اخلاقی جدیدی اندیشیده و ایجاد شوند.
3) روابط انسان و هوش مصنوعی در خصوص هستارِ Sentient AI: ظهور هوش مصنوعی احساسدار میتواند پیامدهای مهمیبرای روابط انسان و هوش مصنوعی داشته باشد. جامعۀ همزیستی انسان و هوش مصنوعی احساسدار باید برای حل مسایل این روابط، فکری بکر کند و به مسائل همدلی، پیوندهای عاطفی انسان و ماشین و احترام متقابل میان آنها بپردازد.
4) خطرات وجودی هستارِ Sentient AI: احتمال پیشی گرفتن هوش مصنوعی از هوش و کنترل انسان، نگرانیهایی را در مورد خطرات وجودی آنها ایجاد میکند. اگر قرار باشد ماشینها احساسدار شوند و انسانها را تهدیدی برای وجود خود احساس کنند، خواهند توانست برای از بین بردن انسانها اقدام تهاجمیانجام دهند.
5) چارچوبهای اخلاقی هستارِ Sentient AI: توسعه چارچوبهای اخلاقی قوی برای اطمینان از این که سیستمهای هوش مصنوعی به گونهای طراحی شوند که پاسخهای احساسی مناسب را از کاربران دریافت کنند، بسیار مهم است. چارچوبهای اخلاقی وضع شده برای Sentient AI باید ارزشها و رفاه انسانی را در اولویت قرار دهند و از اختیار و استقلال تصمیم گیری انسانی محافظت کنند.
6) راهبری بین المللی هستارِ Sentient AI: توسعه و استقرار هوش مصنوعی از نوع Sentient AI مستلزم راهبری و تعریف چارچوبهای نظارتی قوی در سطح بینالمللی است. تلاشهای مشترک بین کشورها میتواند ایجاد دستورالعملها و استانداردهای مشترک برای توسعه اخلاقی و استفاده از هوش مصنوعی از نوع Sentient AI را تسهیل کند.
7) سؤالات فلسفی و وجودشناختی در بارۀ هستارِ Sentient AI: ظهور هوش مصنوعی سؤالات فلسفی و وجودشناختی عمیقی را در مورد معنای «خودِ زندگی» ایجاد میکند. همچنان که ماشینها پیچیده و پیچیدهتر میشوند، ممکن است لازم باشد تعریف «خود» از هوش و جایگاه «خود» در جهان را دوباره ارزیابی کنیم.
8) اجتناب از سردرگمیاخلاقی درمورد هستارِ Sentient AI: سیستمهای هوش مصنوعی نباید کاربران را در مورد احساسات یا وضعیت اخلاقی آنها گیج کنند. ماشینهای فاقد احساس باید به راحتی از ماشینهای احساسدار قابل تفکیک و تشخیص باشند و ماشینهای احساسدار باید طوری طراحی شوند که پاسخهای احساسی مناسب را از کاربران بخواهند و دریافت کنند. در نتیجه، پیامدهای اخلاقی هوش مصنوعی احساسدار پیچیده و چندوجهی است.
پرداختن به این نگرانیها از طریق همکاریهای بین رشتهای، ایجاد چارچوبهای اخلاقی قوی و حصول اطمینان از این که سیستمهای هوش مصنوعی برای اولویت دادن به ارزشهای انسانی و رفاه طراحی شده اند، ضروری است.
(پایان توضیحات در مورد «Person» یا «شخصیتِ» Sentient AI)
چهار رسالۀ باقیمانده از 14 رسالۀ مذکور در بخش 3 (تحت عنوانِ Concepts and Issues) عبارتند از:
- خودمختاری و خودآینی روباتها
- عیبیابی هوش مصنوعی و جلب رضایت کاربران
- آیا قضاوت انسان لازم است؟ هوش مصنوعی، حکمرانی الگوریتمی و قانون
- رفتار و رابطه جنسی (Sexuality).
بخش 4: تحت عنوانِ Perspectives and Approaches، زاویۀ نگرش، چشماندازها و رویکردها به اخلاق هوش مصنوعی را شامل میشود. این بخش دارای 13 رساله است به شرح زیر:
- چشم اندازها و رویکردها
- دیدگاههای اخلاق هوش مصنوعی: علوم رایانهای
- شیوههای شکست اجتماعی (Social Failure Modes) در فناوری و اخلاق هوش مصنوعی: یک دیدگاه مهندسی
- رویکردی انسان-محور به اخلاق هوش مصنوعی: دیدگاهی از علوم شناختی
- ادغام ارزشهای اخلاقی و ارزشهای اقتصادی برای هدایت پیشرفت (to Steer Progress) در هوش مصنوعی
- معیارهای انصاف (Fairness Criteria) از طریق دریچه نمودارهای غیر چرخهای جهتدار (Directed Acyclic Graphs): دیدگاه مدل سازی آماری
- دیدگاههای اخلاق هوش مصنوعی: فلسفه
- پیچیدگی غیریت (The Complexity of Otherness ): کمکهای انسان شناختی به روباتها و هوش مصنوعی
- ترکیب محاسباتی: اخلاق طراحی خودکار
- هوش مصنوعی و جنوب جهانی (AI and the Global South): طراحی برای جهانهای دیگر (Designing for Other Worlds)
- دیدگاهها و رویکردها در اخلاق هوش مصنوعی: شرق آسیا
- هوش مصنوعی و نابرابری در خاورمیانه: اقتصاد سیاسی تشریک مساعی (The Political Economy of Inclusion)
- اروپا: پیش به سوی یک چارچوب سیاست برای هوش مصنوعی قابل اعتماد (Trustworthy AI)؛
بخش 5: تحت عنوانِ Cases and Applications به موارد و کاربردهای عملی فلسفۀ اخلاق در عرصۀ تولید و عرضه و بهره برداریِ هوش مصنوعی میپردازد و از 10 رساله تشکیل شده است به شرح زیر:
- اخلاق هوش مصنوعی در حمل و نقل
- موردشناسی هوش مصنوعی اخلاقی در ارتش
- اخلاق هوش مصنوعی در تحقیقات زیست پزشکی، مراقبت از بیمار و سلامت عمومی
- اخلاق هوش مصنوعی در حقوق: سؤالات اساسی
- فراتر از تعصب (Beyond Bias): «هوش مصنوعی اخلاقی» در قانون کیفری (Criminal Law)
- «نکتۀ منصفانه» (Fair Notice) در عصر هوش مصنوعی
- هوش مصنوعی و مدیریت تقرب (Migration Management)
- آموزش دادن به روبات، پداگوژی و سیاست
- الگوریتمها و سازمان اجتماعی کار
- اخلاق شهر هوشمند: چگونه «هوشمندی» حکمرانی دموکراتیک را به چالش میکشد.
(پایان بررسی اجمالی عناوین رسالات کتاب راهنمای اخلاق هوش مصنوعی)




