بررسی کتاب « ماشین‌های اخلاق‌مدار: آموزشِ خیر و شر به ربات‌ها »

ابوطالب صفدری / دانشجوی دکتری فلسفه علم / عضو کارگروه اخلاق و فناوری / [email protected]

بررسی کتاب « ماشین‌های اخلاق‌مدار: آموزشِ خیر و شر به ربات‌ها »

این اثر در حوزۀ اخلاق ماشینی[۱] قرار می‌گیرد. اخلاق ماشینی حوزۀ مطالعاتیِ نسبتاً نوظهوری است که ذیل اخلاقِ هوش مصنوعی به وجود آمده است.

در اخلاق هوش مصنوعی به‌طورکلی دو رویکرد وجود دارد:

·       رویکرد بیرونی

در این نوع رویکرد یا به‌عبارت‌دیگر در این نوع مواجهه با مسائل اخلاقیِ هوش مصنوعی، مصنوعاتِ حاویِ هوش مصنوعی (مثلاً ربات‌ها و یا بات‌های هوشمند) به‌مثابه یک ابژه در نظر گرفته شده و سپس پیامدهای آن‌ها در زمینه‌های مختلف موردبررسی قرار می‌گیرد. مثلاً پیامدهای اخلاقیِ توسعۀ ربات‌های هوشمند در محیطِ بیمارستان‌ها چیست؟ آیا وابستگیِ عاطفی‌ای که بین سالمندان و ربات‌های مراقبت‌کننده[۱] به وجود می‌آید به لحاظ اخلاقی موجه است؟ با توجه به توسعۀ شتابندۀ هوش مصنوعی و محصولات وابستۀ آن، آیندۀ جوامع انسانی چگونه خواهد بود؟ در این نوع رویکرد اغلب با استفاده از نظریه‌های اخلاقیِ موجود اقدام به توسعۀ چهارچوب‌هایی اخلاقی برای فهمِ مسائل و پیامدها می‌کنند. یا در برخی موارد اقدام به تهیۀ کدهای اخلاقی می‌نمایند.

 

·       رویکرد درونی

در رویکرد درونی اما مسئله کاملاً متفاوت است. مسئلۀ اصلی در اینجا نه پیامدهای هوش مصنوعی که امکان‌پذیریِ ترجمۀ اخلاق، به کدها و الگوریتم‌هاست. به‌عبارت‌دیگر هدف اصلی در این رویکرد تبدیل کردنِ مصنوعاتِ دارای هوش مصنوعی به عواملی اخلاقی[۲] است که خودشان قادر به رفتار اخلاقی هستند. در این نوع رویکرد با سؤالاتی از این قبیل مواجهیم: آیا می‌توان اخلاق را برنامه‌نویسی کرد؟ کدام نظریۀ اخلاقی قابلیت الگوریتمیک شدن دارد؟ آیا می‌توان به ابژه‌ای که فاقدِ ارادۀ آزاد، خودآگاهی و احساس است، مسئولیت و عاملیت اخلاقی نسبت داد؟

کتاب "ماشین‌های اخلاق‌مدار: آموزشِ خیر و شر به ربات‌ها" به بررسی و تحلیل رویکرد دوم می‌پردازد. در این نوشتار خلاصه‌ای از مقدمۀ کتاب را ذکر می‌کنیم.
هدف اصلیِ مقدمه این است که اساساً این موضوع را تبدیل به یک مسئلۀ زنده کند. به‌عبارت‌دیگر معمولاً در مواجهه با این مباحث، اولین فکری که به ذهنِ مخاطب خطور می‌کند دور از ذهن بودنِ این مباحث است، به این معنا که هنوز وقت طرح این مباحث نیست. اما در این مقدمه با ذکر چند موردکاوی سعی می‌شود تا قریب‌الوقوع بودنشان نشان داده شود. برای مثال خرابی در عملکردِ یک رباتِ شبه مستقل[۳] در ارتش آفریقای جنوبی منجر به کشته شدنِ ۹ سرباز و زخمی شدن ۱۴ سربازِ دیگرِ این کشور شده است. ضمن اینکه ربات‌های خانگی – مثلاً جاروبرقی‌های هوشمند – ربات‌های پزشکی برای مراقبت از بیماران، حیوانات خانگیِ رباتیک[۴] و … به نحو فزاینده‌ای رو به گسترش هستند و این لزوم مطالعۀ جدیِ پیامدهای اجتماعی – اخلاقیِ آن‌ها را گوشزد می‌کند. چراکه ربات‌ها کم‌کم از محیط کنترل‌شده و استانداردِ صنایع مختلف فراتر رفته و وارد عرصه‌های روزمرۀ زندگی می‌شوند.
اما علاوه بر این موردکاوی‌ها، الگوریتم‌های این ربات‌ها به‌تدریج به چنان سطحی از پیچیدگی و پیش‌بینی‌ناپذیری رسیده‌اند که برای کنترلِ اخلاقیِ آن‌ها اساساً راهی به‌جز اخلاقی کردنِ خودِ آن‌ها وجود ندارد. به‌این‌ترتیب حوزۀ عامل‌های اخلاقی باید به فراتر از انسان‌ها توسعه‌یافته و مصنوعاتی نظیر ربات‌ها و بات‌های هوشمند را هم در بربگیرد. بنابراین در این زمینه بازرسیِ دوبارۀ نظریه‌های اخلاقی برای پیداکردنِ مناسب‌ترین نظریه و نیز کاوشِ دقیقِ مفهوم عامل اخلاقی ضروری می‌نماید. آیا نظریه‌های وظیفه‌گرایانه[۵] برای این کدنویسی مناسب‌ترند یا نظریه‌های سودگرایانه[۶]؟ آیا نظریه‌های ارزش‌بنیاد[۷] مثل نظریه‌های دینی مناسبت‌ترند یا نظریه‌ای قاعده‌گرا[۸] مثل نظریۀ دیوید رأس[۹] یا قواعد سه‌گانۀ ایزاک آسیموف برای ربات‌ها؟

این کتاب در ادامۀ فصول خود به سه پرسش اصلی پاسخ خواهد داد:

–      آیا جهان نیازی به عواملِ اخلاقیِ مصنوعی[۱۰] دارد؟

–      آیا انسان‌ها ماشین‌هایی می‌خواهند که تصمیم‌گیریِ اخلاقی هم بکنند؟

–      اگر فرض کنیم که خلقِ ماشین‌های اخلاق‌مدار غیرقابل‌اجتناب است، چگونه مهندسان و فیلسوفان می‌توانند برای تحقق آن با یکدیگر همکاری کنند؟

 

 

 

Moral Machines: Teaching Robots Right from Wrong

نوشتۀ

Wendell Wallach and Colin Allen

 

 


[۱] Caring Robots

 

 

[۲] Ethical Agent

 

 

[۳] Semiautonomous

 

 

[۴] Robotic Pets

 

 

[۵] Deontological ethics 

 

 

[۶] Utilitarianism

 

 

[۷] Value based

 

 

[۸] Rule based

 

 

[۱۰] Artificial Moral Agents

 

 

 

 


[۱] Machine Ethics

 

 

 

 

 

متن شما