گزارشی از جلسه هفتم حلقه تخصصی اخلاق و فناوری

گزارشی از جلسه هفتم حلقه تخصصی اخلاق و فناوری

این جلسه  در تاریخ هفتم دی‌ماه سال ۹۵، در محل اندیشکده مهاجر برگزار شد که شامل ارائه آقای صفدری از مقاله (  The moral magic of consent) ، ارائه‌ی آقای ریاحی از ادامه کتاب فربیک و ارائه‌ی آقای خلیلی از مقاله‌ی « چه زمانی یک روبات، یک عامل اخلاقی است؟ »  اثر جان پ. سالینز ، بود.

ارائه آقای صفدری ( دانشجوی دکتری فلسفه علم / شریف ) از مقاله

 The moral Magic of Consent

Criminal Law and Philosophy 7 (1):11-27. Heidi M. Hurd (1996)

این مقاله که یکی از مقاله‌های کلاسیک و مهم در حوزۀ مطالعات رضایت آگاهانه محسوب می‌شود، دفاع قدرتمندی از موضع ذهنی‌گرایی در این حوزه ارائه می‌دهد.

به‌طورکلی در مورد رضایت آگاهانه دو نظریه و دیدگاه متمایز وجود دارد:

الف. دیدگاه ذهنی‌گرایی: این دیدگاه، رضایت آگاهانه را امری ذهنی می‌داند. یک حالت ذهنی خاص که با حصول آن حالت در ذهن، وضعیت رضایت به وجود می‌آید.

ب. دید‌گاه اجرایی[۱]: این دیدگاه صرفِ وجود یک حالت ذهنیِ خاص را برای حصول رضایت آگاهانه کافی ندانسته و قائل به‌ضرورت یک جزء اجرایی‌ است. این جزء اجرایی عبارت است از ظهورِ رفتاریِ رضایتِ آگاهانه. یعنی اگر کسی دارای حالت ذهنی رضایت است، رفتار او هم لزوماً بایستی این رضایت را نشان دهد.

نگارنده در این مقاله پس از ذکر پاره‌ای مقدمات، رضایت را همان به کار انداختن اراده[۲] قلمداد می‌کند. یعنی یک حالتِ ارادی در ذهن. اما همۀ حالت‌های ارادی دارایِ محتوای گزاره‌ای[۳] هستند. پس باید مشخص کنیم که محتوایِ گزاره‌ایِ حالتِ ذهنیِ رضایت چیست؟ نگارنده برای پاسخ به این سؤال، آموزۀ این‌همانی[۴] را مطرح می‌کند که عبارت است از اینکه:

نیتِ[۵] شخصِ فاعل، بایستی باهدف شخصِ رضایت دهنده یکسان باشد.

به عبارتی رضایت دادن، یعنی اراده کردنِ کنشِ فاعل. اما این تعریف، ابهامات زیادی دارد. نگارنده در ادامه دو قرائت از این تعریف ارائه داده و هر دو را باطل می‌داند. در یک قرائت، می‌توان رضایت دادن را، اراده کردنِ (خواستِ) یک حالت خاص از جهان[۶] تلقی کرد. پس می‌رسیم به رابطۀ اراده[۷] و حالت‌های جهان. اما این رابطه خیلی سرراست و مستقیم نیست. یعنی همواره بین ارادۀ ما و حالتی از جهان که دلخواه ماست، فاصله وجود دارد. پس بین اراده و حالت‌های جهان، واسطۀ سومی هم پدید می‌آید و آن اَعمال و اغماض‌هایی[۸] هستند که انجام می‌دهیم. پس ارادۀ یک حالت خاص از جهان، یعنی ارادۀ اعمال و اغماض‌هایی که احتمالاً منجر به آن حالت خاص می‌شود. بعد از طرح این قرائت، نگارنده آن را نقد کرده و کنار می‌گذارد.

او سپس بدیل دیگری برای آموزۀ این‌همانی ارائه می‌دهد به نام آموزۀ این‌همانی دقیق[۹]. طبق این آموزه، رضایت دهنده، به عملِ فاعل رضایت داده است، اگر و فقط اگر:

الف. رضایت دهنده همان چیزی را ارده کند که انجامِ آن برای فاعل، بدون رضایتِ رضایت دهنده مسئولیت زا است؛

ب. عملِ مسئولیت آورِ فاعل، بایستی با توصیف[۱۰] رضایت دهنده از آن مطابقت داشته باشد.

در ادامۀ مقاله، شاهد نقدهایی هستیم که نگارنده به موضع اجرایی گرایی وارد می‌کند.

 ارائه‌ی آقای ریاحی ( دانشجوی دکتری فلسفه علم / شریف ) از ادامه کتاب فربیک:

فربیک در فصل پنجم از کتاب «آنچه شی‌ء می‌کند» تلاش دارد تا بُعد اگزیستانسیال  چهارچوب پساپدیدارشناسی خود را با کمک آرای برونو لاتور در زمینه واسطه‌گری فناورانه ‌یِ عمل پایه‌ریزی نماید. هستی برای لاتور برخلاف نگاه مدرن متشکل از سوژه‌ها و ابژه‌ها که یکی در جایگاهی بالاتر نسبت به دیگری قرار می‌گیرد نیست بلکه عالم شبکه‌ای از عامل‌های انسانی و غیرانسانی  هم‌تراز است که  در اتصال با یکدیگر و مؤثر بر هم هستند. از ین رو در نگاه لاتور نمی‌توان مابین انسان و مصنوع عاملیت را صرفاً به انسان نسبت داد بلکه مصنوع به شکلی فعال و نه خنثی عمل عامل انسانی را واسطه‌گری می‌نماید، و نتیجه نهایی استفاده از فناوری ترکیبی از عاملیت هر دو آن‌هاست.

لاتور چهار جنبه ازاین واسطه‌گری فناورانه مصنوعات را از هم تمیز می‌دهد. نخست جنبه ترجمه یا انتقال (translation) که در آن مصنوع برنامه عمل (program of action) عامل انسانی یا غیرانسانی را تغییر می‌دهد. برای مثال عامل انسانی الف دارای این برنامه عمل است که از فردی دیگر انتقام بگیرد. او در شبکه عامل‌ها با اسلحه ارتباط برقرار می‌کند. اسلحه برنامه عمل خاص خود که مربوط به کارکرد شلیک کردن است را داراست. اسلحه به‌عنوان یک مصنوع برنامه عمل عامل انسانی الف را به برنامه عمل جدید ترجمه می‌کند که بر آن اساس، فرد الف باید به فرد دیگر شلیک کند. آنچه برای لاتور در این فرآیند مهم است این است که عامل انسانی مسلح، عاملیت متفاوتی با عامل غیرمسلح دارد، و همین‌طور اسلحه بدون استفاده انسان عاملیت دیگری دارد.

دومین جنبه از واسطه‌گری فناورانه مصنوعات ترکیب (composition) است به این معنا که همواره در این واسطه‌گری چند عامل انسانی و غیرانسانی بر روی یکدیگر تأثیر می‌گذارند. لاتور معتقد است به دلیل این ترکیب عاملیت‌ها باید مسئولیت‌ها یک رخداد مرتبط با فناوری مابین همه عامل‌ها انسانی و غیرانسانی (انسان- اسلحه- محیط و …) پخش گردد.

جنبه سوم ازنظر لاتور جعبه بندی سیاه (black boxing) است که در آن شبکه‌ای از عامل‌ها که آن واسطه‌گری فناورانه را ممکن کرده‌اند در خفی قرار می‌گیرند. این شبکه درواقع تنها وقتی مصنوع دچار خرابی و اختلال در کار می‌شود مجدداً خود را نمایان می‌کنند. برای مثال یک پروژکتور که  ما متوجه واسطه‌گری آن نیستیم زمانی که در حین یک سخنرانی دچار اختلال می‌گردد شبکه‌ای عوامل مانند تعمیرکار، لنز، سیستم برق و .. را پیش روی ما حاضر می‌کند که در وضعیت اولیه پنهان باقی‌مانده بوده است.

نهایتاً جنبه چهارم از واسطه‌گری فناورانه محول سازی (delegation)  است که در آن وظایف از یک عامل انسانی یا غیرانسانی به یک عامل دیگر منتقل می‌گردد. برای مثال سرعت‌گیر عاملی است که باعث تغییر در عمل رانندگان می‌شود، که درواقع وظایف یک پلیس(عامل انسانی) یا یک چراغ راهنمایی( عامل غیرانسانی) به آن محول شده است. نکته‌ای که درباره این جنبه محول سازی وجود دارد این است که مهندسان و طراحان آن وظیفه و هدفی را که مدنظر دارند در عامل غیرانسانی درون نگاری (inscribe) می‌کنند، اما در عوض عامل غیرانسانی خود به نحوه‌ای خاص از عمل دعوت می‌کند که لاتور آن را پیش نگاری (prescribe) می‌خواند. برای مثال مهندسان وظیفه بستن درب را به درب‌های دارای فنر محول می‌کنند اما دراین‌بین این درب‌ها خود نحوه خاصی از عبور و مرور را ممکن می‌کنند برای مثال نمی‌توانیم به‌سرعت بعد از نفر قبلی وارد شویم چراکه با درب برخورد می‌کنیم.

ارائه‌ی آقای خلیلی ( دانشجوی دکتری فلسفه علم / شریف )  از مقاله‌ی « چه زمانی یک روبات، یک عامل اخلاقی است؟ »  از جان پ. سالینز

سالینز سؤال خود را این‌طور طرح می‌کند: پرستار وقتی از بیماری نگه‌داری می‌کند، مسئولیتی بر گردن دارد و در مقابل حقوقی به دست می‌آورد، آیا اگر به‌جای این پرستار روبات بود همچنان می‌توانستیم این مسئولیت‌ها و حقوق را به این روبات نسبت بدهیم؟ سه پاسخ ممکن است: ۱- این موقعیت اخلاقی نیست و نمی‌توان به روبات صفت انسانی و مسئولیت‌پذیری را نسبت داد، ۲- روبات‌ها کاملاً عامل اخلاقی نیستند ولی تا حدودی عامل اخلاقی‌اند، ۳- روبات‌ها دقیقاً عامل اخلاقی‌اند. سالینز بر آن است که از پاسخ سوم دفاع کند.

به عقیده‌ی سالینز، تفسیر سنتی از رابطه بین تکنولوژی و اخلاق، این‌چنین است که تکنولوژی ابزار است و استفاده‌کننده‌ای دارد که می‌تواند در جهت ارزش‌های مختلف از آن بهره ببرد. ما اگر این نگاه را به اخلاق روباتیک سرایت دهیم، روبات صرفاً ابزاری است که توسط یک طراح ساخته‌شده و استفاده‌کننده‌ای دارد. به عقیده‌ی سالینز این نگاه ضعیف است و تأثیرات اخلاقی روبات‌ها را نمایان نمی‌کند. به عقیده‌ی سالینز ما باید روبات‌ها را عامل اخلاقی بدانیم تا نقش اخلاقی آن‌ها روشن شود. به نظر او، اگر تکنولوژی را »دست‌کاری در طبیعت برای رسیدن به اهداف انسانی« بدانیم، می‌توانیم سگ‌های رام شده را هم نوعی تکنولوژی بدانیم. شباهت این تکنولوژی به روبات‌ها زیاد است چون هر دو از نوعی از هوشمندی برخوردارند. حال اگر از سگ‌ها برای هدایت انسان‌های نابینا استفاده شود، آیا مگر چنین نیست که خود سگ هم موردستایش قرار می‌گیرد، و عمل او به‌عنوان عملی خوب ستایش می‌شود؟ اگر چنین باشد خیلی دور از ذهن نیست که روباتی که در جهت اهداف انسانی مورداستفاده قرار می‌گیرد نیز عامل اخلاقی شمرده شود و موردستایش اخلاقی واقع شود.

سالینز میان دو نوع روبات تمایز می‌گذارد: ۱- روبات کنترل شونده از دور (tele robot)، ۲- روبات مستقل (autonomous robot). در مورد روبات‌های کنترل شونده کمی دور از ذهن است که آن‌ها به خاطر کارهایشان مورد تحسین یا تقبیح قرار دهیم، و در این مورد به نظر می‌رسد طراح و استفاده‌کننده (یا اپراتور) بیش‌تر محل تحسین و تقبیح ما هستند. به نظر سالینز، هر روباتی عامل اخلاقی نیست، و برای اینکه روباتی عامل اخلاقی شود باید رفتارش به‌طور مستقل و از روی دلیل انجام‌شده باشد. به نظر سالینز «روبات‌های مستقل» چنین ویژگی‌ای را دارا هستند. سالینز همین ابتدا تذکر می‌دهد که معنای قوی از استقلال را به روبات نسبت نمی‌دهد بلکه منظور او از مستقل بودن روبات‌ها همان منظوری است که پژوهشگران روباتیک به کار می‌برند، یعنی قادر باشد در موقعیت، تصمیم‌گیری مستقل از برنامه‌نویس داشته باشد. به عقیده سالینز، رابطه‌ی طراح (یا برنامه‌نویس) با روباتِ مستقل بیشتر شبیه به رابطه والدین و فرزند است، یعنی اگرچه والدین تا حدودی به خاطر تربیت فرزندشان مسئول‌اند، ولی درنهایت فرزند است که مسئول کاری است که انجام می‌دهد، چون پدر و مادر تعیین‌کننده نهایی عمل او نیستند. به عقیده سالینز، همه‌ی عامل‌های گوناگون، اعم از برنامه‌نویس یا طراح، استفاده‌کننده یا اپراتور، شرکت تولیدکننده روبات، همه و همه در کنار روبات نقشی دارند و مسئولیت در شبکه ارتباطی بین این عوامل پخش‌شده است. سالینز اذعان دارد که برای رسیدن به چنین نگاهی از نگاه فلسفی فلوریدی در بحث سطوح انتزاع (level of abstraction) بهره برده است.

سالینز درنهایت سعی می‌کند فراتر از تشبیه رفته و به بیان استدلال خود مبنی بر عامل اخلاقی بودن روبات‌ها بپردازد. او بین شخص (person) و عامل اخلاقی (moral agent) تمایز می‌گذارد و بر آن است که اگرچه روبات‌ها «شخص» نیستند ولی می‌توان آن‌ها را «عامل اخلاقی» در نظر گرفت. او سه شرط را برای اینکه یک روبات عامل اخلاقی باشد در نظر می‌گیرد: ۱- روبات به نحو مستقل از برنامه‌نویس و اپراتور عمل کند، ۲- نتوان رفتار ربات را بدون استفاده از مفاهیمی چون تمایل (predisposition) قصد (intention) توضیح داد (تمایل و قصدی ناظر به انجام کاری خوب یا بد)، و ۳- روبات به‌گونه‌ای رفتار کند که نشان دهد که نسبت به دیگر عامل‌های اخلاقی مسئولیت‌پذیر است. سالینز به‌زحمت سعی می‌کند نشان دهد روبات‌ها تفسیر حداقلی از شرط‌های اخیر را تأمین می‌کنند لذا می‌توان آن‌ها را عامل اخلاقی در نظر گرفت. به عقیده او روبات رفتارهایی دارد که حتی برنامه‌نویسش از پیش‌بینی آن عاجز است، روبات طوری رفتار می‌کند که عملی از روی قصد و تمایل به نظر می‌رسد، و می‌توان آن را نسبت به دیگر عامل‌ها مسئول دانست. البته این‌که سالینز تا چه حد موفق به تطبیق شروط پیش‌گفته بر روبات‌ها شده، می‌تواند محل بحث باشد.

 

#اخلاق-و-فناوری#حلقه-تخصصی#اندیشکده-مهاجر#رضایت-آگاهانه#فربیک#روبات

 

 

[۱] Performative

[۲] Exercising the will

[۳] Propositional Content

[۴] Identity Thesis

[۵] Mens Rea

[۶] State of Affair

[۷] Intention

[۸] Action and Omission

[۹] Fine Grained IT

[۱۰] Description