فیس‌بوک برای حل مسائل اخلاقیِ خود یک فرآیند جدید پیشنهاد کرده است. اما آیا خودِ این فرآیند اخلاقی است؟

مترجم : ابوطالب صفدری / دانشجوی دکتری فلسفه علم / عضو کارگروه اخلاق و فناوری / [email protected]

فیس‌بوک برای حل مسائل اخلاقیِ خود یک فرآیند جدید پیشنهاد کرده است. اما آیا خودِ این فرآیند اخلاقی است؟

فیس‌بوک چگونه قرار است ارزش‌های کلیِ اخلاقی را به فرآیند تصمیم‌سازیِ خود ترجمه کند؟

زمانی که فیس‌بوک در ژوئن ۲۰۱۴  انجامِ آزمایش در مورد حالت‌های عاطفیِ[۱] ۷۰۰  هزار نفر از کاربران خود را افشا کرد، بسیاری با عصبانیتِ تمام این عمل را مصداق آسیب‌رساندن به کاربران و متعاقباً نقض اصول اخلاقی قلمداد کردند.
یکی از عواقب این پژوهش در مورد سرایتِ عاطفی[۲] از بین رفتن حسنِ شهرتِ فیس‌بوک در میان اخلاق‌دانان و پژوهشگران بود. البته این پژوهش، شرکت را وادار به تصفیه و پاکسازیِ سندِ اخلاقیِ خود کرد، و منجر به آن شد تا فیس‌بوک در هفتۀ جاری یک فرآیندِ داخلیِ تازه توسعه‌یافته را برای بازرسی‌های اخلاقی معرفی کند.
مالی جک‌من[۳]، مدیر تحقیقات سیاست‌گذاریِ عمومی و لاری کانروا[۴]، مدیر تحقیقات فیس‌بوک، طی یک مقاله‌ در مورد چالش‌های پیش‌رویِ ابداع یک فرآیند بازرسیِ اخلاقیِ جدید در فیس‌بوک بحث کرده و اعلام کردند که تحقیق در مورد این فرآیند بایستی ادامه بیابد.
بنا به ادعای این مقاله، پژوهشِ اخلاقی حالا تبدیل به بخشی از جریانِ کاریِ توسعه‌دهندگان و محققان شده است. جک‌من و کانروا این‌طور می‌نویسند که: "متناسب‌ترین مدلی که می‌تواند از مردم محافظت کرده و منجر به بهبودِ اخلاقیِ پژوهش‌ها شود، مدلی است که با بافتارِ منحصربه‌فرد هر یک از پژوهش‌ها همخوانی داشته باشد". این یعنی طرحِ پرسش‌های اخلاقی بایستی تبدیل به یک بخش عادی از جریان کاریِ پژوهش‌گران شود نه اینکه گامی جدید یا باری اضافه برای پژوهش تلقی گردد.
به‌عنوان‌مثال می‌توان به مجموعۀ پیشگیری از خودکشی و ابزارهای حمایتیِ[۵] فیس‌بوک اشاره کرد که در این هفته رونماییِ جهانی شد. این ابزارها با همکاری محققان دانشگاه واشنگتن توسعه‌یافته و مستقیماً به کاربرانِ حساس و آسیب‌پذیری یاری می‌رسانند که فرآیندِ بازرسیِ اخلاقی به سودِ آن‌ها طراحی‌شده است.
این رویکرد تا حدودی خواسته‌های محققان و همۀ کسانی را پوشش می‌دهد که باور دارند ملاحظات اخلاقی بیش از یک مرحلۀ اضافی هستند که باید پس از اتمام و توسعۀ محصول یا خدمات لحاظ شوند. به عبارتی لازم است این ملاحظات در تمامِ چرخۀ تحقیق از مفهوم‌سازی گرفته تا تحلیل و انتشار نتایج لحاظ شوند.
واکنش فیس‌بوک در برابر خشمی که به خاطرِ پژوهشِ سرایتِ عاطفی به وجود آمده بود، در مقایسه با روزهای ابتداییِ کارِ این شبکۀ اجتماعی به‌مراتب پخته‌تر بود؛ همان روزهایی که برای مثال زاکربرگ[۶] در پی معرفیِ خبررسانِ[۷] جنجالیِ خود در سال ۲۰۰۶، پاسخی بهتر از آرامش خود را حفظ کنید و نفس عمیق بکشید نداشت. ده سال بعد، مدلِ جدید بازرسی‌های اخلاق نشان می‌دهد که این شرکت به رشد و بلوغ رسیده و به آثار و پیامدهای دامنه‌دار کنش‌های خود- به‌مثابه بزرگ‌ترین و تأثیرگذارترین شبکۀ اجتماعیِ کرۀ زمین با ۱ میلیارد کاربرِ روزانه – پی برده است.
 اما فیس‌بوک چگونه می‌تواند ارزش‌های کلیِ اخلاقی مثل احترام[۸]، به رسمیت‌ شناختنِ تفاوت‌ها[۹]، نیکی[۱۰] و عدالت را به فرآیند تصمیم‌سازی برای پژوهش در موردِ برخی مخاطبان، پروژه‌ها و محصولات خاص ترجمه کند؟ فرآیند جدید فیس‌بوک این مسئله را چندان روشن نمی‌کند.
اگر فرآیندهای مزبور را بیش‌ازاندازه مختصِ یک شرکتِ خاص طراحی کنیم، این خطر وجود خواهد داشت که فرآیندها بیشتر به دردِ خودِ آن شرکت بخورند تا کسانی که قرار است از آن‌ها محافظت شود.
چنین گفته می‌شود که توصیفاتِ فیس‌بوک در مورد رویه‌ و فرآیند مذکور، چیز زیادی در مورد ارزش‌ها و ایده آل‌هایی که تصمیم‌سازیِ آن را پیش می‌برند نمی‌گوید. در عوض مؤلفین این فرآیندها مشتی گزاره‌های مبهم، تهی و در برخی موارد ناسازگار ارائه داده‌اند. گزاره‌هایی نظیر اینکه "بازرسان فیس‌بوک در نظر می‌گیرند که این پژوهش‌ها، تا چه حد باعث ارتقای جامعه‌مان، اجتماع‌مان و فیس‌بوک خواهد شد".
این گزارۀ ظاهراً بی‌خطر بیش از آنکه پاسخی فراهم کند، پرسش‌های اخلاقی بیشتری را برمی‌انگیزد. ازنظر فیس‌بوک، جامعۀ ارتقاءیافته چه جور جامعه‌ای است؟ چه کسی یا چه چیزی مقوِّمِ اجتماع ماست؟ ازنظر بازرسان، چه ارزش‌هایی مقوِّمِ یک جامعۀ بهتر هستند؟
فیس‌بوک با گفتنِ این‌که نظارتِ اخلاقی ضرورتاً مستلزمِ درون‌آختگی[۱۱] بوده و آلوده به قضاوت‌های شخصی می‌باشد و درجه‌ای از حزم و بصیرت[۱۲] از سویِ بازرسان است، از پاسخ به این پرسش‌ها می‌گریزد؛ البته بایستی توجه داشت که علیرغمِ اجتناب‌ناپذیریِ درون‌آختگی، کماکان انجامِ بحثِ روشن و صریح در مورد ارزش‌های اخلاقی از اهمیت فراوانی برخوردار است.
یکی از دلایلی که اقدام به استانداردسازیِ کدها و مباحث اخلاقی می‌کنیم همین است که محققان، مدیران و اخلاق‌دانان بتوانند با استفاده از آن‌ها به نحو یکسانی تصمیم‌های اخلاقیِ خود را، هر چه قدر هم درون‌آخته، با یکدیگر به اشتراک گذارده و موجه کنند.
لورا استارک[۱۳] که بیشتر در مورد هیئت‌های بازرسیِ نهادی[۱۴] (سازوکاری استاندارد جهت بازرسیِ اخلاقیِ پژوهش‌های دانشگاهیِ دارایِ بودجۀ دولتی)  توضیح می‌دهد که محققان وقتی وجوه اخلاقیِ یک طرح خاص را در نظر می‌گیرند، پیوسته از استنتاجاتِ درون‌آخته استفاده کرده و سؤالاتی ازاین‌دست می‌پرسند: اگر از مادربزرگم چنین سؤالاتی می‌شد چه فکر می‌کرد؟ پسرعمویم چه واکنشی در مقابل این تحقیق می‌توانست داشته باشد؟
اما استارک اشاره می‌کند که این قبیل بررسی‌های اخلاقی، بسته به ترکیبِ هیئت بازرسی می‌تواند دچار تغییرات وسیعی شود. هیئتی که اعضای آن ثروتمند و سفیدپوست باشند، احتمالاً ارزیابیِ متفاوتی نسبت به هیئتی خواهد داشت که اعضای آن به لحاظ نژادی و موقعیت اجتماعی – اقتصادی متنوع‌ترند. فرآیند بازرسیِ فیس‌بوک به‌خودی‌خود هیچ‌چیزی در مورد اینکه ذهنیت و استانداردهای چه کسی قرار است معیار ارزیابی‌ها باشد به کاربران و سوژه‌هایِ پژوهشی نمی‌گوید.
در غیاب هر نوع فهم معنادار از تعهدات اخلاقی فیس‌بوک، مؤلفان بیان می‌کنند که فرآیند بازرسیِ آن‌ها به آن‌ها اجازه می‌دهد تا در موارد لزوم، به نحوی یکپارچه از مشورتِ نمایندگان و گروه‌های خارج از فیس‌بوک هم استفاده کنند – اگرچه اصلاً توضیح داده نمی‌شود که چرا و چگونه این ورودیِ بیرونی به کار گرفته می‌شود.  همچنین اصلاً مشخص نیست که فیس‌بوک چگونه قرار است این گروه‌های خارجی را برای همکاری در بازرسی‌هایش برگزیند.
بنابراین هنوز مشخص نیست که اگر شما جزء آسیب‌پذیرترین سوژه‌هایِ تحقیقاتی باشید منافع و مصالحتان چگونه محافظت‌شده و ارتقا می‌یابد. همچنین اصلاً معلوم نیست که کاربران چگونه می‌توانند از منافع خود دفاع کنند یا در مورد پژوهشی که آن‌ها را هدف قرار داده اطلاعات کسب کنند.
نهایتاً اینکه اگرچه فرآیندِ پیشنهادیِ بازرسیِ اخلاقیِ فیس‌بوک، از جهتِ طراحی فرآیندها دارای برخی نوآوری‌هاست، اما در مورد ارزش‌های اخلاقی‌ای که در توسعۀ محصولِ آن‌ها دخالت دارد چیز زیادی نمی‌گوید. آنچه ما فهمیدیم این است که این فرآیند طراحی‌شده تا به فیس‌بوک و محققانش اجازه دهد که اولویت‌های پژوهشی‌شان را طوری دنبال کنند که منجر به جنجال‌های عمومی در سطح آنچه در مورد سرایتِ عاطفی شاهدش بودیم نشود.
اما بدون یک بحثِ شفاف و جدی در مورد استانداردهای اخلاقی و جزئیات بیشتر در مورد ارزش‌های مدنظر فیس‌بوک، این را نمی‌توان واقعاً یک فرآیند در مورد اخلاق قلمداد کرد – این فقط یک نوع روابط عمومی است.

   

#فیسبوک#اخلاق#اخلاق_و_فناوری#اندیشکده_مهاجر

 

 

 

 

منبع :

  https://www.theguardian.com/technology/2016/jun/17/facebook-ethics-but-is-it-ethical

 


[۱] Emotional State

 

 

 

[۲]  Emotional Contagion: در این آزمایش‌ها، فیس‌بوک برخی واژگان احساسی و عاطفی را از خبررسان (News Feed) کاربران حذف کرده است تا واکنش آنها را در مورد لایک کردن یا نکردن این پست‌های خبری بسنجد.

 

 

 

[۳] Molly Jackman

 

 

 

[۴] Lauri Kanerva

 

 

 

[۵] Suicide Prevention and Support Tools

 

 

 

[۶] Zuckerberg

 

 

 

[۷] News Feed

 

 

 

[۸] Respect

 

 

 

[۹] Diversity

[۱۰] Beneficence 

 

 

 

[۱۱] Subjectivity

 

 

 

[۱۲] Discretion

 

 

 

[۱۳] Laura Stark

 

 

 

[۱۴] Institutional Review Boards

 

 

 

متن شما