گزارشی از جلسه اول حلقه تخصصی اخلاق و فناوری

گزارشی از جلسه اول حلقه تخصصی اخلاق و فناوری

این جلسه  اولین جلسه از سلسله جلسات حلقه های تخصصی کارگروه اخلاق و فناوری اندیشکده مهاجر در دانشگاه شریف بود که در تاریخ یازدهم آبان سال نودوپنج هجری شمسی برگزار شد. سخنرانان جلسه (آقایان ریاحی، صفدری و خلیلی) به بیان مطالب خود پرداختند. ذیلاً گزارشی از این جلسه تقدیم می‌شود.

گزارشی از ارائه‌ی آقای حسین ریاحی 

  • مقدمه

بخش ابتدایی کتاب what things do اثر فربیگ در این قسمت ارائه شد. در این کتاب فربیگ بر آن است که پس از نقد دو رویکرد موجود در فلسفه تکنولوژی به دیدگاه مطلوب خود برسد. این دو دیدگاه یکی استعلاگرایی امثال هایدگر است و دیگری دیدگاه‌های فلسفه زبانی که شی را به‌صرف کلمات زبانی تقلیل می‌دهد. فربیگ سعی می‌کنم با استفاده از پدیدارشناسی و پساپدیدارشناسی دون آیدی و ایده‌های برگمان و لاتور به فلسفه‌ای برای فهم شیئیت شی تکنولوژیک (technological artefact) برسد، شیئیّتی که در دو رویکرد پیش‌گفته مغفول مانده‌اند.

 

  • یاسپرس متقدم
    • امکان‌های مواجهه ما با جهان را کانالیزه می‌کند.
    • تولید انبوه محیط مادی و اجتماعی ما را به نحو جبری شکل می‌دهد.
    • اصالت و آزادی انسان محدودشده است.
    • در بازی تکنولوژی نیفتید و راه‌های بدیل بیابید.

(این بخش در جلسه‌های پیشینی حلقه ارائه‌شده بود)

 

  • یاسپرس متأخر: کتاب‌ها «ریشه و هدف تاریخ » ، « بمب اتم و آینده بشر »
    • رویکرد یاسپرس در اینجا عوض می‌شود و نسبت به تکنولوژی نگاه تکنولوژیک پیدا می‌کند.
    • تکنولوژی امکان‌های جدیدی از تجربه را پیشاروی ما قرار داده مثل میکروسکوپ که دنیای جدیدی را دربرابر ما گشوده، یا اینکه می‌توان با هواپیما دور دنیا را در مدت کمی تجربه کرد و ازلحاظ اگزیستانس تجربه‌های افزونی ارائه شود.
    • البته تکنولوژی محدودیت‌هایی می‌آفریند.
    • خودش برای خودش هدف معین نمی‌کند –> ابزار است. حال ما وظیفه‌ای اگزیستانسیال داریم که معین کنیم که در چه هدفی از این “ابزار” استفاده کنیم. اگر تکنولوژی را به‌مثابه هدف نگاه کنیم تکنولوژی دوباره به دیوگرایی (دیدگاه اولیه یاسپرس) تبدیل می‌شود. مثال: بمب اتم. “برای چه” بودن تکنولوژی یا ابزار بودن آن را نباید فراموش کنیم.
    • راه‌حل: به‌جای صرفاً استفاده از intelect که عقل روشنگرانه و ریاضی است reason یا حکمت، همچنین    بصیرت‌های اگزیستانسیال و اخلاقی را نیز وارد کنیم. این حکمت فردیّت و اصالت و آزادی انسان‌ها را لحاظ کنیم. اگر از بعد حکمت نگاه کنیم بمب اتم ارزیابی می‌شود درحالی‌که بر اساس intelect که صرفاً عقل ابزاری است تنها به دنبال مسئله‌های تکنیکی بعدی هستیم.
  • نقد فربیگ: فلسفه تکنولوژی از جایی شروع می‌شود که دیگر تکنولوژی به‌مثابه ابزار نمی‌بینیم. این حرف یاسپرس خیلی حرف پیش‌پاافتاده‌ای است و تأمل جدی‌ای در باب پدیده‌های تکنولوژیک نیست. تکنولوژی پیچیده‌تر از این‌هاست. به‌طور مثال انسان و فناوری درهم‌تنیده‌اند و این در هم تنیدگی در فلسفه یاسپرس دیده نمی‌شود. یا با این فرض که تکنولوژی به‌خوبی طراحی‌شده می‌تواند در بافت اجتماع به معنای دیگری بیانجامد. تکنولوژی را باید در انضمامش نظاره کرد که معنا و مفهوم می‌گیرد.

 

 

ارائه‌ی آقای ابوطالب صفدری

کتاب ethical reasoning in big data

اخلاق اطلاعات در هیچ جا جدی‌تر از بیگ دیتا نیست به دلایلی:

  • همه‌ی حوزه‌ها تحت تأثیر بیگ دیتا قرارگرفته از نفت گرفته تا اینترنت و بیولوژی و.. بااین‌وجود در دو حوزه شاهد بحث‌های بیشتری از بیگ دیتاییم: ۱
    • biomedical big data: حجم عظیمی از اطلاعات روی ژن‌های ما قرار دارد. که با بیگ دیتا می‌خواهند نقش هر ژن و اطلاعات مندرج در آن را بفهمند.
      این منجر به بحث‌های اخلاقی جدی‌ای شده است:

      1. Pattern هایی پس از بررسی اطلاعات عظیمی درباره شخص حاصل می‌شود که این مسائلی اخلاقی ایجاد می‌کند.
    • Social context: که به microtargetting منجر می‌شود که بر اساس آن می‌توان هر شخصی را دقیقاً پیگیری کرد. مثال RFID که هر چیزی ID دارد و قابل‌پیگیری است.

 

ارائه مقاله A theoritical framework for ethical reflection in big data research

  • چهار اتفاق در حوزه بیگ دیتا که می‌تواند تبعات اخلاقی داشته باشد.
    • Re-use: استفاده‌ای دیگر از داده‌ها (مثال: دانشگاه آریزونا که اطلاعات ژنتیکی یکی از اقوام را در فازی دیگر به کار گرفته‌اند و فهمیده‌اند که این قوم بیماری ژنتیکی خاص دارد، حال باید آن‌ها را نگران کرد یا نه؟! این قوم شکایت کردند که شما چرا به هویت قومی ما ضربه زدی و ۱٫۷میلیون دلار ضربه وارد شد)
    • Re-purpose: در قلمرو دیگری به کار گرفته می‌شود (اطلاعات علمی برای تجارت استفاده می‌شود)
    • Re-combine: از مقایسه و افزودن داده‌ها باهم اطلاعات جدیدی حاصل می‌شود.
    • Re-analyze: این‌که اطلاعات بماند و بقیه باز مورداستفاده قرار گیرد. این مورد به trust ضربه می زند.

تعریف‌های privacy: alone، امکان‌پذیر نیست! باید به سمت تعریف privacy بر اساس control رفت. حال می‌توان اجزاء privacy را مشخص کرد و دقیق‌تر به تحلیل تکنولوژی پرداخت. این موارد چنین اموری ست:

  • Maleficence
  • Beneficence
  • Justice
  • Autonomy
  • trust

با تحلیل privacy به اجزاء اخیر می‌توان چارچوب دقیق‌تری درباره اخلاق بیگ دیتا بر اساس مفهوم پرایوسی داشت. البته نباید آنقدر به پرایوسی تأکید داشت که کنترل کردن را زیر سؤال ببرد و بستر جرم و جنایت افزایش یابد.

 

ارائه‌ی آقای مهدی خلیلی:

ارائه‌ی مقاله‌ی  conflicting values in design for values   از   van Poel

 

مسئله این مقاله این است که در فرآیند طراحی میان ارزش‌های مختلف تعارض وجود دارد و تأکید بر ارزش‌های متفاوت به طراحی‌های گوناگون می‌انجامد. حال پرسش این است که اولاً آیا این یک دوگانه‌ی اخلاقی (moral dilemma) برای ما به وجود می‌آورد یا نه؟ و ثانیاً چه راه‌حل‌هایی می‌توان برای حل این تعارض پیشنهاد کرد؟ این مقاله از پوئل پاسخی است به این دو پرسش.

به نظر می‌رسد بتوان صورت‌بندی‌ای از تعارض میان ارزش‌ها ارائه کرد که الزاماً به دیلمای اخلاقی منجر نشود. حال پول سعی می‌کند به راه‌حل‌های مطرح‌شده برای حال مسئله تعارض میان ارزش‌ها بپردازد. البته بخشی از این راه‌حل‌ها با معضل قضیه‌ی Arrow  که قضیه‌ای است ذیل نظریه تصمیم مواجه می‌شوند. به بیان غیردقیق، طبق این قضیه روشی وجود ندارد که طبق آن بتوان امتیاز (score) معیارهای مستقل را باهم جمع کرد و درعین‌حال یکی از شرایط حداقلی تصمیم عقلانی را زیر پا نگذاشت.

پوئل پس از بررسی شش روش مواجهه با این تعارض (یعنی cost-benefit analysis, direct trade-offs, maximin, satisficing, judgment, and innovation) چنین نتیجه می‌گیرد که سه مورد از این روش‌ها با پذیرش قیاس پذیری بین ارزش‌ها قضیه‌ی Arrow  را به نحوی دور می‌زنند، اگرچه به همین دلیل با مشکلات و مسائلی مواجه می‌شوند که باید به آن‌ها دقت داشت. سه روش دیگر هم اگرچه تعارض را از بین نمی‌برند بی‌فایده هم نیستند. درنهایت یک روش ترکیبی پیشنهاد می‌شود که تا حدودی بتواند معضل تعارض ارزش‌ها در فرآیند طراحی را حل‌وفصل کند و درعین‌حال معضلات تک‌تک روش‌ها را نداشته باشد.

 

 

متن شما