مقدمه‌ای بر اخلاق رباتیک اثر پاتریک لین

مترجم : علی اکبر مهدی زاده / عضو کارگروه اخلاق و فناوری

مقدمه‌ای بر اخلاق رباتیک اثر پاتریک لین

به عصر انقلاب رباتیک خوش‌آمدید. مقصود از این اصطلاح و آنطور که در قطعات ادبی و فیلم‌ها به این موضوع پرداخته شده، شورش ربات‌ها نیست؛

بلکه رباتیک امروزه به شاخه‌ای در حال پیشرفت تبدیل شده که اکنون مدل‌های مختلفی از ربات‌ها در نقش‌های رو‌به گسترشِ اجتماعی از شطرنج بازی کردن با کودکان گرفته تا مبارزه با تروریستم به کار گرفته شده‌اند.

در سال ۲۰۰۷، بیل گیتس[۱] سیر ظهور و توسعه صنعت رباتیک را مشابه با مسیری می‌بیند که صنعت کامپیوتر در سی سال گذشته طی کرده‌است. پیش‌بینی وی به عنوان یکی از اصلی‌ترین معماران این صنعت از اهمیت بالایی برخوردار است. وی با اشاره به پیش‌بینی‌های قانون مور[۲] مبنی بر رشد دوبرابری توان محاسباتی کامپیوتر‌ها در هر دوره ۱۸ماهه، عقیده دارد که نقش اجتماعی ربات‌ها، در چند دهه آتی، به فراگیری نقش کنونی کامپیوتر‌ها در عصر حاضر خواهد رسید؛ باید توجه داشت که پیدا‌کردن کارشناسی با عقیده‌ای مخالف با نظر بیل گیتس کاری به شدت دشوار خواهد‌بود.

کافیست به چند چالش پیش روی کامپیوتر‌ها در سی سال گذشته توجه‌کنید: حذف یا تغییر شغل‌های سنتی، نگرانی‌های مرتبط با حریم خصوصی، نزاع برسر مالکیت‌ معنوی، از خود بیگانگی جامعه بشری، بازتعریف شدن روابط انسانی، اذیت و آزار در محیط‌ مجازی، اعتیاد به اینترنت، ترس‌های امنیتی و موارد متعدد دیگر. باید تاکید کرد که موارد مذکور با هدف حمایت از عدم توسعه کامپیوترها ارائه نشده‌اند، بلکه همواره باید فوائد و آفت‌ها در برابر هم، وزن‌کشی‌ و مقایسه شوند. اگر توسعه صنایع رباتیک و کامپیوتر مشابه هم باشند، توسعه و گسرش صنعت رباتیک با ظهور چالش‌های متعدد اجتماعی و اخلاقی همراه خواهد بود. در نتیجه، توجه و بررسی هرچه زودتر اینگونه چالش‌ها، احتمالا، از اثرات منفی آن‌ها خواهد کاست.

جامعه جهانی از سال‌ها پیش، حتی قبل از رشد و ترقی تکنولوژي و حتی پیش از خلق واژه‌ "ربات" توسط کارل کپک[۳] در ابتدای قرن بیستم، نگران آثار مخرب ربات‌ها بوده است. در حدود سال ۱۱۹۰ قبل از میلاد،  هومر[۴] در ایلیاد[۵] ربات‌های هوشمند یا "خدمتکاران طلایی[۶]" را  توصیف می‌کند که توسط هفیستس[۷] خدای تکنولوژي در یونان باستان ساخته شده‌اند (لتیمور[۸] ۱۹۶۱). نزدیک به دوهزار سال بعد، در حدود سال ۱۴۹۵ میلادی، لئنوناردو داوینچی[۹] به فکر طراحی شوالیه‌ای مکانیکی افتاد که "ربات" نامیده می‌شد (هیل[۱۰] ۱۹۸۴). همچنین، آثار ادبی مدرن داستان‌هایی عبرت آمیز از ربات‌ها را نقل می‌کند که برنامه‌ریزی ناکارآمد، رفتارهای نوظهور، خطاها، و دیگر مشکلات مرتبط با آنها سبب خطرناک و غیر‌قابل پیش‌بینی شدن ربات ها شده‌اند (به عنوان نمونه آسیموف[۱۱] ۱۹۵۰،۱۹۵۷؛ دیک[۱۲] ۱۹۶۸؛ ویلسون[۱۳] ۲۰۰۵). در فرهنگ عامه نیز، فیلم‌ها همواره موقعیتی دراماتیک و شیطانی برای ربات‌ها به تصویر کشده‌اند. به عنوان نمونه می‌توان به فیلم‌هایی همچون متروپولیس[۱۴]، جنگ ستارگان[۱۵]، بلید رانر[۱۶]، نابودگر[۱۷]، هوش مصنوعی[۱۸]، و من، ربات[۱۹]  اشاره کرد. امروزه عناوین روزنامه‌ها و مجلات نیز حکایت از ترس از ویران‌گری ربات‌ها در میدان‌‌های جنگ و بازارهای معاملات مالی می‌کنند که البته شاید توجیه‌پذیر نیز باشند (به عنوان نمونه مادریگال[۲۰] ۲۰۱۰).

در سطح جهانی و به شکلی محدود متفکرانی به مطالعه‌ اخلاق رباتیک پرداخته‌اند (به‌عنوان نمونه وروجیو[۲۱] ۲۰۰۶). همچنین گزارش‌ها و کتب‌ محدودی نیز روانه بازار شده‌اند (به عنوان نمونه والاچ و آلن[۲۲] ۲۰۰۶; لین، بکی و ابنی[۲۳]۲۰۰۸; سینگر[۲۴] ۲۰۰۹ اولین مقاله).اما یک مرجع  قابل دسترس که شامل تمامی موضوعات مرتبط ازجمله طرح وساختار برنامه‌نویسی، مسائل نظامی، قانون، حریم شخصی، دین، بهداشت و درمان، ارتباطات جنسی، روانشناسی، حقوق ربات‌ها و باقی موارد بوده باشد، در اختیار نبوده است. این کتاب به شکلی طراحی شده تا نیاز مذکور را پوشش دهد. هدف این فصل معرفی مسائل اصلی این حوزه می‌باشد، که در فصول آینده با جزئیات کامل‌تری به آنها پرداخته خواهد‌شد.

 

۱.۱ ربات در جامعه

 

معمولا از ربات‌ها برای انجام ماموریت‌هایی استفاده می‌شود که خطرناک، خسته‌کننده و یا آلوده‌کننده هستند. به عنوان نمونه، در کارخانه‌های خودرو‌سازی، ربات‌ها با دقتی بالا فعالیتی یکسان را بارها و بارها تکرار می‌کنند; هواپیماهای نظامی بدون سرنشین از فراز آسمان و برای ساعت‌های طولانی که از توان هر خلبانی فراتر است، اقدام به نظارت و مراقبت می‌کنند. ربات‌ها به داخل فاضلاب‌های تنگ و تاریک می خزند تا لوله‌ها را برای نشت یا ترک احتمالی بازرسی ‌کنند. ربات‌ها همچنین در منازل ما کارهایی همچون جاروکشیِ کف زمین‌‌ها را بر عهده گرفته‌اند. آن‌ها بدون ترس از خطر، به اکتشاف آتشفان‌ها و پاک‌سازی مکان‌های آلوده می پردازند. علاوه بر این،‌ کارهای غیرمحبوبی همچون خنثی‌سازی بمب‌ها و میانجیگری در گروگان‌گیری‌ها را نیز انجام می‌دهند.

ربات‌ها همچنین در بسیاری از موارد به عنوان جایگزین عامل انسانی درنظر‌گرفته می‌شوند. علاوه بر نقش‌آفرینی به عنوان ابزارهایی‌که مستقلا قادر به فکر و کنش نیستند، ربات‌ها در بسیاری از نقش‌های قدیم و جدید اجتماعی که برای عامل انسانی با محدودیت همراه است و یا حتی غیرممکن می‌نماید، نقش‌افرینی می‌کنند. این واقعیت به این معناست که ماشین‌های نیمه یا کاملا مستقل در انجام بسیاری از این کارها از انسان توانمند‌تر هستند. اضافه بر اینگونه فعالیت‌ها،‌ ربات‌ها جراحی‌های ظریف و حساسی را انجام می‌دهند که با دست لرزان انسان پر خطر می‌نماید. آن‌ها قادرند تا در مکان‌های غیر‌قابل دسترس، همچون کف اقیانوس‌ها یا سطح مریخ، حرکت کنند. با توجه به تجسم یافتن هوش مصنوعی در بدنه‌های‌ فیزیکی، ربات‌ها اکنون برای کارهایی که نیازمند پردازش اطلاعات یا تصمیم‌گیری‌های سریع‌تر از توان انسان است، مناسب تر شده‌اند. به عنوان نمونه سیستم پدافند نیروی دریایی آمریکا معروف به فلانکس سی آي دابلیو اِس[۲۵] موشک‌های دشمن را که به ناو جنگی خودی نزدیک می‌شوند را به سرعت شناسایی و منهدم می‌کند. بسیاری معتقدند که ربات‌ها می‌توانند در مواردی که احساسات انسانی مسئولیت‌زاست، مثل میدان جنگ، جایگزین انسان شوند. در اینگونه موارد، ربات‌ها بدون احساس عصبانیت،‌ نفرت، بزدلی و یا ترس می توانند بر ضعف‌های سربازان که در بسیاری از موارد موجب سوء استفاده‌ و جرائم جنگی می شوند، جایگزین مناسبی باشند (آرکین[۲۶] ۲۰۰۷). با توجه به این قابلیت‌ها، ربات‌ها اکنون در طیف وسیعی از موقعیت‌های اجتماعی مورد استفاده قرار گرفته شده‌اند و یا اینکه با سرعتی بالا در حال توسعه و گسترش می‌باشند:

 

نیروی کار و خدمات:

 

نزدیک به نیمی از ربات‌هایی که در بخش خدمات به کار گرفته‌شده‌اند، ربات‌های جاروبرقی رومبا[۲۷] هستند (گویزو[۲۸] ۲۰۱۰). البته ربات‌های دیگری نیز وجود دارند که در چمن‌زنی، شست‌و‌شوی زمین، اتوکشی، جابه‌جایی اشیا، و دیگر کارهای طاقت‌فرسای منزل به کار ‌گرفته شده‌اند. ربات‌ها دهه‌هاست که در بخش تولید بویژه در کارخانه‌هایی با خط تولید خودکار،‌ به کار گرفته شده‌اند. آن‌ها همچنین در انبارها،‌ سایت‌های فیلم‌برداری، خط تولید کالاهای الکترونیکی، تولید غذا، و صنایع چاپ، بسته بندی و بسیاری دیگر از عرصه‌ها به خدمت گرفته شده‌اند.

 

امنیتی و نظامی:

 

عناوین جذاب در این عرصه عبارتند از ربات‌هایی با اسم‌هایی ترسناک همچون شکارچی[۲۹]، دروگر[۳۰]، گنده‌لات[۳۱]، له‌کننده[۳۲]، درنده[۳۳]، خرس‌خو[۳۴]، خشونت‌طلب[۳۵]، گردانده اژدها[۳۶] و البته نام‌های دیگر. این ماشین‌ها وظایف متعددی چون جاسوسی یا مراقب (در هوا، آب، یا زمین)، خنثی‌سازی بمب، کمک به زخمی‌ها، بازرسی نامحسوس، و حمله به اهداف مشخص را انجام می‌دهند. امروزه پلیس و ربات‌های امنیتی کارکردهای مشابهی دارند، علاوه بر حفاظت از مرزها و ساختمان‌ها، به جستجو برای یافتن جنایتکاران و پدوفیل‌ها[۳۷]، پخش اطلاعات مفید، هشدار دادن و البته بسیاری از موارد دیگر، اقدام می‌کنند. بازار ربات‌های برقرارکننده‌ي امنیتِ منازل نیز رو به رشد است؛ این ماشین‌ها قابلیت‌هایی همچون استفاده از اسپری فلفل، شلیک گلوله‌های پینت‌بال و ارسال تصاویر از فعالیت‌های مشکوک اطراف خانه‌، به تلفن همراه صاحبانشان را دارا می‌باشند.

 

آموزش و تحقیق:

 

دانشمندان ار ربات‌ها در انجام تحقیقات آزمایشگاهی و در میدان‌‌هایی گسترده تر همچون جمع‌آوری طولانی مدت اطلاعات از کف اقیانوس‌ها یا زندگی گونه‌های دریایی استفاده می‌کنند (به عنوان نمونه اسکارلت نایت[۳۸] از دانشگاه راتگرز). از ربات‌ها همچنین به عنوان کاوشگر سیارات جدید (همچون کاوشگرهای مریخ‌نورد ناسا[۳۹]) استفاده می‌شود. در کلاس‌های درس نیز ربات‌ها سخنرانی می‌کنند؛ تدریس می‌کنند (مثلا زبان‌های خارجی، واژگان، و شمارش)؛ و حضور و غیاب دانشجویان را بررسی کرده و با آنها تعامل می‌کنند.

 

سرگرمی:

 

مرتبط با زمینه‌ آموزش و تحقیق، ربات‌های آموزشی ـ تفریحی همچون ای‌اس‌آی‌ام‌اُ[۴۰]، نائو[۴۱]، آی کوب[۴۲]و دیگر ربات‌ها اکنون وجود دارند. اگرچه که اینگونه ربات‌ها همچون ربات‌های نظامی یا مشغول در خط‌تولید کاربردهای مشخصی ندارند، آنها به محققان در زمینه‌ درک شناخت (انسانی و مصنوعی)، حرکت و دیگر مسائل مربوط به پیشرفت رباتیک، کمک می‌کنند. اسباب بازی‌های رباتیک همچون ای آي بی اُ[۴۳]، پلئو[۴۴]، و روبوسپین[۴۵] نیز به عنوان پلت‌فرم‌هایی برای اکتشاف و سرگرمی مورد استفاده قرار می‌گیرند.

 

بهداشت و درمان:

 

برخی از ربات‌های  شبه اسباب‌بازی، مثل پی ای آر اُ[۴۶] که شبیه به نوزاد فوک دریایی است، برای اهداف درمانی همچون کاهش استرس، تحریک فعالیت‌های شناختی، و بهبود اجتماعی‌شدن طراحی شده‌اند. ربات‌های همیار دانشگاه کالیفرنیای جنوبی نیز به شکلی مشابه در فیزیوتراپی و دیگر زمینه‌های درمانی به بیماران کمک می‌کنند.  پزشک – ربات‌ها مثل سیستم جراحی داوینچی و ربات‌های بلعیدنی ای‌آرای‌اس[۴۷]، در انجام فرایند‌های دشوار پزشکی کمک‌رسانی می ‌کنند. علاوه بر این، آر‌آی‌بی‌ای[۴۸]، آی‌دابلیو‌ای‌آر‌دی[۴۹]، ای‌آر‌ان‌آی‌ای[۵۰]، و بسیاری دیگر از ربات‌ها در امور مربوط به پرستاری و داروسازی اقدام به فعالیت کرده‌اند.

 

همراهی و مراقبت‌های شخصی:

 

ربات ها به شکلی روز‌افزون در مراقبت از سالمندان و کودکان مورد استفاده قرار می‌گیرند (به عنوان نمونه آر‌آی-ام‌ای‌ان[۵۱]، پا‌پِ‌رو[۵۲]، و کیربات[۵۳]). همچنین، ربات‌های پی‌ای‌ال‌آر‌اُ[۵۴]، کیو‌آر‌آی‌اُ[۵۵]، و دیگر ربات‌هایی که در بخش قبل ذکر شدند نیز توانایی همراه شدن با انسان را دارا می‌باشند. تعجب‌آور است اما تاکنون رابطه‌های صمیمانه‌ با ربات‌ها آنچنان راضی کننده نبوده‌اند. به عنوان مثال، به اعتبار صنعت سکس به عنوان یکی از اولین صنایع بهره گیرنده از تکنولوژي‌های نو دقت کنید. در سال ۲۰۱۰ راکسی[۵۶] به عنوان اولین سکس-ربات جهان معرفی شد (فول‌برایت[۵۷] ۲۰۱۰).  با این‌حال، فقدان خودمختاری و عدم تفکر در این ربات سبب‌شد تا در نهایت به عنوان یک ربات واقعی شناخته نشود، چراکه درواقع تنها پاسخگوی ساده‌ای به مجموعه‌ای از حسگرها بود.

 

محیط زیست:

 

امروزه ربات‌ها نه به اندازه والئی[۵۸]، امّا کارهای مهمی را پیرامون بازسازی محیط زیست انجام‌می‌دهند (مثلا جمع‌آوری زباله، تمیز‌کاری مراکز هسته‌ای بعد از بروز فاجعه، حذف آزبست، بسته‌بندی روغن‌های نفتی،‌ ردیابی گازهای سمی، پیداکردن مناطق آلوده و جمع‌آوری اطلاعات در زمینه گرمایش کره زمین).

 

در آینده:

 

با پیشرفت ربات‌ها می توان انظار داشت که در آینده نقش‌‌های گسترده تر و پیچیده‌تر نیز بر دوش ربات‌ها نهاده شود. مثلا پلیس‌ ـ ربات‌ها مجهز به سیستم‌بیومتریک و سنسور‌های تشخیص و ردیابی اسلحه، مواد مخدر، و تشخیص هویت افراد از فاصله‌های دور خواهند بود. ربات‌های نظامی مستقلا تصمیم حمله یا عدم‌حمله را خواهند گرفت؛ تصمیمی که امروزه بر عهده‌ي اوپراتورهای انسانی آنهاست. چالش اصلی قطار‌های بدون راننده و پروژه اصلی دارپا[۵۹]، اثبات امکان دست‌یابی به حمل و نقل رباتیک است. در این طرح، استفاده از هواپیماهای مسافربری، پهپاد‌های نظامی به‌کنار، در حالت اتوماتیک و در مسیر‌های طولانی هوایی ممکن خواهد بود. اگر روزی به رباتی با اهداف و وظایف عمومی دست‌یابی پیدا‌کنیم، وی می تواند در بسیاری از مسائل جایگزین تیم مختلفی از ربات‌ها با اهداف جزئی‌تر شده و به عنوان یک نیروی کارآمد، مورد استفاده قرار گیرد.

در‌آينده می توان انتظار داشت که ربات‌ها قابلیت تغییر ابعاد را نیز داشته باشند. امروزه برخی از ربات‌ها در ابعاد مینیاتوری طراحی شده‌اند که حتی کوچک‌تر نیز می شوند. این ایده طرح نانو ـ ربات‌ها را به ذهن آدمی می آورد. ربات‌هایی که شاید دسته‌هایی از آنها بتوانند در داخل بدن یا فضای آزاد کار کنند یا اینکه به تمیزکاری لکه‌های نفتی بپردازند. حتی شاید اتاق‌ها یا خانه‌ها به عنوان ربات در نظرگرفته شوند. ایده‌ای فراتر از خانه‌های هوشمند کنونی به شکلی که این خانه‌ها بتوانند بیش از تنظیم نور یا وضعیت هوا در محیط اطرافشان اثرگذاری کنند. با استفاده از زیست‌شناسی مصنوعی، علوم شناختی و نانوالکترونیک، ربات‌های آینده زیست‌محور خواهند بود. علاوه براین، ادغام انسان و ماشین همچون سایبورگ‌ها[۶۰] فراگیرتر  از  مصارف عصر حاضر خواهد‌بود. امروزه، اینگونه مصارف عمدتا به اندام یا مفاصل مصنوعی بیماران که تا درجه محدودی توسط ربات‌ها کنترل می‌شوند، محدود شده‌‌است. بسیاری از این گفت‌وگو ها ناشی از گنگ بودن تعریف ربات است که در فصول آینده بیشتر به آن خواهیم پرداخت. درواقع باتوجه به عوامل زمانی مختلف و مصالح متفاوت ، آنچه که ما امروزه به شهود، ربات می نامیم، احتمالا در آینده تغییر خواهد کرد.

در برخی از کشور‌ها که جمعیت سالمندان بالا رفته و نرخ تولد هم کاهش یافته است، مثلا ژاپن، ربات‌ها به معنای واقعی کلمه جایگزین کمبود نیروی کار انسانی و تامین کننده‌ این کمبود شده‌اند (شونبرگر[۶۱] ۲۰۰۸). با توحه به شهرت علاقه ژاپنی ها به تکنولوژي، اکنون از هر ۲۵ کارگر تقریبا یک‌نفر ربات است (رد‌اربیت[۶۲] ۲۰۰۸). درحالی که آمریکا پرچم دار ربات‌های نظامیست، کشور‌هایی همچون ژاپن و کره جنوبی بازار ربات‌های اجتماعی همچون ربات‌های مراقبت از سالمندان را در اختیار گرفته‌اند. پیش بینی می‌شود که کشورهایی با کیفیت جمعیتی مشابه همچون ایتالیا نیز ربات‌ها را به شکلی گستره‌تر به بطن جامعه‌شان تزریق کنند تا کمبودهای ناشی از نیروی کار جبران شوند (گیپل[۶۳] ۲۰۰۳). کشور‌هایی که چنین مشکلاتی ندارند می توانند سطح تولیدات داخلی، کارآمدی و ‌بهره‌وری صنایع و تولیدات‌شان را با استفاده از ربات‌ها بالاتر ببرند.

 

۱.۲ مشکلات اخلاقی و اجتماعی

 

انقلاب صنعت رباتیک وعده‌ منافعی نوین و جذاب را عرضه‌میکند، اما همانند دیگر فن‌آوری‌های نوظهور به همراه خود چالش‌ها و خطرات جدیدی را نیز به همراه می ‌آورد که نیازمند پاسخگویی مناسب از طرف جامعه خواهد بود. این امر به دلیل ذات انقلاب‌های تکنولوژيک که نوید نوعی از هم گسیختگی را می‌دهد، قابل پیش‌بینی می‌باشد. در این بخش، چالش‌های بی شمار اجتماعی و اخلاقی برآمده از انقلاب رباتیک در سه بخش وسیع ولی مرتبط با هم، طبقه بندی می‌شوند. همچنین، پرسش‌هایی برای نمایندگی از هر یک از این بخش‌ها در نظر گرفته و بیان می‌شوند.

 

۱.۲.۱ ایمنی و خطاها:

 

اکنون به خوبی دریافته‌ایم که فن‌آوری‌های جدید ضرورتا باید امن باشند. به عنوان نمونه آزبست[۶۴]، دی‌دی‌تی[۶۵]، و فن‌پن[۶۶] نمونه‌هایی از به خطا رفتن تکنولوژي هستند (مثلا سازمان حفاظت از محیط زیست آمریکا[۶۷] ۲۰۰۷؛ گرمن[۶۸] ۱۹۹۷؛ لیر[۶۹] ۱۹۹۷) که پیش از بررسی‌های امنیتی و بهداشتی کافی روانه بازار شدند. بحث مشابه‌ای پیرامون نانو‌‌مواد‌ها نیز در حال شکل‌گیری است (آلوف،‌لین و مور[۷۰] ۲۰۱۰).

پیرامون ربات‌ها، مساله ایمنی در ارتباط با نرم افزار و طراحی بدنه ربات مطرح می‌شود. دانشمندان علوم کامپیوتر، به عنوان عضوی خطاپذیر از جامعه انسانی، در حال تلاش برای دستیابی به نرم‌افزاری پیچیده و بی‌نقص هستند. اما باید توجه داشت که در میان میلیون‌ها خط کد،‌که معمولا توسط تیمی از برنامه نویسان نوشته شده، احتمال خطا وجود خواهد داشت. اگر چه که چنین خطاهایی در برنامه‌های روزمره و پرکاربرد امروزی منجر به آسیب های جدی نمی‌شود (مثلا ممکن است در صورت ذخیره نکردن پیوسته اطلاعات برخی از آنها از دست بروند)، حتی خطاهای ریز در ارتباط با ربات‌ها یا اتومبیل‌های خودران ممکن است منجر به مرگ شود.

به عنوان نمونه، در آگوست ۲۰۱۰، ارتش آمریکا در طول یک آزمایش کنترل یکی از هلیکوپتر‌های بدون سرنشین که به سمت کاخ سفید حرکت می‌کرد را به مدت ۳۳ دقیقه و برای بیش از  ۲۳ مایل از دست داد. هلیکوپتر نهایتا وارد حریم هوایی کاخ سفید شد که نیازمند واکنش برای حفاظت از کاخ سفید و دیگر دارایی های کاخ سفید ضرورتا لازم شد (بومیلر[۷۱] ۲۰۱۰). در اکتبر ۲۰۰۷، یک ربات بمب‌افکن نیمه خودکار، متعلق به ارتش آفریقای جنوبی، دچار نقص فنی شد که منجر به کشته شدن ۹ سرباز و زخمی شدن ۱۴ سرباز دیگر شد (شاچتمن[۷۲] ۲۰۰۷). کارشناسان همچنان نگرانند که آیا امکان ساخت برنامه‌های پیشرفته نظامی برای ربات‌های نظامی با توان تشخیص نظامیان از غیر‌نظامیان، و تشخیص رفتار‌های تهدید آمیز افراد خودی از غیر خودی، وجود دارد یا نه (لین،‌بکی،‌و آبنی[۷۳] ۲۰۰۸).

حتی اگر آمار اتفاقات ناگوار و تصادفات دیگر ربات‌های نظامی را کنار بگذاریم (زوچینو[۷۴] ۲۰۱۰)، مرگ و میر انسان توسط ربات‌ها در فضاهای غیرنظامی هم رخ داده‌است. به نظر می‌رسد که اولین انسان در کارخانه‌‌ای در آمریکا و در سال ۱۹۷۹ توسط یک ربات کشته شده باشد (کیسکا[۷۵] ‌۱۹۸۳). همچنین تصور اینکه ربات متحرک و سنگینی در آينده در شهرها کودکی را اتفاقا زیر بگیرد، دشوار نیست.

با درنظر گرفتن حجم فراوان توجه که امروزه به امنیت کامپیوترها می شود، هک شدن ربات‌ها یک نگرانی کاملا مرتبط می‌باشد. درواقع ممکن است که از توانایی‌های سودمند ربات‌ها مثلا در انجام ماموریت در محیط‌های دشوار  با هزینه‌های به مراتب کمتر، بر علیه خود ما نیز استفاده‌شود؛ چه از طریق تبه‌کاران و چه انسان‌های خبیث. این نگرانی با وسعت پیدا کردن شبکه ربات‌ها و ضروری شدن آنها در زندگی روزمره، همچون وضعیت کنونی شبکه موبایل‌ها و کامپیوترها، پر اهمیت‌تر خواهد‌شد. درواقع، یادگیری مبانی فنآوری رباتیک آنقدر‌ها هم دشوار نیست. به دلیل توانمندی و هولناکی ربات‌های نظامی بیش‌از ۴۰ کشور، از جمله ایران، اینگونه توانایی‌ها را توسعه داده‌اند (سینگر[۷۶] ۲۰۰۹ مقاله دوم، دیفنس آپدیت[۷۷] ۲۰۱۰).

بنابراین برخی از سوال‌های ناظر بر این موضوع از این دست خواهند بود: آیا امکان ساخت و طراحی ربات‌هایی توانا در تشخیص دقیق تفاوت بین یک تفنگ نشانه گرفته شده به سمت‌شان و یک بستنی قیفی در همین حالت ممکن خواهد‌بود؟ آیا امکان درک صحبت انسانها، که معمولا به شدت به زمینه بحث وابسته است، امکان پذیر است؟ توازن بهینه بین راه حل‌های توسعه دهنده امنیتِ مبتنی بر برنامه نویسی و محدودیت‌های ناشی از راه حل‌های متنی بر عدم برنامه نویسی (سخت‌افزاری) چیست؟ (مثلا محرک‌های ضعیف، اندام رباتیک نرم، استفاده از سلاح‌های غیرمهلک، یا استفاده از ربات‌ها تنها در شرایط و مکان‌های به شدت خاص که در صورت فعال سازی تمامی انسانها را دشمن فرض کند). امنیت استفاده از ربات ها باید تا چه حد برسد تا امکان معرفی آنها به بازارها فراهم شود؟ آیا قبل از ارائه به بازارهای جهانی، باید اصول احتیاطی خاصی مد نظر قرار گیرد؟ چگونه باید تعادل بین کنترل ربات‌ها در صورت خارج از کنترل شدن مثلا توسط یک سوئیچ خاموشی و حفاظت از آنها در برابر هک شدن را سامان دهیم؟

 

۱.۲.۲ قانون و اخلاق:

 

با توجه به خطاپذیر بودن ربات‌ها، مسئولیت پذیری‌ها در صورت بروز خطا کاملا مشخص نیست. قوانین مربوط به مسئولیت‌پذیری‌ها در خصوص کالاهای رباتیک آنچان شفاف و آزمایش‌شده نیست. این قوانین به سمتی در حال تکامل است که مسئولیت را از دوش تولید کنندگان برداشته و از طریق قراردادهای نهایی مرتبط با فروش نرم‌آفزارها[۷۸] بر دوش مصرف کنندگان قرار می‌دهد. مثلا در ارتباط با ربات‌های نظامی، لیستی از  بازیگران در زنجیره تولید و تامین ربات وجود دارند که می توانند پاسخگو باشند: برنامه نویس، تولید کننده، تیم ارزیابی قانونی اسلحه، افسر خرید یا تدارک امکانات نظامی، فرمانده میدان جنگ، اپراتور ربات، و حتی رئیس جمهور ایالات متحده‌آمریکا به عنوان فرمانده کل و ارشد کشور.

با توجه به روند مستقل شدن روزافزون ربات‌ها شاید ایده‌ي مسئولیت پذیری خود ربات‌ها نیز قابل مطرح‌شدن باشد. این امر در صورتی امکان‌پذیر خواهد بود که ربات‌ها بتوانند ویژگی‌های کافی از آنچه که یک "شخص" را تعریف می کند به نمایش بگذارند. اگر این ایده دور از انتظار به نظر می‌رسد، بهتر است توجه کنید که امروزه تلاش‌هایی برای ادغام کامپیوترها، ربات‌ها و مغز بیولوژيکی در حال انجام است (به عنوان نمونه وارویک[۷۹] ۲۰۱۰). مغز انسان در حالت خودآگاه (همراه با بدنه آن) حق و حقوقی دارد، پس شاید آن حقوق با جایگزین کردن بخشی از مغز به شکلی که به کارایی آن صدمه وارد نشود، حفظ شود. شاید به روزی برسیم که بیش از نیمی از یک ارگانیسم مصنوعی و از جنس ربات باشد، انگار که مجموعا بیشتر ربات باشد تا انسان. در چنین حالتی، مساله حقوق رباتیک قابل درک‌تر خواهد بود.

یکی از راههای ممکن برای کاهش صدمه ربات‌ها، برنامه‌ریزی‌ آنها برای پیروی از قوانین و اصول اخلاقی انسانی است. بیان این ایده از عملیاتی کردن آن به مراتب ساده تر است چراکه قوانین معمولا گنگ و وابسته به زمینه‌هایی هستند که نسبت به آن تعریف می شوند. درک چنین ساختار پیچیده‌ای، احتمالا در آینده‌ای نزدیک، خارج از توان ربات‌ها خواهد بود. حتی سه یا چهار قانون ساده و شفاف رباتیک که در داستان‌های آسیموف[۸۰] مطرح شده‌اند نیز منجر به پارادوکس‌های اخلاقی و آسیب به انسان می‌شوند (آسیموف ۱۹۵۷، ۱۹۷۸، و ۱۹۸۵). برنامه نویسی ربات‌ها به کنار، استفاده از ربات‌ها نیز باید با قوانین و اخلاق مطابقت داشته باشد. این قوانین و انتظارات اخلاقی ممکن است که ناشفاف و یا ناآزموده شده باشند. به عنوان نمونه، مین‌ زمینی سلاحی موثر و وحشتناک است که بدون توجه به سرباز یا کودک بودن دست به کشتار می زند. این سلاح سده‌هاست که مورد استفاده قرار می گرفته اما در سال ۱۹۸۳ و به دلیل استفاده گسترده از آن در قرن بیستم، استفاده‌هایی خاص از آن،‌مثلا کاشت آنها بودن علامت گذاری برای شناسایی و جمع‌آوری در آینده، ممنوع اعلام شد (سازمان ملل ۱۹۸۳). در سال ۱۹۹۰ نیز یک معاهده بین المللی تولید و استفاده از این سلاح را ممنوع اعلام کرد (آبرامسون[۸۱] ۲۰۰۸). به همین ترتیب، استفاده از ربات‌های نظامی ممکن است منجر به سوالات قانونی و اخلاقی شود که اکنون به خوبی مورد توجه قرار نگرفته باشند (مثلا لین، بکی، ابنی ۲۰۰۸، ۲۰۰۹) و در آینده وقتی به گذشته نگاه کنیم به وضوح غیر اخلاقی یا غیرقانونی به نظر آیند.

یکی دیگر از زمینه‌های مرتبط با قانون،‌حفظ حریم شخصی است. این نگرانی‌ها از چند جبهه تقویت می شوند. مثلا کوچک تر شدن دوربین‌ها و وسایل ضبط صدا و تصویر؛ تاکید بیشتر بر حفظ امنیت در مقابل کاهش حریم خصوصی (مثلا از طریق بازتر گذاشتن قوانین شنود یا نصب شبکه‌های دوربین‌های امنیتی برای جلوگیری از جرم)؛ پیشرفت توانایی‌ها و قابلیت‌های بیومتریک و سنسور‌های مربوط به آن؛ و گفتگو پیرامون ادغام اطلاعات تمامی حوزه‌ها با هم؛ علاوه بر هواپیماهای جاسوسی، اشاره به ربات‌هایی در آینده کردیم که توانایی نظارت و مراقبت از فاصله دور را دارا می باشند. این ربات‌ها برای کشف اسلحه یا مواد مخدر مخفی شده و یا حتی تشخیص چهره به کار‌گرفته خواهند‌شد. اگر چنین ربات‌هایی به پایگاه‌های داده متصل شوند، خواهند توانست تا به تاریخچه‌ای از وضعیت رانندگی شخصِ، وضعیت درمانی، بانکی و یا حتی خرید‌های وی دسترسی داشته باشند. آن ها می توانند با بررسی اطلاعات بر دستگیری یا عدم دستگیری شخص مورد نظر تصمیم‌گیری‌کنند (شارکی[۸۲] ۲۰۰۸). ربات‌های خانگی نیز می توانند به سادگی به وسایل نظارت و جاسوسی مجهز شوند (همانطور که ربات‌های امنیت منازل اکنون مجهز ‌هستند). چنین اطلاعاتی ممکن است از طریق فرد یا نهاد دیگری نظارت و یا مورد بهره‌برداری قرار بگیرد (کلو[۸۳] فصل ۱۲).

بنابراین برخی از سوالات در این زمینه از این قبیل پرسش‌ها خواهند بود: اگر بتوان ربات‌ها را اخلاقمند برنامه‌نویسی کرد، کدام نظریه اخلاقی مناسب این هدف خواهد‌بود؟ آیا در طراحی ماشین‌های خودکار با قابلیت کشت و کشتار، خطر قانونی یا اخلاقی منحصر بفردی وجود دارد؟ آیا رباتها باید همچون ابزار صرف دیده شوند، همچون اسلحه‌ها و کامپیوترها، و متعاقب با کارکردشان تنظیم شوند؟ آیا اخلاقیست که مسئولیت مراقبت در پیری و کودکی‌مان را بر دوش ربات‌هایی قرار دهیم که گویی همراهی ضعیف برای چنین امر خطیری هستند (هرچند شاید بهتر از بی همراه بودن یا بد همراه بودن هستند)؟ آیا همراهی‌های دیگر رباتیک (که جایگزین باقی انسان‌ها یا حیوانات می شوند) همچون رفیق تنهایی بودن، ‌حیوان خانگی، وسیله سرگرمی، و یا سکس مشکل‌زاست؟ در کدام سطح باید ربات را همچون یک فرد در نظر گرفت و برای آن حقوق و مسئولیت‌های خاص تعریف کرد؟‌ آیا اگر به چنین نقطه ای رسیدند باید از نظارت کامل انسانی و حالت بردگی خارج شوند؟ آیا وظایف مشخص اخلاقی مجزایی نسبت به ربات‌ها داریم؟ با گسترش و توسعه سایبورگ ها (انسان ـ ماشین‌ها) آیا باید وضعیت قانونی متفاوتی نسبت به انسان‌ها دارا باشند؟ تا چه حدی از مراقبت و نظارت های رباتیک بر افراد، نیازمند به حکم قضایی خواهد بود؟‌ آیا در قرار دادن ربات‌ها در موقعیت‌های فرماندهی و دستوردهی همچون پلیس، محافظ، معلم، یا دیگر موقعیت‌های اجتماعی که لزوم تبعیت انسان از آنها می‌رودِ، تردید یا دلهره‌ای خاص وجود دارد؟

 

۱.۲.۳ اثرات اجتماعی:

 

جامعه در اثر انقلاب رباتیک چه تغییراتی خواهد کرد؟ همانند انقلاب‌های صنعتی و اینترنت یکی از دغدغه‌های اصلی از دست رفتن شغل‌های انسانی است. با انقلاب صنعتی،‌کارخانه‌ها جایگزین لژیون‌های کارگران شدند که همان کار را با قدرت دست انجام می دادند و در عوض به فرایند‌های اتوماسیون سرعت و کارآمدی بیشتری بخشیدند. در انقلاب اینترنت، کمپانی‌های آنلاین همچون آمازون[۸۴]، ای‌بی[۸۵]، ‌و حتی خرده‌فروشان کوچکتر،‌ جایگزین خرده‌فروشان سنتی که هزینه‌های به مراتب بالاتری داشتند، شدند. به همین ترتیب، ربات‌ها باتوجه به برتری که در انجام برخی کارها نسبت به انسان دارند، جایگزین بالاقوه‌ای برای برخی شغل‌های انسانی هستند. و این توان جایگزین شدن، ورای رشد یا عدم رشد تعداد و کمیت نیروی کار انسانی خواهد بود.

نتیجه چنین موضوعی این خواهد بود که انسان می تواند وقت و توانش را روی مسائل دیگر که توان تاثیرگذاری بیشتری دارد، قرار دهد (در شغل‌های که توان رقابت بالاتری دارد روزنبرگ[۸۶] ۲۰۰۹). مقاومت در برابر چنین تغییری حمایت از ناکارآمدی خواهد بود. به عنوان نمونه با واگذاری شغل اوپراتوری تماس‌های تلفنی به اتباع کشورهای دیگر با حقوق کمتر، افراد آزاد شده می توانند در کارهای با سود و ارزش بالاتر مشارکت کنند. علاوه براین، تقاضا برای ربات‌ها خود ایجاد مشاغلی جدید خواهد‌کرد. با این‌حال، استدلال مربوط به کارآمدی بیشتر و رقابت بیشتر در مشاغل متفاوت، تسلی بخش کارگری نخواهد بود که نیازمند سیر کردن شکم اعضای خانواده خویش است. همچنین ممکن است که مزایای مالی نیز به دلیل اتفاقی ناخواسته همچون تجربه بد یکی از مشترکان با یکی از اوپراتورهای مرکز تماس، به دلیل هم زبان نبودن، کم رنگ شود.

در ارتباط با نگرانی‌های شغلی و کاری، برخی از کارشناسان نگرانِ وابستگی بیش از حد به تکنولوژي می‌باشند (مثلا وروجیو[۸۷] ۲۰۰۶). به عنوان نمونه، با رشد موفقیت و توان ربات‌ها در انجام جراحی‌های دشوار و جایگزین شدن جراح انسانی با ربات، ممکن است که علم و دانش جراحی نیز کم کم از دست برود. این موجب خواهد شد تا در دراز مدت تعداد طبیبان کاهش چشمگیری یابد. این نگرانی، مشابه با نگرانی ربات‌هایی که کارهای خدماتی خسته کننده و تکراری جایگزین شده‌اند نیست، چراکه برای از دست رفتن چنین توانایی‌هایی کمتر اهمیت قائل هستیم. اما در هر حال نتیجه هر دو، وابسته شدن بیش از حد به ربات‌ها و توانایی‌های آنها، مخصوصا در انجام کارهای پایه، خواهد‌بود. این دست وابستگی شاید ساختار جامعه را شکننده‌تر کند. به عنوان نمونه، مشکل وای‌تو‌کی[۸۸] به دلیل وابستگی بسیاری از سیستم‌های حیاتی همچون کنترل ترافیک هوایی و بانک‌ها، باعث وحشت شدیدی شد. بسیاری شک داشتند که این سیستم ها در زمان تحویل قرن، زمان و تاریخ خود را به درستی از قرن ۲۰ به قرن ۲۱ تغییر دهند. مشکلی مشابه‌ای نیز امروزه در ارتباط با ویرووس‌های مخرب کامپیوتری وجود دارد.

همانند قابلیت‌های شبکه‌های اجتماعی و ایمیل‌ها در انقلاب اینترنتی، ربات‌ها ممکن است که بر روابط انسانی به شدت اثر بگذارند. اگرچه که تحقیقات کافی و کاملی بر آثار، مخصوصا درازمدت، مراقبت ربات‌ها از انسان انجام نگرفته است اما امروزه این ربات‌ها مشغول نگهداری از کودکان و سالمندان بسیاری هستند. بعضی از سربازان به شکل عاطفی به ربات‌های خنثی ساز بمب که زندگیشان را نجات دادهِ‌اند، متصل شده اند. این ارتباط به شکلی است که با به اتمام رساندن وظیفه ربات، سربازان به شدت احساساتی می‌شوند (سینگر‌[89] ۲۰۰۹ مقاله اول؛ سو[۹۰] ۲۰۰۹). همچنین پیش بینی می شود که ربات‌ها به زودی همراه و یا حتی معشوقه ما شوند (لوی[۹۱] ۲۰۰۷)؛ آن‌ها همواره به ما گوش می دهند و هرگز خیانت نخواهند کرد. با توجه به اینکه تحقیقات کامل بر جایگزین کردن روابط انسانی با ربات‌ها صورت نگرفته است، هنوز روشن نیست که آیا چنین جایگزینی تاثیرات روان‌شناختی دارد یا خیر.

آسیب لزوما نباید منحصرا به سمت انسان باشد و می تواند محیط را هدف قرار دهد. در صنعت کامپیوتر، بحث زباله‌های الکترونیکی یک مشکل رو به رشد و ضروریست (مثلا اُ دنو[۹۲] ۲۰۱۰) چراکه این زباله‌ها حاوی فلزات سنگین و بعضا سمی‌است که محیط زیست در پایان چرخه‌دستگاه در معرض آن قرار می‌گیرد. از آنجا که ربات‌ها شامل کامپیوتر هستند، این مشکل احتمالا تشدید خواهد شد. علاوه بر این، برای تولید و ساخت دستگاه‌های محاسباتی جدید و منابع انرژی بیشتر، فشار بیشتری به منابع محیط زیستی خواهد آمد. این امر خود مشکلات ژئوپولیتیک جدیدی را به همراه خواهد آورد، چرا که چند کشور محدود همچون چین غالب این منابع خام طبیعی را کنترل می کنند (گیلیس ۲۰۱۰[۹۳]).

بنابراین سوالات روبرو، برخی از سوالات اساسی در این زمینه خواهند بود: اثرات اقتصادی رشد و توسعه صنعت رباتیک چه خواهد بود؟ چگونه هزینه و مزایای طرح‌های مربوطه را پیش بینی کنیم؟ آیا برخی از شغل‌های ضروری و مهم نباید در اختیار ربات‌ها قرار گیرند؟ با کارگرانی که شغلشان توسط ربات‌ها انجام خواهند شد چه کنیم؟ اگر سیستم رباتیک دچار اختلال شود (مثلا به دلیل یک میدان مغناطیسی قوی یا ویروس کامپیوتری)، چگونه صدمات وارد بر جامعه‌ای که بر ربات‌ها تکیه کرده است را کاهش دهیم؟ آیا ارتباط عاطفی با ربات‌ها خطرناک است؟ آيا طراحی ربات‌های انسان نما ‌و برقراری ارتباط با آن‌ها نوعی از فریبکاری و غیر اخلاقی است؟ آیا رابطه انسانی ویژگی دارد که ارتباط با ربات‌ها هیچ گاه نتواند جایگزین آن شوند؟ با گسترش صنعت رباتیک چه چالش‌های جدیدی بروز خواهند کرد؟ آیا امکان بروز عواقب و نتایج بسیار ناگوار ناشی از به کارگیری گسترده ربات‌ها در سطح جامعه، در ارتباط مستقیم یا شخصی با انسان‌ها، وجود دارد؟ اگر این امکان وجود دارد، آیا نیاز نیست قواعد و قوانین پیشگیرانه‌ای را از پیش اعمال کنیم؟

 

۱.۳ مشارکت در مسائل کنونی

 

این‌ها تنها سوالات محدودی بود که رشته نو ظهور اخلاق رباتیک به آن توجه کرده است. بسیاری از این مسائل منجر به سوالات جدیدی در حوزه‌های دیگری از اخلاق و فلسفه، همچون اخلاق کامپیوتر، فلسفه ذهن، روانشناسی، جامعه شناسی، اقتصاد، سیاست و دیگر رشته ها خواهد شد. باید توجه کرد که در این بررسی، سناریوی محبوب نابودگر[۹۴] که در آن ربات‌ها، توسط هوش مصنوعی، انسان‌ها را مطیع خود می‌کنند در نظر گرفته نشده است. سناریویی که به صورت مکرر، بررسی دیگر مسائل مهم و پذیرفتنی تر در این حوزه را به حاشیه رانده و به تاخیر می اندازد.

صنعت رباتیک به سرعت در حال پیشرفت است و بسیاری از این سوال‌ها اکنون عملا مطرح شده اند. با توجه به اینکه اخلاق معمولا با کندی به دنبال تکنولوژي حرکت می کند، نیاز به بررسی و پرداختن  سریعتر به اخلاق رباتیک  احساس می شود چراکه در غیر این صورت به حالاتی برخواهیم خورد که قوانین و سیاست‌های مربوط به آن هنوز توسعه نیافته اند (مور[۹۵] ۱۹۸۵). به عنوان نمونه، پروژه ژنوم انسان در سال ۱۹۹۰ آغاز به کار کردِ، اما ۱۸ سال طول کشید تا کنگره آمریکا قوانین منع تبعیض بر اساس اطلاعات ژنتیکی را تصویب کند. جامعه در حال حاضر، در ارتباط با مسايل مربوط به حریم شخصی، کپی‌رایت[۹۶]، و حق مالکیت معنوی[۹۷] در عصر دیجیتال بی‌تجربه و ناکارآمد است؛ حتی با وجود اینکه اکنون بیش از ده سال از تعطیل شدن نپستر[۹۸] می گذرد.

به عنوان محققان و آموزگاران این حوزه امیدواریم که این مجموعه از اخلاق رباتیک منجر به ایجاد شوق و اشتیاق برای شکل گیری بحث‌های جدی تر و وسیع‌تر، در داخل و یا خارج کلاسهای درس شود. همکارانی که در ویرایش این کتاب کمک کرده اند، از معتبر ترین و شناخته شده ترین افراد در حوزه‌های  اخلاق رباتیک و تکنولوژي هستند که به شکلی حرفه ای با این دست از مسائل روبرو و درگیر هستند.

تاریخ همواره اهمیت دورنگری و پیش بینی را به ما نشان داده است. گرچه اختراعاتی همچون ماشین چاپ، باروت، اتوموبیل‌ها، کامپیوترها، واکسن‌ها، و غیره به شدت دنیا را تغییر داده‌اند (امیدواریم به شکلی بهتر تغییر داده باشند)؛ این نوآوری‌ها  عواقب پیش بینی نشده یا پیش بینی شده ای نیز دربر داشته‌اند. حداقل اینکه آن‌ها وضعیت موجود زمانشان را دگرگون و مختل کرده‌اند . این امر البته به خودی خود چیز بد یا ناپسندی نیست. با این حال، تغییرات غیرضروری و دراماتیک مثل جایگزینی وسیع نیروی کار انسانی یا صنایع مختلف، آثار و هزینه‌های جدی برای انسان دارد. با درسی که از تاریخ فرا‌گرفته‌ایم، جامعه امروزه جلوتر یا حداقل به موازات توسعه فن آوری‌های انقلابی، بیشتر به اخلاق و سیاست‌های مربوط به آن فکر میکند. به عنوان نمونه می توان به غذاهای اصلاح ژنتیکی شده، نانوتکنولوژي، علوم اعصاب، و تقویت انسان بوسیله ماشین‌ها اشاره کرد. اکنون ما ربات‌ها را نیز به این لیست بلند بالا اضافه می کنیم.

در عین حال که شاهدیم که این فن‌آوری‌ها از دل داستان‌های علمی تخیلی بیرون می آیند و گویی مسائل اخلاقی برآمده از آنها بسیار دور از انتظار و شاید حتی غیر واقعی باشند، اما همانطور که آسیموف پیش بینی کرد: " تغییر ممتد و غیر قابل اجتناب یکی از عوامل عمده در توصیف جامعه مدرن امروزی است. هیچ تصمیم قابل قبولی را بدون درنظرگرفتن وضعیت فعلی و آینده دنیا نمی‌توان گرفت…این به این معناست که دولتمردان، تجار و بازرگانان و درواقع تمامی انسان‌ها باید با عینک علمی تخیلی به دنیا نگاه کرده و آن را تحلیل کنند (آسیموف ۱۹۷۸)." با قوه ابتکار انسان آنچه که روزی یک تخیل بوده تبدیل به واقعیت می‌شود و چالش‌های جدید همراه با آن به معنای واقعی کلمه واقعی خواهند بود.

 

منابع:

Abramson , Jeff . 2008 . The Ottawa Convention at a Glance. Arms Control Association, June.

< http://www.armscontrol.org/factsheets/ottawa > (accessed September 12, 2010).

 

Allhoff , Fritz , Patrick Lin , and Daniel Moore . 2010 . What Is Nanotechnology and Why Does It

Matter?: From Science to Ethics . Hoboken, NJ : Wiley-Blackwell .

 

Arkin , Ronald C. 2007 . Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Hybrid Robot Architecture , Report GIT-GVU-07-11. Atlanta: Georgia Institute of Technology ’ s GVU Center. < http://www.cc.gatech.edu/ai/robot-lab/onlinpublications/formalizationv35.pdf>(accessed September 12, 2010).

 

Asimov , Isaac . 1950 . I, Robot (2004 ed.). New York : Bantam Dell .

 

Asimov , Isaac . 1957 . The Naked Sun . New York : Doubleday .

 

Asimov , Isaac . 1978 . My own view . In The Encyclopedia of Science Fiction , ed. Robert Holdstock , 5 . New York : St. Martin ’ s Press .

 

Asimov , Isaac . 1985 . Robots and Empire . New York : Doubleday .

 

Bumiller , Elisabeth . 2010 . Navy drone violated Washington airspace. The New York Times . August25, p. A16.

 

Cˇapek , Karel . 1921 . Rossum ’ s Universal Robots (2004 ed.), trans. Claudia Novack. New York : Penguin Group .

 

Defense Update. 2010 . Karrar — Iran ’ s new jet-powered recce and attack Drone. < http://defense-update.com/products/k/karrar_jet_powered_drone_24082010.html > .

 

Dick , Philip K. 1968 . Do Androids Dream of Electric Sheep? New York : Del Rey Books .

 

Fulbright , Yvonne . 2010 . Meet Roxxxy, the “ woman ” of your dreams. < http://www.foxnews.com/story/0,2933,583314,00.html > (accessed September 12, 2010).

 

Gates , Bill . 2007 . A robot in every home. Scientific American 296 ( 1 ) (January): 58 – 65 .

 

Geipel , Gary . 2003 . Global aging and the global workforce. A Hudson Institute article. <http://www.hudson.org/index.cfm?fuseaction=publication_details & id=2740 > (accessed September 12,2010).

 

Gillis , Charlie . 2010 . China ’ s power play. Macleans , November 9. < http://www2.macleans.ca/2010/11/09/armed-and-dangerous/ > (accessed November 26, 2010).

 

Gorman , Christine . 1997 . Danger in the diet pills? Time Magazine , July 21. <http://www.time.com/time/magazine/article/0,9171,986725,00.html > (accessed September 12, 2010).

 

Guizzo , Erico . 2010 . IEEE Spectrum: World Robot Population Reaches 8.6 Million , April 14. <http://spectrum.ieee.org/automaton/robotics/industrial-robots/041410-world-robot-population >(accessed September 12, 2010)

 

Hill , Donald . 1984 . A History of Engineering in Medieval and Classical Times . London : Croom Helm .

 

Hsu , Jeremy . 2009 . Real soldiers love their robot brethren. LiveScience, May 21. < http://www.livescience.com/technology/090521-terminator-war.html > (accessed September 12, 2010).

 

Kiska , Tim . 1983 . Death on the job: Jury awards $10 million to heirs of man killed by robot at auto plant. Philadelphia Inquirer , August 11, p. A-10.

 

Lattimore , Richmond , trans. 1961 . The Iliad of Homer . Chicago, IL : University of Chicago Press .

 

Lear , Linda . 1997 . Rachel Carson: Witness for Nature . New York : Henry Hoyten .

 

Levy , David . 2007 . Love and Sex with Robots: The Evolution of Human-Robot Relationships . New York :HarperCollins Publishers .

 

Lin , Patrick , George Bekey , and Keith Abney . 2008 . Autonomous Military Robots: Risk, Ethics, and Design . A report commissioned by U.S. Department of Navy/Office of Naval Research. < http://ethics.calpoly.edu/ONR_report.pdf > (accessed September 12, 2010).

 

Lin , Patrick , George Bekey , and Keith Abney . 2009 . Robots in war: Issues of risk and ethics . In Ethics and Robotics , ed. Rafael Capurro and Michael Nagenborg , 49 – 67 . Heidelberg, Germany : AKA Verlag/IOS Press .

 

Madrigal , Alexis . 2010 . Market data firm spots the tracks of bizarre robot traders. Atlantic , August 4. <http://www.theatlantic.com/technology/archive/2010/08/market-data-firm-spots-the-tracksof-bizarre-robot-traders/608 > (accessedSeptember12,2010).

 

Moor , James H. 1985 . What is computer ethics? Metaphilosophy 16 ( 4 ): 266 – 275 .

 

O ’ Donoghue , Amy Joi . 2010 . E-waste is a growing issue for states. Deseret News , August 22.

< http://www.deseretnews.com/article/700059360/E-waste-is-a-growing-issue-for-states.html?pg=1 >(accessed September 12, 2010).

 

RedOrbit . 2008 . Japan hopes to employ robots by 2025, April 8. <http://www.redorbit.com/news/technology/1332274/japan_hopes_to_employ_robots_by_2025/ > (accessed September 12, 2010).

 

Rosenberg , Mitch , 2009 . The surprising benefits of robots in the DC. Supply & Demand Chain Executive 10 ( 2 ) (June/July): 39 – 40 .

 

Shachtman , Noah . 2007 . Robot cannon kills 9, wounds 14. Wired , October 18. < http://www.wired.com/dangerroom/2007/10/robot-cannon-ki / > (accessed September 12, 2010).

 

Schoenberger , Chana . 2008 . Japan ’ s shrinking workforce. Forbes , May 25. < http://www.forbes.com/2008/05/25/immigration-labor-visa-oped-cx_crs_outsourcing08_0529japan.html >(accessed September 12, 2010).

 

Sharkey , Noel . 2008 . 2084: Big Robot Is Watching You . A commissioned report. < http://staffwww.dcs.shef.ac.uk/people/N.Sharkey / > (accessed September 12, 2010).

 

Singer , Peter W. 2009a . Wired for War: The Robotics Revolution and Conflict in the 21st Century . New York : Penguin Press .

 

Singer , Peter W. 2009b . Robots at war: The new battlefield. Wilson Quarterly , Winter. < http://www.wilsonquarterly.com/article.cfm?aid=1313 > (accessed September 12, 2010).

 

United Nations . 1983 . The Convention on Certain Conventional Weapons . Entered into force on December 2. <http://www.armscontrol.org/factsheets/CCW > (accessed September 12, 2010).

 

U.S. Environmental Protection Agency . 2007 . Asbestos Ban and Phase Out , April 25. < http://www.epa.gov/asbestos/pubs/ban.html > (accessed September 12, 2010).

 

Veruggio , Gianmarco , ed. 2006 . EURON Roboethics Roadmap, EURON Roboethics Atelier . Genoa, Italy: EURON. <http://www.roboethics.org/atelier2006/docs/ROBOETHICS{72ebf544d15c7759bcc1555ed35f6160e93abf6a14e89258a81e5c457fe1400a}20ROADMAP{72ebf544d15c7759bcc1555ed35f6160e93abf6a14e89258a81e5c457fe1400a}20 Rel2.1.1.pdf > (accessed September 12, 2010).

 

Wallach , Wendell , and Colin Allen . 2008 . Moral Machines: Teaching Robots Right from Wrong . New York : Oxford University Press .

 

Warwick , Kevin . 2010 . Implications and consequences of robots with biological brains. Ethics & Information Technology [Special Issue on Robot Ethics and Human Ethics, ed. Anthony Beavers] 12 ( 1 ): 223 – 234 .

 

Wilson , Daniel H. 2005 . How to Survive a Robot Uprising: Tips on Defending Yourself Against the Coming Rebellion . New York : Bloomsbury Publishing .

 

Zucchino , David . 2010 . War zone drone crashes add up. Los Angeles Times , July 6. < http://articles.latimes.com/2010/jul/06/world/la-fg-drone-crashes-20100706 > (accessed September 12, 2010)

[۱] ‌Bill Gates

[۲] ‌Moor’s Law

[۳] Capek

[۴] Homer

[۵] Iliad

[۶] ‌Golden servants

[۷] ‌Hephaestus

[۸] Lattimore

[۹] ‌Leonardo da Vinci

[۱۰] Hill

[۱۱] Asimov

[۱۲] Dick

[۱۳] Wilson

[۱۴] ‌Metropolis

[۱۵] Star Wars

[۱۶] Blade Runner

[۱۷] Terminator

[۱۸] ‌AI

[۱۹] ‌I, Robot

[۲۰] Madrigal

[۲۱] Veruggio

[۲۲] Wallach and Allen

[۲۳] Lin, Bekey, and Abney

[۲۴] ‌Singer

[۲۵] U.S. Navy’s Phalanx CIWS

[۲۶] ‌Arkin

[۲۷]  Roomba

[۲۸] Guizzo

[۲۹] Predator

[۳۰] Reaper

[۳۱] Big Dog

[۳۲] Crusher

[۳۳] Harpy

[۳۴] BEAR

[۳۵] Global Hawk

[۳۶] Dragon Runner

[۳۷] ‌Pedophile

[۳۸] Scarlet Knight

[۳۹] NASA

[۴۰] ASIMO

[۴۱] Nao

[۴۲] iCub

[۴۳] AIBO

[۴۴] Pleo

[۴۵] ‌RoboSapien

[۴۶] PARO

[۴۷] ARES

[۴۸] RIBA

[۴۹] IWARD

[۵۰] ERNIE

[۵۱] RI-MAN

[۵۲] PaPeRo

[۵۳] CareBot

[۵۴] PALRO

[۵۵] QRIO

[۵۶] Roxxxy

[۵۷] Fulbright

[۵۸] WALL-E

[۵۹] Defense Advanced Research Projects Agency

[۶۰] Cyborg

[۶۱] ‌Schoenberger

[۶۲] RedOrbit

[۶۳] Geipel

[۶۴] Asbestos

[۶۵] DDT

[۶۶] fen-pen

[۶۷] U. S. Environmental Protection Agency

[۶۸] Gorman

[۶۹] Lear

[۷۰] Allhoff, Lin, and Moore

[۷۱] Bumiller

[۷۲] Schachtman

[۷۳] ‌Lin, Abney, and Bekey

[۷۴] Zucchino

[۷۵] Kiska

[۷۶] Singer

[۷۷] Defense Update

[۷۸] EULA: end-user license agreement

[۷۹] Warwick

[۸۰] Asimov

[۸۱] Abramson

[۸۲] Sharkey

[۸۳] Calo

[۸۴] Amazon

[۸۵] eBay

[۸۶] ‌‌Rosenberg

[۸۷] ‌Veruggio

[۸۸] Y2K

[۸۹] ‌Singer

[۹۰] Hsu

[۹۱] ‌‌Levy

[۹۲] O’Donoghue

[۹۳] ‌Gillis

[۹۴] Terminator

[۹۵] Moor

[۹۶] Copy Right

[۹۷] Intellectual Property

[۹۸] Napster: P2P music sharing network