هاوکینگ و هوش مصنوعی

مهدی خلیلی / دانشجوی دکتری فلسفه علم / مدیر کارگروه اخلاق و فناوری / [email protected]

هاوکینگ و هوش مصنوعی

 استیون هاوکینگ فیزیکدان انگلیسی چند روزی است که دیگر در قید حیات نیست. این روزها درباره افکار علمی و فلسفی این دانشمند بحث و گفتگوهایی شکل گرفته است ولی وجهی از نگرانی ها و دغدغه های او مورد توجه جدی مطبوعات ایرانی قرار نگرفته است

در این یادداشت کوتاه بر آنم که به این وجه، یعنی نگرانی های هاوکینگ نسبت به رشد فناوری های هوش مصنوعی و آینده بشریت، بپردازم.
 مقدمتا باید یادآور شد که هاوکینگ مشاورِ  موسسه آینده زندگی بوده است. این موسسه که در بوستن واقع شده است، در جهت کاهشِ  مخاطره های وجودی که بشریت را تهدید می کنند، خصوصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته، کارِ پژوهشی و ترویجی انجام می دهد. این موسسه توسط کسانی چون مکس تگمارک (کیهانشناسی دانشگاه ام آی تی) و جان تالین (یکی از بنیانگذاران اسکایپ) در مارس ۲۰۱۴ پایه گذاری شده است، و دارای چهارده مشاور تراز اولی چون استیون هاوکینگ و ایلون ماسک (کارآفرین و طراحِ اسپیس ایکس و تسلا)، استوآرت راسل (دانشمند علوم کامپیوتر)، جورج چرچ (زیست شناس)، فرانک ویلزک (فیزکدان نظری)، و مورگان فریمن (بازیگر و فیلم ساز) است.
از اقدامات این موسسه می توان به کنفرانس «آینده ی هوش مصنوعی: فرصت ها و چالش ها» اشاره کرد که از دوم تا پنجم ژانویه ی سال ۲۰۱۵ برگزار شد و نخبگان هوش مصنوعی جهان و فعالان اقتصادی، حقوقی، و اخلاقی را دور هم جمع کرد تا هدف های منفعت بخش هوش مصنوعی را تعیین کنند. در این کنفرانس متنی زیرعنوان «نامه سرگشوده درباره ایمنی هوش مصنوعی» مطرح شد و به امضای کسانی چون هاوکینگ و ماسک و کارشناسانی از هوش مصنوعی رسید. از دیگر اقدامات این موسسه می توان به فاند ۱۰ میلیون دلاری آن (که توسط ماسک پشتیبانی می شد) اشاره کرد که از پژوهش های حوزه هوش مصنوعی که "امن تر" بوده و برای "جامعه" مفید فایده باشند حمایت می کرد.
 از اقدامات هاوکینگ در ارتباط با نگرانی او نسبت به آینده فناوری هوش مصنوعی می توان به مصاحبه ها و یادداشت ها او در رسانه ها نام برد که در آنها او به نگرانی خود در قبال پیشرفت هوش مصنوعی می پردازد. به عقیده ی هاوکینگ از آن جا که سرعت تکاملی رشد انسان بسیار کند، و از سوی دیگر سرعت پیشرفت تکنولوژی هوش مصنوعی می تواند بسیار سریع باشد، این نگرانی وجود دارد که عامل های هوشمند بر انسان مستولی شوند. در یادداشتی که به نام هاوکینگ، تگمارک، راسل، و ویلزک در «هافینگتن پست» نگاشته شده اند با اشاره به فیلم ترنسندنس (۲۰۱۴) بیان می شود که هیچ حدی برای پیشرفت هوش مصنوعی وجود ندارد و این می تواند به مساله ای بینجامد که ورنر وینگ منحصربفردی (Singularity)، و دکتر ویل کستر (شخصیت جانی دپ در فیلم) فراروی (Transcendence) می نامد.
هاوکینگ معتقد است اگرچه محصولات اولیه هوش مصنوعی کاملا مفید بوده اند، آینده ی هوش مصنوعی مخاطره آمیز می نماید، و برای دوری از این مخاطرات باید آموخت که چگونه از آن ها پرهیز کرد تا بجای اینکه هوش مصنوعی در خدمت ساختِ سلاح های هوشمندِ نابودگر باشد در خدمت عموم جامعه قرار گیرد. به عقیده هاوکینگ تاثیر کوتاه مدت هوش مصنوعی به این که چه کسی آن را کنترل می کند وابسته است، و تاثیر طولانی مدت آن به این وابسته است که آیا اصلا می توان آن را کنترل کرد یا نه.

 

 

 

چند منبع در این رابطه:

https://en.wikipedia.org/wiki/Future_of_Life_Institute

https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence

https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html

https://www.youtube.com/watch?v=fFLVyWBDTfo

 

 

 پی نوشت: بجز #موسسه_آینده_زندگی (Future of Life Institute) که در این متن به آن اشاره شد موسسه های معتبر دیگری در جهان به مساله مخاطرات وجودی هوش مصنوعی و آینده ی بشریت می پردازند که در این رابطه می توان به موسساتی چون #مرکز_کمبریج_برای_مطالعه_مخاطره_وجودی (Cambridge Centre for the Study of Existential Risk)، #موسسه_آینده_بشریت (Future of Humanity Institute)، و #موسسه_پژوهش_هوش_ماشین (Machine Intelligence Research Institute) نیز اشاره کرد.