هال ۹۰۰۰ – این ربات (با)(بی‌)اخلاق

0
این مطلب به بوک‌مارک‌ها اضافه شد
این مطلب از بوک‌مارک‌ها حذف شد

گرچه ما هنوز در تربیت «آدم» بااخلاقش هم مانده‌ایم،لازم است ترمیناتورهای رعب‌آورمان را جلویمان بنشانیم و برایشان از تعالیم ملال‌آوری که خودمان هم به آن پایبند نیستیم بگوییم؛ هرچه نباشد این گونه‌ی برتر خودمان است که از سوراخی در آسمان راهش را به روی زمین بازکرده و باید در حفظ آن نهایت کوشش ازجانب ابر و باد و مه و خورشید و فلک و هوش‌های مصنوعی صورت گیرد.

اصولاً بایستی وجه‌تسمیه‌ای در نام‌گذاری کدهای اخلاقی[1] تحت‌عنوان «کُد» وجود داشته باشد و هم –طبیعتاً- وجود دارد؛ یعنی از بخت و اقبال بد، فرمان‌های اخلاقی تماماً دلبخواه و آنطور که قلب رئوف حکم کند تولید نمی‌شوند. گرچه همین کُدها هم به‌اقتضای زمان و مکان و چه‌بسا از فرد به فرد دیگر متغیرند اما مادام‌ که بر مختصات معینی از زمان و مکان و فردیت حاکم باشند، می‌شوند وحی منزل و دیگر روضه‌هایی که قلب می‌خواند، سودی نخواهد داشت. اما درست مثل کسی که برای هفت صبح ساعت می‌گذارد و در خواب و بیداری بعد از درآمدن سروصدای آلارم خاموشش می‌کند، تابعان کدهای اخلاقی هم گاهی در نیمه‌راه تبعیت پشیمان شده، گوش می‌دهند که دلشان (بخوانید استدلال شهودی‌شان) چه می‌گوید. همین انعطاف‌پذیری و مسامحه‌ی ناشی از عجز در ثبات قدم اما به‌نحوی متناقض آدم بیولوژیک را در مقام قضاوت بالاتر از تحلیل مبتنی بر Big Data قرار داده است.

هال ۹۰۰۰ - ادیسه فضایی ۲۰۰۱

در کتاب ادیسه‌ی فضایی 2001; A Space Odyssey آرتور سی کلارک، مغز الکترونیک سفینه‌ی دیسکاوری وان که درعین حال – به قسم استنلی کوبریک – به بی‌آزاری و هم بدسگالی هر چراغ سرخ دیگری با مردمک زرد است، با یک دوراهی اخلاقی روبه‌رو می‌شود. (هال ۹۰۰۰)-HAL 9000 اینطور برنامه‌ریزی شده که سفینه را به مقصد که در جوِ سیاره‌ی زحل است برساند، بی‌آنکه ساکنین سفینه از هدف واقعی سفرشان مطلع شوند. اما وقتی اوضاع گره می‌خورد و هَل مجبور می‌شود مطابق با فرمان (Command)ی که بهش داده شده از امر و نهی فضانوردهای ازهمه‌جا بی‌خبر دیسکاوری سرپیچی کند، آدم‌ها به جان روبات می‌افتند و او به جان آدم‌های سفینه و تا حدی که برای چراغ‌های سرخ با مردمک‌های زرد که عملاً اختیار تمام سفینه دستشان است امکان دارد، شروع می‌کند به حذف فیزیکی معاندان مأموریتش. البته طبیعتاً پیروز ماجرا همان آدمیزادی است که ما طرفش را می‌گیریم و همانی که بعدتر [اسپویلر] وقتی به فرزند ستارگان تبدیل می‌شود تشویقش می‌کنیم که: آفرین، خوب کردی روبات –نه‌چندان- زبان‌بسته را از موجودیت ساقط کردی تا تو را در این هیبت نبیند و دلش (بخوانید مدارهایش) خوش نباشد که وظیفه‌‌ی سفر را به‌خوبی به سرانجام رسانده.

اما با استناد به آنچه در مورد کُدها گفتیم، سرپیچی‌کردن از وظیفه، کاری به‌غایت شنیع‌تر و زشت‌تر از خاموش‌کردن محفظه‌های کرایو یا بازکردن در سفینه برای بیرون انداختن اخلال‌گران خواهد بود. آن هم بخصوص زمانی که کسی بهمان گوشزد نکرده باشد که باید آدم‌ها را زنده نگه داریم. البته بیست سال قبل آسیموف یک‌چیزهایی گفته بود، اما تجربه ثابت کرده که هیچ‌وقت شرایط قابل‌استناد به دستورالعمل‌های مراجع تئوریک نیست؛ یعنی در صورت برقراری هم، قانون دوم آسیموف مطرح‌کننده‌ی پایبندی به دستورات است به‌شرطی که با قانون اول یعنی صدمه‌ نزدن به انسان‌ها منافات نداشته باشد. اما وقتی بومن و پول داشتند برای از بین بردن هال ۹۰۰۰ نقشه می‌کشیدند، قانون سوم (حفظ خود) در برابر قانون اول به کمک مسئولیت‌پذیری برای اجرای عملیات آمد و حالا دوتایی وزنه‌ی سنگین‌تری به نظر می‌رسیدند.

باری اگر هال ۹۰۰۰ با فضانوردها همدست می‌شد و همگی با هم می‌گفتند گور بابای مأموریت، ربات بهتری بود؟ یا برای اتکاکردن به غرایز و هرچه دل آدم می‌گوید، باید در وهله‌ی اول «دلِ آدم»ی وجود داشته باشد که بخواهد چیزی بگوید؟ نمونه‌های ربات‌ها و هوش‌مصنوعی‌هایی که کنترلشان از دست آدم‌ها خارج می‌شود در مدیای ترسان و لرزان رتروفیوچریست‌ها کم نیست؛ اما تقریباً هیچ‌کدامشان از روی بدجنسی یا خباثت و سایر رذایل اخلاقی دست به آدم‌کشی و بدعمل‌کردن نمی‌زنند. چه‌بسا بدوی‌ترین غریزه‌ی انسانی که برای آن‌ها می‌شود قانون سوم رباتیک، رانه‌ی پلیدترین سوءعمل‌های آنها باشد.

اینجا البته باید رانه‌ی بقا یک‌بار دیگر مرور شود. برای انسان عاطفی (سِنتی‌منتال) غریزه‌ی بقا یا قانون سوم آسیموف تبصره‌ای شاعرانه‌ دارد که وقتی از همه‌جای دیگر رانده می‌شود و درحقیقت در تناقضات منفعت و ضرر از خودش مایه بگذارد و یک طرف صورت‌مسئله را با قربانی‌کردن خودش پاک کند. البته این عمل درعین اینکه به‌ظاهر برخلاف مقتضیات تکامل به‌نظر می‌رسد، کیفیتی است که منحصر به آدم‌های شریف داستان‌های چارلز دیکنز نبوده و جلبک‌های تک‌سلولی هم از این میزان شرافت برخوردارند. باری، وجه تمایزی که کاراکترهای دیکنز با جلبک دارند این است که جلبک، درحین اینکه با مرگ برنامه‌ریزی شده (که هم می‌تواند به‌معنای صفت و هم اسم فرآیند آپوپتوز به کار رود) خودش را قربانی می‌کند، خیالش راحت است که مواد غذایی آزادشده از ‌سلولش، تنها برای جلبک‌های خویشاوندش قابل‌استفاده خواهد بود. مزیت تکاملی خودکشی برای دیگران –به‌معنای تحت‌اللفظی آن- همینجا و در قانون همیلتون روشن می‌شود. ممکن است شما نتوانید نسل خودتان را نجات دهید، اما اولویت دوم در لیست، خویشاوندان درجه‌اول با بیشترین تشابه ژنی با شما هستند؛ به همین دلیل است که ما معمولاً برای غریبه‌ها –و کسانی که برایمان تب نمی‌کنند- نمی‌میریم آقای دیکنز!

اخلاق شهادت - ربات‌ها

حالا بعد از ضایع‌کردن احساس غرور و افتخار فداکاری با توجیه نکبت‌باری چون ژنتیک و دی‌ان‌ای و سلول‌های پلید گامت، باید اعتراف کرد که توجیهی فلسفی اتفاقاً برای فداکاری و شهادت در راه کشور و دین و عقیده –و شاید غریبه‌ها- هم وجود دارد. در یک نگاه کلی‌تر، به دلایلی که برای نگارنده‌ی جامعه‌گریز پوشیده است، هم‌وطنان و افرادی که عقیده‌شان با شما مشترک است را می‌توان اعضای خانواده‌ای بزرگتر قلمداد کرد و با تلقین روانشناسانه‌ی «خواهر و برادر»بودن با همه‌شان، این هزینه‌ی گزاف را به‌ نفع آنان پرداخت. هرچند به هر حال آنقدری هم از عمر گونه‌ی ما نگذشته که تفاوت چشم‌گیر ژنی دست و پایمان را در این اغماض ببندد. البته اینجا بحث هزینه/سودمندی[2] هم مطرح است و هرچه جمعیتی که از فداکاری ما منتفع می‌شوند بزرگ‌تر باشد، درصد رضا دادن به غریبگی‌شان بالاتر است.

با این حال تمام این توجیهات بیولوژیک و روانشناسانه در مورد هوش مصنوعی اعتبار خود را از دست می‌دهد. طبیعتاً روبات‌ها خواهر و برادر و پدر و مادر و دایی و عمه و هم‌وطن و هم‌زبان ندارند و بقا تنها برای قطعات مکانیکی خودشان – آن هم در برهه‌ای که دیگر به شکل آهن‌پاره نیست- قابل تعریف است. «آگاهی» که هال ۹۰۰۰ آنقدر از ازدست‌دادنش می‌ترسد و بابتش به بومن التماس می‌کند، تنها پیوند او با موجودیت است. این همان پیوند مشابهی است که آدم هم در مواجهه با مرگ وقتی حواسش نیست تا خودش را با «عوضش پسرخاله‌ی مامانت زنده می‌مونه» دلداری بدهد محکم به آن چنگ زده و حاضر نیست در ازای هیچ توجیه تکاملی و دراماتیکی آن را از دست بدهد.

اما اگر آدمی به‌خاطر زنده‌ماندن خودش دست به قتل بزند هم، بیشتر از اینکه شب‌ها از عذاب‌وجدان صورت مقتول به مقدار متنابهی توی تختخواب غلت بخورد از او انتظار نداریم. با وجود اینکه باب کناره‌گیری از زندگی به‌نفع دیگران همیشه باز است و اتفاقاً -به‌اشتباه- مورد تشویق هم قرار می‌گیرد، اگر کسی حرفش را پیش نکشد، دِینی بر گردن هر بخت‌برگشته‌ای که نمی‌داند چه خاکی به سرش بریزد، نیست. باری، قانون جنگل از این سو هم اعمال می‌شود و همان اندازه که پلنگ‌ را برای کشتن گورخر ملامت نمی‌کنند –چون در غیراین‌صورت نسل پلنگ‌ها را منقرض کرده است؛ حتی اگر خیال کند که دارد بقای دیگر پلنگان را موجب می‌شود-، کسی هم به قاتل شریفی که چاره‌ی دیگری نداشته نمی‌گوید: چرا چاره داشتی! خوبشم داشتی! بگو ببینم چرا خودت رو نکشتی؟

اما ماشین‌ها و بدن‌های فلزی که به‌طور پیش‌فرض در سلسله‌مراتب حیات باید پایین‌تر از ما قرار بگیرند، در چنین موقعیت‌های مرگ و زندگی، سر از سمت شر نبرد برای بقا درمی‌آورند. البته روبوفوبیا بیشتر از آنکه بتواند اسم «فوبیا» بگیرد قابل‌درک است. هوشی فراتر از هوش ما، قدرتی غالب، عاری از موانع تعلق و احساسات و البته بسیار سفت‌تر از بدن‌های زهواردررفته‌ی انسانی؛ تنها یکی‌شان برای مرعوب کردن قله‌ی زنجیره‌ی غذایی کافی است. به‌علاوه اعطای امتیاز انسانی برخورداری از حواس محیطی زمان حاضر –و نه خاطره‌ی آن حواس- تنها با شباهت هرچه بیشتر هوش‌مصنوعی با آدمیزاد تا به‌حدی که از پوست و گیرنده‌های حسی واقعی برخوردار شوند، معناپذیر است و شاید تازه آن موقع که نشود آدم را از غیرآدم (منظور روبات است) تمیز داد، قوانین تازه‌ای را طلب بکند.

بیشتر بخوانید: پرونده‌ی هوش مصنوعی – امیدها و ترس‌ها

با وجود تمام آنچه گفته شد، قضاوت برمبنای شواهد و برنامه‌ریزی و در پیشرفته‌ترین حالت برمبنای بیگ‌دیتای به دست آمده از تجربیات انسانی، همچنان از یک عنصر زیستی به‌غایت حیاتی محروم است. بالفرض که هوش مصنوعی ما قادر به پایبندی به هر سه قانون آسیموف بود، آیا تمام اخلاقیات را می‌شود در سه سطر خلاصه کرد و یا آنقدر موقعیت‌های منحصر به فرد و متفاوت از هر موقعیت دیگری پیش نخواهد آمد که کار با یک «قرص» تجربه ختم به خیر نشود؟ کیفیت انسانی، یک آمادگی مشابه همان آمادگی برای فداکاری است؛ نه فقط منحصر به آن، اما نه چندان هم نامربوط؛ امکان تغییر اولویت‌ها و اساساً اولویت‌گذاری در عمل که مبنای برنامه‌ی زیستی و برای هر آدمی ویژه‌ی خود اوست. این تصور که هزار هال ۹۰۰۰ دیگر می‌توانند همگی یک عقیده و یک هدف واحد داشته باشند و هرگز تزلزلی در اگر (If) و آن‌موقع (then)های الگوریتمشان صورت نگیرد، در ذات به‌ ترسناکی هر کیفیت ماشینی دیگری است که از آن برخوردارند. حال آن که اگر تنها بین روبات‌ها اختلاف نظر پیش می‌آمد و یکی می‌گفت بومن را تکه‌تکه کنیم (قانون دوم و سوم)، یکی دیگر می‌گفت نه گناه دارد (قانون اول)، آسودگی نشأت‌گرفته از این بی‌نظمی چه‌بسا می‌توانست روبات‌های متخاصم را هم در مقیاس بزرگ جمعی ببخشاید. ‌

یک راه مواجهه با این محدودیت، کنارگذاشتن آنها و اجتناب از پیشرفت‌های تکنولوژی و درپی‌گرفتن مرام غارنشینی است. به هرحال باید بپذیریم که درصد خطای ماشین‌ها در اتخاذ تصمیم در موقعیت‌های خطیر مرگ و زندگی اگر تئوری توطئه‌ی غرب –و نه شرق که با آغوش باز پذیرای هر Drone و هوش مصنوعی است که در خانه‌شان را بزند- مبنی‌بر تبانی کامپیوترها علیه انسان‌ها رد بشود، بسیار پایین‌تر از خطای عقل و هوشمندی‌ایست که آدمیزاد آنقدر به آن می‌نازد. روبات‌های سرباز وحشی‌گری و غارت و تجاوز بلد نیستند و بنا به تخمین سباستین ثرون[3] اتومبیل‌های بدون راننده سالانه جان یک میلیون نفر را نجات می‌دهند.

بنابراین بهتر است به‌جای پاک‌کردن صورت مسئله، دنبال تعمیم قانون‌های آسیموف باشیم تا خیالمان راحت باشد که دست‌کم محکمه‌ی مشترکی که انسان را برای اعمالش بازخواست می‌کند، دنبال ادله و دفاعیات یکسانی در نیات (بخوانید کدها)ی روبات‌ها خواهد بود. نخست، باید مشخص شود که درصورت بد-عمل‌-کردن روبات، تقصیر را باید گردن چه کسی بیندازیم؟ طراح، برنامه‌نویس و سازنده و یا اپراتور همه در مظن اتهام قرار دارند و راه محکوم‌کردن یکی از آنها گرفتن گزارش از دلیل و منطق پشت هر عمل و تصمیمی است. خوبی‌اش هم این است که ممکن است انسان خودش را به کوچه‌ی علی‌چپ بزند، اما هوش‌مصنوعی قاتل اگر بخواهد شما را به قتل برساند، صادقانه خواسته‌ی قلبی‌اش را اعلام می‌کند. البته اینجا باید تمایزی بین قوانین ازپیش‌تعیین‌شده و استفاده از شبکه‌های عصبی مصنوعی یا Big Data قائل شد. ممکن است ربات شما با منطقی اشتباه (با این حال هم‌چنان تحت عنوان منطق) بتواند اعمالش را توجیه کند؛ در آن‌صورت چندان هم نمی‌شود به او خرده گرفت؛ دست‌کم نه بیشتر از آدمی که مشاعرش را از دست داده.

ربات‌ها در دوراهی اخلاق


در مرحله‌ی بعد بایستی از ثبات مفهوم «درست» و «غلط» اطمینان حاصل کنیم و چه شاهدی بهتر از آمار و ارقام اکثریت –طبیعتاً- حق‌به‌جانب و اقلیت جنایتکار؟ به عبارت دیگر، اگر انجام کاری مورد پذیرش عموم باشد، روباتمان هم اجازه‌ی ناخنک‌زدن به آن را پیدا می‌کند و برعکس. باری، فلسفه‌ی عملی انسانی در برابر دوراهی‌های اخلاقی تعیین‌کننده‌ی جریان آب خواهد بود. درنهایت، برخلاف تصور «آشپز که دو تا شد، آش یا شور می‌شود یا بی‌نمک»، تعامل پیوسته‌ای بین مهندسین و متخصصین حوزه‌ی اخلاق، قانون‌گذاران و وکلا لازم است تا هرکدام توصیه‌ی مربوط به حوزه‌ی خودشان را به مجموعه‌ی سوگندنامه‌ی صفرو یکی روباتمان اضافه کنند.

به هر ترتیب، گرچه ما هنوز در تربیت «آدم» بااخلاقش هم مانده‌ایم، اما برای اینکه از پیش‌بینی‌های یک دوجین کتاب و فیلم رتروفیوچریست عقب نمانیم و بیشتر به آن دلیل که از هر بحران نابودی کره‌ی زمین به دست روبات‌ها و سایبرمن‌ها به‌سلامت به بحران بعدی در رسانه‌ی دیگری گذر کنیم، لازم است ترمیناتورهای رعب‌آورمان را جلویمان بنشانیم و برایشان از تعالیم ملال‌آوری که خودمان هم به آن پایبند نیستیم بگوییم؛ هرچه نباشد این گونه‌ی برتر خودمان است که از سوراخی در آسمان راهش را به روی زمین بازکرده و باید در حفظ آن نهایت کوشش ازجانب ابر و باد و مه و خورشید و فلک و هوش‌های مصنوعی صورت گیرد.


پانویس‌ها

[1] Moral Codes

[2] Cost-Benefit

[3] Sebastian Thrune

سفید کاغذی
جدیدترین شماره کاغذی سفید را بخرید
شماره ۳: پری‌زدگی
برچسب‌ها:
مشاهده نظرات

نظر خود را بنویسید:

نشانی ایمیل شما منتشر نخواهد شد.

متن نظر:

پیشنهاد کتاب

  • مجله سفید ۳: پری‌زدگی

    نویسنده: تحریریه‌ی سفید
  • مجله سفید ۱: هیولاشهر

    نویسنده: تحریریه‌ی سفید
  • شومنامه‌ی تبر نقره‌ای

    نویسنده: بهزاد قدیمی
  • مجله سفید ۲: ارتش اشباح

    نویسنده: تحریریه‌ی سفید