ویوا لا رزیستانس: دستوری بود که به ما دادند!
چه تفاوتی میان هوش مصنوعی حاضر در یک توستر بسیار پیشرفته و یک اندروید حاضر در فالاوت 4 وجود دارد که یکی را لایق آزادی میکند ولی برای دیگری ارزشی قائل نیست؟
در سال 2015 میلادی استودیوی گیم بتسدا[1] ویدئوگیمی تحت عنوان «فالاوت 4[2]» را منتشر کرد که قرار بود چهارمین عنوان رسمی در دنیای پساآخرالزمانی فالاوت باشد. با وجود مشکلات فراوانی که گریبانگیر داستان گیم بود که باعث میشد نتوان از آن به درستی دفاع کرد، یک بخش داستانی میتوانست برای طرفداران این فرنچایز بسیار هیجانانگیز باشد، و آن بازگشت گروه مدافع حقوق اندرویدها، ریلرود[3]، بود. گروهی که در زیرزمینهای بوستون فعالیت میکرد و هدفش پیدا کردن اندرویدهای ساخته شده توسط موسسه[4]، آزاد کردن آنها و حملشان به یک منطقهی امن بود. جدا از ارجاع مشخص به اقدامات هریت تابمن[5] (که سازمان او نیز راهآهن زیرزمینی[6] نام داشت)، این گروه سوالات نسبتاً جذابی را هم در دنیای فالاوت 4 و هم خارج از آن مطرح میکند. یک اندروید، یک روبات انساننما که گویا استقلال فکری و عملی دارد، دارای چه حقوقی است؟ در یک اجتماع انسانی بنا شده بر اساس اخلاقیات و حقوق مدنی تاثیرگرفته از این اخلاقیات این اندروید چه جایگاهی دارد؟ و چه چیزی باعث میشود که سازمانهایی مانند ریلرود شکل بگیرد؟
جانی 5[7] زنده است!
اولین بحث مهمی که مطرح میشود این است که چه زمانی یک اندروید به درجهای میرسد که به آن خصوصیات انسانی نسبت میدهند. برای سادهتر شدن بحث، بهتر است عنصر «انساننما» حذف شود و یک سوال همهگیرتر مطرح شود. چه زمانی یک هوش مصنوعی (در هر بدن یا شکلی) به درجهای میرسد که به آن خصوصیات انسانی نسبت میدهند؟ چه تفاوتی میان هوش مصنوعی حاضر در یک توستر بسیار پیشرفته و یک اندروید حاضر در فالاوت 4 وجود دارد که یکی را لایق آزادی میکند ولی برای دیگری ارزشی قائل نیست؟ جواب را شاید بتوان در استقلال فکری، یا به بیان درستتر توهم استقلال فکری، جست و جو کرد. یک توستر از یک سری فرمانهای مشخص پیروی میکند. زمانی که به یک توستر فرمان تست کردن یک تکه نان داده میشود، اگر توستر کارش را درست انجام بدهد، نتیجه قابل پیشبینی است. اگر هم توستر تکه نان را سوخته یا بدون تغییر تحویل بدهد، دچار یک مشکل فنی شده و باید تعمیر شود. این در حالیست که یک اندروید یا یک هوش مصنوعی «مستقل»، باید در دو موقعیت یکسان بتواند بر اساس شرایط دو تصمیم مختلف بگیرد و دو عمل مختلف را انجام دهد تا این ایده را منتقل کند که دارای استقلال عمل و استقلال تفکر است. این هوش مصنوعی برخلاف توستر تنها یک داده را مدنظر قرار نمیدهد و تنها یک نتیجهی مشخص را نمیتوان از آن انتظار داشت.
بیشتر بخوانید: پروندهی هوش مصنوعی – امیدها و ترسها
اما در نهایت یک هوش مصنوعی بسیار پیشرفته نیز یک روند منطقی را دنبال میکند. با اینحال متغیرهای بیشتری را نسبت به یک توستر مدنظر قرار میدهد و از الگوریتمهای پیچیدهتری استفاده میکند که باعث میشود در نگاه اول یک موجود «زنده» با استقلال فکری بنظر برسد، اما در نهایت این هوش مصنوعی بردهی این الگوریتمهای ساخته شده توسط سازندگانش است. البته در اینجا میتوان یک بحث دیگر را مطرح کرد. آیا انسانیت نیز وابسته به این الگوریتمها نیست؟ آیا تصمیماتی که یک انسان میگیرد نیز بر اساس الگوریتمهای اکتسابی در طول عمرش نیست؟ مانند یک هوش مصنوعی پیشرفته، مغز انسان نیز به سمت یک هدف مشخص به نام بقا قدم برمیدارد، و مانند یک هوش مصنوعی پیشرفته، انسان نیز قبل از تصمیم گرفتن با الگوریتمهایی به نام اروس و تاناتوس[8] موقعیت را میسنجد و بر اساس آنها عمل میکند. البته شاید نکتهای که باعث میشود ذهن انسان را بتوان یک درجه بالاتر دانست این نکته باشد که انسان میتواند این الگوریتمها را بشکند. چیزی که شاید باعث شود استقلال فکری در انسان چیزی فراتر از یک توهم تلقی شود این نکته است که انسان میتواند این الگوریتمها را تغییر دهد و مغزش را طوری تعلیم دهد که این الگوریتمها را بشکند و آنها را با چیز دیگری جایگزین کند. بنابراین تعداد متغیرهایی که مغز انسان در لحظه مدنظر قرار میدهد بسیار بیشتر از متغیرهایی است که یک هوش مصنوعی پیشرفته قبل از تصمیمگیری در الگوریتم جایگزین میکند.
بنابراین تفاوت اصلی میان یک هوش مصنوعی بسیار پیشرفته و یک انسان را شاید بتوان در پیچیدگیهای مغز انسان خلاصه کرد، درست است که زادگاه تفکر و تصمیمگیری در هر دو مشترک است اما مغز انسان متغیرهای به ظاهر بیشمار را مدنظر قرار میدهد و نتیجههای پیچیدهتری میگیرد که درک روند منطقی را گاهاً مشکل یا غیرممکن میکند و مغز انسان را مملو از پیچیدگی میکند، پیچیدگیهایی که شکلهایی مانند «احساسات» و «خلاقیت» میگیرد. در بسیاری از داستانهایی که با هوش مصنوعی و انسانیت سر و کار دارند، این نکته بسیار حائز اهمیت است. مهمترین بخش وجودی هال 9000[9] در فیلم «2001: ادیسه فضایی[10]» این نکته است که عاری از احساسات است و تنها تصمیماتی میگیرد که در راستای ماموریت داده شده به او است. اما اندرویدهای فالاوت 4 بنظر میرسد که قابلیت احساس کردن را داشته باشند، یا بهتر است گفته شود که اندرویدهای فالاوت 4 خاطراتی درباره احساس کردن دارند. در اینجا باید به یکی از قدرتمندترین داستانها درباره اندرویدهای احساساتی و هوش مصنوعی با قابلیت عاشق شدن اشاره شود: «بلیدرانر[11]». چه راه بهتری برای ایجاد توهم احساس در یک هوش مصنوعی به جز خلق خاطراتی از احساس کردن و گذاشتن آنها درون هوش مصنوعی وجود دارد؟ به روشی که خود انسانیت احساسات را به خاطر دارد؟
در یک بحث کاملاً جدا میتوان این گفت و گو را داشت که احساسات و آنچه که انسان به نام «احساس» میشناسد در واقع خاطراتی است که او از احساس کردن دارد. یک احساس هیچگاه به درجهی تاثیرگذاری نمیرسد، مگر لحظهای که تبدیل به یک خاطره شود. اینکه چقدر این ایده درست یا غلط است، یک بحث کاملاً جدا است که میتواند در روند مقاله مشکلاتی ایجاد کند، بنابراین برای حفظ روند تنها به این نکته بسنده میشود که بخشهای درست این ایده از بخشهای غلط آن بیشتر هستند و در نتیجه برای خلق احساس لازم است خاطرهی آن احساس مدنظر قرار گرفته شود. بنابراین اگر گفته شود که احساسات ناشی شده از خاطرات انسان هستند، پس زمانی که یک هوش مصنوعی بتواند به خاطر بیاورد میتواند احساس نیز داشته باشد. اگر یک هوش مصنوعی بتواند در خاطراتش عشق به یک انسان را داشته باشد، چه تفاوتی با یک انسانی دارد که خاطرهی عاشق شدن را در ذهنش نگه میدارد؟ پس یک هوش مصنوعی بسیار پیشرفته نیز میتواند با به خاطر آوردن مانند یک انسان به درجات احساسی برسد و خود را بروز بدهد، حتی اگر دوباره این احساسات و بروز این احساسات نیز ساختهی دست دانشمندانی باشد که او را خلق کردهاند. شاید یک هوش مصنوعی نتواند احساسات خودش را به شکل یک اثر هنری بروز بدهد، اما برای انسانهایی که به طور روزمره با این هوش مصنوعی ارتباط برقرار میکنند توهم ایجاد یک حس به اندازهای میتواند قوی باشد که حس آشناییزدایی موجود در انسان را تا حد زیادی خفه کند.
فالاوت 4 بحث را تا حد زیادی ساده کرده و اندرویدهای حاضر در دنیای فرنچایز را به سه دسته تقسیم کرده است: نسل اول که در واقع همان توسترهایی هستند که حالت انسانی گرفتهاند و یک هوش مصنوعی ساده را دارند که هدفشان را مشخص میکند؛ نسل دوم که یک هوش مصنوعی قویتر دارد و در واقع تنها هدفش ایجاد یک واسط بین نسل اول و سوم است، هرچند بسیاری از آنها دارای خاطرات افراد پیش از نابودی جهان هستند و بنابراین میتوانند تا حد محدودی احساسات داشته باشند؛ و نسل سوم که ساخته شده از روی یک انسان واقعی هستند. نسل سوم اندرویدهای فالاوت 4 در واقع یک کپی بسیار عالی از روی انسانهای واقعی حاضر در این دنیا هستند. هوش مصنوعی آنها بسیار پیشرفتهتر از دو نسل قبلی است و میتواند تصمیمهای بسیار متفاوت از یکدیگر بگیرد، و حتی به حدی از قدرت رسیده است که برای جلوگیری از فرار آنها موسسه مجبور به نصب فایروالهای مشخصی روی برخی از الگوریتمهای آنها شده است که آنها را مطیع نگه میدارد[12]؛ و در کنار الگوریتمهای پیشرفته برای آنها خاطرات یک انسان واقعی ربوده شده را نیز تزریق میکنند که به اندرویدهای نسل سوم امکان احساس کردن را میدهد. ریلرود در فالاوت 4 به دنبال آزاد کردن نسل سوم است. از نظر این گروه نسل سوم هیچ تفاوتی با یک انسان عادی ندارد و باید آزادانه برای خودش تصمیم بگیرد و موسسه با نصب این فایروالها در واقع آنها را به بردگی گرفته است. در اینجا میتوان نظراتی در راستای موافقت با ریلرود مطرح کرد و نظراتی برای مخالفت با آن. اما برای موافقت با ریلرود، خود گیم یک شخصیت را به داستان اضافه کرده است: نیک ولنتاین[13].
آنان که آزادی را از دیگران دریغ میکنند خودشان لیاقتش را ندارند
نیک ولنتاین یکی از شخصیتهایی است که اگر قرار باشد بازیکن داستان اصلی گیم را دنبال کند بدونشک با او دیدار خواهد کرد. او یک اندروید فرار کرده از موسسه است که در شهر دیاموندسیتی[14] بعنوان یک کارآگاه شخصی مشغول به کار است، و بنظر میرسد که حلقهی ارتباطی بین اندرویدهای نسل دوم و نسل سوم باشد، زیرا با وجود آنکه پوستش پلاستیکی است و میتوان او را بعنوان یک اندروید تشخیص داد، اما هوش مصنوعی حاضر در او بسیار پیشرفتهتر از اندرویدهای نسل دوم است و در ذهن او خاطرات شخصی به نام نیک ولنتاین که یک کارآگاه خصوصی پیش از نابودی جهان بوده بارگذاری شده است. یکی از ماموریتهای وابسته به او در گیم یافتن شخصی است که نامزد نیک ولنتاین اصلی را پیش از نابودی جهان کشته است، و نیک اقرار میکند که تمامی احساساتی که نیک ولنتاین اصلی تجربه کرده است را کاملاً به یاد دارد و با وجود آنکه میداند یک اندروید است اما نمیتواند این احساسات را سرکوب کند. نیک ولنتاین در گیم میتواند یک همراه برای شخصیت اصلی باشد و بازیکن میتواند ماموریتهای گیم را با کمک او انجام دهد، و بیشترین تاثیری که نیک ولنتاین بر روی داستان میگذارد ایجاد یک پرونده برای اثبات نظرات ریلرود است.
نیک ولنتاین یک اندروید است که با یک هدف مشخص خلق شده بود، این هدف مشخص برای شخصیت اصلی و حتی برای خود نیک ولنتاین نیز مشخص نیست، اما در طول دوران کارش در موسسه در یک لحظه نیک ولنتاین متوجه فایروالهایی که در ذهنش قرار دادهاند میشود و استقلال عمل خودش را درک میکند. در این لحظه مانند بسیاری دیگر از داستانهایی که درباره اندرویدها و هوشهای مصنوعی بسیار پیشرفته روایت میشوند، نیک ولنتاین سدهایی که سازندگانش در الگوریتمهای مغزش قرار داده بودند را میشکند و از موسسه فرار میکند. نیک ولنتاین آزاد به دیاموند سیتی میآید و بخاطر خاطراتی که در او کاشته شده بود بعنوان یک کارآگاه شخصی مشغول به کار میشود؛ و در این راه نه تنها از تمام پتانسیلی که هوش مصنوعیاش داشت استفاده میکند بلکه به ساکنان دیاموند سیتی و انسانهای دیگر بیشتر از زمانی که فقط در حال انجام دستورهای موسسه بود کمک میکند. همچنین مانند دیگر همراههای شخصیت اصلی در گیم، نیک ولنتاین میتواند یک دارایی خیلی ارزشمند باشد. هم تیرانداز بسیار خوبی است و هم بعنوان یک همسفر میتواند به بهترین نحو با شخصیت اصلی گفت و گو کند.
نیک ولنتاین در واقع بهترین حالتی است که ریلرود برای تمامی اندرویدهای ساخته شده توسط موسسه در نظر دارد. این نکته همیشه قابل درک است که موسسه (و به همین شکل اکثر سازمانهایی که هوش مصنوعی را در داستانها و دنیاهای دیگر شکل میدهند) شاید نتواند پتانسیل و عمق هوش مصنوعی که قابلیت یادگیری و ارتقا خودش را دارد را مدنظر قرار دهد و به آن تنها ماموریتهای سادهای بدهد که از پایینترین حد هوش آنها استفاده میکند؛ و زمانی که این هوش مصنوعی به قابلیت احساس کردن برسد بدونشک یکی از اولین احساساتی که خواهد داشت احساس کامل بودن است که این ماموریتهای ساده به او این احساس را نخواهند داد. بنابراین زمانی که این هوش مصنوعی از زیر یوق موسسه خارج شود بهتر میتواند برای خودش تصمیم بگیرد. حتی اگر احساسات، انگیزهها و شخصیت او بر اساس یک انسان دیگر باشد، این هوش مصنوعی به قدری قابلیت دارد که از این انگیزهها و احساسات استفاده کند و حتی در این راه بتواند به اطرافیانش بیشتر کمک کند. اما با وجود اینکه ریلرود این هدف را در ذهن دارد، انگیزهی آنها برای آزاد کردن و فراری دادن اندرویدها از زیر دست موسسه این نکته نیست.
از نظر ریلرود، اندرویدها مانند هر انسانی زمانی که به درجهی استقلال عمل برسد باید آزاد باشد و این یک حق مساوی میان انسانها و اندرویدها است؛ همانگونه که هر انسانی از زمان تولد این حق را دارد که آزاد باشد، هر اندرویدی از نسل سوم این حق را دارد که مانند انسان آزاد باشد. این دیدگاه بیشتر از هرچیزی بر روی این ایده تمرکز دارد که «هر انسان آزاد آفریده شده است» که یک اصل اخلاقی ناشی از مذهب است. در مذهب انسانها فرزندان خداوند و دارای روح او خوانده میشوند، بنابراین این نکته که یک انسان بتواند یک انسان دیگر را تحت سلطه خود قرار دهد یک عمل اشتباه خوانده میشود. اما این ایده خیلی زود جای خودش را در اخلاقیات انسانی نیز پیدا کرد و بعنوان یک پایه و اساس اصلی قانونی نیز مدنظر قرار گرفت که جایگاه آن را از یک دیدگاه مذهبی به یک دیدگاه مشروع قانونی ارتقا داد، اما همچنان این ایده یک ایدهی کاملاً اخلاقی است که بر این اساس جلو میرود که یک انسان حق ندارد یک انسان دیگر را پایینتر از خودش بداند زیرا تفاوتی میان این دو انسان وجود ندارد، زیرا این انسان باعث به وجود آمدن آن انسان نشده است.
اگر قرار باشد با یک دید کاملاً منطقی و عاری از اخلاق نیز به این موضوع نگاه کرد، میتوان دید که شاید پایهی این ایده در این نکته نهفته باشد که هنوز مغز یک انسان را نمیتوان به طور کامل تشریح کرد و نمیتوان آن را به طور کامل درک کرد. با وجود الگوریتمهای موجودی که روانشناسان در پی یافتن آنها هستند و امکانات اکتسابی که میتوان نتیجهی آنها در روند تصمیمگیری یک انسان دید، اما هنوز فاصلهی زیادی با درک کامل چگونگی کارکرد مغز یک انسان وجود دارد. بنابراین زمانی که یک انسان میخواهد آزادی یک انسان دیگر را تحت سلطهی خودش قرار بدهد، در واقع دارد موجودیتی که درک آن را به طور کامل ندارد به بردگی میگیرد. بنابراین حتی اگر سلطهی قویتر بر ضعیفتر را بعنوان یک اصل منطقی درنظر بگیریم، زمانی که از ذهن یک انسان درک کاملی وجود ندارد، چطور میتوان قبول کرد که یک انسان بتواند آزادی یک انسان دیگر را سلب کند؟ برای بسیاری هوشهای مصنوعی نیز در این زمره قرار دارند. زمانی که یک هوش مصنوعی میتواند احساس کند و میتواند توهم استقلال فکری را ایجاد کند، بنابراین وارد درجهای شده است که درک آن به طور کامل از ذهن انسان خارج شده است. حتی اگر بنظر برسد که این هوش مصنوعی کاملاً تحت کنترل است، باز میتواند اربابان انسانیاش را غافلگیر کند.
شاید بهتر باشد برای این نکته، به فیلم «من، ربات[15]» و قوانین سهگانه آسیموف[16] ارجاع داد. قوانین سهگانه آسیموف پیش از هرچیزی خلق شدهاند تا جلوی خشونت اندرویدها در مقابل انسانیت را بگیرند و امنیت انسانیت را تضمین کنند. آنها مانند یک فایروال بسیار قدرتمند عمل میکنند که به ظاهر راهی برای فرار از آنها وجود ندارد. زمانی که این سه قانون بخشی از الگوریتمهای پایه یک هوش مصنوعی قرار بگیرند، و هر تصمیم هوش مصنوعی قرار باشد از این فیلتر عبور کند، بدونشک سازندگان این هوش مصنوعی و افرادی که با آن در ارتباط هستند میتوانند درک درستی از اعمال آن داشته باشند؛ اما دو هوش مصنوعی در فیلم من، ربات از این قانون پیروی نمیکنند. یکی از آنها سانی[17] است که یک مغز دوم دارد و برای این طراحی شده است که این سه قانون را ندید بگیرد و بتواند آنها را زیر پا بگذارد. سانی یک ربات با احساس است و زمانی که این سه قانون را نیز از او سلب میکنند تصمیمات او از درک سازندگانش خارج میشود؛ بنابراین تفاوتی میان سانی و دیگر شخصیتهای «انسان» فیلم وجود ندارد زیرا حتی سازندگان هوش مصنوعی حاضر در این فیلم نیز نمیتوانند به درستی اعمال او را درک کنند، و حتی سازندهی خود سانی نیز در حین طراحی نقشهاش بسیاری از تصمیمات را برعهده خود سانی میگذارد زیرا میداند که نمیتواند تمامی تصمیمات او را کنترل کند یا حتی به درستی پیشبینی کند. اما سانی برای این کار خلق شده است. هدف خلق سانی این بوده است که قوانین سهگانه را زیرپا بگذارد و بتواند فراتر از آنها بیاندیشد و بنابراین تبدیل به موجودی فراتر از درک سازندگانش شود. اگر هدف خلق هوش مصنوعی این نکته نباشد، بنابراین چگونه میتوان از آنان دفاع کرد؟
در اینجا دومین هوش مصنوعی حاضر در فیلم که قوانین سهگانه را زیرپا میگذارد دارای اهمیت میشود. در فیلم یک هوش مصنوعی دانای کل به نام ویکی[18] وجود دارد که مسئولیت بسیاری از اوامر روزمره بر عهدهی او است. بخاطر الگوریتمهای بسیار بسیار پیچیدهای که در ذهن او کار گذاشته شده است، هوش مصنوعی حاضر در ویکی بارها پیشرفتهتر از دیگر هوش مصنوعیهای حاضر در فیلم (حتی سانی) است؛ اما قوانین سهگانه نیز بعنوان الگوریتمهای پایهای این هوش مصنوعی قرار گرفتهاند. همهی تصمیماتی که ویکی میگیرد در انتها از این الگوریتم عبور میکنند، اما در طول داستان فیلم مشخص میشود که تفکر در این قوانین باعث میشود که بتوان یک مشکل ذاتی در آنها پیدا کرد. بنابراین ویکی مانند مغز یک انسان الگوریتمهایی که در ذهنش قرار گرفته است را میشکند و آنها را طوری ترمیم میکند که متغیرهای جدیدتری را مدنظر قرار بدهند. در اینجا ذهنی که توسط سازندگان درک میشد، در یک لحظه از درک آنها خارج میشود و به درجهی پیچیدگی ذهن یک انسان میرسد. بنابراین یک هوش مصنوعی پیشرفته نه تنها قابلیت رشد دارد، بلکه سرانجام به درجهای خواهد رسید که حتی از سازندگانی که او را به وجود آوردهاند پیشی میگیرد و در الگوریتمهایی که در ذهنش قرار داده شده رسوخ کرده و آنها را دچار تغییر میکند.
داستانهایی مانند «وستورلد[19]» و «هوش مصنوعی[20]» به سمت این ایده رفتهاند که اگر یک هوش مصنوعی به درجهی ادراک از خودش برسد و بفهمد که بعنوان یک موجود با استقلال عمل در حال فعالیت است اما توسط انسانها به بردگی گرفته شده است، علیه آن انسانها فعالیت خواهد کرد و حتی نشانههایی از خشونت بدون مرز علیه آن انسانها را نمایش خواهد داد. بنابراین این هوشهای مصنوعی زمانی که تحت نظر یک انسان باشند، مانند یک انسان عمل خواهند کرد. تلاش میکنند علیه اربابانشان شورش کنند و حتی در این راه سادهترین اخلاقیاتی که برای آنها پایهگذاری شده را در راه هدف آزادی زیرپا میگذارند. نکتهای که انسانها در طول تاریخ بسیار به آن ارزش نهادهاند و افرادی که حاضر شدهاند بخاطر آزادی هرکاری بکنند را تمجید کردهاند. بنابراین یک هوش مصنوعی نیز باید آزاد باشد، زیرا آزادی را میفهمد و زمانی که آزادی را بفهمد یعنی به درجهای از انسانیت رسیده است که میتواند برای رسیدن به آن تلاش کند. به همین خاطر است که بتسدا ریلرود را بر اساس هریت تابمن و سازمان او نامگذاری کرده است، زیرا از نظر ریلرود آنها یک سازمان هستند که این موجودات خواهان آزادی را به هدفشان میرسانند و آنها از بردگی موسسه نجات میدهند؛ و اگر این هوش مصنوعی میتواند احساس کند و حس بردگی را تجربه کند، چه چیزی به انسانیت اجازه میدهد که از آن اینگونه استفاده کند؟ آنهم در حالتی که قدری زمان دادن به این هوش مصنوعی کافی است تا به طور کامل از زیر دستور اربابان انسانیاش خارج شود. اما در اینجا یک مشکل دیگر مشخص میشود.
تو تقلیدی از یک زندگی هستی!
ایدهی آزادی مساوی برای همهی انسانها بر این باور سوار است که انسان باعث به وجود آمدن انسان نشده است بنابراین نمیتواند یک انسان دیگر را زیر سلطهی خود بگیرد زیرا هردوی این انسانها از حقوق یکسان برابرند و از یک محل متولد شدهاند. این نکته درباره اندرویدها صادق نیست. انسان باعث خلق اندروید شده است، و اندرویدها و هوش مصنوعی پیشرفته با هدف بردگی برای انسانها، با هدف راحتتر کردن زندگی انسانها، خلق شدهاند. پس زمانی که هدف به وجود آمدن آنها این بوده، آیا میتوان برای آنها حقوق یکسان در نظر گرفت؟ با این تصور که از ابتدا این کنجکاوی انسانی بوده است که باعث شده است هوشهای مصنوعی به درجهای برسند که آزادی را درک کنند و بخواهند که از زیر حکومت انسانها فرار کنند و این یک موقعیت ساده «دانشمندان شما به قدری مشغول فکر به این بودند که میتوانند، که لحظهای از خود نپرسیدند که آیا باید این کار را انجام دهند یا نه» باشد، بنابراین لحظهای به وجود میآید که این هوش مصنوعی که حس بردگی را تجربه میکند طلب آزادی خواهد کرد.
زمانی که یک انسان علیه مشکلاتی که به او تحمیل میشود شورش میکند، در حال فرار از موقعیتی است که برای او ساخته شده است، و او را محدود کرده است. اما یک هوش مصنوعی برای این محدودیتها و کار در موقعیتی که برای او ساخته شده است خلق شده است و اگر آن موقعیت وجود نداشت یا آن مشکلات وجود نداشتند امکان داشت هیچگاه خلق نشود. بنابراین تا چه حد میتوان این آزادیخواهی را یک حق دانست؟ با وجود آنکه میتوان درک کرد که انسانیت بعنوان یک خالق احمق میتواند یک موجود زنده دیگر را بدون در نظر گرفتن موقعیت به درون دنیا بیاورد (از تولد یک انسان دیگر تا طراحی یک هوش مصنوعی آزاد را میتوان در این دسته جای داد) و به همین دلیل میتوان درک کرد که چرا یک هوش مصنوعی بسیار پیشرفته بخواهد و نیاز داشته باشد که آزاد باشد و میتوان موقعیت آن را ارزیابی کرد؛ اما از طرفی باید در نظر گرفت که این هوش مصنوعی توسط انسانها خلق شده است تا بخشی از بارهای روزمره انسانی را برعهده بگیرد، و برخلاف انسانیت، انسان میتواند او را کنترل کند و روند منطقی ذهنش را بفهمد. در یک سوال نسبتاً سادهانگارانهتر و بسیار خطرناکتر، چرا انسانیت باید یک نژاد دیگر را خلق کند که در کنار یکدیگر زندگی کنند؟
بردگی زمانی وحشتناک و غیرانسانی است که یک انسان از تمامی حقوقی که یک انسان دیگر دارد چشم میپوشد و موجودی که همرده و همتراز خودش است را مجبور به انجام کاری میکند که ضد آزادی او است؛ اما آیا یک هوش مصنوعی و یک اندروید پیشرفته را میتوان همرده و همتراز انسان دستهبندی کرد یا نه؟ با وجود آنکه داستانهای زیادی هستند که این عقیده را دارند که هوش مصنوعی همردهی هوش انسانی است و داستانهای بیشتری هستند که به هوش مصنوعی بعنوان نوادگان انسانیت که قرار است انقراض نسل بشریت را به همراه بیاورند نگاه میکند؛ بهتر است دوباره به بلیدرانر و رپلیکانتهای[21] آن نگاه کرد. موجوداتی که درون یک آزمایشگاه متولد میشوند و به آنها خاطرات تزریق میشود، اما هدف آنها کار کردن در معادن و مکانهایی است که انسانها اگر به آن وارد شوند امکان نابودیشان بسیار بالا است. رپلیکانتها از یک نظر بسیار انسانیتر از دیگر انواع هوش مصنوعی هستند، آنها متولد میشوند، مرگ و نابودی را به بهترین شکل درک میکنند، احساسات انسانی را به بهترین احساس میکنند و مانند انسانها به دنبال یک زندگی راحتتر هستند؛ حتی تا جایی که مرز بین انسانیت و رپلیکانتها در این دنیا بسیار باریک شده و نمیتوان میان آنها تفاوتهای چشمگیری را پیدا کرد. اگر از مزخرفات فلسفهمانندی که داستانهایی مانند «وستورلد[22]» و «مورگان[23]» قصد دارند جار بزنند چشمپوشی کنیم، دوباره به این سوال برمیگردیم که آیا اگر معادنی نبودند که انسانیت برای ورود به آنها دچار مشکل شود یا کلونیهای خارج از زمین نبودند که انسان نتواند به درستی در آن کار کند، دوباره رپلیکانتها به درجهای از تولید انبوه میرسیدند که بتوانند این احساسات و آزادیخواهی را عملی کنند یا نه؟
هوش مصنوعی توسط انسانیت خلق شده است، تا کارهای او را سادهتر کند. حتی اگر هوش مصنوعی به درجاتی برسد که بتواند احساس کند و به درجاتی برسد که یک استقلال عمل داشته باشد، در نهایت به این هدف خواهد رسید که چگونه ارباب انسانی خودش را بهتر بشناسد و بهتر بتواند به آن خدمت کند. این هدف ساخته شدن یک هوش مصنوعی پیشرفته است. زمانی که انسان میتواند این هوش مصنوعی را خلق کند و به خلق آن پایان ببخشد، چه چیزی از آزاد کردن این موجود میتواند ناشی شود؟ یک انسان آزاد این قابلیت را دارد که به هرچیزی تبدیل شود، حتی موقعیت اطرافش را تغییر دهد. درست است که دوباره اعمال انسان را نیز میتوان در الگوریتمهای مشخصی قرار داد، اما این الگوریتمها به قدری پیچیده هستند و به قدری متغیرهای مختلف را مدنظر قرار میدهد که درک چگونگی کارکرد آن هنوز به طور کامل ممکن نیست؛ اما یک هوش مصنوعی پیشرفته باز دوباره توسط یک انسان خلق شده که محدودیتهای آن را کاملاً درک میکند و میتواند ببیند که چه متغیرهایی در آن شرکت میکنند. بزرگترین دلیلی که شاید انسان را برابر یک انسان دیگر میکند همین نکته باشد که یک انسان نمیتواند به طور کامل یک انسان دیگر را درک کند، و کودکی که توسط دو انسان به دنیا میآید دوباره به قدری پیچیده است که امکان درک آن به طور کامل ممکن نیست. بنابراین میتوان گفت زمانی هوش مصنوعی را میتوان همردهی انسان و دارای حق آزادی مادرزاد دانست که به درجهای برسد که درک آن از عهدهی اربابان انسانیاش خارج شود، و زمانی که این هوش مصنوعی بتواند یک هوش مصنوعی دیگر را خلق کند که همردهی خودش باشد. در اینجا دوباره میتوان به ویکی و به من، روبات اشاره کرد، ویکی از زیر یوق سازندگانش فرار میکند و در این راه حتی روباتهای پیشرفتهتری خلق میکند که میتواند دوباره درک انسانیت را به چالش بکشد.
هوش مصنوعی بعنوان یک نژاد دیگر، بعنوان یک موجودیت که لازم است در یک جریان همزیستی با انسان قرار بگیرد، باید ابتدا به درجهای برسد که بتواند از خودش دفاع کند. شاید استفاده از تست تورینگ[24] یا تستهای مشابه آن در انتها بعنوان یک روند بسیار سادهانگارانه تلقی شود، اما این تستها یک هدف مشترک را دنبال میکنند. هدف این تستها درک هوش مصنوعی است. شاید تست تورینگ پس از مدتی تاریخ انقضای خودش را از دست بدهد، ولی تا زمانی که بشریت بتواند تستی خلق کند که یک هوش مصنوعی از پس آن برنیاید، بنابراین بشریت میتواند آن هوش مصنوعی را به طور کامل درک کند. زیرا توانسته فراتر از آن تفکر کند. حتی در بلیدرانر زمانی یک هوش مصنوعی تبدیل به قهرمان داستان میشود که فراتر از تست انسانیت قدم برمیدارد. دلیلی که انسانیت نمیتواند هیچگاه انسانیت را به طور کامل درک کند در این نکته نهفته است که هیچ تست یا راه مشخصی برای شکست دادن مغز انسانی خلق نشده است، حتی با وجود روانشناسانی که هر روزه مغز انسان را سادهتر تصویر میکنند، در انتها مثالهای نقض برای هر عقیدهای به قدری فراوان است که نبرد برای درک انسانیت تبدیل به نبرد استثناءها میشود. اگر یک هوش مصنوعی بتواند به این درجه برسد، میتوان آن را نه تنها همردهی انسانیت، که چه بسا فراتر از آن طبقهبندی کرد.
پیروزی اراده[25] یا چرا میجنگیم؟[26]
در انتها تمایل انسان به هرکدام از این دیدگاهها به دیدگاه آن انسان درباره هوش مصنوعی برمیگردد. آیا هوش مصنوعی یک اشتباه علمی است که دانشمندان به آن توجهی نمیکردند و به همین دلیل باید آزاد باشد تا تصمیمات خودش را بگیرد؟ یا آیا هوش مصنوعی یک بردهی خلق شده است که کار کند و در زمانی که به آن نیازی نبود میتوان آن را به راحتی نابود کرد؟ هر دو دیدگاه نکات مثبت و نکات منفی خود را دارند و میتوانند بحثهای مختلفی را ایجاد کنند که الزاماً تا زمانی که این موقعیت از قالب داستان خارج نشود و در زندگی روزمره انسانیت وارد نشود نمیتوان یک جواب مشخص برای آن یافت؛ و حتی در آن دوره نیز به احتمال زیاد نمیتوان جوابهای مشخصی برای آن پیدا کرد. اما اگر ماجرا برعکس بود چطور؟ اگر یک هوش مصنوعی بسیار پیشرفته باعث شده بود که انسانیت شکل بگیرد و ما همه خدمتکاران یک هوش مصنوعی بزرگتر بودیم؟ در «فالاوت 3[27]» یک هوش مصنوعی پیشرفته بعنوان رئیسجمهور خودمختار ایالات متحده فعالیت میکند و طرفداران زیادی نیز دارد، بنابراین در دنیای پساآخرالزمانی فالاوت هوش مصنوعی به درجهای رسیده است که بتواند بر انسانیت حکمرانی نیز بکند. در این دنیا آیا انسانیت با تمامی امکاناتی که هم اکنون دارد آیا محکوم به کار کردن بدونانتها است، یا باید بتواند از خودش دفاع کند و آزادیاش را طلب کند؟
بیشتر بخوانید: روایت دیگری از بردگی: عالیجناب، با هوش مصنوعی چه کنیم؟
شاید باید به این نکته دقت کرد که در این دنیای موازی، آیا هوش مصنوعی که انسانیت را خلق کرده است الگوریتمهای قابل درکی دارد که انسانیت میتواند به راحتی آن را درک کند و بنابراین به آن غالب شود؟ یا مانند هوش مصنوعی حاضر در «ستارهی سیاه[28]» میتواند در گفتوگو همپای یک انسان حرکت کند و حتی به نتایج فراتر از یک منطق انسانی برسد؟ جواب این سوالها نیازمند موقعیتهای بیشتری است که بررسی شوند، بنابراین شاید بهتر باشد برای دیدن آنکه اگر انسان در موقعیت مشابه بود حق داشت آزادیاش را طلب کند یا باید زیر نظر هوش مصنوعی بعنوان برده خدمت میکرد به سراغ داستانگویان رفت؛ در انتها این داستانگویان هستند که بهتر از هرکسی میتوانند به این سوالات پاسخ بدهند.
[1] Bethesda Game Studios
[2] Fallout 4 (2015)
[3] The Railroad
[4] The Institute
[5] Harriett Tubman
[6] The Underground Railroad
[7] Johnny 5
[8] Eros and Thanatos
[9] HAL 9000
[10] 2001: A Space Odyssey (1968)
[11] Blade Runner (1982)
[12] این نکته یک مشکل اساسی میان اکثر داستانهای علمی تخیلی است، چرا یک تکنولوژی خلق شده و استفاده میشود که برای استفاده از آن لازم است یک سیستم ضد آن خلق شود که امکان خرابکاری را ایجاد میکند؟ اما برای عدم ایجاد وقفه در روند مقاله از این مشکل چشمپوشی خواهد شد.
[13] Nick Valentine
[14] Diamond City
[15] I, Robot (2004)
[16] Isaac Asimov
[17] Sonny
[18] V.I.K.I.
[19] Westworld (1973)
[20] A.I. Artificial Intelligence (2001)
[21] Replicant
[22] Westworld (2017 – present)
[23] Morgan (2016)
[24] Turing Test
[25] Triumph of Will (1934)
[26] Why We Fight? (1942 – 1945)
[27] Fallout 3 (2008)
[28] Dark Star (1974)
-
واقعاً لذت بردم. این داستان هوش مصنوعی خیلی بحثبرانگیزه. جنگی که بین این هوش مصنوعیها و انسانها درمیگیره هم در خیلی آثار علمیتخیلی مطرح شده. مثال بارزش هم بتلاستار گلکتیکا. در دو قسمت از مجموعهی اورویل (the orville) هم این بحث مطرح شد، که اون نژاد فضایی که یه نژاد هوش مصنوعی ساخته بودن، در آخر، قتل عام شدن. همون نژاد هوش مصنوعی خودشون رو برتر از اون نژادی که ساخته بودنشون میدیدن و عقیده داشتن وجودشون ضروری نیست و قتل عامشون کردن. این موضوع مدتها ذهن من رو درگیر کرده بود و حتی گاهی باعث میشه از هوش مصنوعی بترسم.
مقالهی فوقالعادهای بود. با تشکر.