چطور میشود که هوش مصنوعی توهم میزند
چطوری میشود که یک ماشین چیزی را میبیند که واقعاً وجود ندارد؟
فرض کنید سوار یک اتومبیل روباتیک هستند و به سمت یک چهارراه شلوغ میپیچید. شما با دیدن تابلوی توقف کاملاً هول میشوید ولی اتومبیلتان توقف نمیکند.
ما همیشه در تفسیر محیط پیرامونمان دچار اشتباه میشویم. یادمان میرود که پلهی آخری هم وجود دارد و گاهی برای پیدا کردن یک خودکار که دمدستمان بوده، به هزارجای دیگر هم سر میزنیم. اما اگر یک ماشین در محاسباتش اشتباه کند، چه خواهد شد؟ قبل از اینکه تمام دنیا پر بشود از اتومبیلهای روباتیک و شهرهای اتوماتیک، جا دارد که از خودمان بپرسیم، آیا میشود مطمئن شد که ماشینهای ما یکدفعه قاطی نمیکنند؟
در نگاه دوم
همهی الگوریتمهای یادگیری ماشین به اطلاعات دریافتی از محیط پیرامونشان متکی هستند. با پیشرفت تحقیقات هوش مصنوعی، محققین متوجه مواردی شدند که هر وقت «دنیای واقعی» در پژوهش دخالت داده میشد، نتایج الگوریتم مختل میگشت. این گونه ورودیها همان چیزهایی هستند که متخصصین هوش مصنوعی بهشان «مثالهای خصمانه» یا «اتفاقات عجیب» میگویند و درواقع نمود چالش بزرگی هستند که آیندهی دنیایی که هر روز اتوماتیکتر میشود به آن گره خورده است. مثلاً با چسباندن چند تکه نوارچسب به تابلوی توقف، میشود کاری کرد که دیگر تابلو برای کاوشگرهای اشیاء قابل تشخیص نباشد. یا اگر شما به سبک جوگالوها (Juggalo) آرایش کنید، دیگر از دید تکنولوژیهای تشخیص چهره، نامرئی به نظر میرسید.
آقای آنیش آتلایی، محقق علوم کامپیوتر در دانشگاه MIT در این باره به BBC چنین گفته است که: «تلقی ما از این موارد میتواند اینگونه باشد که ما انتظار داریم شبکه به یک صورت پردازش کند، ولی چون ماشین با آن خروجی روبرو شده است، ماشین یک کار غیرمنتظره انجام میدهد».
با ایجاد رخدادهای خصمانه، میتوانیم طوری الگوریتم را گول بزنیم که لاکپشتهای دریایی را با مسلسل اشتباه بگیرد. یا دقیقا به همانصورت که آقای آتلایی پارسال نشان داد، میتوانیم کاری کنیم که هوش مصنوعی گربهها را با غذای مکزیکی گوآکاموله قاطی کند.
یا حضرت گوآکاموله
ما به واسطهی شبکههای عصبی، یادگیری ماشین را صورت میدهیم و در واقع همانطوری یک ماشین چیزها را از ما یاد میگیرد که یک انسان میتواند چیزی را یاد بگیرد. ما خودمان هم هرچقدر نسبت به دنیای پیرامونمان اطلاعات کسب میکنیم، نمونههای مختلفی را در نظر میگیریم و متوجه ارتباطات بینشان میشویم، که دانستن این ارتباطات به ما کمک میکند بتوانیم چیزها را دستهبندی کنیم. یادگیری الگوریتمها هم به طرز مشابهی صورت میگیرد، به آنها هزاران مورد نمونه داده می شود تا بتوانند الگوها را استخراج کنند تا نهایتاً بتوانند ارزیابی خودشان از آن آیتم را در معرض آزمون قرار بدهند.
ورودی این سیستم اطلاعاتی هستند که به خورد چندین و چند لایهی ارزیاب داده میشود. اما اگر اطلاعات ورودی دستکاری شوند، خروجیای دریافت خواهیم کرد که مورد انتظارمان نخواهد بود.
هنوز کاملاً روشن نشده است که الگوریتمها چگونه پیرامون خودشان را ارزیابی میکنند. در واقع تازه در ابتدای راه هستیم تا نهایتاً بتوانیم راهحلهای قطعیای بیابیم که مانع بایاس شدن شوند.
ما باید مراقب باشیم تا قبل از اینکه تکنولوژیها در معرض عموم قرار بگیرند، به اندازهی کافی آزمایش شده باشند و ایرادگیریهای لازم در حد امکان صورت بگیرد.
اینها را هم میتوانید بخوانید:
مقالهی مورد اشاره در بیبیسی
مقالهای در معرفی هوش مصنوعی در سفید: آیا گوگل خواب گوسفندبرقی میبیند؟
-
جالب بود