چطور می‌شود که هوش مصنوعی توهم می‌زند

1
این مطلب به بوک‌مارک‌ها اضافه شد
این مطلب از بوک‌مارک‌ها حذف شد

چطوری می‌شود که یک ماشین چیزی را می‌بیند که واقعاً وجود ندارد؟

فرض کنید سوار یک اتومبیل روباتیک هستند و به سمت یک چهارراه شلوغ می‌پیچید. شما با دیدن تابلوی توقف کاملاً هول می‌شوید ولی اتومبیل‌تان توقف نمی‌کند.

ما همیشه در تفسیر محیط پیرامون‌مان دچار اشتباه می‌شویم. یادمان می‌رود که پله‌ی آخری هم وجود دارد و گاهی برای پیدا کردن یک خودکار که دم‌دستمان بوده، به هزارجای دیگر هم سر می‌زنیم. اما اگر یک ماشین در محاسباتش اشتباه کند، چه خواهد شد؟ قبل از اینکه تمام دنیا پر بشود از اتومبیل‌های روباتیک و شهرهای اتوماتیک، جا دارد که از خودمان بپرسیم، آیا می‌شود مطمئن شد که ماشین‌های ما یکدفعه قاطی نمی‌کنند؟

در نگاه دوم

همه‌ی الگوریتم‌های یادگیری ماشین به اطلاعات دریافتی از محیط پیرامون‌شان متکی هستند. با پیشرفت تحقیقات هوش مصنوعی، محققین متوجه مواردی شدند که هر وقت «دنیای واقعی» در پژوهش دخالت داده می‌شد، نتایج الگوریتم مختل می‌گشت. این گونه ورودی‌ها همان چیزهایی هستند که متخصصین هوش مصنوعی بهشان «مثال‌های خصمانه» یا «اتفاقات عجیب» می‌گویند و درواقع نمود چالش بزرگی هستند که آینده‌ی دنیایی که هر روز اتوماتیک‌تر می‌شود به آن گره خورده است. مثلاً با چسباندن چند تکه نوارچسب به تابلوی توقف، می‌شود کاری کرد که دیگر تابلو برای کاوشگرهای اشیاء قابل تشخیص نباشد. یا اگر شما به سبک جوگالوها (Juggalo) آرایش کنید، دیگر از دید تکنولوژی‌های تشخیص چهره، نامرئی به نظر می‌رسید.

آقای آنیش آتلایی، محقق علوم کامپیوتر در دانشگاه MIT در این باره به ‌‌BBC چنین گفته است که: «تلقی ما از این موارد می‌تواند اینگونه باشد که ما انتظار داریم شبکه به یک صورت پردازش کند، ولی چون ماشین با آن خروجی روبرو شده است، ماشین یک کار غیرمنتظره انجام می‌دهد».

با ایجاد رخدادهای خصمانه، می‌توانیم طوری الگوریتم را گول بزنیم که لاک‌پشت‌های دریایی را با مسلسل اشتباه بگیرد. یا دقیقا به همان‌صورت که آقای آتلایی پارسال نشان داد، می‌توانیم کاری کنیم که هوش مصنوعی گربه‌ها را با غذای مکزیکی گوآکاموله قاطی کند.

یا حضرت گوآکاموله

ما به واسطه‌ی شبکه‌های عصبی، یادگیری ماشین را صورت می‌دهیم و در واقع همان‌طوری یک ماشین چیزها را از ما یاد می‌گیرد که یک انسان می‌تواند چیزی را یاد بگیرد. ما خودمان هم هرچقدر نسبت به دنیای پیرامون‌مان اطلاعات کسب می‌کنیم، نمونه‌های مختلفی را در نظر می‌گیریم و متوجه ارتباطات بین‌شان می‌شویم، که دانستن این ارتباطات به ما کمک می‌کند بتوانیم چیزها را دسته‌بندی کنیم. یادگیری الگوریتم‌ها هم به طرز مشابهی صورت می‌گیرد، به آن‌ها هزاران مورد نمونه داده می شود تا بتوانند الگوها را استخراج کنند تا نهایتاً بتوانند ارزیابی خودشان از آن آیتم را در معرض آزمون قرار بدهند.

ورودی این سیستم اطلاعاتی هستند که به خورد چندین و چند لایه‌ی ارزیاب داده می‌شود. اما اگر اطلاعات ورودی دستکاری شوند، خروجی‌ای دریافت خواهیم کرد که مورد انتظارمان نخواهد بود.

هنوز کاملاً روشن نشده است که الگوریتم‌ها چگونه پیرامون‌ خودشان را ارزیابی می‌کنند. در واقع تازه در ابتدای راه هستیم تا نهایتاً بتوانیم راه‌‌حل‌های قطعی‌ای بیابیم که مانع بایاس شدن شوند.

ما باید مراقب باشیم تا قبل از اینکه تکنولوژی‌ها در معرض عموم قرار بگیرند، به اندازه‌ی کافی آزمایش شده باشند و ایرادگیری‌های لازم در حد امکان صورت بگیرد.


این‌ها را هم می‌توانید بخوانید:

مقاله‌ی مورد اشاره در بی‌بی‌سی

مقاله‌ای در معرفی هوش مصنوعی در سفید: آیا گوگل خواب گوسفندبرقی می‌بیند؟

سفید کاغذی
جدیدترین شماره کاغذی سفید را بخرید
شماره ۳: پری‌زدگی
برچسب‌ها:
مترجم: م.ر.ایدرم
مشاهده نظرات
  1. Kebria

    جالب بود

نظر خود را بنویسید:

نشانی ایمیل شما منتشر نخواهد شد.

متن نظر:

پیشنهاد کتاب

  • ماورا: سلسله جنایت‌های بین کهکشانی

    نویسنده: م.ر. ایدرم
  • سرد

    نویسنده: النا رهبری
  • گریخته: هفت‌روایت در باب مرگ

    نویسنده: گروه ادبیات گمانه‌زن
  • رزونانس

    نویسنده: م.ر. ایدرم