این هوش مصنوعی در بحث کم نمی‌آورد ولی زبان آدمیزاد حالی‌اش نیست

0
این مطلب به بوک‌مارک‌ها اضافه شد
این مطلب از بوک‌مارک‌ها حذف شد

آخرین اخبار مبارزه‌ی انسان علیه هوش مصنوعی حاکی از آن است که ماشین‌ها بحث کردن را هم یاد گرفته‌اند!

چند روز پیش در سان‌فرانسیسکو مباحثه‌ای برگزار شد که در آن یک برنامه‌ی هوش مصنوعی در کمال تعجب استدلالی متقاعدکننده ارائه کرد: دولت‌ها باید به فعالیت‌های مرتبط با اکتشاف فضا کمک مالی اختصاص دهند. وقتی یک انسان با این صحبت هوش مصنوعی مخالفت کرد، برنامه جوابی دندان‌شکن در رد مخالفت او ارائه داد.

این مباحثه بین یکی از برنامه‌‌های کامپیوتری IBM به نام پراجکت دیبیتر (Project Debater) و چند شرکت‌کننده‌ی انسان انجام شد و آخرین مدرکی است که نشان می‌دهد ماشین‌های هوشمند در حال پیشرفت در مهارت‌هایی هستند که تاکنون تصور می‌شد فقط انسان‌ها قادر به انجامشان هستند؛ این بار، مهارت مذکور استدلال کردن است.

در این مراسم، هوش مصنوعی مورد بحث و یکی از شرکت‌کننده‌های انسان به‌نوبت راجع‌به یک موضوع خاص استدلالی ارائه دادند، استدلال طرف مقابل را رد کردند و با استدلالی نهایی صحبت‌هایشان را جمع‌بندی کردند. یعنی فرمت معمول مباحثه‌ی دانشگاهی. در مباحثه‌ی دوم، برنامه در حمایت از افزایش استفاده از پزشکی از راه دور استدلال کرد و شرکت‌کننده‌ی انسان در مخالفت با آن.

چند سالی می‌شود که IBM مشغول کار روی این هوش مصنوعی است. این برنامه پیش از بسط استدلال‌هایش راجع‌به موضوعی خاص، حجم عظیمی از نوشته را مرور می‌کند. شرکت سازنده عصر امروز این مراسم را به منظور تبلیغ این فناوری برگزار کرد.

پراجکت دیبیتر سعی نمی‌کند استدلالش را بر اساس درک خود راجع‌به موضوع مطرح‌شده بسط دهد، بلکه این کار را از طریق ترکیب کردن بخش‌هایی از استدلال‌های پیشین و جمع‌آوری اطلاعات مربوطه از ویکی‌پدیا انجام می‌دهد.

رانیت آهارونوف[1]، یکی از پژوهشگران پروژه، به محدودیت برنامه اعتراف کرد. او می‌گوید: «هنوز هم راه زیادی مانده تا هوش مصنوعی به طور کامل به زبان مسلط شود.» با این وجود، آهارونوف اعتقاد دارد این فناوری استفاده‌های خودش را دارد. به عنوان مثال، این فناوری می‌تواند با فراهم آوردن تعدادی استدلال «موافق» و «مخالف» به انسان‌ها کمک کند در شرایط بحرانی تصمیمات عاقلانه‌تری بگیرند.

البته از یک سیستم هوش مصنوعی استدلال‌گر می‌توان استفاده‌های ناشایستی کرد؛ مثلاً قدرت بخشیدن به بات‌های تخریب‌گر در شبکه‌های اجتماعی. در نظر نوآم اِسلونیم[2]، همکار آهارونوف، این تهدید آن‌چنان جدی نیست. او می‌گوید: «همیشه ریسک وجود دارد. در اصل من فکر می‌کنم ریسک این فناوری نسبت به فناوری‌های مشابه پایین‌تر است.»

اورِن اتزیونی[3]، مدیر عامل اجرایی موسسه‌ی هوش مصنوعی آلن (Allen Institute for Artificial Intelligence) واقع در سیاتل می‌گوید به‌زحمت می‌توان قابلیت‌های سیستم IBM را با استناد صرف بر نتایج این رقابت قضاوت کرد. او می‌گوید: «ترتیب دادن نمایشی از پیش‌تعیین‌شده کاری راحت است، اما چالش اصلی در این است که نمایشی آزاد ترتیب دهی که در آن هرکسی بتواند به طور دلخواه با سیستم تعامل داشته باشد.»

کریستین هموند[4]، استاد دانشگاه نورث‌وست و مؤسس علوم روایتی (Narrative Sciences)، شرکتی که به طور اتوماتیک گزارش اخبار و محتوای مشابه تولید می‌کند، می‌گوید این فناوری ممکن است به زودی کارکردهای جدی‌تری هم پیدا کند. ولی هموند تأکید می‌کند که برنامه‌ی IBM صرفاً دارد اطلاعاتی را که کشف کرده، به طور طوطی‌وار تکرار می‌کند. به نظر او: «در هیچ مقطعی سیستم نمی‌داند دارد چه می‌گوید. فرض کنید یک آدم نفهمد که دارد چه می‌گوید. شما به همچین آدمی نمی‌گویید بیشعور؟»

هموند اضافه کرد که به نظر او این کنفرانسی که در سان‌فرانسیسکو برگزار شد، بیشتر جنبه‌ی خبری داشته: «به نظرم این مراسم با هدف انحراف اذهان عمومی برگزار شده است.»


[1] Ranit Aharonov

[2] Noam Slonim

[3] Oren Etzioni

[4] Kristian Hammond

سفید کاغذی
جدیدترین شماره کاغذی سفید را بخرید
شماره ۳: پری‌زدگی
برچسب‌ها:
مترجم: فربد آذسن
مشاهده نظرات

نظر خود را بنویسید:

نشانی ایمیل شما منتشر نخواهد شد.

متن نظر:

پیشنهاد کتاب

  • خدمات دستگاه هیولاساز دمشقی

    نویسنده: بهزاد قدیمی
  • سرد

    نویسنده: النا رهبری
  • گریخته: هفت‌روایت در باب مرگ

    نویسنده: گروه ادبیات گمانه‌زن
  • یفرن دوم

    نویسنده: فرهاد آذرنوا