این هوش مصنوعی در بحث کم نمیآورد ولی زبان آدمیزاد حالیاش نیست
آخرین اخبار مبارزهی انسان علیه هوش مصنوعی حاکی از آن است که ماشینها بحث کردن را هم یاد گرفتهاند!
چند روز پیش در سانفرانسیسکو مباحثهای برگزار شد که در آن یک برنامهی هوش مصنوعی در کمال تعجب استدلالی متقاعدکننده ارائه کرد: دولتها باید به فعالیتهای مرتبط با اکتشاف فضا کمک مالی اختصاص دهند. وقتی یک انسان با این صحبت هوش مصنوعی مخالفت کرد، برنامه جوابی دندانشکن در رد مخالفت او ارائه داد.
این مباحثه بین یکی از برنامههای کامپیوتری IBM به نام پراجکت دیبیتر (Project Debater) و چند شرکتکنندهی انسان انجام شد و آخرین مدرکی است که نشان میدهد ماشینهای هوشمند در حال پیشرفت در مهارتهایی هستند که تاکنون تصور میشد فقط انسانها قادر به انجامشان هستند؛ این بار، مهارت مذکور استدلال کردن است.
در این مراسم، هوش مصنوعی مورد بحث و یکی از شرکتکنندههای انسان بهنوبت راجعبه یک موضوع خاص استدلالی ارائه دادند، استدلال طرف مقابل را رد کردند و با استدلالی نهایی صحبتهایشان را جمعبندی کردند. یعنی فرمت معمول مباحثهی دانشگاهی. در مباحثهی دوم، برنامه در حمایت از افزایش استفاده از پزشکی از راه دور استدلال کرد و شرکتکنندهی انسان در مخالفت با آن.
چند سالی میشود که IBM مشغول کار روی این هوش مصنوعی است. این برنامه پیش از بسط استدلالهایش راجعبه موضوعی خاص، حجم عظیمی از نوشته را مرور میکند. شرکت سازنده عصر امروز این مراسم را به منظور تبلیغ این فناوری برگزار کرد.
پراجکت دیبیتر سعی نمیکند استدلالش را بر اساس درک خود راجعبه موضوع مطرحشده بسط دهد، بلکه این کار را از طریق ترکیب کردن بخشهایی از استدلالهای پیشین و جمعآوری اطلاعات مربوطه از ویکیپدیا انجام میدهد.
رانیت آهارونوف[1]، یکی از پژوهشگران پروژه، به محدودیت برنامه اعتراف کرد. او میگوید: «هنوز هم راه زیادی مانده تا هوش مصنوعی به طور کامل به زبان مسلط شود.» با این وجود، آهارونوف اعتقاد دارد این فناوری استفادههای خودش را دارد. به عنوان مثال، این فناوری میتواند با فراهم آوردن تعدادی استدلال «موافق» و «مخالف» به انسانها کمک کند در شرایط بحرانی تصمیمات عاقلانهتری بگیرند.
البته از یک سیستم هوش مصنوعی استدلالگر میتوان استفادههای ناشایستی کرد؛ مثلاً قدرت بخشیدن به باتهای تخریبگر در شبکههای اجتماعی. در نظر نوآم اِسلونیم[2]، همکار آهارونوف، این تهدید آنچنان جدی نیست. او میگوید: «همیشه ریسک وجود دارد. در اصل من فکر میکنم ریسک این فناوری نسبت به فناوریهای مشابه پایینتر است.»
اورِن اتزیونی[3]، مدیر عامل اجرایی موسسهی هوش مصنوعی آلن (Allen Institute for Artificial Intelligence) واقع در سیاتل میگوید بهزحمت میتوان قابلیتهای سیستم IBM را با استناد صرف بر نتایج این رقابت قضاوت کرد. او میگوید: «ترتیب دادن نمایشی از پیشتعیینشده کاری راحت است، اما چالش اصلی در این است که نمایشی آزاد ترتیب دهی که در آن هرکسی بتواند به طور دلخواه با سیستم تعامل داشته باشد.»
کریستین هموند[4]، استاد دانشگاه نورثوست و مؤسس علوم روایتی (Narrative Sciences)، شرکتی که به طور اتوماتیک گزارش اخبار و محتوای مشابه تولید میکند، میگوید این فناوری ممکن است به زودی کارکردهای جدیتری هم پیدا کند. ولی هموند تأکید میکند که برنامهی IBM صرفاً دارد اطلاعاتی را که کشف کرده، به طور طوطیوار تکرار میکند. به نظر او: «در هیچ مقطعی سیستم نمیداند دارد چه میگوید. فرض کنید یک آدم نفهمد که دارد چه میگوید. شما به همچین آدمی نمیگویید بیشعور؟»
هموند اضافه کرد که به نظر او این کنفرانسی که در سانفرانسیسکو برگزار شد، بیشتر جنبهی خبری داشته: «به نظرم این مراسم با هدف انحراف اذهان عمومی برگزار شده است.»
[1] Ranit Aharonov
[2] Noam Slonim
[3] Oren Etzioni
[4] Kristian Hammond