ارائه الگوریتمی برای همکاری بهتری ماشینها نسبت به انسانها
به گزارش گروه رسانههای دیگر خبرگزاری آنا، واضح است که اکنون ماشینها میتوانند ما را در بسیاری از بازیهای ساده «مجموع-صفر» شکست دهند. در نظریه بازیها و علم اقتصاد، یک بازی مجموع-صفر، یک مدل ریاضی از وضعیتی است که سود (یا زیان) یک شرکت کننده، دقیقاً متعادل با زیانهای (یا سودهای) شرکت کنندههای دیگر است
پژوهش جدید یک گروه بینالمللی از دانشمندان رایانه، قرار است نوع جدیدی از الگوریتم بازی کردن را ابداع کند که در آن، بازیهایی انجام شود که بر ویژگیهایی مانند همکاری و سازش تکیه دارد. پژوهشگران دریافتهاند که ماشینها میتوانند این ویژگیها را بهتر از انسانها به کار گیرند.
«شطرنج»، «گو» و «پوکر»، بازیهای تقابلی هستند که در آن، دو بازیکن یا بیشتر با یکدیگر مقابله میکنند. بازیهایی از این قبیل، نقاط عطف واضحی دارند که فرآیند رشد هوش مصنوعی را اندازهگیری میکنند و موجب میشود انسانها در مقابل رایانههایی با یک برنده ملموس قرار بگیرند.
اما در شرایط مختلف دنیای واقعی که هوش مصنوعی در آن فعالیت میکند، نیازمند ارتباطات بلندمدت پیچیده میان انسانها و ماشینها است.
ژاکوب کرندال، نویسنده ارشد این پژوهش جدید میگوید: «هدف نهایی ما، فهمیدن ریاضیات ورای همکاری با مردم و ویژگیهای مورد نیاز برای رشد مهارتهای اجتماعی است. هوش مصنوعی باید قادر باشد به ما پاسخ دهد و آنچه در حال انجام گرفتن است، بیان کند. همچنین باید توانایی تعامل با مردم را داشته باشد».
این گروه پژوهشی، الگوریتمی موسوم به «S#» ابداع کرد و عملکرد آن را در سرتاسر بازیهای دو نفره شامل هر یک از تعاملات ماشین با ماشین، انسان با ماشین و انسان با انسان، آزمایش کرد.
بازیهای انتخاب شده از جمله بازی «دوراهی زندانی» و «بازی شپلی»، هر دو برای یک بازیکن برای رسیدن به نتیجه نهایی بالا، به سطوح گوناگونی از همکاری یا سازش نیاز داشتند. این نتایج جذاب بودند و نشان دادند که در بیشتر موارد در بازیها ماشینها از انسانها عملکرد بهتری داشتند.
کرندال ادامه میدهد: «دو انسان، اگر نسبت به هم درستکار و وفادار بودند، مثل دو ماشین عمل میکردند. حدود نیمی از انسانها در بعضی موارد دروغ گفتند. این الگوریتم خاص، اساسا یاد میگیرد که ویژگیهای اخلاقی خوب هستند و طوری برنامهریزی شده که دروغ نگوید و هنگام ظاهر شدن دروغ، همکاری را حفظ کند».
یک تکنیک جالب گنجانده شده در این الگوریتم، توانایی ماشین برای مشغول شدن به یک ویژگی بود که پژوهشگران آن را «گفتگوی بیارزش» مینامند.
این گفتوگوها، عباراتی هستند که ماشین هم در پاسخ به ژست همکاری و هم به عنوان واکنشی به شرکتکننده دیگر که دروغ میگوید یا تقلب میکند به کار میرود.
هنگامی که ماشینها از گفتوگوی بی ارزش استفاده کردند، بازیکنان انسان معمولا قادر نبودند هنگام بازی با ماشین، انتخاب کنند و در بیشتر موارد، نظرات، میزان همکاری را دوبرابر کرد.
به گفته پژوهشگران، امکان دارد این یافتهها، پایهای برای ماشینهای خودکار بهتر در آینده شوند چرا که فناوریهایی مانند خودروهای خودران برای تعامل با انسانها و ماشینهای دیگر که اغلب اهداف مشابهی را دنبال نمیکنند به ماشینهایی نیاز دارند.
منبع: ایسنا
انتهای پیام/