Abstract

در تئوری بازی، راه حل شناخته شده برای به دست آوردن حداکثر سود در بازی های تکرار نشده تا حد ممکن، تعادل نش است. با این حال، در برخی از بازی های غیر مشارکتی مکرر، بازیگران می توانند با تبانی ضمنی به سود بیشتری از تعادل نش برسند. یکی از روشهای دستیابی به سود بیش از تعادل نش در تبانی ضمنی ، یادگیری تقویتی است. با این حال، روش های مبتنی بر یادگیری تقویتی تنها یک مرحله در فرایند یادگیری را در نظر می گیرند. برای دستیابی و بهبود سود از تعادل نش در این بازیها ، می توان بیش از یک مرحله استفاده کرد. در این راستا، الگوریتم N مرحله به جلوبه نام (ForSts) در این مقاله ارائه شده است. ایده اصلی ForSts بهبود عملکرد بازیگران در بازی های غیر مشارکتی با مشاهده آخرین جوایز N مرحله ای است. از آنجا که ForSts در تئوری بازی برای یادگیری تبانی ضمنی استفاده می شود، توسط مسئله زندانیان به صورت مکرر و بازار برق ارزیابی می شود. نتایج نشان می دهد که درمسئله زندانیان به صورت مکرر و بازار برق، بازیگران با استفاده از روش ارائه شده سود بهتری نسبت به نمایش های عامل در تعادل نش به دست می آورند.

Full Text
Published version (Free)

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call