Surprisingly, the literature on dynamic mechanism seems to give relatively less attention to agents' dynamic participation, particularly regarding incentive compatibility with respect to these decisions. This addresses this gap by studying a dynamic mechanism design problem of task delegation. We expand upon the classic state mechanism model by incorporating agents' dual decisions concerning participation (off-menu actions) and regular action selections across multiple periods. The principal faces adverse selection, as agents receive private information over time that remains unobserved by the principal, and designs a mechanism of a task policy profile, which outlines the evolution of available action menus for agents; a coupling policy profile that directly impacts agents' utilities; and an off-switch function profile that assigns compensation or penalties if an agent withdraws. First, we present a sufficient condition called ``payoff-flow conservation" for ensuring dynamic incentive compatibility concerning regular actions. Second, we propose a unique process called persistence transformation, which allows us to derive a closed-form formulation for each off-switch function based on the task policy and carrier functions. This enables us to obtain a sufficient condition for the incentive-compatible concerning agents' combined decisions of off-menu and regular actions, aligning with the principal's preferences. Third, we provide a necessary condition for incentive compatibility that goes beyond canonical envelope conditions by leveraging the coupled optimality of the principal-desired off-menu and regular actions. This method allows us to obtain a set of sufficient conditions for incentive compatibility by pinning down an explicit expression for each carrier function, thereby determining the precise closed-form formulations of both the coupling functions and the off-switch functions.


翻译:令人惊讶的是,动态机制设计领域相对较少关注代理人的动态参与,特别是对于这些决策与激励兼容性的研究。本文研究一种任务委托的动态机制设计问题,扩展了经典的状态机制模型,将代理人的参与决策(菜单外行为)和定期动作选择作为多个时间段的组成部分。卖方面临逆向选择,因为代理人会在时间上获得私有信息,这些信息不被卖方观察,需要设计一种任务策略配置,概述代理人可用行为菜单的演变;一种耦合策略配置,直接影响代理人的效用;以及一种退出开关函数配置,如果代理人退出则分配补偿或惩罚。 首先,我们提出了一个称为 "支付流守恒" 的充分条件,以确保在定期动作方面的动态激励兼容性。其次,我们提出了一种称为 "持久性变换" 的独特过程,该过程允许我们基于任务策略和载体函数为每个退出开关功能推导出一个闭式公式。这使我们得以获得关于代理人菜单外行为和定期行为的组合决策方面兼容性的充分条件,与卖方的偏好一致。第三,通过利用卖方期望的菜单外和定期行为的耦合最优性,我们提出了一种超越规范信封条件的必要条件。此方法使我们能够通过确定每个载体函数的明确表达式来获得充分条件,从而确定耦合函数和退出开关函数的精确封闭形式的表达式。

0
下载
关闭预览

相关内容

《分布式多智能体深度强化学习:竞争性博弈》最新论文
专知会员服务
125+阅读 · 2023年3月16日
《行为与认知机器人学》,241页pdf
专知会员服务
53+阅读 · 2021年4月11日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
50+阅读 · 2018年8月27日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
12+阅读 · 2022年4月12日
VIP会员
相关VIP内容
《分布式多智能体深度强化学习:竞争性博弈》最新论文
专知会员服务
125+阅读 · 2023年3月16日
《行为与认知机器人学》,241页pdf
专知会员服务
53+阅读 · 2021年4月11日
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
50+阅读 · 2018年8月27日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员