We consider the problem of repeatedly allocating multiple shareable public goods that have limited availability in an online setting without the use of money. In our setting, agents have additive values, and the value each agent receives from getting access to the goods in each period is drawn i.i.d. from some joint distribution $\mathcal{D}$ (that can be arbitrarily correlated between agents). The principal also has global constraints on the set of goods they can select over the horizon, which is represented via a submodular allocation-cost function. Our goal is to select the periods to allocate the good to ensure high value for each group of agents. We develop mechanisms for this problem using an artificial currency, where we give each agent a budget proportional to their (exogenous) fair share. The correlated value distribution makes this an especially challenging problem, as agents may attempt to free-ride by declaring low valuations for the good when they know other agents have high values-hoping those agents will bear a larger share of the cost of the resource. We offer a black-box reduction from monetary mechanisms for the allocation of a costly excludable public good. We focus on pacing strategies, the natural strategies when using AI agents, where agents report a scaled version of their value to the mechanism. Our main results show that when using a truthful monetary mechanism as our building block, the resulting online mechanism has a focal equilibrium in which each agent plays a pacing strategy whose outcome results in an allocation that is a $(\mathcal{H}_n-1)$-approximation of the core, where $\mathcal{H}_n$ is the Harmonic number, and $n$ is the number of agents. Remarkably, we are able to achieve an approximate core solution as a Nash outcome without explicit collaboration or coordination between the agents.


翻译:我们研究在无货币的在线环境中重复分配多个可共享但供应有限的公共物品的问题。在我们的设定中,智能体具有可加性价值函数,每个智能体在每期获得物品访问权所获价值均独立同分布于某个联合分布 $\mathcal{D}$(该分布在智能体间可存在任意相关性)。规划者还需满足跨期物品选择的全局约束,该约束通过次模分配成本函数表示。我们的目标是通过选择分配物品的时段,确保每个智能体群体获得高价值。我们采用人工货币机制解决该问题,为每个智能体分配与其(外生)公平份额成比例的预算。价值分布的相关性使得问题极具挑战性——当智能体得知其他智能体具有高估值时,可能通过谎报低估值来搭便车,以期其他智能体承担更多资源成本。我们提出一种黑盒归约方法,将成本性可排他公共物品分配的货币机制转化为本问题机制。聚焦于使用AI智能体时的自然策略——步调策略,即智能体向机制报告其价值的缩放版本。主要结果表明:当采用真实货币机制作为基础构件时,所得在线机制存在焦点均衡,其中每个智能体执行步调策略,其分配结果构成核心的 $(\mathcal{H}_n-1)$ 近似解($\mathcal{H}_n$ 为调和数,$n$ 为智能体数量)。值得注意的是,我们能在无需智能体显式协作或协调的情况下,将近似核心解实现为纳什均衡结果。

0
下载
关闭预览

相关内容

智能体,顾名思义,就是具有智能的实体,英文名是Agent。
【ICML2022】Orchestra: 通过全局一致聚类的无监督联邦学习
专知会员服务
17+阅读 · 2022年5月27日
专知会员服务
42+阅读 · 2021年1月18日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员