We consider the problem of contextual bandits with stochastic experts, which is a variation of the traditional stochastic contextual bandit with experts problem. In our problem setting, we assume access to a class of stochastic experts, where each expert is a conditional distribution over the arms given a context. We propose upper-confidence bound (UCB) algorithms for this problem, which employ two different importance sampling based estimators for the mean reward for each expert. Both these estimators leverage information leakage among the experts, thus using samples collected under all the experts to estimate the mean reward of any given expert. This leads to instance dependent regret bounds of $\mathcal{O}\left(\lambda(\pmb{\mu})\mathcal{M}\log T/\Delta \right)$, where $\lambda(\pmb{\mu})$ is a term that depends on the mean rewards of the experts, $\Delta$ is the smallest gap between the mean reward of the optimal expert and the rest, and $\mathcal{M}$ quantifies the information leakage among the experts. We show that under some assumptions $\lambda(\pmb{\mu})$ is typically $\mathcal{O}(\log N)$, where $N$ is the number of experts. We implement our algorithm with stochastic experts generated from cost-sensitive classification oracles and show superior empirical performance on real-world datasets, when compared to other state of the art contextual bandit algorithms.


翻译:我们考虑的是背景强盗问题,由专家与专家之间的背景强盗问题,这是传统随机强盗背景强盗与专家问题之间的一种差异。在问题设置中,我们假定可以接触一组随机专家,在其中,每位专家有条件地分配武器。我们建议对此问题采用基于高信任的算法(UCB),对每位专家平均奖赏使用两个不同的重要性抽样估测器。这两个估测者都利用专家之间的信息泄漏,因此,利用所有专家收集的样本来估计任何专家的平均奖赏。这导致从实例上到上到上到上到下,每个专家的成绩取决于上到上到上,我们最优的专家和其余专家的平均奖赏之间的最小差距。 美元和上到上到上到上,我们专家的成绩通常在上到上到上, 美元到下,我们专家的成绩通常在上到上到上, 美元到上到上。

0
下载
关闭预览

相关内容

专知会员服务
142+阅读 · 2021年3月17日
【MIT】硬负样本的对比学习
专知会员服务
39+阅读 · 2020年10月14日
已删除
将门创投
4+阅读 · 2019年11月8日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Robust Federated Learning by Mixture of Experts
Arxiv
0+阅读 · 2021年4月23日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年11月8日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员