本文约3055字,建议阅读6分钟
本文
介
绍11月17日19:30-21:00
举办的数据库知识发现专场六。
11月17日 19:30~21:00
邀请了中国科学院计算技术研究所、北卡州立大学的博士们以及美国Kitware公司高级研发工程师为大家带来KDD专场六!
扫码关注AITIME哔哩哔哩官方账号
观看直播
链接:https://live.bilibili.com/21813994
朱勇椿:
中国科学院计算技术研究所四年级在读博士生,导师为曹娟研究员和庄福振教授。主要研究方向为迁移学习、推荐系统等。在包括KDD,WWW,SIGIR等会议与期刊发表多篇论文。
内容简介:
在推荐系统和广告平台上,内容定向推广模块需要尽可能将商品、内容或者广告传递到潜在的对内容感兴趣的用户面前。扩充候选集技术(Look-alike建模)需要基于一个受众种子集合识别出更多的相似潜在用户,从而进行更有针对性的内容投放。然而,look-alike建模通常面临两个挑战:(1)一个系统每天可能需要处理成百上千个不同种类的内容定向推广实例(例如体育、政治、社会等不同领域的内容定向推广)。因此,我们很难构建一个泛化的方法,同时在所有内容领域中扩充高质量的受众候选集。(2)一个内容定向推广任务的受众种子集合可能非常小,而一个基于有限种子用户的定制化模型往往会产生严重的过拟合。为了解决以上的挑战,我们提出了一种新的两阶段框架Meta Hybrid Experts and Critics (MetaHeac)。在离线阶段,我们在不同种类的内容定向推广任务的历史行为数据上,采用元学习的方法训练一个泛化初始化模型。这个模型可以同时抓取不同任务之间的关系,从而能够快速适应新类别内容推广任务。在线上阶段,针对一个新的内容推广实例,模型能够基于给定的种子集合和离线训练得到的泛化初始化模型,快速训练出这个实例的定制化推广模型。我们通过离线实验和线上实验验证了MetaHeac的有效性。目前,该框架已部署到微信中,用于部分内容定向推广场景。
万润哲:
万润哲是北卡州立大学统计学博士,导师为宋瑞教授。研究方向主要是强化学习,在线学习,以及最优决策等。在包括 NeurIPS,ICML,KDD 等会议与期刊一作发表多篇论文。获 ASA Norman Breslow Young Investigator 等奖项。
基于模型的多目标强化学习及
其在传染病控制中的应用
内容简介:
新型冠状病毒 (COVID-19) 等严重传染病对公众健康构成巨大威胁。停课、居家令等严厉管控措施,在效果显着的同时,也带来经济损失。面对新出现的传染病,政策制定者面临的一个关键问题是,在巨大的不确定性下,如何权衡利弊并及时实施适当的干预措施。在这项工作中,我们提出了一个基于多目标模型的强化学习框架,以促进数据驱动的决策并最大限度地降低整体长期成本。具体来说,在每个决策点,首先学习一个贝叶斯流行病学模型作为环境模型,然后应用所提出的基于模型的多目标规划算法来寻找一组帕累托最优策略。该框架与每项政策的预测区间相结合,为政策制定者提供了实时决策支持工具。该方法的有效性被基于真实数据的仿真得到了证明。
赵辰:
美国Kitware公司高级研发工程师,博士2021年毕业于美国德州大学达拉斯分校计算机专业。博士期间的研究方向主要是公平性学习在数据挖掘,机器学习,深度学习上的研究和应用等。在包括KDD, ICDM, WWW等会议与期刊上发表过多篇论文,并多次受邀担任 KDD, ICDM, AISTATS, WSDM, SDM, NeurIPS, BigData, JBDR等人工智能领域顶级国际会议程序委员/审稿人。
个人主页:https://sites.google.com/view/chen-zhao/home
内容简介:
与线下学习不同,在线学习主要分为两种研究模式:(1)在线元学习。该方法在一个连续的场景种学习模型参数的先验(也被称做学习如何学习),该场景默认每个学习任务是在连续时间点依次出现。尽管在线元学习提供了一个次线性的遗憾上限,但是它忽略了公平学习的重要性,而公平学习是人工智能是一个非常重要的标志。(2)第二种方法是在线公平性学习。尽管这种方法适应于许多涉及公平性的分类问题, 但这种方法主要集中于在没有任何特定任务适应性的情况下实现零概率泛化,这也因此限制了模型适应新数据的能力。为了克服上面的问题,本文首次提出了一种新的在线元学习算法FFML,该算法是在不公平预防背景下进行的。FFML的关键部分是学习在线公平分类模型的原始参数和对偶参数的良好先验,它们分别与模型的准确性和公平性有关,并且该原始和对偶参数对的优化问题是采用一个双层次的凸-凹优化方法。该算法的理论分析同时为遗憾损失和累积公平性限制提供了次线性上限。此外,该算法的有效性被基于真实数据的实验得到了证明。