移动设备,尤其是智能手机,支持丰富的功能,已经发展成为日常生活中不可或缺的工具。随着生成式人工智能服务的兴起,智能手机有望转变为个性化的助手,预测用户需求并相应地安排服务。在智能手机上预测用户意图,并基于过去的交互和上下文反映预期的活动,是实现这一愿景的关键步骤。现有的研究主要集中于特定领域,忽视了在动态上下文中对多样事件序列进行建模的挑战。利用预训练语言模型(PLM)提供了一个有前途的方向,然而将PLM适应于设备上的用户意图预测仍面临重大挑战。为了解决这些挑战,我们提出了PITuning,这是一种从群体到个体的调优框架。PITuning通过动态事件到意图的转化建模增强了常见模式的提取,并通过自适应去学习策略解决了长尾偏好问题。基于真实世界数据集的实验结果表明,PITuning在意图预测性能上表现优越,突显了其捕捉长尾偏好能力及其在设备端预测场景中的实用性。https://arxiv.org/pdf/2408.09815

成为VIP会员查看完整内容
11

相关内容

【ICML2024】理解视觉-语言模型的检索增强任务适应
专知会员服务
20+阅读 · 2024年5月3日
【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
20+阅读 · 2024年3月30日
【ICLR2024】为样本高效的强化学习预训练基于目标的模型
专知会员服务
19+阅读 · 2021年9月23日
【NeurIPS 2020】深度学习的不确定性估计和鲁棒性
专知会员服务
50+阅读 · 2020年12月8日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
ACL 2019 | 面向远程监督关系抽取的模式诊断技术
【迁移学习】迁移学习在图像分类中的简单应用策略
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
Arxiv
162+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
424+阅读 · 2023年3月31日
Arxiv
153+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
微信扫码咨询专知VIP会员