最近在大型语言模型(LLMs)方面的进展使得视频语言模型(Video-LLMs)的发展成为可能,通过将视频数据与语言任务结合,推动了多模态学习的进步。然而,当前的视频理解模型在处理长视频序列、支持多轮对话以及适应现实世界的动态场景方面存在困难。为了解决这些问题,我们提出了STREAMCHAT,一个无需训练的框架,用于流媒体视频推理和对话互动。STREAMCHAT利用一种新颖的分层记忆系统,能够高效地处理和压缩长序列中的视频特征,从而实现实时的多轮对话。我们的框架结合了并行系统调度策略,提高了处理速度并降低了延迟,确保在现实应用中的强大性能。此外,我们还推出了STREAMBENCH,一个多功能的基准测试,能够评估流媒体视频理解在多种媒体类型和互动场景下的表现,包括多轮互动和复杂推理任务。在STREAMBENCH和其他公开基准上的广泛评估表明,STREAMCHAT在准确性和响应时间方面显著超越了现有的最先进模型,验证了其在流媒体视频理解中的有效性。代码可在StreamChat获取。

成为VIP会员查看完整内容
8

相关内容

【ICML2024】理解视觉语言模型的检索增强任务自适应
专知会员服务
23+阅读 · 2024年5月8日
【ICML2024】理解视觉-语言模型的检索增强任务适应
专知会员服务
20+阅读 · 2024年5月3日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
46+阅读 · 2022年7月10日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
16+阅读 · 2022年3月17日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
50+阅读 · 2021年12月20日
专知会员服务
23+阅读 · 2021年9月27日
专知会员服务
36+阅读 · 2020年11月29日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
38+阅读 · 2020年6月22日
综述| 当图神经网络遇上强化学习
图与推荐
30+阅读 · 2022年7月1日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
71+阅读 · 2023年3月26日
Arxiv
154+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【ICML2024】理解视觉语言模型的检索增强任务自适应
专知会员服务
23+阅读 · 2024年5月8日
【ICML2024】理解视觉-语言模型的检索增强任务适应
专知会员服务
20+阅读 · 2024年5月3日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
46+阅读 · 2022年7月10日
【CVPR2022】语言引导与基于视觉的深度度量学习的集成
专知会员服务
16+阅读 · 2022年3月17日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
50+阅读 · 2021年12月20日
专知会员服务
23+阅读 · 2021年9月27日
专知会员服务
36+阅读 · 2020年11月29日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
38+阅读 · 2020年6月22日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员