搜广推, 图机器学习, 因果推断等人工智能领域8大热点方向的最新进展!

2021 年 12 月 15 日 图与推荐

2021年,在疫情隔离和复杂国际形势的背景下,我们越发认识到重视核心基础技术,对保持国家独立自主发展的关键价值,互联网和科技行业也面临着新的挑战和变革机遇,新的AI技术正发挥越来越大的作用,AI技术本身正逐步往工业化生产阶段迈进。 不仅是搜广推等传统互联网业务,各行各业的需求爆发,也对AI提出了融合创新、降低门槛的要求。 所以预训练大模型、知识融合、跨模态学习、图神经网络等技术得到蓬勃发展,AI与其他学科和产业应用场景也在加速融合。 展望2022年,我相信还会有很多新的技术方向逐渐兴起和实用化。 比如炙手可热的元宇宙和数字人,提升AI算法可解释性、可靠性的可信计算,基于智能决策的工业和供应链优化等等。 下面根据主席和出品人的思考,我们提炼出了8个AI方向比较热门的方向,和大家一起交流讨论:

图学习:图结构广泛存在于我们的生活中,大到社交网络,小到化学分子结构,而图学习则是指在这些图结构上的机器学习,是目前最火爆的AI研究领域之一。本次大会将会从架构、算法、应用多个维度来全方面阐述图学习技术在学术界和工业界的最新的进展,期待和听众一起总结过去展望未来。



搜广推:是互联网连接人与信息、服务的关键技术能力。从早期的信息检索系统开始到现在,搜索就已经成为用户获取到互联网信息最为有效快捷的方式;广告则是伴随着互联网的商业模式发展的核心助力;随着互联网内容的不断丰富,更多的内容依靠推荐分发,推荐技术也变得越发重要。搜索、广告、推荐3大引擎自身发展的同时,极大的推动了互联网的技术发展,比如搜索依赖并驱动着NLP能力的发展,三大引擎都在不断驱动包括文本、图片、视频等内容类型的理解。

知识图谱:为人工智能重要驱动力之一,知识图谱在工业界和学术界都引起了广泛的关注,近些年随着预训练技术的发展,大规模知识图谱构建技术更为成熟,在各行业都带来了巨大的价值。此次大会中我们从大规模知识图谱存储、通用及领域图谱构建、企业知识图谱应用及挑战等角度与大家交流知识图谱技术的最新进展。

大模型:深度学习近年来的飞速发展,得益于数据与算力的突破、通用思想与工具的普及。随着Transformer-based模型在不同领域验证了其对于数据和模型参数的高可扩展性,一种趋势是将预训练模型做大、做通用,来获得更好的迁移性,甚至获得强大且简洁的零样本或少样本学习的能力。大会将讨论大模型训练效率、业界实际落地应用情况,以及学术界的相关进展。

实验科学与因果推断:随着21年诺贝尔经济学奖的颁布,基于观测数据和实验的因果推断越来越受到重视,并且也在众多的科技公司决策中扮演着重要角色。同时,因果推断和因果发现也是未来推荐系统的重要发展方向。本次大会为大家提供了多方位的实验方法与因果推断的应用场景案例。

智慧供应链:工业与AI、大数据结合,应用于生产制造、物流、仓储、销量预测等全流程。在电商场景下,仓库所需要履约的订单量大,涉及到的SKU众多,履约时效要求高,导致仓储履约难度大。如何维持服务水平的同时控制库存成本,核心挑战就是预测补货。这时,拥有一个好的预测算法,进而搭建一套完备的一体化供应链体系显得尤为重要。另一方面,在汽车领域应用运筹学、图和机器学习等技术,也取得了显著的成效。

AI工程化及应用:过去7年,以深度学习为代表AI技术浪潮席卷了整个互联网,算法和工程的持续合作创新将深度学习、图学习、强化学习等多项AI技术大规模应用到互联网各个业务场景,带来了巨大的业务红利,并推动分布式训练引擎、AI Serving、端到端建模等AI工程架构的巨大发展,成为支撑算法迭代的基石。进入到2021,深度学习的创新已然进入深水区,一方面AI工程化技术在更大规模、更复杂、更通用上持续演进,以支持头部场景迭代并推进AI普惠;另一方面新兴场景与AI技术的结合催生了非常多创新的算法解决方案。为此在我们将在AI工程化与应用这个Session,与大家一起探讨交流业界在算法端到端建模迭代、全流程机器学习平台、大规模排序、知识图谱、曲率学习、联邦学习等多个方面最新的AI工程实践。

数字人与元宇宙:数字人在图形图像、自然语言、语音AI能力及基础软硬件的发展推动下,近两年实现了爆发式增长,同时也作为元宇宙的场景入口与连接纽带备受瞩目。近期我们看到业界厂商集中推出了各自的数字人产品与平台,不但帮助数字人具有了更低的构建成本与更精细的表现力,还使其具备多模理解能力,拥有常识能感知环境,能够自主互动与情感化表达,推动了数字人智能化和场景化的升级。在这背后经过了怎样的探索与演进?本次大会的多位行业资深专家将为大家带来他们的最新实践。

以AI为代表的新技术动能,正在以前所未有的速度改造我们所熟悉的一切生活和生产活动。我们把AI成为“第四次工业革命”,而工业革命的最重要标志,就是技术的标准化、自动化和模块化。期待Datafun的小伙伴们通过这次大会,领略AI技术与大数据之美,积极投身到这场技术革命当中,共同实现我们用技术改变世界的梦想!


大会组织


关于我们:

DataFun:专注于大数据、人工智能技术应用的分享与交流。发起于2017年,在北京、上海、深圳、杭州等城市举办超过100+线下和100+线上沙龙、论坛及峰会,已邀请近1000位专家和学者参与分享。其公众号 DataFunTalk 累计生产原创文章500+,百万+阅读,12万+精准粉丝。

🧐分享、点赞、在看,给个3连击呗!👇

登录查看更多
6

相关内容

「实体对齐」最新2022综述
专知会员服务
132+阅读 · 2022年3月15日
图神经网络前沿进展与应用
专知会员服务
146+阅读 · 2022年1月24日
「大规模图神经网络系统」最新2022综述:从算法到系统
专知会员服务
113+阅读 · 2022年1月14日
面向任务型的对话系统研究进展
专知会员服务
56+阅读 · 2021年11月17日
基于RGB-D图像的语义场景补全研究进展综述
专知会员服务
28+阅读 · 2021年11月8日
专知会员服务
40+阅读 · 2021年4月3日
专知会员服务
64+阅读 · 2021年2月21日
鲁棒模式识别研究进展
专知会员服务
40+阅读 · 2020年8月9日
深度学习可解释性研究进展
专知会员服务
97+阅读 · 2020年6月26日
会议交流|大模型与图学习等知识图谱相关技术实践探索
知识驱动的推荐系统:现状与展望
专知
1+阅读 · 2021年11月22日
面向任务型的对话系统研究进展
专知
0+阅读 · 2021年11月17日
图神经网络+推荐系统的最新进展
图与推荐
1+阅读 · 2021年11月2日
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Pre-Training on Dynamic Graph Neural Networks
Arxiv
1+阅读 · 2022年4月18日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
35+阅读 · 2020年1月2日
Arxiv
45+阅读 · 2019年12月20日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
15+阅读 · 2019年6月25日
VIP会员
相关VIP内容
「实体对齐」最新2022综述
专知会员服务
132+阅读 · 2022年3月15日
图神经网络前沿进展与应用
专知会员服务
146+阅读 · 2022年1月24日
「大规模图神经网络系统」最新2022综述:从算法到系统
专知会员服务
113+阅读 · 2022年1月14日
面向任务型的对话系统研究进展
专知会员服务
56+阅读 · 2021年11月17日
基于RGB-D图像的语义场景补全研究进展综述
专知会员服务
28+阅读 · 2021年11月8日
专知会员服务
40+阅读 · 2021年4月3日
专知会员服务
64+阅读 · 2021年2月21日
鲁棒模式识别研究进展
专知会员服务
40+阅读 · 2020年8月9日
深度学习可解释性研究进展
专知会员服务
97+阅读 · 2020年6月26日
相关资讯
会议交流|大模型与图学习等知识图谱相关技术实践探索
知识驱动的推荐系统:现状与展望
专知
1+阅读 · 2021年11月22日
面向任务型的对话系统研究进展
专知
0+阅读 · 2021年11月17日
图神经网络+推荐系统的最新进展
图与推荐
1+阅读 · 2021年11月2日
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Pre-Training on Dynamic Graph Neural Networks
Arxiv
1+阅读 · 2022年4月18日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
35+阅读 · 2020年1月2日
Arxiv
45+阅读 · 2019年12月20日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
15+阅读 · 2019年6月25日
Top
微信扫码咨询专知VIP会员