今年大会主题是“AI 新基建、产业新机遇”,一方面,是希望在大会举办 5 周年之际,在前几年大会讨论产学结合、产业落地和垂直细分的基础上,做一个系统的总结和回顾;另一方面,在过去几年 AI 纷纷走向产业化落地的大背景下,大会从人工智能基础研究出发,推动人工智能更多的应用、更多的可能,在更多领域的落地。
简单来说,数字视网膜是三个编码流合并的系统,视频流和特征流是最主要的,这两个流时时刻刻都是汇集到一起进行传输的,第三个是模型编码,只是在模型需要压缩的时候,从云端推到边缘端或者终端上,进行一些增量的更新。有了数字视网膜,就相当于城市大脑边缘或者是终端方面就可以做得更高效,效能比更高,这样就可以减少对云端算力的依赖,同时云端的响应可以更精确、速度更快,这样就使得城市大脑可以做得更好一些。
我们知道逻辑推理比较容易利用知识,而机器学习比较容易利用事实或者是证据。但是,人类在做决策和分析的时候,其实并不是只依赖于中间某一个方面,而是两者相结合。我们既用到了事实、证据,也用到了知识。这两方面在人身上本来就是结合起来的,那做人工智能的模型、算法,也应该想办法把它结合起来。
实际上,在处理语言时,所谓的理解就是确定了概念与语言单元的映射,以及知道承载概念单元的语言属性,并且知晓了不同语言单元之间的关系。语言单元在不同的场景里面有不同的表现,有的可能就是简单的词和词之间的关系,词的属性,有的可能是涉及到句子和句子之间的关系,段落和段落等。
我觉得我们可以做更多需要知识驱动的任务,这需要知识和常识的支撑,需要推理和决策,比如说一些复杂的任务型的对话系统,它可以驱动我们研发真正高级的智能模型。另外一个是数据,我们还需要更多模态的数据,模态的交叉会带来比目前高几个数量级的数据,比如说跨模态的信息集合和连接,可以通过大量的多模态数据,使得无监督学习可以更高效获得更全面的模型,比如说通过海量文本、语音、图像、视频数据,建设跨模态数据集和知识库。
要想打造一款有竞争力的芯片,要清晰明白这个芯片典型的使用场景,它的主要算法以及这些算法在未来几年里可能的发展趋势,然后根据这些信息再去对芯片架构进行优化,以及对工具链做相应的优化,最后实现它们相互的优化,但同时也要保障芯片和算法能够分层解耦。
他对我们有专业上的影响,也有人格上的影响,我们非常幸运成为他的学生,而且我们也非常努力地想成为他那样的导师。我相信在学术界的人也都是这么想的,在工业界的人也是这样想的,尽管大家的角色不同,但是我们都希望成为 Tom 这样伟大而又平凡的人。