3月28日周三晚,北京大学“人工智能前沿与产业趋势”第五讲,本期中科院计算机所研究员陈云霁授课主题为“深度学习处理器的现状及发展”,分享了深度学习的工作方式、深度学习处理器的发展、寒武纪目前的科研成果等相关内容。
全程从有趣的案例出发,深入浅出地拆解相关技术知识,量子位作为独家合作媒体,为大家带来详细课程笔记一份。
课程导师:雷鸣,天使投资人,百度创始七剑客之一,酷我音乐创始人,北京大学信科人工智能创新中心主任,2000年获得北京大学计算机硕士学位,2005年获得斯坦福商学院MBA学位,同时也是“千人计划”特聘专家。
主讲嘉宾:陈云霁,中科院计算所智能处理器研究中心主任。14岁就读于中科大少年班,24岁博士毕业于中科院计算所,29岁起任中科院计算机所研究员(正教授)、博导。目前是中科院计算所智能处理器研究中心主任,中国科学院脑科学卓越中心特聘研究员,以及中国科学院大学岗位教授。他带领其团队研制了国际上首个深度学习处理器芯片寒武纪,被MIT技术评论评为全球35位杰出青年创新者(2015年度)。
寒武纪做智能芯片最主要的目标就是去完成各种各样的智能计算任务,为它们提供核心芯片的支撑。我们看到有这样一个趋势:计算机已经不仅仅是科学家和工程师计算的一个工具,而是帮我们从日常重复的事物中解放出来,很多智能已经成为我们日常生活中常见的一些任务。
智能应用成为计算机最主要的负载,比如说在超级计算机上做的商业分析、药物研制,或者是数据中心的广告推荐、自动翻译,还包括手机里的语音识别、图像分析,还有很多嵌入式设备方面的机器人、自动驾驶、手环、手表,其实背后最主要的还是在做智能计算的任务。
这些智能任务有很多,主要的处理方法主要有三种:符号主义、行为主义、联结主义。
符号主义是希望能够用符号逻辑把所有知识、需要解决的问题表达出来,再通过逻辑求解器把这些问题解决掉。符号主义的实施比较难,所以现在并不是那么的流行了。
行为主义,机器人就是偏这一块的,也就是希望从行为上一开始能做到一个月小孩的智能水平,再继续做,再达到一岁多小孩的能力,这样逐渐提升。虽然行为主义有这样的一个框架,但是却没有很好的实现手段。
所以目前来看,现在最主要的是联结主义,这里面的核心手段是人工神经网络,核心思想是:人的大脑是一个由生物神经元细胞组成的网络,这里面大概有千亿个神经元细胞、百万亿个突触,有这么多神经元和突触组成的网络赋予人脑智能。
人工神经元
1943年有两个科学家,一个叫W Mcculloch(心理学家)、一个叫W Pitts(数理逻辑学家),他们提出一个问题:我们能不能对人的大脑做一个数字化的抽象?于是就提出了人工神经网络这样一套方法,这个方法背后的思想是:把人的大脑里每一个神经元细胞抽象成一个数字,每个突触抽象成一个数字,这个数字组成的网络从某种意义上来说就继承了人脑处理智能的能力,这就是现在的人工神经网络。
生物的神经元和人工的神经元实际上有非常大的区别,区别有多大呢?华老师有个比喻:生物神经元和计算机里的人工神经元的区别就像老鼠和米老鼠的区别。米老鼠是对老鼠的一个抽象,把老鼠的很多特征都抽取出来,比如胡子、嘴巴等,但是老鼠身上的一些系统在米老鼠的身上就抽象掉了;另外一个方面,为了让米老鼠现得更萌,让更多小朋友能喜欢它,这可能是原本老鼠所不具备的东西。
计算机里的人工神经网络和生物的神经细胞之间也有类似的区别。比如说,这里面的生物神经元可能是这样一个形状,它里面有一个细胞体,有轴突,有树突,神经元碰到的地方我们称为它的突触,就是两个神经元细胞的连接,那么人工神经元看起来就简单多了,黑圈表示神经元,神经元之间的东西可以称为突触或者称为连接,红圈代表它的权重。
看一个最简单的人工神经网络,它只有一个神经元。先看它的构成,它可以从外界得到输入,每个输入都有一个权重,把输入进行汇总的时候通过一个非线性的激活函数就决定了它整个最后的输出。
这么简单的一个人工神经元就可以完成一些有意思的问题,比如说分类问题。分类在人工智能或者机器学习里面非常基础的、非常普遍的一个问题,比如对面走过来一个人,他叫什么名字、我认不认识他,这就是一个典型的分类问题。如果能够解决分类问题,那么这种方法实际上就有一定的普适性了,可以解决很多其他的东西。
刚刚讲的是一个神经元,很多个神经元在一起做什么呢?深度学习就是一种多层大规模的人工神经网络,最早深度学习在提出的时候,就有部分借鉴了生物神经元的特点。神经元是在我们大脑皮层里面,一般比较先进的生物会进化出一些比较复杂的皮层,逐层会对信息进行抽象和提取,赋予了人一种比较强的智能处理能力。
深度学习最早有一点点借鉴这种思想,也可以把人工神经网络做成很多层,像这个例子里面,有一个Convolution层、有LRN(Local Response Normalization)层、有Pooling层、有Classifier层等不同类型的层。但是随着深度学习的发展,不拘泥于过去这些生物的限制,人的大脑实际上只有六层,而现在的深度学习技术可能就是上百层、数百层甚至有上千层的网络。
深度学习工作方式和应用
看一个简单的图例,深度学习到底是怎么工作的。
比如说在这个图例里,我们可能是一个5、6层的神经网络,第一层可以看到一些局部简单的特征,比如对角线这样的东西;再下一层神经网络做了一个更大范围的卷积,会看到一个更大范围、更复杂的特征,比如说由环、圈、点这样类似的东西;到下一层我们可以看到更大范围更复杂的。
进行逐级抽象之后,就可以对一个复杂的图片进行理解,比如猪、狗、猫等这些东西,像ImageNet、语音、自然语言处理里都有非常多的比赛、挑战赛,现在基本上是深度学习在主导着这个榜前几名。
这里有一个很著名的测试,用深度可以达到99%的准确度,不仅仅像MNIST这样简单的问题,还有像比较复杂的问题,比如人脸识别。机器在某些特定的工作条件下、边界条件下,可以达到比人识别人脸更高的程度。但是从鲁棒性条件来说,深度学习和人还是有一点点的差距的,但是这个差距我觉得是技术上弥补的,可能需要五年或者更长时间。
另外是语音识别,语音识别现在大家用的已经非常多了、已经是一个非常工业化的技术了。举个例子比如说科大讯飞的语音输入法,实际上这里面都是在用深度学习的方法在做支撑。
2014年DeepMind就已经提出了一套深度学习加增强学习的框架,这里面的含义就是说深度学习就是一个人工神经网络,但是这些人工神经网络的拓扑、参数、权重是怎么得到的呢?它是通过增强学习这套框架不断在现实中学习、调节、不断在自然界中去使用神经网络,然后计算机再返回去调整这个神经网络的权重。
当时DeepMind用它去教会了计算机打很多种小游戏,大概有几十种。比如贪吃蛇这种游戏,用这套框架,DeepMind就告诉计算机,只需要看着屏幕,只需要把这个游戏的分数打得尽量高,不需要告诉计算机游戏规则是什么。
DeepMind让计算机学会了打40多种小游戏,而且有20多种超过了人类的世界记录。然后,DeepMind又把这套深度学习加增强学习的框架用到了下围棋方面,如大家所知,AlphaGo战胜了很多人类世界冠军,他们再把这套框架应用在更多的不同类型的棋类游戏里,都纷纷战胜了人类的顶尖选手,所以说DeepMind的这套深度学习加增强学习框架是非常了不起的。
芯片与神经网络
我们为什么要做专门的芯片来支持神经网络的应用呢?
其实原因很简单,现在的芯片,比如说CPU、GPU,在进行深度学习处理的时候,效率是比较低下的。
从CPU的角度来说,2012年,有个非常知名的工作——谷歌大脑,谷歌大脑当时用1.6万个CPU核跑了接近一周去训练识别猫脸,这个工作当时在NIPS引起了非常大的反响,因为它把猫脸或者人脸识别的准确度显著地提升。但是从另外一个角度上来看,它需要的计算资源太多了,并不是一个普通人、一个普通的企业,能够有这么多个CPU核去跑这么复杂的任务。
另外一个例子是AlphaGo,它在跟李世石下棋的时候,当时用了1000多个CPU和200个GPU,平均每块电费就需要接近3000美元。这反映了一个很实际的问题:现在人工智能算法的能耗实在是太高了,不管CPU还是GPU,都不足够把这些算法真正地用起来。
我们期望智能时代的到来,期望大量智能应用能够落地,这里面一定要有一个前提:物质载体要成熟。但是从现在来看,不管是CPU还是GPU,不管是性能还是能耗,现在芯片都不足以支撑。
另外还有一个更加长远的问题:现在最复杂的人工神经网络算法,里面的突触多达1000亿多个,但是跟人的大脑相比还是有很大差别——人大概有百万亿个突触。
这是一个从老鼠到米老鼠的比较,我们这里的1000亿个突触是指人工神经网络里的,而百万亿个突触是人脑里生物神经元的突触,可能这两者之间不能划等号,但是它毕竟体现出了一个数量级的差别。
所以专门的人工神经网络处理器或者说深度学习处理器在未来不管从学术角度还是产业角度发展来看都是必然的事情,未来的每台计算机都需要一个专门的深度学习处理器。
我想这个是跟GPU具有同样规模的潜在市场,非常幸运的是我们中科院计算所走得比国际同行要相对早一些,从2008年开始我们就开始做这方面的研究,团队的名字就叫做寒武纪。
这些是我们具体做的一些工作。
2013年我们做了国际上第一个深度学习架构,这个工作获得了ASPLOS最佳论文奖,这是在亚洲地区,在计算机体系结构顶级会议上的首次拿奖。
这个工作实际上是在通用CPU十分之一的面积上做到了它百倍的性能,后来做了一系列相关工作,包括国际上第一个多核深度学习处理器、国际上第一个商用深度学习处理器等等,获得了一批顶级会议的最佳论文。
应用
目前我们有了一些比较广阔的应用,主要包括云服务器和手机等几个方面的应用。
现在华为的一些高端机型,比如Mate系列、P系列、荣耀V系列都集成了寒武纪的深度学习处理器,为它提供了本地实时智能处理能力。华为在上面做了好多应用,比如拍照时候识别出来你拍了什么东西,可以自动调节光圈、快门等,这些跑在寒武纪深度学习处理器上时,你就不需要联网了,可以实时本地完成这些任务。
除此之外还有一些云服务器的应用,和阿里、联想、中科曙光等这些企业都有合作。
在做深度学习处理器的过程中,我们在学术上还有一些贡献。
传统的思路是特定算法硬件化的思路,没有办法解决深度学习处理器的需求。深度学习不是一个特定的算法,而是一大类算法,它有处理语音的、有处理图像的、有处理自然语言的、有下棋的、也有做广告推荐的,但是更麻烦的是世界上至少有几十万个研究机器学习的人,每天都会有机器学习算法出来,过去那种思路,对深度学习来说是不可能解决的,因为芯片的研制周期很长,你花两年的研制出芯片来,这时候世界又冒出几十、几百个新的算法来,如果芯片无法支持,这个芯片就白做了。
这里面涉及到三个科学的问题:
第一、 有限规模的硬件怎么支持任意规模的算法?这里面的思想是这样:做一个深度学习处理器,它里面是用硬件电路来做突触和神经元,你怎么用有限规模的硬件去面对几乎无限规模的算法。
第二、 结构固定的硬件怎么去应对千变万化的算法?芯片还是一个铁疙瘩,它做好之后哪些突触跟神经元有连接都已经确定了;但是算法不是这样的,比如在手机上面,要跑语音的、图像识别的、自然语言理解的,不同的算法的拓扑、连接都是不同的,一个固定的硬件怎么把它们解决掉。
第三、 能耗受限的硬件怎么应对精度受限的算法?我们设计硬件的时候,它是有些固定的约束,比如要用在手机上,那么就一定不能超过一瓦,不然手机就发烫。但另外一方面是精度受限的算法,做算法的工程师不考虑受限的情况,只考虑把精度做的越高越好,所以做硬件和做算法的人之间的思路是存在一个矛盾。
虚拟化的同时降低开销
有限规模的硬件怎么应对任意规模的算法?我们的思想很简单:硬件神经元的虚拟化,我通过复用,把有限规模的硬件虚拟成大规模的人工神经网络。看一个很容易理解的例子:我们要处理一个非常大的人工神经网络,就是PPT中白色圈,但是我们硬件又很小,那怎么办呢?
把这个大的要处理的逻辑人工神经网络切成很多个小块,每个小块我们映射到硬件上的每个小块上去处理,通过蚂蚁搬大米的方式:用一个有限大小的硬件,处理另一大规模的算法。有一个很大的好处是:如果算法变了,硬件并不需要变,比如再加一层,或者说再加一些神经元,只要把虚拟化的软件稍微调一下就可以。
但是,在这个虚拟化的过程中,其实是带来了开销,也就是需要做一些数据搬运,要把算法神经元或逻辑神经元搬到硬件神经元上来。所以这里面我们有很多更细节的技术,比如搬运的过程中,怎么保证能够不断地重用神经元或者突触的数据。这样就导致一个结果:一方面在虚拟化中让有限规模的硬件处理任意规模的算法;另外一个方面,虚拟化过程中,数据基本上是能够大幅度重用的,没有太多数据搬运的开销。
指令集
结构固定的硬件如何去应对千变万化的算法。这里面的思想是:自动化抽取各种各样的深度学习+机器学习算法的贡献的基本算子。通过这个方式我们设计了国际上第一个智能的指令集。
为什么做深度学习指令集要用机器学习呢?一方面,全世界可能有100万人做深度学习,每天都能搞出一些算法;另一方面,这么多搞深度学习的人,他们每天变来变去,但是万变不离其宗,基本的trick都是几十年来传承下来,就那么几招,而这些招数就在上百种的机器学习算法里。
这些机器学习算法模型都不一样,有的是概率模型,有的是线性模型,有的是非线性模型,有的是神经网络的模型,有的是SVM的模型,还有其他不同类型的算法,把这上百种机器学习算法都分析一遍,我们就能确保,即便未来再出了新的深度学习算法,也跳不出我们的手掌心。
我们2013年和2014年做了第一个深度学习处理器的架构,到现在,像GAN,Fast R-CNN这些各种各样新的算法层出不穷,但是依然能够高效地支持,就是因为我们把可能的套路都已经分析的比较清楚。
分析套路具体是做什么呢?
第一、 把这些算法全部拉出来,做一个最耗时最需要运算操作的集合,做这个合集是为了分析做深度学习处理器需要什么样的部件。
第二、 寻找机器学习算法中的缓存的,读取数据的共性,自己来设计变量存储。所以就看到很多机器学习算法:KNN、K-means、SVM、朴素贝叶斯、贝叶斯网络等等
这样得出一个结论:世界上可能有上百种机器学习算法,但是他们里面共性的运算都是很固定的,就这几种:向量内积,向量距离,计数,非线性函数,排序等等。
另外还找到一个共性,我们称为“三个柱子”:一个数据局部现象的共性,用机器学习的方法,对机器学习的算法再做一次分析,把一个机器学习算法里面所有的变量都拿出来,对它做一个聚类。然后发现,不管重用模式,重用距离还是重用次数,从访问宽度上来看,一般来说每个机器学习算法里面的变量也就两到三类。
我们找到了机器学习算法里的共性,找到了共性的缓存的模式,之后设计了一套专门的指令集,能够高效支持各种各样的机器学习算法,深度学习算法。
具体怎么支持呢?出现一个新的算法,只需要指令之间的拼接组合,就能够把新的算法给完成出来,这就解决了固定的硬件怎么去应对千变万化算法的这个问题。
关于稀疏的方法
第三个学术贡献,是关于稀疏的方法。
做硬件的这些人,包括我们,会受到最大的能耗限制:在手机上不能超过1W,在服务器上因为封装散热的限制,芯片也不能超过300W。
如何应对呢?我们提出了一套稀疏神经网络处理器的这样的一个思想。因为神经网络对计算误差具有一定的容忍能力,尤其是对它进行一些重训练之后还要做一些代偿,于是就需要对神经网络进行稀疏化,这样就能在有限的能耗下完成高精度的智能处理。
但是这里有一个问题:稀疏化的过程中,如何保证精度?稀疏掉了90%的神经元,在有的场景下可能精度不会降低,有的场景下可能精度就降低了。我们提出了一整套软硬件的执行方法,可以自动判断精度有没有下降。
到底多小是非常小到可以稀疏化掉呢?就是阈值。比如这里设0.01,如果发现0.01为阈值,最后精度下降了,那就把阈值调低一点,反过来说当用户体验不受影响的时候又可以把阈值调高一点。思路就是在运行时的环境中做动态调节。
国际影响力
寒武纪的学术贡献也在国际上的同行中形成了一定的影响力。
在智能芯片领域,国际上被他引最多的两篇论文都来自我们这个团队,前十的论文里可能有接近一半是来自我们这个团队。包括哈佛,斯坦福,普林斯顿,MIT,伯克利,哥伦比亚,英特尔等在内的国际上百个科研机构都在跟踪寒武纪的前沿成果。
在精度和性能、功耗比上,我们比英伟达,谷歌,苹果这些,仍然是有优势的。去年年底, iPhone X和华为Mate10基本同时发布,第三方测评报告里,华为Mate10的深度学习处理器的性能要比iPhone X里的性能高3倍左右,而华为Mate10的深度学习处理器是用的寒武纪的技术。今年2月份,Science杂志对寒武纪的工作进行了深度的报道,并表示我们是业内的引领者。
想说一下寒武纪未来的梦想,这个梦想不一定能达成,但是我们会朝之努力。
希望把代表性智能算法的处理速度跟性能功耗比提升10000倍。为什么是10000倍呢?因为谷歌大脑是1.6万个CPU核,如果能够提升1万倍就意味着能够把谷歌大脑这样的东西能够放到一个手机里。
这样的手机,不仅仅是帮助我们本地实时地完成各种图像语音和文本的识别和理解,更重要是它还具备训练能力,能耗还很低,那么它就可以不间断的去观察人、社会和自然界的行为,不断提升自己的智能。
寒武纪芯片,是通用的深度学习芯片么?
对,我们做的就是通用的机器学习处理器,更准确的讲应该说深度学习处理器是我们过去做的工作,现在做的是一个通用的机器学习处理器,不仅仅是深度学习算法,包括KNN,K-means,支持向量机等等都可以完成。
我觉得这个对于产业落地来说重要且关键。如果芯片只能支持特定的算法,应用面就会非常窄,会有很大的市场风险。而且芯片的成本非常高,做一个芯片,流片成本就应该在1亿到2亿之间人民币。所以芯片如果没有广阔的应用面,不可能去用最先进的工具做一个最好的产品。
从现在寒武纪的进展来讲,距离这些通用处理器还有多大距离呢?
距离应该说非常近了。我们在进行智能处理的时候,能效比会比现在的GPU还有TPU都还要高不少。但是也必须说清楚,我们的应用面没有GPU那么广,GPU毕竟还能做图形处理,科学计算,做很多我们做不了的东西。
我们如果能做出和GPU一样的东西,那坦率地说应该做不过英伟达,这是一个很实际的事情。但是我们在我们这个领域,其实是有实测数据的,明显的要比TPU有一些优势。这里面有一个非常重要的原因:灵活性上有优势。
关于什么时候用得上,这也是大家比较关心的问题。这里有两个方面,第一个方面是终端,其实现在的华为手机都能用上了,很多公司已经面向寒武纪的处理器和指令集开始做App。另外一块是云端,这里卖个关子,很快大家就会见到了。希望在做深度学习研究的老师同学,试一试寒武纪的东西。
如果想让大家买的话,性价比怎么样?对通用平台的支持,比如TensorFlow、Caffe,是不是可以无缝支持使用呢?
第一个问题我不清楚,我只管在计算所里花钱研发,其他是陈天石的事情。(笑)
关于对通用平台的支持,无缝都是可以的,包括TensorFlow、Caffe等等都可以。同时我们提供一套自己的编程语言,万一有一些做机器学习的人开发一些新的算法,如果过去的编程观念支持不了,可以用我们的编程语言实现。实际上目前已经有很多公司去用了,他们也不怎么需要寒武纪来做技术支持,就是因为我们把编程框架,底层的东西已经封装好了,相当于能够有一个无缝的接入。
我们经常说中国的芯片产业比较落后,现在寒武纪异军突起,走的算是比较的快,整体来讲你认为中国的芯片产业和美国比起来还有多长的路,大体上还差什么?如果我们逐渐追赶的话这个路径会是什么样的?
谢谢,我觉得这是中国所有做集成电路和半导体人的梦想。目前我的感觉是,如果中国有一家集成电路设计企业能成为世界领先,华为应该能算上。除了华为之外,像展讯,还有比特大陆。
从技术积累上看,华为在全方面都有很好的积累。但问题是华为,包括寒武纪,是一个集成电路设计企业。从中国的角度来说,整个行业,如果要走到世界前列,那么就要整个链条都走到前列,而不是说几家企业。
整个链条形成闭环就有很大的难度,涉及到产业链的方方面面。相对来说集成电路设计需要补课的内容不多,但是在生产包括EDA软件,包括未来的一些东西,需要补课的地方还很多。所以我觉得我们只能大家一起努力,各个链条上,达到这个梦想。
你和弟弟从这种很学术化的场景,转到去做产业的场景,能分享一下这个转变有什么比较困难的经历,以及成功的经历呢?
成功的经历目前还没有,还在路上。首先我和陈天石有分工,过去是他做算法我做硬件,到后来我们要去做产业化,就是他做公司我做技术,所以他可能感受更深,我从一个旁观者的角度来说能够感觉到:做生意真累。
在座的老师同学们,如果不是百分百确信自己这么强的热情,最好不要轻易尝试,很辛苦,不仅仅是每天需要到处跑,接触各种各样的人,面对的环境更复杂;更重要是压力不一样。
做技术研究者的压力是:这次论文没中,下次再投吧,总有一个期刊能适合我,中不了就再去投子刊物,总能中一个。但是做企业,其实寒武纪一直比较顺畅,但是背后的压力也很大。对于一个企业,我能明显感觉到:一款产品,一个阶段,一不小心踩空,可能就是一个巨大的打击。
反正我觉得搞研究真的挺好的,叫我干企业我肯定不干。(笑)
雷总您觉得从做投资人和创业者这两个角度看,您觉得哪个更有意思?
雷鸣:我觉得,可能还是和人的特点有关系。这两种工作在能选择的情况下差别很大。中国的或者全球的富豪榜,里面找不到VC,因为虽然投资是很高大上的职业,但是主要是给别人挣钱。从赚钱的角度来看,这个职业平均收入极高,但是要是单点一个人巨高,还是要走创业这条路。
从实现梦想的角度来看,如果你真的有一个事情想把它做好,其实还是创业的比较多。因为作为投资人你觉得这个机会特别好,但是你觉得团队不给力的时候,你没什么办法,只是投资人而已;但是有一类人是,他喜欢的面比较广,喜欢创新的这些东西,不太喜欢运营,这种就比较适合做投资。
人的本性就是如此,不专注就走不专注的路,逼着自己专注有时候可能也挺累的。
你对大家的发展有什么建议,建不建议大家也做个芯片公司还是说建议大家现在着重学习些什么,准备些什么?
我还是从技术研究的角度来说,还是觉得大家要找一个自己真正非常喜欢的领域,去从事这方面的研究。做研究其实非常痛苦,如果不能得到乐趣,纯功利的角度,那还挺悲催的。如果大家能够选择的话,根据自己的初心来选择。如果有一天我选择创业,那一定是我的研究需要一个公司作为一个平台,来带来更大的效应。
下周三晚18:40,北京大学“人工智能前沿与产业趋势”第六讲,将由百度自动驾驶首席架构师陈竞凯为大家授课。
感兴趣的小伙伴可以添加量子位小助手6:qbitbot6,备注“北大”,通过后可进入课程活动群,获取每期课程信息,与其他小伙伴互动交流。
祝大家听课愉快~
在量子位微信公众号(QbitAI)界面回复:“180330”,可获取本次课程的视频回放链接。
— 完 —
活动推荐
△ 点击图片或阅读原文
即可获取更多详情
联想高校AI精英挑战赛,覆盖全国28个省份、8大赛区和260所高校,经过在中科大、华中科技大学、清华大学、上海交通大学等8所AI领域具有顶尖优势的理工科高校的半决赛路演,产生最终入围总决赛的十支参赛队伍,于3月29日在北京中国科学院计算技术研究所举行全国总决赛。
加入社群
量子位AI社群15群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot6入群;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进群请加小助手微信号qbitbot6,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态