电话 | 010-82030532 手机 | 18501361766 微信 | tech9999 邮箱 | yw@techxcope.com ****ChatGPT:我们应该怎么看?

国防大学 胡晓峰

最近,人工智能聊天机器人ChatGPT火遍天下。虽然只是人工智能公司OpenAI推出的一个测试程序,但已经迅速“出圈”到无人不晓的程度。能够和它相比的,大概只有2016年打败围棋大师的“阿尔法狗”了。ChatGPT是什么?为什么它会这么火?它能做什么,又不能做什么?对未来会带来哪些影响?我们该如何看待它带来人工智能技术的进步?下面尽量通俗地谈几点看法。

1、ChatGPT是什么?它为什么会火出圈?

“我是一个基于大型语言模型的聊天机器人,接受过大量文本数据的训练,使我能够对各种各样的问题产生出类似人类反应的回答,并用一种听起来自然流畅的方式表达出来。我可以尽我所能地提供准确和有用的信息,但我也并不是一个完美的知识来源,因为我并不能总是提供完整或正确的答案。我一直在学习和提升,所以我可能不知道你所提所有问题的答案,但我很乐意尽我所能帮忙。”上面这段话,就是ChatGPT自己对自己的介绍。 关于聊天机器人,其实我们已经见过很多。大家最熟悉的莫过于苹果手机的“SIRI”,百度搜索的“小度”或小米音箱的“小爱同学”了。但是这些可以与人类进行简单对话的机器程序,跟ChatGPT比起来,简直就可以说是“弱爆了”:对话词汇极为有限,对话过程生硬无比,而且对话内容无法连续进行。ChatGPT则不然,对话流畅,知识丰富,回答巧妙,即使它的回答并不能让你总是满意,但最令人震惊的是它居然能真正理解你所提问题的含义,无论你怎么拐弯抹角的为难它。我们可以在网上找到无数网友跟它对话的例子,很多对话无不叫人拍案叫绝。你可能会想,它怎么就知道这样说呢?而且,它还会写小说、作诗、写会议总结、读书心得,甚至编程序,写论文,以至于很多大学教授都已经头疼于学生用它来作弊写论文了。 ChatGPT是由美国OpenAI公司开发的。OpenAI于2015年由外号“钢铁侠”“外星人”的马斯克以及阿尔特曼等人创立,目标是致力于让机器人能够完成基本家务。据说,当年对人工智能危险抱有高度警惕的马斯克之所以创立这个公司,还是因为阿尔法狗的出现,使其看到了人工智能迫在眉睫的危险,而他认为“能对抗AI的只有AI”,而且AI还必须开放由人类监督共享。所以自己也搞一个AI组织,名字就叫“OpenAI”(开放人工智能),目标是“确保人类不会被AI消灭”。开始时它只是一个非营利组织,后来由于接受了微软的大量投资,现在改为了“有限盈利”公司了,大意就是等还完了微软的钱,再恢复它非营利组织的本性。 为什么要叫“ChatGPT”这么奇怪的一个名字呢?其实,这个名字的核心是“GPT”这三个英文缩写字符,全文应该是“Generative Pre-training Transformer”,即“生成式预训练转化器”。简单地说意思就是,采用大量数据训练出一个巨大的神经元网络转化器,去生成与人类交互的内容。因为其最核心的智能技术是“生成”,所以这种技术就被称为AIGC,即“生成式人工智能”或者“人工智能生成内容”。这个技术根据模型转换器的不同,可以被用于生成各种各样不同的内容。比如你只要给出一些提示词,它就可以把你描述的内容,变成一幅画,或者一本小说,甚至是一首歌。如果生成的内容是与人之间的对话,完成对话中人所交给它的任务,比如回答问题、概括文章、写一个报告或文档,这就是我们现在看到的ChatGPT,也就是可以“进行会话的GPT”了。 为什么ChatGPT会大火出圈呢?这是因为过去我们做的智能系统都达不到这样智能水平,而现在却突然可以了,仿佛计算机突然被赋予了人类的灵魂。它的回答有模有样,有时一板正经,有时又俏皮可爱,有时甚至是一板正经的胡说八道。更绝的是,它还能与人类价值观对齐,几乎所有的反应都看不到生硬的痕迹,跟它对话时间一长,就很容易忘记它其实只是一个聊天机器人。ChatGPT的惊艳表现,使得又一个人工智能系统,在时隔6年之后,再次“出圈”。这说明,人工智能技术经过不断的迭代,终于又有了一次巨大飞跃,跳上了智能技术的又一个台阶。也就是说,它更成熟了。 是什么技术进步导致了它显得更成熟了呢?这是因为所谓“大模型”技术发展到了更高水平。OpenAI和搞出阿尔法狗的DeepMind公司,他们的目标都是“通用人工智能”,也就是能像人类一样解决普遍问题的AI,但是两者所走的技术路线是不一样的。阿尔法狗采用的是“深度增强学习”方法,通过各种不同难度的游戏入手,采用所谓“自博弈”方法,根据给定的规则和准则进化,不断向通用人工智能靠拢。开始时还要靠人类样本指导,后来发展到不需用任何人类样本的学习,甚至也不需要人来教就可以达到很高水平。最后不仅在围棋、国际象棋、星际争霸等各种棋类或游戏上所向披靡,甚至还扩展到了非游戏类应用,比如生物学上的“蛋白质折叠”等领域。虽然已经令业内人士惊艳,但由于总是聚焦于某个具体任务,虽然可以高效解决问题,但却很难泛化到普遍性任务上,影响反而越来越小。 ChatGPT走的则是另外一条道路。它起源于自然语言处理,目的是要让计算机理解我们所说的语言。这也不是一件容易的事情。开始时主要还是符号处理,虽然后来也转向了神经元网络,但进展一直很慢。这是因为,语言是人类思考的载体,其上下文关系和各种隐喻极为复杂,非常难以理解和表达。为了能够应对越来越复杂的情况,不得不采用更大型的模型,靠着不断增加模型参数来提升性能,通过越来越多的人类现有语言文本数据样本进行学习训练。从最初的GPT-1开始,一直到GPT-3,都在苦苦挣扎,只能看着阿尔法狗风光无限,羡慕不已。直到GPT3.5的时候,模型所用参数达到了1750亿个,学习数据超过3000亿单词时,奇迹终于出现了,模型会话水平突然大幅度提高,像是突然涌现出了智能,远远超乎了设计者的想象。这种不断增加参数并且参数达到相当大程度的模型方法,就被称为“大模型”,虽然最终它得到的其实也是深度学习神经元网络,不过这个神经元网络个头比较大,适应性也比较全,并且可以很好地泛化。在测试中一炮而红,连名字都没有取好就创造了5天用户破百万的最快纪录。原本准备以GPT-4名义发布的系统,却以ChatGPT这样的名字就匆匆忙忙登场了。 有人说,这就是“大力出奇迹”,因为算力、算法、样本数据都达到了很高的水平。其实在我看来,这其实就是复杂系统积累到了一定程度后发生的临界自组织涌现,即智能的涌现。智能系统是典型的复杂系统,运行靠的其实就是各个组成部分的不断交互,最终都达到一定规模后,才会真正产生出“智能”。这些“智能”有一种不可言说的特性,就是你觉得它在“说人话”,哪怕它只是在胡说八道。这与那些会干很多事,但就是不像人的机器“技能”,是有天壤之别的。而且,为了使ChatGPT会话更符合社会道德准则和生活实际,还给它增加了“基于真人反馈的增强学习”过程,以及大量的标注过的准确数据,结果使得它的回答更能为人们普遍所接受。这就是ChatGPT一下火出圈的根本原因。

2、ChatGPT的“能”与“不能”

ChatGPT确实能做不少事情。有人吹捧它无所不能,但也有人说它弱智如鸡。它到底能做什么,又不能做什么呢?我们需要有准确的认识。这当然是基于当前训练结果而言,因为理论上它也是可以不断学习进步的。

先说不能指望它去做的事情有哪些:

第一,不能指望它“替代搜索”。虽然谷歌、百度面对ChatGPT的冲击有些紧张,但至少目前还无法替代。目前ChatGPT基于的训练数据有时限,而且还无法从互联网搜索,所以不能让它回答与实时信息有关的内容,比如对昨天某个事件的看法,它一定会胡说八道,甚至编造。虽然“搜索”和“问答”在含义或做法上会有一定重叠,但本质上它们还是有很大的不同。如果它和搜索引擎结合,倒是可以优势互补。 第二,不能指望它“确保正确”。ChatGPT的回答并不能确保事实准确。虽然它说得十分流畅一板正经,但内容却可能荒诞不经。因为它的输出是语言算法与训练数据概率的结合,所以并不能确保准确无误。但正是因为它说得太流畅了,很容易使人产生误解,以为这就是正确答案。也许今后与搜索引擎结合并增加事实核查机制,才可能达到可信的程度。 第三,不能指望它“充当专家”。大模型的特点就是回答泛化类、常识性、操作步骤类问题比较好,但专业能力差强人意,尤其是针对深度专业问题的时候。你可以让它给你提出建议,但你不能全部问题都交给它去解决。它的建议可以给你启发,甚至帮你搭个研究框架,但每一条建议你都必须亲自审查,不能偷懒。如果让它帮你编写程序,简单程序的生成和修改应该没有问题,但若让它帮你完成复杂的算法,至少现在还不现实。事实上,它可以是一个提高效率的工具,但还不能胜任专家的工作,更不能解决复杂的问题。 第四,不能指望它“一蹴而就”。你对它的提问不可能一下就让它理解,得到的结果也不可能立刻满足要求。提问和回答是一个逐步完善的过程,因此需要不断与之交互修正,才能得到想要的结果。而且,语气的不同也可能导致结果的不同,严肃的提问会让它认真回答,而说笑谐谑的提问也会让它跟你开玩笑,几乎跟我们人类一样。所以,如何学会写“提示词”,本身就是一门学问。所以,今后很可能还会产生出专门从事“提示词”业务的职业出来。 第五,不能指望它完成“形式推理”。它已经可以对数学这样基于严密逻辑的问题给出答案,但专业水平并不很高。推理其实是机器处理的强项,不过ChatGPT是用复杂神经网络拟合方法做到的,而不是通过严密的因果逻辑。对于稍微复杂一些的逻辑问题,它就会显得捉襟见肘。可以说它是“万事通”,什么都会一点,但什么都不精,尽管它回答的信誓旦旦。比如分解质数、解答智力问题等。我敢说,下围棋它肯定下不过阿尔法狗。所以,不要指望它能帮你解决“哥德巴赫猜想”,至少现在还不可行。

再说说它擅长干些什么,也就是它的“能”:

第一,可以用它帮你“快速写作”。ChatGPT的训练阅读了大量逻辑严谨、写作规范的各学科论文文献,所以它就获得了众多不同领域超于常人的众多知识和思维逻辑。这是任何一个人毕其一生都难以达到的。因此它非常适合于针对具体研究主题,根据所提问题进行分解、归纳或总结,列出所要的研究提纲或模板,甚至帮你完成全文。这也是它显得“博闻广记”“概括准确”“出口成章”的根本原因。当然,写个读书心得,给老师交个作业,甚至写个课程论文应付差事,估计问题不大,但要想得到好文、美文或者专业论文,估计还会令你失望。据报道,最近韩国一出版商用它在7小时内完成135页内容的创作并翻译出版,虽然速度令人称奇,但这种书估计也只能称为“口水书”。 第二,可以用它进行“风格转换”。也是因为它阅读广泛,而且还可以抓住文章的不同特征,所以可以根据不同语境,生成不同的语言风格。比如,可以更精致、更优美,也可以更简洁、更详细,或者干脆转换为古文、诗词或公文等不同类型。有时甚至也可能需要增添细节,改变描写。这对于那些没有太多创意需求的“码字”工作者来说,是经常要做但却并不容易的事情,但对ChatGPT来说却是家常便饭,小菜一碟。 第三,可以让它充当你的“编程助手”。编程得到的程序其实也是一种语言,只是这种语言比较特殊。把自然语言转化为程序语言,也是ChatGPT在训练中希望它能做到的事情。它在训练中读过大量程序,所以帮你搭出程序框架,写出基本内容,找出常见程序“bug”,应该是它比较擅长的事情。但要想得到复杂的算法就很难做到,因为你自己的“提示”描述恐怕就不简单。因为只有你描述清楚,才有可能得到想要代码语言。 第四,可以让它给你一些“灵感启发”。很多时候做事不知该怎么干,比如“万事开头难”,工作起步时毫无思绪,写作时无从下笔。ChatGPT这时就可以给你一些要点,让你得到某些启发。关于这一点,和很多人想的不太一样,以为ChatGPT只是“网上所有文字信息平均效果的模糊图像”,也就是没有多少创造性。但事实上,当那么多人的想法汇聚一处时,产生出来的各种跨界异类组合,甚至异想天开,那不就是某种创新吗! 第五,可以让它充当“万能+”。语言是人类交互的抽象,也是人类知识的载体,还可以是人类智能的体现。有了对语言的理解,很多事情就变得容易了许多,而这一点在过去却是巨大的障碍。比如,将人类常识引入到智能决策中,过去是个很大难题,但现在就变得有了可能。再比如,人机交互过去只能局限在感知智能层面,而现在通过ChatGPT就可以到达内容理解层面。所以,让ChatGPT充当其他系统的基座,与其他系统配合就可以得到更好的智能系统,比如它与兵棋推演系统的结合,与分布会议系统的结合,都可能带来惊喜。微软已经决定将其与搜索引擎必应结合起来,未来还将嵌入Office软件,如果成功,可以想象那将会是一种什么样的场景。 上面说得这些“能”与“不能”都只是一部分,并不是全部。但就是从这些也已经可以看出,ChatGPT是个全面手,足以令我们感叹于人工智能技术的进步。但它好像更偏“文科”一些,也就是如果可以通过文字语言表达的智能内容,它好像更擅长一些。比如文学写作、办公文件,教材编写,估计用于简单的医学看病估计可能也行。但要想解决具有复杂逻辑特点的问题,至少目前还做得不是很好。所以在未来,我们既期望它能不断成长越来越好用,但也要避免对它的误用和滥用。

3、关于ChatGPT的几点看法

第一,这是人工智能技术发展的又一次重大飞跃。

2016年,阿尔法狗的横空出世,让世人惊叹于人工智能对抗博弈的突破。今天,我们又一次见证了人工智能对人类语言表达和理解能力的奇迹。ChatGPT虽然只是流畅会话的生成,但在背后支撑它的大模型和内容生成技术,却代表了人工智能技术发展的一个重要里程碑。大模型的出现,一改过去我们仅关注专业领域智能技术突破的做法,通过引入巨量参数对基础知识关系进行复杂表达,从量变到质变,最终使我们朝解决通用智能问题又迈进了一大步。 大模型所做到的事情,打个比方,就像我们在小学中学大学打下的知识基础,更多的属于常识和基础类知识,虽然还不够专业,但却全面建立起了所有基础知识之间的关系,为我们今后再去读硕士博士专业奠定了知识基础。而过去很多智能技术的研究,就好像是上来直接读博士,发现知识不够了再补课,所以任务面非常窄,在智能泛化上步履维艰。阿尔法狗做的是如何“专”,所以模型相对“小”;而大模型首先做的则是“博”,先建立起基础,再朝专业的方向努力。过去看,阿尔法狗的做法虽然也很困难但容易见效,而大模型的做法则成不成不知道,有很大失败的风险。不过今天回过头来看,似乎大模型的做法更加合理,突破了“0到1”,还愁“1到N”吗? 大模型带来的改变是巨大的,与传统方法相比,有人说这像是“导弹与弓箭的区别”,因为它改变的是未来游戏规则,具有明显的颠覆性,是一次巨大的技术飞跃。国际主流学术机构和企业,几乎都在拥抱大模型,可见它影响力之大,得到广泛认可,揭示了未来的发展趋势。在此基础上,垂类应用今后可能会是热点,但仅有垂类是得不到所谓大模型的,类似ChatGPT的大模型必须是它的基座才有可能,也就是“专”必须建立在“博”的基础上。

第二,ChatGPT在技术上还有很大发展空间。

我们不能以为ChatGPT已经非常完美,可以做任何事情了。其实它还非常初级,充其量只是中小学知识水平。但它也一定会不断学习进步,不过最后的5%往往是最困难的。现在ChatGPT式模型最大的问题,一是它自己很难“知道自己不知道”,所以它才会一本正经的胡说八道。因而要对模型不断进行训练,同时也要不断进行校正,“基于真人反馈的增强学习”“危害样本数据标注”等工作,都是最基本的做法,但需要的财力支持不会是一个小数。二是ChatGPT的“理解”并不等于人类的“理解”,本质上它还是语言统计模型。所以我们也不能因为它对话的流畅性,就假定它真正理解内容和具有推理能力,更不能认为它有了意识或同理心而产生误解。三是因为它无法接触人类拥有的大量经验知识,仅靠训练数据,还很难全面理解上下文的语境和含义,何况训练数据中也存在很多错误。

第三,今后最大用途可能出现在ChatGPT+方面。

ChatGPT的出现,大大降低了与文字语言相关工作的门槛。有了这些工具的帮助,很多过去繁琐的文字工作,都会变得十分简单。比如会议记录总结,专业文档写作,以及文献阅读和归类等。各种与ChatGPT组合出来的工具,可以成为工作的智能伙伴,将大大提高我们的工作效率,也会使得各类智能系统的研发加快进度。它也大幅度提升了工作效果的“天花板”,因为ChatGPT可以帮助我们在设计、创意和内容等各个方面出新,这就强迫我们必须要有更大的创造性。2022年一幅名为“太空歌剧院”的数字绘画作品获得比赛的艺术大奖,后来大家才发现其实它并不是人类所画,而是由AI生成出来的。这样的事情以后只会越来越多,很多低层次职业比如中初级文员、程序员或文秘等,也许也会因此消失。今后的竞争,无论系统、平台、设计还是内容,无疑都将就是“天花板”的竞争,而学会利用ChatGPT类的工具就将成为关键。 第四,ChatGPT技术对军事领域影响既不可低估也不可高估。

很容易想到,ChatGPT技术可以被用于产生假新闻、假文章、假邮件,甚至假风格(仿人)进行AI犯罪活动,或被敌人用于战争行动之中,但这些其实最多只能算是小儿科。就其核心技术大模型而言,可能的影响会更深远一些,但既不可低估,也不宜高估。说它不可低估,是因为大模型作为“基座”很可能会引发智能技术批量突变,使得一批目前徘徊不前的智能技术得到突破;尤其是它的“博”结合阿尔法狗的“专”后,还可能导致指挥决策控制系统升级换代,从而大幅度提升作战体系能力。说它不可高估,是因为军事智能领域的固有难题,比如战争问题的“强对抗”“高实时”“过复杂”“不确定”等特性,解决途径上仍存在“缺样本”“没数据”“不开放”“难共享”等问题,通过这些技术还是难以解决。当年阿尔法狗战胜人类,让很多人以为解决作战指挥智能决策问题指日可待,但之后却踯躅不前;今天ChatGPT的出现,又让很多人心生幻想,但结局很大概率又会如此。这主要就是因为解决的问题并不相同,技术可以借用,但解决问题更需创新。 就直接运用ChatGPT而言,它的作用和影响也不容忽视。比如它可以用于数据分析与决策支持、自然语言处理、办公信息管理等基础工作,可能会导致部分传统业务岗位发生改变,从而引发编制体制变革。如果再将其进行专业训练后与其他系统配合,也有可能用于训练想定编写、作战方案生成、作战计划安排、行动规划拟制、演习结果讲评等较为复杂的工作,也会使得许多指挥决策机构业务进行调整,甚至导致指挥决策流程的改变。如果今后它能继续进步,更进一步还有可能完成战争计划分析、危机处置方案评估等更高层的工作,甚至完全自主决策,那带来的影响怎么评估都不为过。它在未来会对指挥决策类工作造成颠覆性影响,这是因为机器智能将第一次真正能够成为指挥员在未来战争中的合作伙伴。兰德公司在其研究报告曾说,未来要打一场“让我们看不懂的战争”,ChatGPT的出现,就意味着它很可能将成为关键。 第五,要想简单复刻ChatGPT并不容易。

ChatGPT的核心是算法、算力和数据。但算法大多数都是公开的,虽然很精巧,但也没有太多秘密,因而算力和数据就成为关键。算力必须基于云计算,这就不是所有人都能做到的,部署能够支撑类似ChatGPT服务的单位国内就寥寥无几。数据也是关键,能够得到大规模训练数据的也只有常年提供数据服务的网络公司才有,比如国内的百度、腾讯等。微软和OpenAI就是通过抢先公测,拿到了大量第一手数据,在这方面它已经占先。财力是另外一个问题,光训练费用就是天文数据,能够支付得起数据标注经费的也没有几个。所以,要想真正得到类似ChatGPT的系统,最终还是要靠我们举国体制的优势。在这个基础上,再合作研发那些专业垂类系统。那些吹牛说自己要搞一个类似ChatGPT系统的,很多要么只是充当个“二传手”“化妆师”,要么就是想要骗钱。 第六,我们应该如何看待人工智能的进步?

ChatGPT的出现再一次告诉我们,人工智能的通用方法具有巨大的力量,搜索和学习可以随着计算能力的提高而不断能扩展。人工智能强化学习的鼻祖Rich Sutton 坚信“算力就是王道”,他说:“人工智能的发展将来自于如何利用无穷的计算资源,而不是试图给机器更多人类先前的认知和理解”;但另一位人工智能大拿马库斯却坚持认为:“人工智能应该像人类一样发明,而不是仅包含人类发明的内容”,等你有了真正的创新再说别的。 不管怎么说,人工智能想要追赶上的是人类的智慧。但人类头脑的复杂是无止境的,它也在不断进化和发展之中。理解复杂的结果不会使其变得更简单,而是只会变得更复杂,因而也就不可能用简单方法加以实现。大模型之路是否正确,现在还无法完全判定,但我觉得这是一条符合复杂系统“涌现”原理的可行之路。ChatGPT的实践也证明了这一点,我相信今后还将会给我们带来更多惊喜。 大模型的出现给AI带来巨大技术进步的同时,也提出了很多需要关注的难题。国际著名科学期刊《自然》就问了10个问题:什么东西不能交给大模型处理?在哪些地方“人”是不可或缺的?哪些内容必需经过人类的验证?ChatGPT的使用如何纳入诚信、政策问题?如何纳入人员教育和培训?什么才是“准确的知识”?知识的质量标准是什么,应该由谁来负责?如何确保研究上的公平?如何加强AI的开放原则?它对法律有何影响?等等。这些都值得我们深入思考。 有媒体评论,ChatGPT是“既引人入胜,又让人毛骨悚然”。这是一个比较形象、准确的描述。那些老问题又会因此浮现出来:AI真的可靠不会导致灾难吗?库兹韦尔所说的机器智能超过人类的“奇点”是不是真的要来了?AI真的会取代人类控制世界吗?我想我们可能就会知道,这些问题是不是“杞人忧天”了。

成为VIP会员查看完整内容
116

相关内容

ChatGPT(全名:Chat Generative Pre-trained Transformer),美国OpenAI 研发的聊天机器人程序 [1] ,于2022年11月30日发布 。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文任务。 [1] https://openai.com/blog/chatgpt/
《自动化战争》美海军24页论文
专知会员服务
43+阅读 · 2023年3月9日
国防科大《视觉-语言导航》综述论文,24页pdf154篇文献
专知会员服务
60+阅读 · 2021年8月27日
为ChatGPT捉Bug,OpenAI最高悬赏2万美金
机器之心
0+阅读 · 2023年4月12日
雷军做程序员时写的博客,有点东西!
图与推荐
0+阅读 · 2022年10月8日
LeCun再炮轰Marcus: 他是心理学家,不是搞AI的
Yann LeCun:大模型方向错了,智力无法接近人类
机器之心
4+阅读 · 2022年8月24日
ACL最佳论文奖得主给新入行研究者的一点建议
极市平台
0+阅读 · 2022年7月21日
企业为什么不愿意聘请兼职开发者?
AI前线
0+阅读 · 2022年5月31日
入行量化,你必须知道的几点
深度学习与NLP
12+阅读 · 2019年3月5日
大学数学不好,或许是数学教材的锅?
算法与数学之美
15+阅读 · 2017年8月1日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年7月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月11日
Arxiv
0+阅读 · 2023年5月10日
VIP会员
相关VIP内容
《自动化战争》美海军24页论文
专知会员服务
43+阅读 · 2023年3月9日
国防科大《视觉-语言导航》综述论文,24页pdf154篇文献
专知会员服务
60+阅读 · 2021年8月27日
相关资讯
为ChatGPT捉Bug,OpenAI最高悬赏2万美金
机器之心
0+阅读 · 2023年4月12日
雷军做程序员时写的博客,有点东西!
图与推荐
0+阅读 · 2022年10月8日
LeCun再炮轰Marcus: 他是心理学家,不是搞AI的
Yann LeCun:大模型方向错了,智力无法接近人类
机器之心
4+阅读 · 2022年8月24日
ACL最佳论文奖得主给新入行研究者的一点建议
极市平台
0+阅读 · 2022年7月21日
企业为什么不愿意聘请兼职开发者?
AI前线
0+阅读 · 2022年5月31日
入行量化,你必须知道的几点
深度学习与NLP
12+阅读 · 2019年3月5日
大学数学不好,或许是数学教材的锅?
算法与数学之美
15+阅读 · 2017年8月1日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年7月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员