** ****新智元报道 **

编辑:编辑部**【新智元导读】为何Sora会掀起滔天巨浪?Sora的技术,就是机器模拟我们世界的下一步。而且今天有人扒出,Sora创新的核心秘密时空Patches,竟是来自谷歌DeepMind和谢赛宁的论文成果。**

OpenAI,永远快别人一步!像ChatGPT成功抢了Claude的头条一样,这一次,谷歌核弹级大杀器Gemini 1.5才推出没几个小时,全世界的目光就被OpenAI的Sora抢了去。100万token的上下文,仅靠一本语法书就学会了一门全新的语言,如此震撼的技术进步,在Sora的荣光下被衬得暗淡无光,着实令人唏嘘。这次,不过也是之前历史的重演。 为什么ChatGPT会提前诞生?《这就是ChatGPT》一书对此进行了揭秘:当时OpenAI管理层听说,从OpenAI「叛逃」的前员工创立的公司Anthropic Claude有意提前推出Chatbot。管理层立马意识到这个产品潜力巨大,于是先下手为强,第一时间改变节奏,出手截胡Anthropic。11月中旬,在研发GPT-4的OpenAI员工收到指令:所有工作暂停,全力推出一款聊天工具。两周后,ChatGPT诞生,从此改变人类历史。或许,这也就揭示了为什么一家公司可以永载史册的原因:领导者能够发现有市场潜力的新产品,全面拦截所有成功的可能性。对于谷歌被截胡一事,网友锐评道:OpenAI用Sora对抗Gemini发布的方式简直了,谷歌从没有受过这样的打击。 这不得不让人怀疑,OpenAI手里是不是还攥着一堆秘密武器,每当竞争对手发布新技术,他们就放出来一个爆炸级消息。 要知道,现在才刚刚是2024年2月,想想接下来要发生的事,不免觉得毛骨悚然。 为何Sora掀起滔天巨浪

Sora一出,马斯克直接大呼:人类彻底完蛋了! 马斯克为什么这么说?OpenAI科学家Tim Brooks表示,没通过人类预先设定,Sora就自己通过观察大量数据,自然而然学会了关于3D几何形状和一致性的知识。从本质上说,Sora的技术,就是机器模拟我们世界的一个里程碑。外媒Decoder直言:OpenAI令人惊叹的视频模型处女作Sora的诞生,感觉就像是GPT-4时刻。 更有人表示,在Sora之中,我切实感受到了AGI。 这也就是为什么Sora会在全世界掀起滔天巨浪的原因。要了解Sora如此强大的能力从何而来,除了OpenAI官方给出的技术报告,行业大佬也进行了进一步的解读。LeCun转发了华人学者谢赛宁的推文,认为Sora基本上是基于谢赛宁等人在去年被ICCV 2023收录的论文提出的框架设计而成的。 而和谢赛宁一起合著这篇论文的William Peebles之后也加入了OpenAI,领导了开发Sora的技术团队。 所以谢赛宁的对于Sora的技术解读,具备极高的参考价值。

谢赛宁:Sora很厉害,不过好像是用了我的论文成果

AI大神谢赛宁,针对Sora的技术报告谈了自己的看法。 项目地址:https://wpeebles.com/DiT- 架构:Sora应该是基于他和Bill之前在ICCV 2023上提出的以Transformer为主干的扩散模型(DIT)其中,DIT=[VAE编码器+VIT+DDPM+VAE解码器]。根据技术报告,好像没有其他特别的设计了。-「视频压缩网络」:似乎是一个VAE,但训练的是原始视频数据。在获得良好的时间一致性方面,tokenize可能起了很重要的作用。VAE是一个ConvNet。所以从技术上讲,DIT是一个混合模型。 谢赛宁表示,他们在DIT项目没有创造太多的新东西,但是两个方面的问题:简单性和可扩展性。这可能就是Sora为什么要基于DIT构建的主要原因。首先,简单意味着灵活当涉及到输入数据时,如何使模型更加灵活。例如,在掩码自动编码器(MAE)中,VIT帮助我们只处理可见的patch,而忽略掉被mask的。同样,Sora可以通过在适当大小的网格中安排随机初始化的patch来控制生成的视频的大小。UNet并不直接提供这种灵活性。猜测:Sora可能还会使用谷歌的Patch n‘Pack(Navit),以使DIT能够适应不同的分辨率/持续时间/长宽比。其次,可扩展性是DIT论文的核心主题就每Flop的时钟时间而言,优化的DiT比UNet运行得快得多。更重要的是,Sora证明了DIT缩放法则不仅适用于图像,现在也适用于视频——Sora复制了DIT中观察到的视觉缩放行为。猜测:在Sora的演示中,第一个视频的质量相当差,谢怀疑它使用的是最基础的模型。粗略计算一下,DIT XL/2是B/2模型的5倍GFLOPs,因此最终的16倍计算模型可能是DIT-XL模型的3倍,这意味着Sora可能有约30亿个参数。 如果真的是如此,Sora的模型规模可能没有那么大。这可能表明,训练Sora可能不需要像人们预期的那样,有非常大的算力要求,所以他预测未来Sora迭代的速度将会很快。 进一步的,谢赛宁解释了Sora提供的关键的洞见来自「涌现的模拟能力」这一表现上。在Sora之前,尚不清楚长期形式的一致性是否会自行涌现,或者是否需要复杂的主题驱动的其他流程,甚至是物理模拟器。而现在OpenAI已经表明,虽然现在结果还不完美,但这些行为和能力可以通过端到端的训练来实现。然而,有两个要点还不是很明确。1. 训练数据:技术报告没有涉及训练的数据集,这可能意味着数据是Sora成功的最关键因素。目前已经有很多关于游戏引擎数据的猜测。他期待包括电影、纪录片、电影长镜头等。2. (自回归)长视频生成:Sora的一个重大突破是生成超长视频的能力。制作一段2秒的视频和1分钟的视频之间的差异是巨大的。Sora可能是通过允许自回归采样的联合帧预测来实现的,但这里最主要挑战是如何解决误差累积问题,并随着时间的推移保持质量/一致性。 OpenAI Sora的技术,就是机器模拟我们世界的重要下一步

AI究竟如何将静态图形转换为动态、逼真的视频?Sora的一大创新,就是创新性地使用了时空patch。通过底层训练和patch,Sora能够理解和开发近乎完美的视觉模拟,比如Minecraft这样的数字世界。这样,它就会为未来的AI创造出训练内容。有了数据和系统,AI就能更好地理解世界。 从此,我们可以解锁VR的新高度,因为它改变了我们看待数字环境的方式,将VR的边界推向了新的高度,创建出近乎完美的3D环境。可以在Apple Vision Pro或Meta Quest上按需与空间计算配对了。除了谢赛宁的解读之外,AI专家Vincent Koc,也对此展开了详细分析。

Sora的独特方法如何改变视频生成

以往,生成模型的方法包括GAN、自回归、扩散模型。它们都有各自的优势和局限性。而Sora引入的,是一种全新的范式转变——新的建模技术和灵活性,可以处理各种时间、纵横比和分辨率。Sora所做的,是把Diffusion和Transformer架构结合在一起,创建了diffusion transformer模型。于是,以下功能应运而生——文字转视频:将文字内容变成视频 图片转视频:赋予静止图像动态生命 视频风格转换:改变原有视频的风格 视频时间延展:可以将视频向前或向后延长 创造无缝循环视频:制作出看起来永无止境的循环视频 生成单帧图像视频:将静态图像转化为最高2048 x 2048分辨率的单帧视频 生成各种格式的视频:支持从1920 x 1080到1080 x 1920之间各种分辨率格式 模拟虚拟世界:创造出类似于Minecraft等游戏的虚拟世界 创作短视频:制作最长达一分钟的视频,包含多个短片这就好比,我们正在厨房里。传统的视频生成模型,比如Pika和RunwayML,就像照着食谱做饭的厨师一样。他们可以做出好吃的菜肴(视频),但会受到他们所知的食谱(算法)所限。使用特定的成分(数据格式)和技术(模型架构),它们只擅长烘焙蛋糕(短片)或烹饪意大利面(特定类型的视频)。 而与他们不同的是,Sora是一位基础知识扎实的新型厨师。它不仅能照着旧食谱做菜,还能自己发明新食谱!这位住大厨多才多艺,对于食材(数据)和技术(模型架构)的掌握十分灵活,因而能够做出各种高质量的视频。

探寻Sora秘密成分的核心:时空patch

时空patch,是Sora创新的核心。 它建立在Google DeepMind早期对NaViT和ViT(视觉Transformer)的研究之上。 论文地址:https://arxiv.org/abs/2307.06304而这项研究,又是基于一篇2021年的论文「An Image is Worth 16x16 Words」。 论文地址:https://arxiv.org/abs/2010.11929传统上,对于视觉Transformer,研究者都是使用一系列图像patch来训练用于图像识别的Transformer模型,而不是用于语言Transformer的单词。这些patch,能使我们能够摆脱卷积神经网络进行图像处理。 然而,视觉Transforemr对图像训练数据的限制是固定的,这些数据的大小和纵横比是固定的,这旧限制了质量,并且需要大量的图像预处理。 而通过将视频视为patch序列,Sora保持了原始的纵横比和分辨率,类似于NaViT对图像的处理。这种保存,对于捕捉视觉数据的真正本质至关重要!通过这种方法,模型能够从更准确的世界表示中学习,从而赋予Sora近乎神奇的准确性。 时空patch的可视化这种方法使Sora能够有效地处理各种视觉数据,而无需调整大小或填充等预处理步骤。这种灵活性确保了每条数据都有助于模型的理解,就像厨师可以使用各种食材,来增强菜肴的风味特征一样。时空patch对视频数据详细而灵活的处理,为精确的物理模拟和3D一致性等复杂功能奠定了基础。从此,我们可以创建看起来逼真且符合世界物理规则的视频,人类也得以一窥AI创建复杂、动态视觉内容的巨大潜力。

多样化数据在训练中的作用

训练数据的质量和多样性,对于模型的性能至关重要。传统的视频模型,是在限制性更强的数据集、更短的长度和更窄的目标上进行训练的。而Sora利用了庞大而多样的数据集,包括不同持续时间、分辨率和纵横比的视频和图像。它能够重新创建像Minecraft这样的数字世界,以及来自Unreal或Unity等系统的模拟世界镜头,以捕捉视频内容的所有角度和各种风格。 这样,Sora就成了一个「通才」模型,就像GPT-4对于文本一样。这种广泛的训练,使Sora能够理解复杂的动态,并生成多样化、高质量的内容。这种方法模仿了在各种文本数据上训练LLM的方式,将类似的理念应用于视觉内容,实现了通才功能。 可变Patches NaVit与传统的视觉TransformerNaViT模型通过将来自不同图像的多个patch打包到单个序列中,得到了显著的训练效率和性能提升一样。同样地,Sora利用时空patch在视频生成中实现类似的效率。这种方法允许模型从庞大的数据集中更有效地学习,提高了模型生成高保真视频的能力,同时降低了与现有建模架构相比所需的计算量。

让物理世界栩栩如生:Sora对3D和连续性的掌握

3D空间和物体的一致性,是Sora演示中的关键亮点。通过对各种视频数据进行训练,无需对视频进行调整或预处理,Sora就学会了以令人印象深刻的精度对物理世界进行建模,原因就在于,它能够以原始形式使用训练数据。在Sora生成的视频中,物体和角色在三维空间中令人信服地移动和交互,即使它们被遮挡或离开框架,也能保持连贯性。从此,现实不存在了,创造力和现实主义的界限被突破。并且,Sora为模型的可能性设立了全新的标准,开源社区很可能会掀起视觉模型的全新革命。而现在,Sora的旅程才刚刚开始呢,正如OpenAI所说,扩展视频生成模型是构建物理世界通用模拟器的一条有前途的道路。前方,就是AGI和世界模型了。不过好在,OpenAI员工透露说,Sora短期内不会面世。 一位OpenAI员工发推表示,现在Sora只会在有限的范围内试用,现在放出的demo主要是为了获得社会大众对它能力的反应现在,标榜要开发负责任AGI的OpenAI,应该不会冒着风险给大众抛出一个潘多拉魔盒。参考资料:https://twitter.com/sainingxie/status/1758433679238471744https://towardsdatascience.com/explaining-openai-soras-spacetime-patches-the-key-ingredient-e14e0703ec5b

成为VIP会员查看完整内容
48

相关内容

Sora是OpenAI发布的一个AI模型,可以从文本指令中创建现实和想象的视频。OpenAI发布首个文本生成视频模型Sora,在生成视频长度(60秒)和内容上表现突出,为AIGC发展过程中的一大里程碑事件,
GPT-4时代已过?全球网友实测Claude 3,只有震撼
专知会员服务
48+阅读 · 3月5日
比尔盖茨最新发文 | 人工智能时代已经开启(全文)
专知会员服务
49+阅读 · 2023年3月23日
NeurIPS 2019 | 中科院、武大、微软等8篇论文解读
学术头条
10+阅读 · 2019年11月29日
3分钟看懂史上最强NLP模型BERT
新智元
22+阅读 · 2019年2月27日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
Arxiv
15+阅读 · 2023年3月17日
Lifelong Learning Metrics
Arxiv
47+阅读 · 2022年1月20日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
131+阅读 · 2023年4月20日
Arxiv
15+阅读 · 2023年3月17日
Lifelong Learning Metrics
Arxiv
47+阅读 · 2022年1月20日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
12+阅读 · 2018年1月12日
微信扫码咨询专知VIP会员