摘要:去年,来自哈佛大学的研究者开发了一种用于电动汽车的新型固态锂电池,10-20 分钟内就可以充满电。现在,研究团队表示这种自主研发的锂电池又获得了新的突破,仅需 3 分钟就可以充满电了,并宣布已经获得哈佛大学的技术许可。由研究团队成立的初创公司 Adden Energy 也完成了由 Primavera Capital Group 领投的 515 万美元的种子轮融资。 据 Adden Energy 介绍,这种自主研发的锂金属电池使用寿命超过 10000 次,电池原型具有高能量密度和材料稳定性,并克服了一些锂电池的安全问题,研究论文发表在《Nature》上。 Adden Energy 计划首先将电池研制成手掌大小的软包电池,然后在未来三到五年内将其转变为成熟的汽车电池。 推荐:3 分钟充满电,循环超 10000 次,哈佛新型固态锂电池获技术许可。 论文 3:Multi-Degree-of-Freedom Robots Powered and Controlled by Microwaves
摘要:近日, Meta AI 和佐治亚理工学院的研究者提出了 Hydra Attention。该方法源于线性注意力中有些自相矛盾的行为,即在使用标准多头自注意力时,向模型中添加更多的 head 会保持计算量不变。但是,在线性注意力中改变操作顺序后,添加更多的 head 实际上降低了层的计算成本。 因此,研究者将这一观察结果发挥到了极致,将模型中 head 的数量设置为与特征数相同,从而创建了一个在计算上对于 token 和特征都呈线性的注意力模块。 下图为标准注意力、线性注意力和 Hydra Attention 的结构比较。 Hydra Attention 不仅比先前高效注意力工作的泛化性更强,而且在使用正确的内核时能够显著提升准确率。 推荐:将 head 数设置为特征数,Meta AI 多头高效注意力模块更准、更快。 论文 5:Frozen CLIP Models are Efficient Video Learners
摘要:近日,在谷歌研究院和 UT-Austin 合作的一篇 arXiv 论文《Soft Diffusion: Score Matching for General Corruptions》中,几位研究者认为扩散模型仍有一个重要的步骤:损坏(corrupt)。一般来说,损坏是一个添加不同幅度噪声的过程,对于 DDMP 还需要重缩放。虽然有人尝试使用不同的分布来进行扩散,但仍缺乏一个通用的框架。因此,研究者提出了一个用于更通用损坏过程的扩散模型设计框架。 具体地,他们提出了一个名为 Soft Score Matching 的新训练目标和一种新颖的采样方法 Momentum Sampler。理论结果表明,对于满足正则条件的损坏过程,Soft Score MatchIng 能够学习它们的分数(即似然梯度),扩散必须将任何图像转换为具有非零似然的任何图像。 在实验部分,研究者在 CelebA 以及 CIFAR-10 上训练模型,其中在 CelebA 上训练的模型实现了线性扩散模型的 SOTA FID 分数 ——1.85。同时与使用原版高斯去噪扩散训练的模型相比,研究者训练的模型速度显著更快。 推荐:谷歌新框架从通用扩散过程中正确调度、学习和采样。 ArXiv Weekly Radiostation机器之心联合由楚航、罗若天发起的ArXiv Weekly Radiostation,在 7 Papers 的基础上,精选本周更多重要论文,包括NLP、CV、ML领域各10篇精选,并提供音频形式的论文摘要简介,详情如下: 本周 10 篇 NLP 精选论文是: 1. TwHIN-BERT: A Socially-Enriched Pre-trained Language Model for Multilingual Tweet Representations. (from Jiawei Han)2. Vega-MT: The JD Explore Academy Translation System for WMT22. (from Dacheng Tao)3. PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel Personification data for Learning Enhanced generation. (from Eduard Hovy)4. A Benchmark for Understanding and Generating Dialogue between Characters in Stories. (from Minlie Huang)5. Chatbots for Mental Health Support: Exploring the Impact of Emohaa on Reducing Mental Distress in China. (from Minlie Huang)6. Text Revealer: Private Text Reconstruction via Model Inversion Attacks against Transformers. (from Farinaz Koushanfar)7. Learn to Explain: Multimodal Reasoning via Thought Chains for Science Question Answering. (from Kai-Wei Chang, Song-Chun Zhu)8. On the Relation between Sensitivity and Accuracy in In-context Learning. (from Kathleen McKeown)9. Unsupervised Lexical Substitution with Decontextualised Embeddings. (from Timothy Baldwin, Yuji Matsumoto)10. Exploring Optimal Granularity for Extractive Summarization of Unstructured Health Records: Analysis of the Largest Multi-Institutional Archive of Health Records in Japan. (from Yuji Matsumoto)