2019年的Q1季度刚刚过去,而深度学习技术正快速向前发展。我经常关注人工智能技术的进步,以便及时把握最新技术的发展方向,并保持每一周都从成百上千的论文里面选择几篇论文精读。
在这篇文章中,将把19年到目前为止阅读过的精品论文整理起来分享给大家,来帮助有需要的朋友节省一些时间。
研究热点 Fast Graph Representation Learning with PyTorch Geometric
本研究介绍了PyTorch Geometric,这是一个建立在PyTorch框架基础上的对不规则结构的输入数据如图形(graphs)、点云(point cloud)和流形(manifolds)数据进行处理的深度学习库。除了一般的图形数据结构和处理方法之外,它还包含关系学习和3D数据处理领域的各种最近发布的方法。PyTorch Geometric通过利用稀疏GPU加速、提供专用CUDA内核和引入高效的小批量来处理不同大小输入数据,实现高数据吞吐。该代码可在GitHub上获得。
[相关文章:2018年最具影响力的数据科学研究论文
Mask Scoring R-CNN
在实例分割(instance segmentation)任务中,在大多数实例分割框架中,实例分类的置信度被用作掩码质量分数。本文研究了这一问题,提出了Mask Scoring R-CNN方法,使用网络块(network block)来学习预测实例掩码的质量。掩模评分策略校准掩模质量和掩模评分之间的偏差,并通过在COCO AP评估期间优先考虑更准确的掩模预测来提高实例分割性能。该代码可在GitHub上获得。
High-Fidelity Image Generation with Fewer Labels
深层生成模型正在成为现代机器学习的基石。最近关于条件生成对抗网络(conditional generative adversarial networks (GANs) )的研究表明,学习自然图像上复杂的高维分布是可以实现的。虽然最新的模型能够以高分辨率生成高保真、多样的自然图像,但它们依赖于大量的标签数据。本文从最近关于self-和semi-supervised学习的工作中获得启发,从而在无监督的ImageNet synthesis和条件设置方面都优于最先进的成果(SOTA)。该代码可在GitHub上获得。
GCNv2:Efficient Correspondence Prediction for Real-Time SLAM
本文提出了一个基于深度学习的网络,GCNv2,用于生成关键点和descriptor。GCNv2是建立在GCN模型的基础上的,这是一个为3D projective geometry训练设计的网络。GCNv2设计了一个二进制descriptor向量作为ORB特征,因此它可以很容易地在ORB-SLAM等系统中取代ORB。该代码可在GitHub上获得。
[相关文章:文本分类的深度学习]
ALiPy: Active Learning in Python
有监督的机器学习方法通常需要一大组带标签的训练数据来进行模型训练。然而,在许多实际应用中,有大量的未标记数据,但标记数据有限;并且标签的获取是昂贵的。主动学习(Active learning,AL)通过迭代选择最有价值的数据,从标注器中查询标签来降低标注成本。本文介绍了一个用于主动学习的Python工具箱 ALiPy。该代码可在GitHub上获得。
DeepFashion2: A Versatile Benchmark for Detection, Pose Estimation, Segmentation and Re-Identification of Clothing Images
时尚图像理解已经被深度时尚(Deep Fashion)等具有丰富标注的benchmarks所取代,深度时尚的标签包括服装类别、地标和消费者-商业图像对。然而,Deep Fashion有不可忽视的问题,例如每幅图像只有一件衣服、稀疏的地标(仅4~8个)、没有每像素的mask,这与现实世界的场景有很大的差距。本文通过介绍Deep Fashion2来解决这些问题,从而填补了这一空白。它是四项任务的通用基准,包括衣服检测、姿势估计、分割和检索。该代码可在GitHub上获得。
The StarCraft Multi-Agent Challenge
近年来,深度多智能体强化学习已经成为一个非常活跃的研究领域。这一领域中一个特别具有挑战性的问题是部分可观察的、合作的、多智能体学习,在这种学习中,智能体团队必须学会协调他们的行为,同时只以他们的个人观察为条件。这是一个有吸引力的研究领域,因为这样的问题与许多现实世界的系统相关,并且比一般sum问题更易于评估。ALE和MuJoCo等标准化环境已经允许单agent RL超越toy domain,如grid world。然而,合作多智能体学习并没有可比的基准。因此,这一领域的大多数论文使用一次性toy问题,这使得很难衡量真正的进展。这篇论文提出星际争霸多智能体挑战赛(StarCraft Multi-Agent Challenge,SMAC)作为填补这一空白的基准问题空白。该代码可在GitHub上获得。
Dropout is a special case of the stochastic delta rule: faster and more accurate deep learning
多层神经网络在文本、语音和图像处理的多种基准任务上取得了显著的进步。众所周知,分层模型中的非线性参数估计容易受到过拟合和误定的影响。对这些估计和相关问题(局部最小值、共线性、特征发现等)的一种方法被称为dropout。Dropout算法在每次更新前根据概率为p的伯努利随机变量移除hidden unit,对网络产生随机“冲击”,这些冲击在更新过程中平均。这篇论文表明,dropout是一个更一般的模型的特例,这个模型最初发表于1990年,被称为随机增量规则(Stochastic Delta Rule)。该代码可在GitHub上获得。
Lingvo:a Modular and Scalable Framework for Sequence-to-Sequence Modeling
Lingvo是一个Tensorflow框架,为协作式(collaborative)深度学习研究提供了一个完整的解决方案,特别关注序列到序列模型。Lingvo模型由灵活且易于扩展的模块化构建模块组成,实验配置集中且高度可定制。框架内直接支持分布式训练和量化推理,它包含大量实用程序、辅助函数和最新研究思想的现有实现。在过去的两年里,Lingvo已经被数十名研究人员在20多篇论文中合作使用。本文概述了Lingvo的底层设计,并介绍了框架的各个部分,同时还提供了展示框架功能的高级功能示例。该代码可在GitHub上获得。
Adaptive Gradient Methods with Dynamic Bound of Learning Rate
自适应优化方法,如AdaGrad、RMSProp和Adam,已经被提出来实现一个快速的训练过程,不同的元素具有不同的学习速率。尽管非常流行,他们被观察到与SGD相比泛化能力较差,或者甚至由于不稳定和极端学习率可能导致不收敛。这篇论文证明了极端的学习率会导致糟糕的表现。提供了新的Adam和AMSGrad变体,分别称为AdaBound和AMSBound,它们利用学习速率的动态界限来实现从自适应方法到SGD的逐步平滑过渡,并给出了收敛性的理论证明。对各种流行的任务和模型进行了进一步的实验。实验结果表明,新的变异可以消除自适应方法和遗传算法之间的泛化差距,同时在训练初期保持较高的学习速度。该代码可在GitHub上获得。
往期精彩内容推荐
2019年最新-深度学习、生成对抗、Pytorch优秀教材推荐
深度学习中Attention Mechanism详细介绍:原理、分类及应用
工业级实战 - 一文教会你基于Docker在Kubernetes上部署深度学习模型
DeepLearning_NLP
深度学习与NLP
商务合作请联系微信号:lqfarmerlq