表示学习是通过利用训练数据来学习得到向量表示,这可以克服人工方法的局限性。 表示学习通常可分为两大类,无监督和有监督表示学习。大多数无监督表示学习方法利用自动编码器(如去噪自动编码器和稀疏自动编码器等)中的隐变量作为表示。 目前出现的变分自动编码器能够更好的容忍噪声和异常值。 然而,推断给定数据的潜在结构几乎是不可能的。 目前有一些近似推断的策略。 此外,一些无监督表示学习方法旨在近似某种特定的相似性度量。提出了一种无监督的相似性保持表示学习框架,该框架使用矩阵分解来保持成对的DTW相似性。 通过学习保持DTW的shaplets,即在转换后的空间中的欧式距离近似原始数据的真实DTW距离。有监督表示学习方法可以利用数据的标签信息,更好地捕获数据的语义结构。 孪生网络和三元组网络是目前两种比较流行的模型,它们的目标是最大化类别之间的距离并最小化了类别内部的距离。
捆绑推荐综述:方法、应用与挑战
专知会员服务
18+阅读 · 11月6日
【博士论文】推理的表示学习:跨多样结构的泛化
「图Transformers」综述
专知会员服务
27+阅读 · 7月16日
多模态知识图谱表示学习综述
专知会员服务
55+阅读 · 7月4日
扩散模型与表示学习:综述
专知会员服务
44+阅读 · 7月2日
【阿姆斯特丹博士论文】表格表示学习,179页pdf
《通用时间序列表示学习》最新2024综述
专知会员服务
58+阅读 · 1月15日
参考链接
微信扫码咨询专知VIP会员