成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
表示学习
关注
181
表示学习是通过利用训练数据来学习得到向量表示,这可以克服人工方法的局限性。 表示学习通常可分为两大类,无监督和有监督表示学习。大多数无监督表示学习方法利用自动编码器(如去噪自动编码器和稀疏自动编码器等)中的隐变量作为表示。 目前出现的变分自动编码器能够更好的容忍噪声和异常值。 然而,推断给定数据的潜在结构几乎是不可能的。 目前有一些近似推断的策略。 此外,一些无监督表示学习方法旨在近似某种特定的相似性度量。提出了一种无监督的相似性保持表示学习框架,该框架使用矩阵分解来保持成对的DTW相似性。 通过学习保持DTW的shaplets,即在转换后的空间中的欧式距离近似原始数据的真实DTW距离。有监督表示学习方法可以利用数据的标签信息,更好地捕获数据的语义结构。 孪生网络和三元组网络是目前两种比较流行的模型,它们的目标是最大化类别之间的距离并最小化了类别内部的距离。
综合
百科
VIP
热门
动态
论文
精华
Improving Intrusion Detection with Domain-Invariant Representation Learning in Latent Space
Arxiv
0+阅读 · 4月23日
Deep Regression Representation Learning with Topology
Arxiv
0+阅读 · 4月22日
Adaptive Catalyst Discovery Using Multicriteria Bayesian Optimization with Representation Learning
Arxiv
0+阅读 · 4月18日
MART: Learning Hierarchical Music Audio Representations with Part-Whole Transformer
Arxiv
0+阅读 · 4月19日
High-Frequency-aware Hierarchical Contrastive Selective Coding for Representation Learning on Text-attributed Graphs
Arxiv
0+阅读 · 4月19日
General Item Representation Learning for Cold-start Content Recommendations
Arxiv
0+阅读 · 4月22日
RoNID: New Intent Discovery with Generated-Reliable Labels and Cluster-friendly Representations
Arxiv
0+阅读 · 4月18日
DRepMRec: A Dual Representation Learning Framework for Multimodal Recommendation
Arxiv
0+阅读 · 4月17日
AsymFormer: Asymmetrical Cross-Modal Representation Learning for Mobile Platform Real-Time RGB-D Semantic Segmentation
Arxiv
0+阅读 · 4月17日
HiGraphDTI: Hierarchical Graph Representation Learning for Drug-Target Interaction Prediction
Arxiv
0+阅读 · 4月16日
AGHINT: Attribute-Guided Representation Learning on Heterogeneous Information Networks with Transformer
Arxiv
0+阅读 · 4月16日
Correlation-guided Query-Dependency Calibration in Video Representation Learning for Temporal Grounding
Arxiv
0+阅读 · 3月30日
LaTiM: Longitudinal representation learning in continuous-time models to predict disease progression
Arxiv
0+阅读 · 4月10日
CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection
Arxiv
0+阅读 · 4月7日
Robust Representation Learning with Self-Distillation for Domain Generalization
Arxiv
0+阅读 · 4月12日
参考链接
父主题
机器学习
数据挖掘
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top