成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
互信息
关注
5
互信息(Mutual Information)是信息论里一种有用的信息度量,它可以看成是一个随机变量中包含的关于另一个随机变量的信息量,或者说是一个随机变量由于已知另一个随机变量而减少的不肯定性.
综合
百科
VIP
热门
动态
论文
精华
Partial Information Decomposition for Data Interpretability and Feature Selection
Arxiv
0+阅读 · 11月18日
Efficient Sample-optimal Learning of Gaussian Tree Models via Sample-optimal Testing of Gaussian Mutual Information
Arxiv
0+阅读 · 11月18日
Learning Disentangled Representations for Perceptual Point Cloud Quality Assessment via Mutual Information Minimization
Arxiv
0+阅读 · 11月12日
Medication Recommendation via Dual Molecular Modalities and Multi-Step Enhancement
Arxiv
0+阅读 · 11月12日
Mutual Information Estimation via $f$-Divergence and Data Derangements
Arxiv
0+阅读 · 11月11日
Benchmarking LLMs' Judgments with No Gold Standard
Arxiv
0+阅读 · 11月11日
Medication Recommendation via Dual Molecular Modalities and Multi-Step Enhancement
Arxiv
0+阅读 · 11月11日
Adaptive Conditional Expert Selection Network for Multi-domain Recommendation
Arxiv
0+阅读 · 11月11日
Generalizing Geometric Partition Entropy for the Estimation of Mutual Information in the Presence of Informative Outliers
Arxiv
0+阅读 · 11月8日
Which bits went where? Past and future transfer entropy decomposition with the information bottleneck
Arxiv
0+阅读 · 11月7日
Soft Reverse Reconciliation for Discrete Modulations
Arxiv
0+阅读 · 11月6日
Skill-aware Mutual Information Optimisation for Generalisation in Reinforcement Learning
Arxiv
0+阅读 · 11月6日
Skill-aware Mutual Information Optimisation for Generalisation in Reinforcement Learning
Arxiv
0+阅读 · 11月5日
Fast Rate Information-theoretic Bounds on Generalization Errors
Arxiv
0+阅读 · 10月31日
Contrastive Learning and Adversarial Disentanglement for Privacy-Preserving Task-Oriented Semantic Communications
Arxiv
0+阅读 · 10月30日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top