成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
交叉熵
关注
4
交叉熵(Cross Entropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息。语言模型的性能通常用交叉熵和复杂度(perplexity)来衡量。交叉熵的意义是用该模型对文本识别的难度,或者从压缩的角度来看,每个词平均要用几个位来编码。
综合
百科
VIP
热门
动态
论文
精华
Minimally Invasive Flexible Needle Manipulation Based on Finite Element Simulation and Cross Entropy Method
Arxiv
0+阅读 · 11月12日
Analysis on Riemann Hypothesis with Cross Entropy Optimization and Reasoning
Arxiv
0+阅读 · 9月29日
ProFuser: Progressive Fusion of Large Language Models
Arxiv
0+阅读 · 8月9日
Ziv-Merhav estimation for hidden-Markov processes
Arxiv
0+阅读 · 8月16日
System Report for CCL24-Eval Task 7: Multi-Error Modeling and Fluency-Targeted Pre-training for Chinese Essay Evaluation
Arxiv
0+阅读 · 7月11日
Classically Spoofing System Linear Cross Entropy Score Benchmarking
Arxiv
0+阅读 · 5月1日
ProPML: Probability Partial Multi-label Learning
Arxiv
0+阅读 · 3月12日
Fourier Basis Density Model
Arxiv
0+阅读 · 2月23日
Cross Entropy versus Label Smoothing: A Neural Collapse Perspective
Arxiv
0+阅读 · 2月7日
Cross Entropy versus Label Smoothing: A Neural Collapse Perspective
Arxiv
0+阅读 · 2月6日
A Cross Entropy Interpretation of R{é}nyi Entropy for $α$-leakage
Arxiv
0+阅读 · 1月26日
TrAISformer -- A Transformer Network with Sparse Augmented Data Representation and Cross Entropy Loss for AIS-based Vessel Trajectory Prediction
Arxiv
0+阅读 · 1月3日
Aspect category learning and sentimental analysis using weakly supervised learning
Arxiv
0+阅读 · 2023年12月24日
In-Context Demonstration Selection with Cross Entropy Difference
Arxiv
0+阅读 · 2023年11月27日
Quantum Data Compression and Quantum Cross Entropy
Arxiv
0+阅读 · 2023年11月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top