\emph{Resistive memories}, such as \emph{phase change memories} and \emph{resistive random access memories} have attracted significant attention in recent years due to their better scalability, speed, rewritability, and yet non-volatility. However, their \emph{limited endurance} is still a major drawback that has to be improved before they can be widely adapted in large-scale systems. In this work, in order to reduce the wear out of the cells, we propose a new coding scheme, called \emph{endurance-limited memories} (\emph{ELM}) codes, that increases the endurance of these memories by limiting the number of cell programming operations. Namely, an \emph{$\ell$-change $t$-write ELM code} is a coding scheme that allows to write $t$ messages into some $n$ binary cells while guaranteeing that each cell is programmed at most $\ell$ times. In case $\ell=1$, these codes coincide with the well-studied \emph{write-once memory} (\emph{WOM}) codes. We study some models of these codes which depend upon whether the encoder knows on each write the number of times each cell was programmed, knows only the memory state, or even does not know anything. For the decoder, we consider these similar three cases. We fully characterize the capacity regions and the maximum sum-rates of three models where the encoder knows on each write the number of times each cell was programmed. In particular, it is shown that in these models the maximum sum-rate is $\log \sum_{i=0}^{\ell} {t \choose i}$. We also study and expose the capacity regions of the models where the decoder is informed with the number of times each cell was programmed. Finally we present the most practical model where the encoder read the memory before encoding new data and the decoder has no information about the previous states of the memory.


翻译:\ emph{ 有限内存}, 例如 \ emph{ 阶段变化记忆} 和\ emcode 随机存取记忆} 等, 近些年来, 因其更可缩放性、 速度、 重写性、 而非挥发性, 已经引起极大关注。 然而, 他们的 emph{ 有限内存性 仍是一个重大缺陷, 才能在大型系统中广泛适应。 在这项工作中, 为了减少细胞的耗损, 我们提议一个新的编码方案, 叫做 emph{ 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 它们的计算方法, 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间- 时间-

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
PLANET+SAC代码实现和解读
CreateAMind
3+阅读 · 2019年7月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Arxiv
0+阅读 · 2021年11月12日
Compositional Generalization in Image Captioning
Arxiv
3+阅读 · 2019年9月16日
Arxiv
21+阅读 · 2018年5月23日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
3+阅读 · 2018年3月14日
VIP会员
相关资讯
PLANET+SAC代码实现和解读
CreateAMind
3+阅读 · 2019年7月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Top
微信扫码咨询专知VIP会员