Landauer's erasure principle states that any irreversible erasure protocol of a single bit memory needs work of at least $k_B T ln2.$ Recent proof of concept experiments has demonstrated that the erasure protocols with work close to the Landauer limit can be devised. Under feedback, where the state of the bit can be measured, the work needed for bit erasure can be lower than $k_B T ln2.$ In this article, we analyze the energetics of feedback enabled erasure, while incorporating the imperfections of experimentally realized memory and bit erasure protocols that admit failure probabilities. We delineate the role of uncertainty in measurements and its effects on the work and entropy changes for a feedback-based erasure. We quantitatively demonstrate that the deficit between the Landauer limit and the minimum average work needed in a feedback-based erasure is accounted for by the mutual information between the measurement and the state of the memory, while incorporating the imperfections inherent in any realization. We experimentally demonstrate analysis results on a memory and erasure protocol realized using optical fields.


翻译:Landauer的消化原则指出,任何对一个小记忆的不可逆转的消化协议都需要至少为 $k_B T IN2.$ 的概念实验最新证明表明,可以设计接近 Landauer 限制的消化协议。在反馈中,可以测量比特的状态,比特的消化所需的工作可能低于 $k_B T IN2.$ 。在本篇文章中,我们分析反馈的能量促成消化,同时纳入实验性实现的记忆和比特的消化协议的不完善之处,承认失败的概率。我们界定了测量中的不确定性的作用及其对工作的影响,以及基于反馈的消化机制的变换。我们从数量上表明,Landauer 限制与基于反馈的消化所需的最低平均工作量之间的缺漏是由测量和记忆状态之间的相互信息造成的,同时纳入任何实现过程中固有的不完善之处。我们实验性地展示了利用光学场实现的记忆和消化协议的分析结果。

0
下载
关闭预览

相关内容

【DeepMind】强化学习教程,83页ppt
专知会员服务
152+阅读 · 2020年8月7日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
已删除
将门创投
4+阅读 · 2017年7月7日
The Measure of Intelligence
Arxiv
6+阅读 · 2019年11月5日
Arxiv
6+阅读 · 2018年5月18日
Arxiv
8+阅读 · 2018年1月30日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
已删除
将门创投
4+阅读 · 2017年7月7日
Top
微信扫码咨询专知VIP会员