机器学习领域中,归纳偏差的研究是最为全面的主题之一。归纳偏差不仅定义了学习的效率和速度,还定义了特定机器学习系统最终能学到什么。现代机器学习的历史与心理学、认知科学和神经科学紧密相连,因此许多最有影响力的归纳偏差直接来源于这些领域。例子包括卷积神经网络,其灵感来自于自然视觉系统的组织结构,以及旨在模拟理想化抽象神经回路的人工神经网络本身。然而,鉴于近年来机器学习的巨大成功,人们更多地关注了扩展机器学习系统所面临的工程挑战,而对其归纳偏差的关注较少。本论文将尝试采取相反的方向。为此,我们将覆盖自然相关的学习算法,以及神经表示中固有的自然结构。我们将构建模仿这些自然属性的人工系统,并将展示它们如何有利于计算,并可能帮助我们更好地理解自然智能本身。

成为VIP会员查看完整内容
21

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【MIT博士论文】量子计算中的人工智能前景, 253页pdf
专知会员服务
41+阅读 · 2023年8月23日
【普林斯顿博士论文】神经符号机器学习推理,133页pdf
专知会员服务
45+阅读 · 2023年2月1日
【牛津大学博士论文】关系数据的学习和推理,243页pdf
专知会员服务
52+阅读 · 2022年11月16日
【硬核书】数据科学,282页pdf
专知
21+阅读 · 2022年11月29日
【MIT博士论文】数据高效强化学习,176页pdf
【KDD2020】图神经网络:基础与应用,322页ppt
多模态深度学习综述,18页pdf
专知
46+阅读 · 2020年3月29日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
360+阅读 · 2023年3月31日
Arxiv
60+阅读 · 2023年3月26日
Arxiv
126+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员