A key issue in cognitive science concerns the fundamental psychological processes that underlie the formation and retrieval of multiple types of concepts in short-term and long-term memory (STM and LTM, respectively). We propose that chunking mechanisms play an essential role and show how the CogAct computational model grounds concept learning in fundamental cognitive processes and structures (such as chunking, attention, STM and LTM). First are the in-principle demonstrations, with CogAct automatically adapting to learn a range of categories from simple logical functions, to artificial categories, to natural raw (as opposed to natural pre-processed) concepts in the dissimilar domains of literature, chess and music. This kind of adaptive learning is difficult for most other psychological models, e.g., with cognitive models stopping at modelling artificial categories and (non-GPT) models based on deep learning requiring task-specific changes to the architecture. Secondly, we offer novel ways of designing human benchmarks for concept learning experiments and simulations accounting for subjectivity, ways to control for individual human experiences, all while keeping to real-life complex categories. We ground CogAct in simulations of subjective conceptual spaces of individual human participants, capturing humans subjective judgements in music, with the models learning from raw music score data without bootstrapping to pre-built knowledge structures. The CogAct simulations are compared to those obtained by a deep-learning model. These findings integrate concept learning and adaptation to complexity into the broader theories of cognitive psychology. Our approach may also be used in psychological applications that move away from modelling the average participant and towards capturing subjective concept space.


翻译:认知科学中的一个关键问题涉及支撑短期记忆与长期记忆(分别为STM和LTM)中多种概念形成与提取的基本心理过程。我们认为组块化机制发挥着核心作用,并展示了CogAct计算模型如何将概念学习锚定于基础认知过程与结构(如组块化、注意、STM和LTM)。首先是原理性验证:CogAct能自动适应学习从简单逻辑函数到人工分类,再到文学、国际象棋和音乐等异质领域中自然原始(相对于自然预加工)概念的多种范畴。此类适应性学习对多数其他心理学模型而言颇具挑战,例如认知模型往往止步于人工分类建模,而基于深度学习的(非GPT类)模型则需针对特定任务调整架构。其次,我们提出了设计概念学习实验与模拟的人类基准的新方法,这些方法兼顾主观性,能够控制个体经验差异,同时保持真实场景中的复杂范畴特性。我们将CogAct模型锚定于对个体参与者主观概念空间的模拟,通过从原始乐谱数据中学习(无需借助预建知识结构进行引导)来捕捉人类在音乐领域的主观判断。CogAct的模拟结果与深度学习模型的输出进行了对比。这些发现将概念学习及对复杂度的适应机制整合到更广泛的认知心理学理论框架中。我们的方法亦可用于心理学应用,推动建模对象从平均参与者转向捕捉主观概念空间。

0
下载
关闭预览

相关内容

LlamaV-o1: 重新思考大语言模型中的逐步视觉推理
基于模型的强化学习综述
专知会员服务
48+阅读 · 2023年1月9日
【ICML2022】知识图谱上逻辑查询的神经符号模型
专知会员服务
28+阅读 · 2022年5月25日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
NLP自然语言处理(二)——基础文本分析
乐享数据DataScientists
12+阅读 · 2017年2月7日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
相关资讯
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
NLP自然语言处理(二)——基础文本分析
乐享数据DataScientists
12+阅读 · 2017年2月7日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员