A fundamental goal in neuroscience is to understand the relationship between neural activity and behavior. For example, the ability to extract behavioral intentions from neural data, or neural decoding, is critical for developing effective brain machine interfaces. Although simple linear models have been applied to this challenge, they cannot identify important non-linear relationships. Thus, a self-supervised means of identifying non-linear relationships between neural dynamics and behavior, in order to compute neural representations, remains an important open problem. To address this challenge, we generated a new multimodal dataset consisting of the spontaneous behaviors generated by fruit flies, Drosophila melanogaster -- a popular model organism in neuroscience research. The dataset includes 3D markerless motion capture data from six camera views of the animal generating spontaneous actions, as well as synchronously acquired two-photon microscope images capturing the activity of descending neuron populations that are thought to drive actions. Standard contrastive learning and unsupervised domain adaptation techniques struggle to learn neural action representations (embeddings computed from the neural data describing action labels) due to large inter-animal differences in both neural and behavioral modalities. To overcome this deficiency, we developed simple yet effective augmentations that close the inter-animal domain gap, allowing us to extract behaviorally relevant, yet domain agnostic, information from neural data. This multimodal dataset and our new set of augmentations promise to accelerate the application of self-supervised learning methods in neuroscience.


翻译:神经科学的一个基本目标是理解神经活动与行为之间的关系。 例如, 从神经数据或神经解码中提取行为意图的能力对于开发有效的脑机器界面至关重要。 尽管简单的线性模型已经应用到这一挑战, 它们无法识别重要的非线性关系。 因此, 一种自我监督的识别神经动态与行为之间非线性关系的手段, 以计算神经表现方式, 仍然是一个重要的开放问题。 为了应对这一挑战, 我们产生了一个新的多式联运数据集, 由果蝇、 Drosophilla melanogaster 产生的自发行为组成, 这是神经科学研究中流行的模型机体。 数据集包括3D无标记的运动捕获数据, 从产生自发行动的动物的6个摄像视图中, 以及同步获得的2- Photon 显微镜图像, 捕捉到被认为能驱动行动的神经群的下降活动。 标准对比学习和不超超超超的域适应技术在学习神经动作演示( 从描述动作的神经数据标签, Drosophiaphia measter ) 来学习新的神经行为表现( ), 由神经内描述动作标签, 一种流行的自我缩缩缩缩缩缩化的自我模型, 以及我们快速的自我学习中, 快速的自我学习中, 和 快速的内行进进进进进进变动的动作动作的动作的动作,,, 以及我们之间的动作动作的动作的动作的动作的动作, 进进进进进的动作, 进的动作,, 进进进的动作的动作的动作的动作的动作的动作的动作的动作,,, 进进进进进进进进进进进进进进的动作的动作的动作的动作的动作的动作的动作, 以及我们的动作的动作的动作的动作的动作, 以及我们的动作的动作的动作的动作的动作, 以及我们的动作的动作的动作, 进的动作的动作, 进进进进进进进进进进进进进进进的动作的动作的动作, 进的动作, 进进的动作的动作的动作的动作的动作的动作的动作的动作的动作, 以及我们的动作的动作的动作的动作的动作的动作的动作的动作的动作的动作的动作的动作的

0
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
86+阅读 · 2020年12月22日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
92+阅读 · 2019年10月16日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Max-Margin Contrastive Learning
Arxiv
18+阅读 · 2021年12月21日
Arxiv
10+阅读 · 2021年2月26日
VIP会员
相关VIP内容
最新《自监督表示学习》报告,70页ppt
专知会员服务
86+阅读 · 2020年12月22日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
92+阅读 · 2019年10月16日
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员