There has been tremendous interest in designing stimuli (e.g. electrical currents) that produce desired neural responses, e.g., for inducing therapeutic effects for treatments. Traditionally, the design of such stimuli has been model-driven. Due to challenges inherent in modeling neural responses accurately, data-driven approaches offer an attractive alternative. The problem of data-driven stimulus design can be thought of as estimating an inverse of a non-linear ``forward" mapping, which takes in as inputs the stimulus parameters and outputs the corresponding neural responses. In most cases of interest, the forward mapping is many-to-one, and hence difficult to invert using traditional methods. Existing methods estimate the inverse by using conditional density estimation methods or numerically inverting an estimated forward mapping, but both approaches tend to perform poorly at small sample sizes. In this work, we develop a new optimization framework called PATHFINDER, which allows us to use regression methods for estimating an inverse mapping. We use toy examples to illustrate key aspects of PATHFINDER, and show, on computational models of biological neurons, that PATHFINDER can outperform existing methods at small sample sizes. The data-efficiency of PATHFINDER is especially valuable in stimulus design as collecting data is expensive in this domain.


翻译:对设计产生理想神经反应的刺激性(例如电流)的兴趣很大,这种刺激性(例如电流)产生了预期的神经反应,例如诱导治疗效果。传统上,这种刺激性的设计是模型驱动的。由于精确的神经反应模型所固有的挑战,数据驱动的方法提供了一种有吸引力的替代办法。数据驱动的刺激性设计问题可以被认为是对非线性“前向”绘图的反向估计,它吸收了刺激参数和相应的神经反应作为投入。在大多数感兴趣的情况下,前方绘图是多对一的,因此难以使用传统方法进行反向。现有方法通过使用有条件的密度估计方法或数字反向估计前方绘图方法来估计反向,但两种方法都倾向于在小的样本大小上表现不佳。在这项工作中,我们开发了一个新的优化框架,称为“PATHFINDER”, 使我们能够使用回归方法来估计反向的绘图。我们用许多例子来说明PATHFINDER的关键方面,因此很难用传统方法进行反向反向反向反向。在生物神经神经的计算模型中显示,尤其是PAFINDERA的模型中,这是在生物-DERDERA中的小数据中收集的模型。

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
71+阅读 · 2022年6月28日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年1月19日
Arxiv
0+阅读 · 2023年1月18日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员