本论文研究了用于生物学合理的神经网络的创新训练方法,重点关注那些包含大脑皮层回路特征性递归动态的模型。首先,我们提出了一种创新的方法来训练稳定化的超线性网络,这些网络是大脑皮层回路的模型,已知由于其递归的兴奋性连接和扩展的非线性,它们会表现出不稳定性。其次,我们解决了在需要长期时间依赖性的任务上训练递归神经网络的挑战,这些任务是认知功能的关键组成部分,如工作记忆和决策制定。通过引入专门的跳跃连接来促进与任务相关的动态的出现,我们使这些网络能够有效地学习这些任务,而不依赖于非生物学机制来进行记忆和时间整合。最后,我们提出了一种混合架构,将递归网络的连续时间动态与卷积神经网络的空间处理能力结合,创建了一个统一的模型,在保持生物学合理性的同时,在复杂视觉任务中实现高性能。这些贡献共同推动了现实皮层类似网络的训练,提供了新的框架和见解,用于建模复杂的神经动态和行为。大脑是一个非凡的计算系统,能够协调复杂的行为和认知过程。在各个物种中,从小鼠到猴子,大脑由一个庞大的神经元网络组成,这些神经元通过无数的突触相互连接。这些复杂的连接使得大脑能够以惊人的速度和灵活性处理和转换信息,从而实现感知、决策和行动。大脑以高度并行和分布的方式运作,整合感觉输入、内在状态和过往经验,动态地适应环境。这一架构使得大脑能够完成令人惊叹的计算任务,如模式识别、预测结果、学习新技能以及生成复杂的行为序列。循环神经网络(RNNs)提供了一个吸引人的模型,用以捕捉大脑的动态和递归处理。RNN的结构能够处理时间序列和依赖关系,它们通过架构中的循环来表示神经回路中常见的反馈和持续活动。与单向传播网络不同,后者仅在一次传递中处理输入,RNN保持内在状态,使其能够随时间整合信息,自然地模拟大脑如何处理顺序和时间相关的任务。正是这种时间处理特性,使得RNN特别适合建模大脑的运作,在大脑中,连续的反馈和活动支持着记忆、决策和学习等功能。因此,RNN提供了一个有价值的框架来理解神经计算。通过训练RNN解决从工作记忆到运动控制等任务,研究人员可以探索大脑中类似计算的潜在机制。RNN学习和执行多样行为的灵活性为我们提供了关于递归连接性和时间动态如何支持大脑复杂处理能力的洞察。因此,RNN成为了人工神经系统与生物神经系统之间的桥梁,提供了一个理论视角,通过这一视角可以探索大脑惊人适应和计算能力背后的原理。本论文的研究工作(Soo 和 Lengyel, 2022;Soo 等, 2023, 2024)集中于为作为大脑神经回路模型的循环神经网络(RNNs)开发和完善训练方法。RNN由于其能够表示复杂的时间序列并保持能够捕捉神经活动动态的内在状态,因此在理解大脑功能方面具有重要前景。然而,尽管其潜力巨大,训练RNN仍面临着相当大的挑战。它们的递归结构常常导致梯度不稳定问题,如梯度消失或爆炸,这使得在训练过程中很难有效调整权重。尤其在模拟需要长时间和细致时间模式的大脑行为时,所需的计算量也极为庞大。因此,挑战在于弥合RNN的理论潜力与其实际可训练性之间的差距,开发出准确的大脑计算模型。为了构建能够真实捕捉生物神经回路属性和功能的RNN,必须开发出新的训练算法来克服这些困难。现有的优化技术往往不足以处理RNN训练的固有复杂性,包括长时间的依赖关系、大规模的状态空间以及复杂的反馈循环。因此,本论文旨在响应日益增长的需求,提出先进的训练方法,以解决梯度不稳定性和计算效率问题,使得构建能够模拟大脑中观察到的时间动态并在复杂的生物学相关任务上有效训练的RNN模型成为可能。在本论文中,我们首先在第二章回顾了人工神经网络的基础原理。这一章节通过介绍神经网络的技术方面,包括其架构、学习算法和核心计算机制,奠定了基础。通过建立对这些基本概念的扎实理解,我们为更有针对性的讨论递归神经网络(RNNs)及其在神经科学中的作用打下了基础,在第三章中,我们回顾了RNN在神经建模中的应用,它们捕捉时间动态的能力,以及它们在模拟大脑功能中的相关性。此章节还概述了RNN如何用于解决神经科学中的关键问题,并为后续章节探讨的创新训练方法提供了动机。接下来的章节分为背景部分,包括简短的文献综述,然后是对原创工作的重新结构化展示。在第四章中,我们提出了一种新方法,用于在涉及长期时间依赖性的认知任务上训练生物学合理的RNN(Soo 等,2023)。这类任务要求网络在较长时间内维持和操作信息,这是RNN训练和生物神经系统面临的挑战之一。本章详细介绍了这种新方法如何解决标准训练算法的局限性,如不稳定性和计算低效性,并展示了其在建模跨越广泛时间窗口的认知过程中的有效性。此工作旨在使RNN训练更接近生物学合理性,从而提供一个更好地捕捉真实神经回路如何处理复杂时间序列的模型。在第五章中,我们将重点转向训练随机超线性稳定化网络的挑战,这是一类具有非线性、超线性激活函数的专门RNN(Soo 和 Lengyel,2022)。这类网络由于其容易因活动小扰动而迅速放大并导致网络不稳定,训练起来尤其困难。本章讨论了管理和稳定这些动态的创新方法,使得这类网络得以有效训练。通过研究随机性和超线性属性如何影响网络行为,我们突出了这些网络在捕捉展示类似兴奋性-抑制平衡和非线性的真实神经回路特征方面的潜力。第六章探讨了卷积神经网络(CNN)与递归和连续时间特性相结合的问题,旨在将RNN和CNN的优点融合在一个架构中(Soo 等,2024)。这种混合模型利用CNN固有的图像处理能力,同时融入RNN特有的时间动态。最终结果是一个不仅在视觉处理任务中表现出色,同时也具有RNN特征(如动态状态演变和时间记忆)的模型。通过在需要空间和时间整合的任务上训练这个网络,我们得到了一个在需要复杂图像识别和时间模式处理的领域中表现出色的多功能模型,推动了我们对递归如何提升神经网络在多个认知领域表现的理解。最后,在结论章节中,我们总结了每个研究章节的主要发现,并讨论了它们对神经科学和机器学习的广泛影响。我们回顾了在开发更生物学合理的RNN方面取得的进展,并强调了未来的研究方向,包括训练算法的潜在改进、将这些方法扩展到其他类型的神经网络,以及进一步探索这些模型如何用于模拟复杂的神经动态和行为。通过这些讨论,我们旨在为推进RNN作为理解人工和生物神经计算的强大工具的下一步研究提供清晰的路线图。