Action Potential当神经元的膜电位超过阈值时产生的短暂电脉冲(尖峰)。这种全有或全无的信号沿着轴突传播,与其他神经元进行通信。在神经形态系统中,尖峰是信息交换的基本单位。
Axon神经元的长投射,将电脉冲(尖峰)从细胞体传输到其他神经元。在神经形态硬件中,轴突被实现为在人工神经元之间传递尖峰消息的路由通道。
Dendrite神经元的分支结构,通过突触接收来自其他神经元的输入信号。在神经形态芯片中,树突处理是通过集成输入尖峰信号的输入累积电路来建模的。
Integrate-and-Fire Model神经元的简化数学模型,随着时间的推移累积(积分)输入信号,并在累积值超过阈值时生成输出尖峰,之后神经元重置。 Leaky Integrate-and-Fire (LIF) 变体添加了一个衰减项,以获得更多的生物真实性。
Membrane Potential神经元细胞膜上的电压差。在生物神经元中,它决定神经元何时放电。在神经形态模型中,它表示整合输入并触发尖峰的内部状态变量。
Spike-Timing-Dependent Plasticity (STDP)一种生物学习规则,其中突触强度的变化取决于突触前和突触后尖峰的相对时间。如果突触前神经元在突触后神经元之前不久放电,则突触会增强;相反的顺序会导致削弱。
Von Neumann Bottleneck传统计算机架构中的基本性能限制是由内存和处理单元的分离造成的,需要数据在它们之间不断地穿梭。神经形态架构通过配置计算和内存来避免这种情况。
Neurosynaptic Core神经形态芯片中的基本处理单元,包含一组人工神经元、它们的突触连接和本地路由逻辑。多个核心互连形成完整的神经形态处理器。
Lateral Inhibition一种神经机制,其中活跃的神经元减少其邻居的活动。在神经形态系统中,这实现了赢家通吃的竞争,并用于模式识别和特征选择等任务。
Refractory Period神经元放电后的短暂时期,在此期间它不能再次放电(绝对不应期)或需要更强的刺激(相对不应期)。这种生物约束在神经形态模型中实现,以调节放电率。
Asynchronous Circuit一种无需全局时钟信号即可运行的电子电路,可在事件到达时处理数据。神经形态芯片通常使用异步设计原理来实现事件驱动的低功耗操作。
Crossbar Array某些神经形态硬件中使用的电路拓扑,其中突触权重存储在水平线和垂直线的交叉点处,从而实现神经计算的高度并行矩阵向量乘法。
Neural Coding神经元表示和传输信息的方式。速率编码以尖峰频率对信息进行编码,而时间编码则使用精确的尖峰定时。神经形态系统可以利用这两种编码方案。
Hebbian Learning学习原理概括为“神经元一起放电、连接在一起”。它指出,当突触前和突触后神经元同时活跃时,突触连接会得到加强。 STDP 是 Hebbian 学习的一种时间精确形式。
Soma神经元的细胞体,包含细胞核并整合来自树突的传入信号。在神经形态硬件中,体细胞功能是通过积累突触输入并生成尖峰的电路来实现的。
Memristor一种两端电子元件,其电阻根据流过它的电流历史而变化。忆阻器在神经形态计算方面很有前景,因为它们可以自然地在硬件中实现突触权重存储和可塑性。
Winner-Take-All (WTA) Network一种神经回路基序,其中多个神经元通过侧抑制竞争,并且只有最强烈激活的神经元产生输出。 WTA 网络用于神经形态系统中的分类、模式识别和注意力机制。
Neuromorphic Sensor一种传感器,设计用于按照神经形态原理运行,产生异步、事件驱动的输出,而不是固定速率的帧。动态视觉传感器 (DVS) 或事件相机是将像素级亮度变化输出为具有微秒时间分辨率的单个事件的示例。
Spike Encoding将模拟输入信号(例如传感器数据或像素值)转换为可由尖峰神经网络处理的尖峰序列的过程。方法包括速率编码、时间编码、增量调制和群体编码。
Homeostatic Plasticity神经可塑性的一种形式,通过调整神经元兴奋性或突触强度来响应活动水平的长期变化,从而维持稳定的神经活动。在神经形态系统中,它可以防止神经元失控兴奋或完全沉默。
Reservoir Computing使用固定的、随机连接的循环神经网络(存储层)的计算框架,其中仅训练输出层。储层计算的神经形态实现利用尖峰网络的固有动力学进行时间模式识别。
Excitatory and Inhibitory Neurons神经回路中神经元的两种基本类型。兴奋性神经元增加目标神经元的放电概率,而抑制性神经元则降低目标神经元的放电概率。兴奋和抑制之间的平衡对于生物和神经形态系统中稳定的神经计算至关重要。
Plasticity Rule定义突触权重如何响应神经活动而变化的数学规则。在神经形态系统中,STDP、BCM 和 Oja 规则等可塑性规则可以直接在硬件中实现,从而无需外部监督或反向传播即可实现片上学习。
TrueNorthIBM 的神经形态芯片包含 100 万个可编程神经元和 2.56 亿个可配置突触,以极低功耗 (70mW) 运行模式识别任务。
Loihi英特尔的神经拟态研究芯片实现了 128 个具有可编程突触学习规则的神经拟态核心,无需外部训练即可实现片上学习和适应。
NorthPoleIBM 最新的神经拟态芯片 (2023) 通过分布式内存架构消除冯·诺依曼瓶颈,实现了神经网络推理前所未有的能源效率。
Dynamic Vision Sensor (DVS)神经形态相机可异步检测像素级亮度变化,产生具有微秒时间分辨率和极端动态范围的事件,模仿视网膜处理。
Neural ODE一种数学框架,将神经网络层建模为连续变换,将深度学习与动力系统理论联系起来,并实现更像大脑的连续时间处理。
Brainomorphic一个更具体的术语,指的是紧密模仿生物神经组织的物理结构和动力学的硬件,超越了功能性神经形态方法来复制生物细节。
Liquid State Machine一种使用循环尖峰神经网络(“液体”)的储层计算方法,将输入转换为高维表示,仅训练读出层。
Spike Rate Coding一种神经编码方案,其中信息随着时间的推移以尖峰频率进行编码。较高的放电率代表更强的信号,类似于亮度如何增加视觉皮层中的神经元放电率。
Temporal Coding一种神经编码方案,其中信息按照单个尖峰的精确时间而不是频率进行编码。时间编码可以比速率编码在每个尖峰携带更多信息。
Dendritic Computing人们逐渐认识到树突(神经元的输入分支)执行复杂的局部计算,而不仅仅是被动信号传输。神经形态设计越来越多地模拟树突状处理。
BrainScaleS海德堡大学开发的神经形态计算平台,以加速时间运行(比生物实时快 1000 倍),能够快速探索神经网络动力学。
Catastrophic Forgetting传统神经网络中的一个问题是学习新信息会抹掉以前学到的知识。像 STDP 这样具有本地学习规则的神经形态系统自然可以抵抗这个问题。
Spike Train神经元随时间产生的一系列离散尖峰(动作电位)。尖峰模式编码信息,是神经形态系统中的基本通信信号。
Synaptic Weight表示两个神经元之间连接强度的数值。在神经形态硬件中,突触权重存储在存储元件(SRAM、忆阻器或模拟电路)中,并在学习过程中进行修改。
Leaky Integrate-and-Fire (LIF)神经形态计算中最常见的简化神经元模型。输入电流通过泄漏(衰减)进行积分(累积),当膜电位达到阈值时,会发出尖峰。
Neuromorphic Accelerator专门的硬件芯片针对运行尖峰神经网络计算进行了优化,与用于神经网络推理的通用处理器相比,能源效率实现了数量级的提高。
Bio-Inspired Computing一个广泛的术语,涵盖受生物系统启发的所有计算方法,包括神经形态计算(大脑)、进化算法(进化)和群体智能(集体行为)。
Address-Event Representation (AER)神经形态硬件中使用的通信协议,其中尖峰被编码为发送神经元的地址并异步传输,从而实现高效的芯片间通信。
Neural Dust设计用于植入体内以监测神经活动的超小型无线传感器,代表了神经形态传感技术的极端小型化。
Astrocyte一种曾经被认为是被动支持的脑细胞,现在已知可以调节突触传递和神经计算。一些神经形态系统模拟星形胶质细胞-神经元相互作用以改善学习。