🧠

neuromorphic-brain

An interactive educational simulator that models brain-inspired computing architectures, allowing users to explore spiking neural networks, neuromorphic chip designs, and the principles of biological neural computation. Users can visualize neuron firing patterns, synaptic connections, and experiment with event-driven processing paradigms.

🧠 立即试用

这是什么?

🎯 模拟器提示

📚 术语表

Action Potential
当神经元的膜电位超过阈值时产生的短暂电脉冲(尖峰)。这种全有或全无的信号沿着轴突传播,与其他神经元进行通信。在神经形态系统中,尖峰是信息交换的基本单位。
Axon
神经元的长投射,将电脉冲(尖峰)从细胞体传输到其他神经元。在神经形态硬件中,轴突被实现为在人工神经元之间传递尖峰消息的路由通道。
Dendrite
神经元的分支结构,通过突触接收来自其他神经元的输入信号。在神经形态芯片中,树突处理是通过集成输入尖峰信号的输入累积电路来建模的。
Integrate-and-Fire Model
神经元的简化数学模型,随着时间的推移累积(积分)输入信号,并在累积值超过阈值时生成输出尖峰,之后神经元重置。 Leaky Integrate-and-Fire (LIF) 变体添加了一个衰减项,以获得更多的生物真实性。
Membrane Potential
神经元细胞膜上的电压差。在生物神经元中,它决定神经元何时放电。在神经形态模型中,它表示整合输入并触发尖峰的内部状态变量。
Spike-Timing-Dependent Plasticity (STDP)
一种生物学习规则,其中突触强度的变化取决于突触前和突触后尖峰的相对时间。如果突触前神经元在突触后神经元之前不久放电,则突触会增强;相反的顺序会导致削弱。
Von Neumann Bottleneck
传统计算机架构中的基本性能限制是由内存和处理单元的分离造成的,需要数据在它们之间不断地穿梭。神经形态架构通过配置计算和内存来避免这种情况。
Neurosynaptic Core
神经形态芯片中的基本处理单元,包含一组人工神经元、它们的突触连接和本地路由逻辑。多个核心互连形成完整的神经形态处理器。
Lateral Inhibition
一种神经机制,其中活跃的神经元减少其邻居的活动。在神经形态系统中,这实现了赢家通吃的竞争,并用于模式识别和特征选择等任务。
Refractory Period
神经元放电后的短暂时期,在此期间它不能再次放电(绝对不应期)或需要更强的刺激(相对不应期)。这种生物约束在神经形态模型中实现,以调节放电率。
Asynchronous Circuit
一种无需全局时钟信号即可运行的电子电路,可在事件到达时处理数据。神经形态芯片通常使用异步设计原理来实现事件驱动的低功耗操作。
Crossbar Array
某些神经形态硬件中使用的电路拓扑,其中突触权重存储在水平线和垂直线的交叉点处,从而实现神经计算的高度并行矩阵向量乘法。
Neural Coding
神经元表示和传输信息的方式。速率编码以尖峰频率对信息进行编码,而时间编码则使用精确的尖峰定时。神经形态系统可以利用这两种编码方案。
Hebbian Learning
学习原理概括为“神经元一起放电、连接在一起”。它指出,当突触前​​和突触后神经元同时活跃时,突触连接会得到加强。 STDP 是 Hebbian 学习的一种时间精确形式。
Soma
神经元的细胞体,包含细胞核并整合来自树突的传入信号。在神经形态硬件中,体细胞功能是通过积累突触输入并生成尖峰的电路来实现的。
Memristor
一种两端电子元件,其电阻根据流过它的电流历史而变化。忆阻器在神经形态计算方面很有前景,因为它们可以自然地在硬件中实现突触权重存储和可塑性。
Winner-Take-All (WTA) Network
一种神经回路基序,其中多个神经元通过侧抑制竞争,并且只有最强烈激活的神经元产生输出。 WTA 网络用于神经形态系统中的分类、模式识别和注意力机制。
Neuromorphic Sensor
一种传感器,设计用于按照神经形态原理运行,产生异步、事件驱动的输出,而不是固定速率的帧。动态视觉传感器 (DVS) 或事件相机是将像素级亮度变化输出为具有微秒时间分辨率的单个事件的示例。
Spike Encoding
将模拟输入信号(例如传感器数据或像素值)转换为可由尖峰神经网络处理的尖峰序列的过程。方法包括速率编码、时间编码、增量调制和群体编码。
Homeostatic Plasticity
神经可塑性的一种形式,通过调整神经元兴奋性或突触强度来响应活动水平的长期变化,从而维持稳定的神经活动。在神经形态系统中,它可以防止神经元失控兴奋或完全沉默。
Reservoir Computing
使用固定的、随机连接的循环神经网络(存储层)的计算框架,其中仅训练输出层。储层计算的神经形态实现利用尖峰网络的固有动力学进行时间模式识别。
Excitatory and Inhibitory Neurons
神经回路中神经元的两种基本类型。兴奋性神经元增加目标神经元的放电概率,而抑制性神经元则降低目标神经元的放电概率。兴奋和抑制之间的平衡对于生物和神经形态系统中稳定的神经计算至关重要。
Plasticity Rule
定义突触权重如何响应神经活动而变化的数学规则。在神经形态系统中,STDP、BCM 和 Oja 规则等可塑性规则可以直接在硬件中实现,从而无需外部监督或反向传播即可实现片上学习。
TrueNorth
IBM 的神经形态芯片包含 100 万个可编程神经元和 2.56 亿个可配置突触,以极低功耗 (70mW) 运行模式识别任务。
Loihi
英特尔的神经拟态研究芯片实现了 128 个具有可编程突触学习规则的神经拟态核心,无需外部训练即可实现片上学习和适应。
NorthPole
IBM 最新的神经拟态芯片 (2023) 通过分布式内存架构消除冯·诺依曼瓶颈,实现了神经网络推理前所未有的能源效率。
Dynamic Vision Sensor (DVS)
神经形态相机可异步检测像素级亮度变化,产生具有微秒时间分辨率和极端动态范围的事件,模仿视网膜处理。
Neural ODE
一种数学框架,将神经网络层建模为连续变换,将深度学习与动力系统理论联系起来,并实现更像大脑的连续时间处理。
Brainomorphic
一个更具体的术语,指的是紧密模仿生物神经组织的物理结构和动力学的硬件,超越了功能性神经形态方法来复制生物细节。
Liquid State Machine
一种使用循环尖峰神经网络(“液体”)的储层计算方法,将输入转换为高维表示,仅训练读出层。
Spike Rate Coding
一种神经编码方案,其中信息随着时间的推移以尖峰频率进行编码。较高的放电率代表更强的信号,类似于亮度如何增加视觉皮层中的神经元放电率。
Temporal Coding
一种神经编码方案,其中信息按照单个尖峰的精确时间而不是频率进行编码。时间编码可以比速率编码在每个尖峰携带更多信息。
Dendritic Computing
人们逐渐认识到树突(神经元的输入分支)执行复杂的局部计算,而不仅仅是被动信号传输。神经形态设计越来越多地模拟树突状处理。
BrainScaleS
海德堡大学开发的神经形态计算平台,以加速时间运行(比生物实时快 1000 倍),能够快速探索神经网络动力学。
Catastrophic Forgetting
传统神经网络中的一个问题是学习新信息会抹掉以前学到的知识。像 STDP 这样具有本地学习规则的神经形态系统自然可以抵抗这个问题。
Spike Train
神经元随时间产生的一系列离散尖峰(动作电位)。尖峰模式编码信息,是神经形态系统中的基本通信信号。
Synaptic Weight
表示两个神经元之间连接强度的数值。在神经形态硬件中,突触权重存储在存储元件(SRAM、忆阻器或模拟电路)中,并在学习过程中进行修改。
Leaky Integrate-and-Fire (LIF)
神经形态计算中最常见的简化神经元模型。输入电流通过泄漏(衰减)进行积分(累积),当膜电位达到阈值时,会发出尖峰。
Neuromorphic Accelerator
专门的硬件芯片针对运行尖峰神经网络计算进行了优化,与用于神经网络推理的通用处理器相比,能源效率实现了数量级的提高。
Bio-Inspired Computing
一个广泛的术语,涵盖受生物系统启发的所有计算方法,包括神经形态计算(大脑)、进化算法(进化)和群体智能(集体行为)。
Address-Event Representation (AER)
神经形态硬件中使用的通信协议,其中尖峰被编码为发送神经元的地址并异步传输,从而实现高效的芯片间通信。
Neural Dust
设计用于植入体内以监测神经活动的超小型无线传感器,代表了神经形态传感技术的极端小型化。
Astrocyte
一种曾经被认为是被动支持的脑细胞,现在已知可以调节突触传递和神经计算。一些神经形态系统模拟星形胶质细胞-神经元相互作用以改善学习。

🏆 关键人物

Carver Mead (1990)

20 世纪 80 年代末和 90 年代初在加州理工学院开创了神经形态工程领域。他创造了“神经形态”一词,并证明模拟 VLSI 电路可以模拟生物神经系统执行的神经计算,从而建立了该领域的基本原理。

Mike Davies (2017)

英特尔神经拟态计算实验室主任兼 Loihi 神经拟态研究芯片的首席架构师。 Loihi 在具有片上学习功能的众核架构中实现尖峰神经网络,支持可编程突触可塑性规则和分层连接。

Steve Furber (2006)

曼彻斯特大学教授,领导了 SpiNNaker(脉冲神经网络架构)项目的开发,该项目是一个大规模并行计算平台,旨在使用一百万个 ARM 处理器实时模拟大规模脉冲神经网络。

Giacomo Indiveri (2011)

苏黎世联邦理工学院开创了混合信号模拟/数字神经拟态处理器设计,创建了 DYNAP-SE 芯片,该芯片以超低功耗在硅中实现了生物逼真的神经动力学

Dharmendra Modha (2014)

领导IBM研究院的类脑计算小组,创建了TrueNorth神经形态芯片,拥有100万个神经元和2.56亿个突触,功耗仅为70毫瓦

Chris Eliasmith (2012)

创建了Nengo和语义指针架构,为在神经形态硬件上构建大规模功能性大脑模型提供理论框架和实用工具

🎓 学习资源

💬 给学习者的话

{'encouragement': 'The human brain is the most sophisticated information processing system we know of, performing incredible feats of perception, learning, and decision-making while consuming less energy than a light bulb. Neuromorphic computing seeks to unlock these secrets by building machines that compute the way brains do.', 'reminder': "Every expert was once a beginner. The most important step is the first one - and you've already taken it by being here.", 'action': "Explore the simulator! Try different settings, experiment freely, and don't be afraid to make mistakes - that's how the best learning happens.", 'dream': 'Perhaps a neuroscientist in Accra will design the chip that truly mimics brain learning. Perhaps an engineer in Beirut will build neuromorphic sensors that give prosthetic limbs a sense of touch. Brain-inspired computing is for everyone.', 'wiaVision': 'WIA Book believes the science of the brain belongs to all humanity. From Seoul to Kampala, from Damascus to Lima - understanding how neurons compute is your birthright. Free forever, in the spirit of Hongik-ingan.'}

开始使用

免费,无需注册

开始使用 →