🧠

neuromorphic-brain

An interactive educational simulator that models brain-inspired computing architectures, allowing users to explore spiking neural networks, neuromorphic chip designs, and the principles of biological neural computation. Users can visualize neuron firing patterns, synaptic connections, and experiment with event-driven processing paradigms.

🧠 今すぐ試す

これは何?

🎯 シミュレーターのヒント

📚 用語集

Action Potential
膜電位が閾値を超えたときにニューロンによって生成される短い電気インパルス (スパイク)。この全か無かの信号は軸索に沿って伝播し、他のニューロンと通信します。ニューロモーフィック システムでは、スパイクは情報交換の基本単位です。
Axon
電気インパルス (スパイク) を細胞体から他のニューロンに伝達するニューロンの長い突起。ニューロモーフィック ハードウェアでは、軸索は人工ニューロン間でスパイク メッセージを配信するルーティング チャネルとして実装されます。
Dendrite
シナプスを介して他のニューロンから入力信号を受け取るニューロンの分岐構造。ニューロモーフィック チップでは、樹状突起処理は、入力スパイク信号を統合する入力蓄積回路によってモデル化されます。
Integrate-and-Fire Model
ニューロンの単純化された数学モデル。時間の経過とともに受信信号を蓄積 (統合) し、蓄積された値がしきい値を超えたときに出力スパイクを生成し、その後ニューロンがリセットされます。 Leaky Integrate-and-Fire (LIF) バリアントでは、より生物学的なリアリズムを実現するために減衰項が追加されています。
Membrane Potential
ニューロンの細胞膜を横切る電位差。生物学的ニューロンでは、ニューロンがいつ発火するかを決定します。ニューロモーフィック モデルでは、入力を統合してスパイクをトリガーする内部状態変数を表します。
Spike-Timing-Dependent Plasticity (STDP)
シナプス強度の変化がシナプス前およびシナプス後のスパイクの相対的なタイミングに依存する生物学的学習規則。シナプス前ニューロンがシナプス後ニューロンの直前に発火すると、シナプスは強化されます。逆の順序は弱体化につながります。
Von Neumann Bottleneck
従来のコンピュータ アーキテクチャにおける基本的なパフォーマンスの制限は、メモリと処理ユニットが分離されているために発生し、それらの間でデータを絶えずやり取りする必要がありました。ニューロモーフィック アーキテクチャでは、計算とメモリを併置することでこれを回避します。
Neurosynaptic Core
人工ニューロンのグループ、そのシナプス接続、およびローカル ルーティング ロジックを含むニューロモーフィック チップの基本的な処理ユニット。複数のコアが相互接続されて、完全なニューロモーフィック プロセッサが形成されます。
Lateral Inhibition
活動的なニューロンが隣接するニューロンの活動を低下させる神経機構。ニューロモーフィック システムでは、これは勝者総取り競争を実装し、パターン認識や特徴選択などのタスクに使用されます。
Refractory Period
ニューロンが発火した後の短い期間で、その間は再び発火できないか(絶対不応期)、またはより強い刺激が必要です(相対不応期)。この生物学的制約は、発火率を制御するためにニューロモーフィック モデルに実装されています。
Asynchronous Circuit
グローバル クロック信号なしで動作し、イベントが到着するとデータを処理する電子回路。ニューロモーフィック チップは、多くの場合、イベント駆動型の低電力動作を実現するために非同期設計原則を使用します。
Crossbar Array
一部のニューロモーフィック ハードウェアで使用される回路トポロジ。水平ワイヤと垂直ワイヤの交点にシナプスの重みが保存され、ニューラル計算の高度な並列行列ベクトル乗算が可能になります。
Neural Coding
情報がニューロンによって表現および伝達される方法。レートコーディングはスパイク周波数で情報をエンコードするのに対し、時間コーディングは正確なスパイクタイミングを使用します。ニューロモーフィック システムは両方のコーディング スキームを利用できます。
Hebbian Learning
学習原理は、「一緒に発火し、一緒に配線するニューロン」として要約されます。それは、シナプス前ニューロンとシナプス後ニューロンが同時に活動すると、シナプス接続が強化されると述べています。 STDP は、ヘビアン学習の時間的に正確な形式です。
Soma
核を含み、樹状突起から入ってくる信号を統合するニューロンの細胞体。ニューロモーフィック ハードウェアでは、ソーマ機能は、シナプス入力を蓄積してスパイクを生成する回路によって実装されます。
Memristor
流れる電流の履歴に基づいて抵抗が変化する 2 端子の電子部品。メモリスタは、ハードウェアでシナプスの重み保存と可塑性を自然に実装できるため、ニューロモーフィック コンピューティングに有望です。
Winner-Take-All (WTA) Network
複数のニューロンが側方抑制によって競合し、最も強く活性化されたニューロンのみが出力を生成する神経回路モチーフ。 WTA ネットワークは、分類、パターン認識、および注意メカニズムのために神経形態システムで使用されます。
Neuromorphic Sensor
ニューロモーフィック原理に基づいて動作するように設計されたセンサーで、固定レート フレームではなく非同期のイベント駆動出力を生成します。ダイナミック ビジョン センサー (DVS) またはイベント カメラは、ピクセル レベルの明るさの変化をマイクロ秒の時間解像度で個別のイベントとして出力する例です。
Spike Encoding
アナログ入力信号 (センサー データやピクセル値など) をスパイク ニューラル ネットワークで処理できるスパイク トレインに変換するプロセス。方法には、レート コーディング、時間コーディング、デルタ変調、および人口コーディングが含まれます。
Homeostatic Plasticity
活動レベルの長期にわたる変化に応じてニューロンの興奮性やシナプスの強度を調整することで、安定した神経活動を維持する神経可塑性の一種。神経形態システムでは、ニューロンの暴走興奮や完全な沈黙を防ぎます。
Reservoir Computing
出力層のみがトレーニングされる固定のランダム接続リカレント ニューラル ネットワーク (リザーバー) を使用する計算フレームワーク。リザーバー コンピューティングのニューロモーフィックな実装では、時間的パターン認識にスパイキング ネットワークの固有のダイナミクスを利用します。
Excitatory and Inhibitory Neurons
神経回路における 2 つの基本的なタイプのニューロン。興奮性ニューロンは標的ニューロンの発火確率を増加させますが、抑制性ニューロンはそれを減少させます。興奮と抑制のバランスは、生物学的システムと神経形態システムの両方で安定した神経計算にとって重要です。
Plasticity Rule
神経活動に応じてシナプスの重みがどのように変化するかを定義する数学的規則。ニューロモーフィック システムでは、STDP、BCM、Oja ルールなどの可塑性ルールをハードウェアに直接実装できるため、外部の監視やバックプロパゲーションなしでオンチップ学習が可能になります。
TrueNorth
IBM のニューロモーフィック チップには、100 万個のプログラム可能なニューロンと 2 億 5,600 万個の構成可能なシナプスが含まれており、パターン認識タスクのために非常に低い電力 (70mW) で動作します。
Loihi
Intel のニューロモーフィック リサーチ チップは、プログラム可能なシナプス学習ルールを備えた 128 個のニューロモーフィック コアを実装しており、外部トレーニングなしでオンチップの学習と適応を可能にします。
NorthPole
IBM の最新ニューロモーフィック チップ (2023) は、分散メモリ アーキテクチャを通じてフォン ノイマンのボトルネックを排除することにより、ニューラル ネットワーク推論において前例のないエネルギー効率を実現しました。
Dynamic Vision Sensor (DVS)
ピクセルレベルの明るさの変化を非同期に検出するニューロモーフィックカメラは、マイクロ秒の時間分解能と極端なダイナミックレンジでイベントを生成し、網膜処理を模倣します。
Neural ODE
ニューラル ネットワーク層を連続変換としてモデル化する数学的フレームワーク。深層学習を動的システム理論に接続し、より脳に近い連続時間処理を可能にします。
Brainomorphic
生物学的詳細を複製するための機能的な神経形態学的アプローチを超えて、生物学的神経組織の物理的構造とダイナミクスを厳密に模倣するハードウェアを表すより具体的な用語。
Liquid State Machine
リカレント スパイキング ニューラル ネットワーク (「リキッド」) を使用したリザーバー コンピューティング アプローチ。読み出し層のみがトレーニングされ、入力を高次元表現に変換します。
Spike Rate Coding
情報が時間の経過に伴うスパイクの頻度でエンコードされるニューラル コード化スキーム。輝度が視覚野のニューロンの発火率を高めるのと同様に、発火率が高いほど信号が強いことを表します。
Temporal Coding
情報が個々のスパイクの頻度ではなく正確なタイミングでエンコードされるニューラル コーディング スキーム。時間コーディングは、レート コーディングよりもスパイクごとにより多くの情報を運ぶことができます。
Dendritic Computing
樹状突起 (ニューロンの入力ブランチ) は受動的な信号送信だけでなく、高度なローカル計算を実行するという理解が深まりつつあります。ニューロモーフィックデザインでは、樹状突起の処理をモデル化するものが増えています。
BrainScaleS
ハイデルベルク大学で開発されたニューロモーフィック コンピューティング プラットフォームは、加速された時間 (生物学的リアルタイムより 1000 倍高速) で動作し、ニューラル ネットワークのダイナミクスの迅速な探索を可能にします。
Catastrophic Forgetting
新しい情報を学習すると、以前に学習した知識が消去されるという従来のニューラル ネットワークの問題。 STDP のようなローカル学習ルールを備えたニューロモーフィック システムは、当然ながらこの問題に対して耐性があります。
Spike Train
時間の経過とともにニューロンによって生成される一連の個別のスパイク (活動電位)。スパイクのパターンは情報をエンコードしており、ニューロモーフィック システムにおける基本的な通信信号です。
Synaptic Weight
2 つのニューロン間の接続の強さを表す数値。ニューロモーフィック ハードウェアでは、シナプスの重みがメモリ要素 (SRAM、メモリスタ、またはアナログ回路) に保存され、学習中に変更されます。
Leaky Integrate-and-Fire (LIF)
ニューロモーフィック コンピューティングで使用される最も一般的な単純化されたニューロン モデル。入力電流はリーク(減衰)とともに積分(蓄積)され、膜電位が閾値に達するとスパイクが放出されます。
Neuromorphic Accelerator
スパイキング ニューラル ネットワーク計算を実行するために最適化された特殊なハードウェア チップで、ニューラル ネットワーク推論用の汎用プロセッサと比較してエネルギー効率が桁違いに向上します。
Bio-Inspired Computing
ニューロモーフィック コンピューティング (脳)、進化的アルゴリズム (進化)、および群知能 (集団行動) など、生物学的システムにインスピレーションを得たすべてのコンピューティング アプローチを含む広範な用語。
Address-Event Representation (AER)
ニューロモーフィック ハードウェアで使用される通信プロトコル。スパイクは送信ニューロンのアドレスとしてエンコードされ、非同期で送信され、効率的なチップ間通信が可能になります。
Neural Dust
神経活動を監視するために体内に埋め込まれるように設計された超小型ワイヤレス センサーで、神経形態センシング技術の極度の小型化を表します。
Astrocyte
かつては受動的なサポートであると考えられていた脳細胞の一種ですが、現在ではシナプス伝達と神経計算を調節することが知られています。一部の神経形態システムは、学習を向上させるために星状細胞とニューロンの相互作用をモデル化します。

🏆 主要人物

Carver Mead (1990)

カリフォルニア工科大学で 1980 年代後半から 1990 年代初頭にかけてニューロモーフィック エンジニアリングの分野を開拓しました。彼は「ニューロモーフィック」という用語を作り、アナログ VLSI 回路が生物学的神経系によって実行される神経計算をエミュレートできることを実証し、この分野の基本原理を確立しました。

Mike Davies (2017)

インテルのニューロモーフィック コンピューティング ラボの所長であり、ロイヒ ニューロモーフィック研究チップの主任アーキテクト。 Loihi は、オンチップ学習機能を備えたメニーコア アーキテクチャにスパイキング ニューラル ネットワークを実装し、プログラム可能なシナプス可塑性ルールと階層接続をサポートします。

Steve Furber (2006)

マンチェスター大学の教授。SpiNNaker (スパイキング ニューラル ネットワーク アーキテクチャ) プロジェクトの開発を主導しました。これは、100 万個の ARM プロセッサを使用して大規模なスパイキング ニューラル ネットワークをリアルタイムでシミュレートするように設計された超並列コンピューティング プラットフォームです。

Giacomo Indiveri (2011)

チューリッヒ工科大学でミックスシグナルのアナログ/デジタル ニューロモーフィック プロセッサ設計を開拓し、超低消費電力で生物学的に現実的なニューラル ダイナミクスをシリコンに実装する DYNAP-SE チップを作成

Dharmendra Modha (2014)

IBM Researchの脳にインスピレーションを得たコンピューティンググループを率い、消費電力わずか70ミリワットで100万個のニューロンと2億5,600万個のシナプスを備えたニューロモーフィックチップであるTrueNorthを開発

Chris Eliasmith (2012)

Nengo とセマンティック ポインター アーキテクチャを作成し、ニューロモーフィック ハードウェア上で大規模な脳機能モデルを構築するための理論的フレームワークと実用的なツールを提供

🎓 学習リソース

💬 学習者へ

{'encouragement': 'The human brain is the most sophisticated information processing system we know of, performing incredible feats of perception, learning, and decision-making while consuming less energy than a light bulb. Neuromorphic computing seeks to unlock these secrets by building machines that compute the way brains do.', 'reminder': "Every expert was once a beginner. The most important step is the first one - and you've already taken it by being here.", 'action': "Explore the simulator! Try different settings, experiment freely, and don't be afraid to make mistakes - that's how the best learning happens.", 'dream': 'Perhaps a neuroscientist in Accra will design the chip that truly mimics brain learning. Perhaps an engineer in Beirut will build neuromorphic sensors that give prosthetic limbs a sense of touch. Brain-inspired computing is for everyone.', 'wiaVision': 'WIA Book believes the science of the brain belongs to all humanity. From Seoul to Kampala, from Damascus to Lima - understanding how neurons compute is your birthright. Free forever, in the spirit of Hongik-ingan.'}

始める

無料、登録不要

始める →