🧠

neuromorphic-brain

An interactive educational simulator that models brain-inspired computing architectures, allowing users to explore spiking neural networks, neuromorphic chip designs, and the principles of biological neural computation. Users can visualize neuron firing patterns, synaptic connections, and experiment with event-driven processing paradigms.

🧠 Jetzt ausprobieren

Was ist das?

🎯 Simulator-Tipps

📚 Glossar

Action Potential
Ein kurzer elektrischer Impuls (Spitze), der von einem Neuron erzeugt wird, wenn sein Membranpotential einen Schwellenwert überschreitet. Dieses Alles-oder-Nichts-Signal breitet sich entlang des Axons aus, um mit anderen Neuronen zu kommunizieren. In neuromorphen Systemen sind Spikes die grundlegende Einheit des Informationsaustauschs.
Axon
Die lange Projektion eines Neurons, die elektrische Impulse (Spitzen) vom Zellkörper an andere Neuronen weiterleitet. In neuromorpher Hardware werden Axone als Routing-Kanäle implementiert, die Spike-Nachrichten zwischen künstlichen Neuronen übermitteln.
Dendrite
Die verzweigten Strukturen eines Neurons, die über Synapsen Eingangssignale von anderen Neuronen empfangen. In neuromorphen Chips wird die dendritische Verarbeitung durch Eingangsakkumulationsschaltungen modelliert, die eingehende Spitzensignale integrieren.
Integrate-and-Fire Model
Ein vereinfachtes mathematisches Modell eines Neurons, das eingehende Signale im Laufe der Zeit akkumuliert (integriert) und eine Ausgabespitze erzeugt, wenn der akkumulierte Wert einen Schwellenwert überschreitet, woraufhin das Neuron zurückgesetzt wird. Die Leaky Integrate-and-Fire (LIF)-Variante fügt einen Zerfallsterm für mehr biologischen Realismus hinzu.
Membrane Potential
Die elektrische Spannungsdifferenz über der Zellmembran eines Neurons. In biologischen Neuronen bestimmt es, wann ein Neuron feuert. In neuromorphen Modellen stellt es die interne Zustandsvariable dar, die Eingaben integriert und Spitzen auslöst.
Spike-Timing-Dependent Plasticity (STDP)
Eine biologische Lernregel, bei der die Änderung der synaptischen Stärke vom relativen Timing prä- und postsynaptischer Spitzen abhängt. Wenn das präsynaptische Neuron kurz vor dem postsynaptischen Neuron feuert, wird die Synapse gestärkt; die umgekehrte Reihenfolge führt zur Schwächung.
Von Neumann Bottleneck
Die grundlegende Leistungsbeschränkung in herkömmlichen Computerarchitekturen, die durch die Trennung von Speicher- und Verarbeitungseinheiten verursacht wird und einen ständigen Datenaustausch zwischen ihnen erfordert. Neuromorphe Architekturen vermeiden dies, indem sie Berechnung und Gedächtnis zusammenführen.
Neurosynaptic Core
Eine grundlegende Verarbeitungseinheit in neuromorphen Chips, die eine Gruppe künstlicher Neuronen, ihre synaptischen Verbindungen und lokale Routing-Logik enthält. Mehrere Kerne sind miteinander verbunden, um einen vollständigen neuromorphen Prozessor zu bilden.
Lateral Inhibition
Ein neuronaler Mechanismus, bei dem ein aktives Neuron die Aktivität seiner Nachbarn reduziert. In neuromorphen Systemen implementiert dies den Gewinner-Alles-Wettbewerb und wird für Aufgaben wie Mustererkennung und Merkmalsauswahl verwendet.
Refractory Period
Der kurze Zeitraum nach dem Feuern eines Neurons, in dem es nicht erneut feuern kann (absolute Refraktärzeit) oder einen stärkeren Reiz erfordert (relative Refraktärzeit). Diese biologische Einschränkung wird in neuromorphen Modellen implementiert, um die Feuerraten zu regulieren.
Asynchronous Circuit
Eine elektronische Schaltung, die ohne ein globales Taktsignal arbeitet und Daten verarbeitet, sobald Ereignisse eintreffen. Neuromorphe Chips nutzen häufig asynchrone Designprinzipien, um einen ereignisgesteuerten Betrieb mit geringem Stromverbrauch zu erreichen.
Crossbar Array
Eine Schaltungstopologie, die in mancher neuromorpher Hardware verwendet wird und bei der synaptische Gewichte an den Schnittpunkten horizontaler und vertikaler Drähte gespeichert werden, was eine hochparallele Matrix-Vektor-Multiplikation für neuronale Berechnungen ermöglicht.
Neural Coding
Die Art und Weise, wie Informationen von Neuronen dargestellt und übertragen werden. Bei der Ratenkodierung werden Informationen in Spitzenfrequenzen kodiert, während bei der zeitlichen Kodierung ein präzises Spitzen-Timing verwendet wird. Neuromorphe Systeme können beide Kodierungsschemata nutzen.
Hebbian Learning
Ein Lernprinzip, zusammengefasst als „Neuronen, die gemeinsam feuern, sich miteinander vernetzen.“ Es besagt, dass synaptische Verbindungen gestärkt werden, wenn prä- und postsynaptische Neuronen gleichzeitig aktiv sind. STDP ist eine zeitlich präzise Form des hebräischen Lernens.
Soma
Der Zellkörper eines Neurons, der den Zellkern enthält und eingehende Signale von Dendriten integriert. In neuromorpher Hardware wird die Soma-Funktion durch Schaltkreise implementiert, die synaptische Eingaben akkumulieren und Spitzen erzeugen.
Memristor
Eine elektronische Komponente mit zwei Anschlüssen, deren Widerstand sich je nach Verlauf des Stromflusses ändert. Memristoren sind vielversprechend für das neuromorphe Computing, da sie synaptische Gewichtsspeicherung und Plastizität auf natürliche Weise in Hardware implementieren können.
Winner-Take-All (WTA) Network
Ein neuronales Schaltkreismotiv, bei dem mehrere Neuronen durch laterale Hemmung konkurrieren und nur das am stärksten aktivierte Neuron einen Output erzeugt. WTA-Netzwerke werden in neuromorphen Systemen zur Klassifizierung, Mustererkennung und Aufmerksamkeitsmechanismen verwendet.
Neuromorphic Sensor
Ein Sensor, der nach neuromorphen Prinzipien arbeitet und eine asynchrone, ereignisgesteuerte Ausgabe anstelle von Frames mit fester Rate erzeugt. Dynamic Vision Sensoren (DVS) oder Ereigniskameras sind Beispiele, die Helligkeitsänderungen auf Pixelebene als einzelne Ereignisse mit einer zeitlichen Auflösung im Mikrosekundenbereich ausgeben.
Spike Encoding
Der Prozess der Umwandlung analoger Eingangssignale (z. B. Sensordaten oder Pixelwerte) in Spike-Züge, die von neuronalen Spike-Netzwerken verarbeitet werden können. Zu den Methoden gehören Ratenkodierung, zeitliche Kodierung, Deltamodulation und Populationskodierung.
Homeostatic Plasticity
Eine Form der neuronalen Plastizität, die eine stabile neuronale Aktivität aufrechterhält, indem sie die Erregbarkeit von Neuronen oder die synaptischen Stärken als Reaktion auf längere Änderungen des Aktivitätsniveaus anpasst. In neuromorphen Systemen verhindert es eine außer Kontrolle geratene Erregung oder die vollständige Stummschaltung von Neuronen.
Reservoir Computing
Ein Rechenrahmen, der ein festes, zufällig verbundenes rekurrentes neuronales Netzwerk (das Reservoir) verwendet, in dem nur die Ausgabeschicht trainiert wird. Neuromorphe Implementierungen des Reservoir-Computing nutzen die inhärente Dynamik von Spike-Netzwerken zur zeitlichen Mustererkennung.
Excitatory and Inhibitory Neurons
Zwei grundlegende Arten von Neuronen in neuronalen Schaltkreisen. Erregende Neuronen erhöhen die Schusswahrscheinlichkeit von Zielneuronen, während hemmende Neuronen sie verringern. Das Gleichgewicht zwischen Erregung und Hemmung ist entscheidend für eine stabile neuronale Berechnung sowohl in biologischen als auch in neuromorphen Systemen.
Plasticity Rule
Eine mathematische Regel, die definiert, wie sich synaptische Gewichte als Reaktion auf neuronale Aktivität ändern. In neuromorphen Systemen können Plastizitätsregeln wie STDP, BCM und die Oja-Regel direkt in Hardware implementiert werden, wodurch Lernen auf dem Chip ohne externe Überwachung oder Backpropagation ermöglicht wird.
TrueNorth
Der neuromorphe Chip von IBM enthält 1 Million programmierbare Neuronen und 256 Millionen konfigurierbare Synapsen und arbeitet mit extrem geringer Leistung (70 mW) für Mustererkennungsaufgaben.
Loihi
Der neuromorphe Forschungschip von Intel implementiert 128 neuromorphe Kerne mit programmierbaren synaptischen Lernregeln und ermöglicht so Lernen und Anpassung auf dem Chip ohne externes Training.
NorthPole
Der neueste neuromorphe Chip von IBM (2023) erreicht eine beispiellose Energieeffizienz für die Inferenz neuronaler Netze, indem er den Von-Neumann-Engpass durch eine verteilte Speicherarchitektur beseitigt.
Dynamic Vision Sensor (DVS)
Eine neuromorphe Kamera, die Helligkeitsänderungen auf Pixelebene asynchron erkennt und Ereignisse mit einer zeitlichen Auflösung im Mikrosekundenbereich und einem extremen Dynamikbereich erzeugt und so die Verarbeitung in der Netzhaut nachahmt.
Neural ODE
Ein mathematisches Framework, das neuronale Netzwerkschichten als kontinuierliche Transformationen modelliert, Deep Learning mit der Theorie dynamischer Systeme verbindet und eine gehirnähnlichere, zeitkontinuierliche Verarbeitung ermöglicht.
Brainomorphic
Ein spezifischerer Begriff für Hardware, die die physikalische Struktur und Dynamik biologischen Nervengewebes genau nachahmt und über funktionelle neuromorphe Ansätze zur Nachbildung biologischer Details hinausgeht.
Liquid State Machine
Ein Reservoir-Computing-Ansatz, der ein wiederkehrendes neuronales Spitzennetzwerk (die „Flüssigkeit“) verwendet, das Eingaben in eine hochdimensionale Darstellung umwandelt, wobei nur eine Ausleseschicht trainiert wird.
Spike Rate Coding
Ein neuronales Kodierungsschema, bei dem Informationen in der Häufigkeit von Spitzen im Zeitverlauf kodiert werden. Höhere Feuerungsraten stellen stärkere Signale dar, ähnlich wie Helligkeit die Feuerungsraten von Neuronen im visuellen Kortex erhöhen könnte.
Temporal Coding
Ein neuronales Codierungsschema, bei dem Informationen im präzisen Timing einzelner Spitzen und nicht in deren Häufigkeit codiert werden. Die zeitliche Codierung kann pro Spitze mehr Informationen übertragen als die Ratencodierung.
Dendritic Computing
Das aufkommende Verständnis, dass Dendriten (Eingabezweige von Neuronen) anspruchsvolle lokale Berechnungen durchführen und nicht nur passive Signalübertragung. Neuromorphe Designs modellieren zunehmend die dendritische Verarbeitung.
BrainScaleS
Eine an der Universität Heidelberg entwickelte neuromorphe Computerplattform, die in beschleunigter Zeit arbeitet (1000-mal schneller als biologische Echtzeit) und eine schnelle Erforschung der Dynamik neuronaler Netzwerke ermöglicht.
Catastrophic Forgetting
Ein Problem in traditionellen neuronalen Netzen, bei dem das Lernen neuer Informationen zuvor erlerntes Wissen löscht. Neuromorphe Systeme mit lokalen Lernregeln wie STDP sind von Natur aus resistent gegen dieses Problem.
Spike Train
Eine Folge diskreter Spitzen (Aktionspotentiale), die von einem Neuron im Laufe der Zeit erzeugt werden. Das Muster der Spitzen kodiert Informationen und ist das grundlegende Kommunikationssignal in neuromorphen Systemen.
Synaptic Weight
Ein numerischer Wert, der die Stärke einer Verbindung zwischen zwei Neuronen darstellt. In neuromorpher Hardware werden synaptische Gewichte in Speicherelementen (SRAM, Memristoren oder analoge Schaltkreise) gespeichert und während des Lernens verändert.
Leaky Integrate-and-Fire (LIF)
Das am häufigsten verwendete vereinfachte Neuronenmodell im neuromorphen Computing. Eingangsströme werden mit einem Leck (Abfall) integriert (akkumuliert), und wenn das Membranpotential einen Schwellenwert erreicht, wird eine Spitze abgegeben.
Neuromorphic Accelerator
Ein spezieller Hardware-Chip, der für die Ausführung von Spiking-Berechnungen neuronaler Netzwerke optimiert ist und im Vergleich zu Allzweckprozessoren für die Inferenz neuronaler Netzwerke eine Verbesserung der Energieeffizienz um Größenordnungen erzielt.
Bio-Inspired Computing
Ein weit gefasster Begriff, der alle von biologischen Systemen inspirierten Computeransätze umfasst, einschließlich neuromorphem Computing (Gehirn), evolutionären Algorithmen (Evolution) und Schwarmintelligenz (kollektives Verhalten).
Address-Event Representation (AER)
Ein in neuromorpher Hardware verwendetes Kommunikationsprotokoll, bei dem Spikes als Adressen des sendenden Neurons kodiert und asynchron übertragen werden, was eine effiziente Kommunikation zwischen Chips ermöglicht.
Neural Dust
Ultraminiatur-Funksensoren, die zur Überwachung der neuronalen Aktivität in den Körper implantiert werden sollen und die extreme Miniaturisierung der neuromorphen Sensortechnologie darstellen.
Astrocyte
Eine Art von Gehirnzelle, von der früher angenommen wurde, dass sie eine passive Unterstützung darstellt, von der heute bekannt ist, dass sie die synaptische Übertragung und neuronale Berechnungen moduliert. Einige neuromorphe Systeme modellieren Astrozyten-Neuron-Interaktionen für ein verbessertes Lernen.

🏆 Schlüsselpersonen

Carver Mead (1990)

War in den späten 1980er und frühen 1990er Jahren am Caltech Pionier auf dem Gebiet der neuromorphen Technik. Er prägte den Begriff „neuromorph“ und demonstrierte, dass analoge VLSI-Schaltkreise die von biologischen Nervensystemen durchgeführten neuronalen Berechnungen emulieren können, und legte damit die Grundprinzipien des Fachgebiets fest.

Mike Davies (2017)

Direktor des Neuromorphic Computing Lab von Intel und leitender Architekt des neuromorphen Forschungschips Loihi. Loihi implementiert Spike-Neuronale Netze in einer Manycore-Architektur mit On-Chip-Lernfähigkeiten und unterstützt programmierbare synaptische Plastizitätsregeln und hierarchische Konnektivität.

Steve Furber (2006)

Professor an der Universität Manchester, der die Entwicklung des SpiNNaker-Projekts (Spiking Neural Network Architecture) leitete, einer massiv parallelen Computerplattform, die darauf ausgelegt ist, mithilfe einer Million ARM-Prozessoren groß angelegte Spiking-Neuronale Netzwerke in Echtzeit zu simulieren.

Giacomo Indiveri (2011)

Pionierarbeit bei der Entwicklung analoger/digitaler neuromorpher Mixed-Signal-Prozessoren an der ETH Zürich und Entwicklung von DYNAP-SE-Chips, die biologisch realistische neuronale Dynamik in Silizium bei extrem niedrigem Stromverbrauch implementieren

Dharmendra Modha (2014)

Leitete die vom Gehirn inspirierte Computergruppe von IBM Research und entwickelte TrueNorth, einen neuromorphen Chip mit 1 Million Neuronen und 256 Millionen Synapsen, der nur 70 Milliwatt Strom verbraucht

Chris Eliasmith (2012)

Erstellte Nengo und die Semantic Pointer Architecture und stellte theoretische Rahmenbedingungen und praktische Werkzeuge für den Aufbau groß angelegter funktioneller Gehirnmodelle auf neuromorpher Hardware bereit

🎓 Lernressourcen

💬 Nachricht an Lernende

{'encouragement': 'The human brain is the most sophisticated information processing system we know of, performing incredible feats of perception, learning, and decision-making while consuming less energy than a light bulb. Neuromorphic computing seeks to unlock these secrets by building machines that compute the way brains do.', 'reminder': "Every expert was once a beginner. The most important step is the first one - and you've already taken it by being here.", 'action': "Explore the simulator! Try different settings, experiment freely, and don't be afraid to make mistakes - that's how the best learning happens.", 'dream': 'Perhaps a neuroscientist in Accra will design the chip that truly mimics brain learning. Perhaps an engineer in Beirut will build neuromorphic sensors that give prosthetic limbs a sense of touch. Brain-inspired computing is for everyone.', 'wiaVision': 'WIA Book believes the science of the brain belongs to all humanity. From Seoul to Kampala, from Damascus to Lima - understanding how neurons compute is your birthright. Free forever, in the spirit of Hongik-ingan.'}

Loslegen

Kostenlos, ohne Anmeldung

Loslegen →