Action PotentialEin kurzer elektrischer Impuls (Spitze), der von einem Neuron erzeugt wird, wenn sein Membranpotential einen Schwellenwert überschreitet. Dieses Alles-oder-Nichts-Signal breitet sich entlang des Axons aus, um mit anderen Neuronen zu kommunizieren. In neuromorphen Systemen sind Spikes die grundlegende Einheit des Informationsaustauschs.
AxonDie lange Projektion eines Neurons, die elektrische Impulse (Spitzen) vom Zellkörper an andere Neuronen weiterleitet. In neuromorpher Hardware werden Axone als Routing-Kanäle implementiert, die Spike-Nachrichten zwischen künstlichen Neuronen übermitteln.
DendriteDie verzweigten Strukturen eines Neurons, die über Synapsen Eingangssignale von anderen Neuronen empfangen. In neuromorphen Chips wird die dendritische Verarbeitung durch Eingangsakkumulationsschaltungen modelliert, die eingehende Spitzensignale integrieren.
Integrate-and-Fire ModelEin vereinfachtes mathematisches Modell eines Neurons, das eingehende Signale im Laufe der Zeit akkumuliert (integriert) und eine Ausgabespitze erzeugt, wenn der akkumulierte Wert einen Schwellenwert überschreitet, woraufhin das Neuron zurückgesetzt wird. Die Leaky Integrate-and-Fire (LIF)-Variante fügt einen Zerfallsterm für mehr biologischen Realismus hinzu.
Membrane PotentialDie elektrische Spannungsdifferenz über der Zellmembran eines Neurons. In biologischen Neuronen bestimmt es, wann ein Neuron feuert. In neuromorphen Modellen stellt es die interne Zustandsvariable dar, die Eingaben integriert und Spitzen auslöst.
Spike-Timing-Dependent Plasticity (STDP)Eine biologische Lernregel, bei der die Änderung der synaptischen Stärke vom relativen Timing prä- und postsynaptischer Spitzen abhängt. Wenn das präsynaptische Neuron kurz vor dem postsynaptischen Neuron feuert, wird die Synapse gestärkt; die umgekehrte Reihenfolge führt zur Schwächung.
Von Neumann BottleneckDie grundlegende Leistungsbeschränkung in herkömmlichen Computerarchitekturen, die durch die Trennung von Speicher- und Verarbeitungseinheiten verursacht wird und einen ständigen Datenaustausch zwischen ihnen erfordert. Neuromorphe Architekturen vermeiden dies, indem sie Berechnung und Gedächtnis zusammenführen.
Neurosynaptic CoreEine grundlegende Verarbeitungseinheit in neuromorphen Chips, die eine Gruppe künstlicher Neuronen, ihre synaptischen Verbindungen und lokale Routing-Logik enthält. Mehrere Kerne sind miteinander verbunden, um einen vollständigen neuromorphen Prozessor zu bilden.
Lateral InhibitionEin neuronaler Mechanismus, bei dem ein aktives Neuron die Aktivität seiner Nachbarn reduziert. In neuromorphen Systemen implementiert dies den Gewinner-Alles-Wettbewerb und wird für Aufgaben wie Mustererkennung und Merkmalsauswahl verwendet.
Refractory PeriodDer kurze Zeitraum nach dem Feuern eines Neurons, in dem es nicht erneut feuern kann (absolute Refraktärzeit) oder einen stärkeren Reiz erfordert (relative Refraktärzeit). Diese biologische Einschränkung wird in neuromorphen Modellen implementiert, um die Feuerraten zu regulieren.
Asynchronous CircuitEine elektronische Schaltung, die ohne ein globales Taktsignal arbeitet und Daten verarbeitet, sobald Ereignisse eintreffen. Neuromorphe Chips nutzen häufig asynchrone Designprinzipien, um einen ereignisgesteuerten Betrieb mit geringem Stromverbrauch zu erreichen.
Crossbar ArrayEine Schaltungstopologie, die in mancher neuromorpher Hardware verwendet wird und bei der synaptische Gewichte an den Schnittpunkten horizontaler und vertikaler Drähte gespeichert werden, was eine hochparallele Matrix-Vektor-Multiplikation für neuronale Berechnungen ermöglicht.
Neural CodingDie Art und Weise, wie Informationen von Neuronen dargestellt und übertragen werden. Bei der Ratenkodierung werden Informationen in Spitzenfrequenzen kodiert, während bei der zeitlichen Kodierung ein präzises Spitzen-Timing verwendet wird. Neuromorphe Systeme können beide Kodierungsschemata nutzen.
Hebbian LearningEin Lernprinzip, zusammengefasst als „Neuronen, die gemeinsam feuern, sich miteinander vernetzen.“ Es besagt, dass synaptische Verbindungen gestärkt werden, wenn prä- und postsynaptische Neuronen gleichzeitig aktiv sind. STDP ist eine zeitlich präzise Form des hebräischen Lernens.
SomaDer Zellkörper eines Neurons, der den Zellkern enthält und eingehende Signale von Dendriten integriert. In neuromorpher Hardware wird die Soma-Funktion durch Schaltkreise implementiert, die synaptische Eingaben akkumulieren und Spitzen erzeugen.
MemristorEine elektronische Komponente mit zwei Anschlüssen, deren Widerstand sich je nach Verlauf des Stromflusses ändert. Memristoren sind vielversprechend für das neuromorphe Computing, da sie synaptische Gewichtsspeicherung und Plastizität auf natürliche Weise in Hardware implementieren können.
Winner-Take-All (WTA) NetworkEin neuronales Schaltkreismotiv, bei dem mehrere Neuronen durch laterale Hemmung konkurrieren und nur das am stärksten aktivierte Neuron einen Output erzeugt. WTA-Netzwerke werden in neuromorphen Systemen zur Klassifizierung, Mustererkennung und Aufmerksamkeitsmechanismen verwendet.
Neuromorphic SensorEin Sensor, der nach neuromorphen Prinzipien arbeitet und eine asynchrone, ereignisgesteuerte Ausgabe anstelle von Frames mit fester Rate erzeugt. Dynamic Vision Sensoren (DVS) oder Ereigniskameras sind Beispiele, die Helligkeitsänderungen auf Pixelebene als einzelne Ereignisse mit einer zeitlichen Auflösung im Mikrosekundenbereich ausgeben.
Spike EncodingDer Prozess der Umwandlung analoger Eingangssignale (z. B. Sensordaten oder Pixelwerte) in Spike-Züge, die von neuronalen Spike-Netzwerken verarbeitet werden können. Zu den Methoden gehören Ratenkodierung, zeitliche Kodierung, Deltamodulation und Populationskodierung.
Homeostatic PlasticityEine Form der neuronalen Plastizität, die eine stabile neuronale Aktivität aufrechterhält, indem sie die Erregbarkeit von Neuronen oder die synaptischen Stärken als Reaktion auf längere Änderungen des Aktivitätsniveaus anpasst. In neuromorphen Systemen verhindert es eine außer Kontrolle geratene Erregung oder die vollständige Stummschaltung von Neuronen.
Reservoir ComputingEin Rechenrahmen, der ein festes, zufällig verbundenes rekurrentes neuronales Netzwerk (das Reservoir) verwendet, in dem nur die Ausgabeschicht trainiert wird. Neuromorphe Implementierungen des Reservoir-Computing nutzen die inhärente Dynamik von Spike-Netzwerken zur zeitlichen Mustererkennung.
Excitatory and Inhibitory NeuronsZwei grundlegende Arten von Neuronen in neuronalen Schaltkreisen. Erregende Neuronen erhöhen die Schusswahrscheinlichkeit von Zielneuronen, während hemmende Neuronen sie verringern. Das Gleichgewicht zwischen Erregung und Hemmung ist entscheidend für eine stabile neuronale Berechnung sowohl in biologischen als auch in neuromorphen Systemen.
Plasticity RuleEine mathematische Regel, die definiert, wie sich synaptische Gewichte als Reaktion auf neuronale Aktivität ändern. In neuromorphen Systemen können Plastizitätsregeln wie STDP, BCM und die Oja-Regel direkt in Hardware implementiert werden, wodurch Lernen auf dem Chip ohne externe Überwachung oder Backpropagation ermöglicht wird.
TrueNorthDer neuromorphe Chip von IBM enthält 1 Million programmierbare Neuronen und 256 Millionen konfigurierbare Synapsen und arbeitet mit extrem geringer Leistung (70 mW) für Mustererkennungsaufgaben.
LoihiDer neuromorphe Forschungschip von Intel implementiert 128 neuromorphe Kerne mit programmierbaren synaptischen Lernregeln und ermöglicht so Lernen und Anpassung auf dem Chip ohne externes Training.
NorthPoleDer neueste neuromorphe Chip von IBM (2023) erreicht eine beispiellose Energieeffizienz für die Inferenz neuronaler Netze, indem er den Von-Neumann-Engpass durch eine verteilte Speicherarchitektur beseitigt.
Dynamic Vision Sensor (DVS)Eine neuromorphe Kamera, die Helligkeitsänderungen auf Pixelebene asynchron erkennt und Ereignisse mit einer zeitlichen Auflösung im Mikrosekundenbereich und einem extremen Dynamikbereich erzeugt und so die Verarbeitung in der Netzhaut nachahmt.
Neural ODEEin mathematisches Framework, das neuronale Netzwerkschichten als kontinuierliche Transformationen modelliert, Deep Learning mit der Theorie dynamischer Systeme verbindet und eine gehirnähnlichere, zeitkontinuierliche Verarbeitung ermöglicht.
BrainomorphicEin spezifischerer Begriff für Hardware, die die physikalische Struktur und Dynamik biologischen Nervengewebes genau nachahmt und über funktionelle neuromorphe Ansätze zur Nachbildung biologischer Details hinausgeht.
Liquid State MachineEin Reservoir-Computing-Ansatz, der ein wiederkehrendes neuronales Spitzennetzwerk (die „Flüssigkeit“) verwendet, das Eingaben in eine hochdimensionale Darstellung umwandelt, wobei nur eine Ausleseschicht trainiert wird.
Spike Rate CodingEin neuronales Kodierungsschema, bei dem Informationen in der Häufigkeit von Spitzen im Zeitverlauf kodiert werden. Höhere Feuerungsraten stellen stärkere Signale dar, ähnlich wie Helligkeit die Feuerungsraten von Neuronen im visuellen Kortex erhöhen könnte.
Temporal CodingEin neuronales Codierungsschema, bei dem Informationen im präzisen Timing einzelner Spitzen und nicht in deren Häufigkeit codiert werden. Die zeitliche Codierung kann pro Spitze mehr Informationen übertragen als die Ratencodierung.
Dendritic ComputingDas aufkommende Verständnis, dass Dendriten (Eingabezweige von Neuronen) anspruchsvolle lokale Berechnungen durchführen und nicht nur passive Signalübertragung. Neuromorphe Designs modellieren zunehmend die dendritische Verarbeitung.
BrainScaleSEine an der Universität Heidelberg entwickelte neuromorphe Computerplattform, die in beschleunigter Zeit arbeitet (1000-mal schneller als biologische Echtzeit) und eine schnelle Erforschung der Dynamik neuronaler Netzwerke ermöglicht.
Catastrophic ForgettingEin Problem in traditionellen neuronalen Netzen, bei dem das Lernen neuer Informationen zuvor erlerntes Wissen löscht. Neuromorphe Systeme mit lokalen Lernregeln wie STDP sind von Natur aus resistent gegen dieses Problem.
Spike TrainEine Folge diskreter Spitzen (Aktionspotentiale), die von einem Neuron im Laufe der Zeit erzeugt werden. Das Muster der Spitzen kodiert Informationen und ist das grundlegende Kommunikationssignal in neuromorphen Systemen.
Synaptic WeightEin numerischer Wert, der die Stärke einer Verbindung zwischen zwei Neuronen darstellt. In neuromorpher Hardware werden synaptische Gewichte in Speicherelementen (SRAM, Memristoren oder analoge Schaltkreise) gespeichert und während des Lernens verändert.
Leaky Integrate-and-Fire (LIF)Das am häufigsten verwendete vereinfachte Neuronenmodell im neuromorphen Computing. Eingangsströme werden mit einem Leck (Abfall) integriert (akkumuliert), und wenn das Membranpotential einen Schwellenwert erreicht, wird eine Spitze abgegeben.
Neuromorphic AcceleratorEin spezieller Hardware-Chip, der für die Ausführung von Spiking-Berechnungen neuronaler Netzwerke optimiert ist und im Vergleich zu Allzweckprozessoren für die Inferenz neuronaler Netzwerke eine Verbesserung der Energieeffizienz um Größenordnungen erzielt.
Bio-Inspired ComputingEin weit gefasster Begriff, der alle von biologischen Systemen inspirierten Computeransätze umfasst, einschließlich neuromorphem Computing (Gehirn), evolutionären Algorithmen (Evolution) und Schwarmintelligenz (kollektives Verhalten).
Address-Event Representation (AER)Ein in neuromorpher Hardware verwendetes Kommunikationsprotokoll, bei dem Spikes als Adressen des sendenden Neurons kodiert und asynchron übertragen werden, was eine effiziente Kommunikation zwischen Chips ermöglicht.
Neural DustUltraminiatur-Funksensoren, die zur Überwachung der neuronalen Aktivität in den Körper implantiert werden sollen und die extreme Miniaturisierung der neuromorphen Sensortechnologie darstellen.
AstrocyteEine Art von Gehirnzelle, von der früher angenommen wurde, dass sie eine passive Unterstützung darstellt, von der heute bekannt ist, dass sie die synaptische Übertragung und neuronale Berechnungen moduliert. Einige neuromorphe Systeme modellieren Astrozyten-Neuron-Interaktionen für ein verbessertes Lernen.