🧠

neuromorphic-brain

An interactive educational simulator that models brain-inspired computing architectures, allowing users to explore spiking neural networks, neuromorphic chip designs, and the principles of biological neural computation. Users can visualize neuron firing patterns, synaptic connections, and experiment with event-driven processing paradigms.

🧠 Essayer maintenant

Qu'est-ce que c'est ?

🎯 Conseils du simulateur

📚 Glossaire

Action Potential
Une brève impulsion électrique (pic) générée par un neurone lorsque son potentiel membranaire dépasse un seuil. Ce signal tout ou rien se propage le long de l’axone pour communiquer avec d’autres neurones. Dans les systèmes neuromorphiques, les pointes constituent l’unité fondamentale d’échange d’informations.
Axon
Longue projection d'un neurone qui transmet des impulsions électriques (pointes) du corps cellulaire à d'autres neurones. Dans le matériel neuromorphique, les axones sont implémentés comme canaux de routage qui transmettent des messages de pointe entre neurones artificiels.
Dendrite
Les structures ramifiées d'un neurone qui reçoivent des signaux d'entrée d'autres neurones via des synapses. Dans les puces neuromorphiques, le traitement dendritique est modélisé par des circuits d’accumulation d’entrée qui intègrent les signaux de pointe entrants.
Integrate-and-Fire Model
Un modèle mathématique simplifié d'un neurone qui accumule (intègre) les signaux entrants au fil du temps et génère un pic de sortie lorsque la valeur accumulée dépasse un seuil, après quoi le neurone se réinitialise. La variante Leaky Integrate-and-Fire (LIF) ajoute un terme de désintégration pour plus de réalisme biologique.
Membrane Potential
La différence de tension électrique à travers la membrane cellulaire d'un neurone. Dans les neurones biologiques, il détermine le moment où un neurone se déclenche. Dans les modèles neuromorphiques, il représente la variable d’état interne qui intègre les entrées et déclenche les pics.
Spike-Timing-Dependent Plasticity (STDP)
Une règle d'apprentissage biologique où le changement de force synaptique dépend du moment relatif des pointes pré- et post-synaptiques. Si le neurone pré-synaptique se déclenche peu avant le neurone post-synaptique, la synapse est renforcée ; l’ordre inverse conduit à un affaiblissement.
Von Neumann Bottleneck
La limitation fondamentale des performances dans les architectures informatiques conventionnelles est causée par la séparation de la mémoire et des unités de traitement, nécessitant un transfert constant de données entre elles. Les architectures neuromorphiques évitent cela en colocalisant calcul et mémoire.
Neurosynaptic Core
Unité de traitement fondamentale dans les puces neuromorphiques qui contient un groupe de neurones artificiels, leurs connexions synaptiques et une logique de routage locale. Plusieurs cœurs sont interconnectés pour former un processeur neuromorphique complet.
Lateral Inhibition
Un mécanisme neuronal où un neurone actif réduit l'activité de ses voisins. Dans les systèmes neuromorphiques, cela met en œuvre une compétition gagnant-gagnant et est utilisé pour des tâches telles que la reconnaissance de formes et la sélection de fonctionnalités.
Refractory Period
La brève période après qu'un neurone se déclenche pendant laquelle il ne peut pas se déclencher à nouveau (période réfractaire absolue) ou nécessite un stimulus plus fort (période réfractaire relative). Cette contrainte biologique est implémentée dans les modèles neuromorphiques pour réguler les cadences de tir.
Asynchronous Circuit
Un circuit électronique qui fonctionne sans signal d’horloge global, traitant les données au fur et à mesure de l’arrivée des événements. Les puces neuromorphiques utilisent souvent des principes de conception asynchrone pour obtenir un fonctionnement à faible consommation et basé sur des événements.
Crossbar Array
Topologie de circuit utilisée dans certains matériels neuromorphiques où les poids synaptiques sont stockés aux intersections des fils horizontaux et verticaux, permettant une multiplication matrice-vecteur hautement parallèle pour le calcul neuronal.
Neural Coding
La manière dont les informations sont représentées et transmises par les neurones. Le codage de débit code les informations en fréquence de pointe, tandis que le codage temporel utilise une synchronisation précise des pointes. Les systèmes neuromorphiques peuvent exploiter les deux schémas de codage.
Hebbian Learning
Un principe d'apprentissage résumé par « des neurones qui s'activent ensemble et se connectent ensemble ». Il indique que les connexions synaptiques sont renforcées lorsque les neurones pré- et post-synaptiques sont simultanément actifs. STDP est une forme temporellement précise d’apprentissage hebbien.
Soma
Corps cellulaire d'un neurone qui contient le noyau et intègre les signaux entrants des dendrites. Dans le matériel neuromorphique, la fonction soma est mise en œuvre par des circuits qui accumulent des entrées synaptiques et génèrent des pics.
Memristor
Un composant électronique à deux bornes dont la résistance change en fonction de l'historique du courant qui le traverse. Les memristors sont prometteurs pour l'informatique neuromorphique car ils peuvent naturellement implémenter le stockage du poids synaptique et la plasticité dans le matériel.
Winner-Take-All (WTA) Network
Un motif de circuit neuronal dans lequel plusieurs neurones entrent en compétition par inhibition latérale, et seul le neurone le plus fortement activé produit une sortie. Les réseaux WTA sont utilisés dans les systèmes neuromorphiques pour les mécanismes de classification, de reconnaissance de formes et d'attention.
Neuromorphic Sensor
Un capteur conçu pour fonctionner selon des principes neuromorphiques, produisant une sortie asynchrone basée sur des événements plutôt que des images à débit fixe. Les capteurs de vision dynamique (DVS) ou les caméras d'événements sont des exemples qui génèrent des changements de luminosité au niveau des pixels sous forme d'événements individuels avec une résolution temporelle de l'ordre de la microseconde.
Spike Encoding
Processus de conversion des signaux d'entrée analogiques (tels que les données de capteurs ou les valeurs de pixels) en trains de pointes pouvant être traités par des réseaux neuronaux de pointe. Les procédés comprennent le codage de débit, le codage temporel, la modulation delta et le codage de population.
Homeostatic Plasticity
Une forme de plasticité neuronale qui maintient une activité neuronale stable en ajustant l'excitabilité des neurones ou les forces synaptiques en réponse à des changements prolongés des niveaux d'activité. Dans les systèmes neuromorphiques, il empêche une excitation incontrôlée ou la désactivation complète des neurones.
Reservoir Computing
Un cadre informatique utilisant un réseau neuronal récurrent fixe et connecté de manière aléatoire (le réservoir) où seule la couche de sortie est formée. Les implémentations neuromorphiques du calcul de réservoir exploitent la dynamique inhérente aux réseaux de pointe pour la reconnaissance de formes temporelles.
Excitatory and Inhibitory Neurons
Deux types fondamentaux de neurones dans les circuits neuronaux. Les neurones excitateurs augmentent la probabilité de déclenchement des neurones cibles, tandis que les neurones inhibiteurs la diminuent. L'équilibre entre excitation et inhibition est essentiel pour un calcul neuronal stable dans les systèmes biologiques et neuromorphiques.
Plasticity Rule
Une règle mathématique qui définit la façon dont les poids synaptiques changent en réponse à l'activité neuronale. Dans les systèmes neuromorphiques, les règles de plasticité telles que STDP, BCM et la règle d'Oja peuvent être implémentées directement dans le matériel, permettant un apprentissage sur puce sans supervision externe ni rétropropagation.
TrueNorth
Puce neuromorphique d'IBM contenant 1 million de neurones programmables et 256 millions de synapses configurables, fonctionnant à une puissance extrêmement faible (70 mW) pour les tâches de reconnaissance de formes.
Loihi
Puce de recherche neuromorphique d'Intel mettant en œuvre 128 cœurs neuromorphiques avec des règles d'apprentissage synaptique programmables, permettant un apprentissage et une adaptation sur puce sans formation externe.
NorthPole
La dernière puce neuromorphique d'IBM (2023) atteint une efficacité énergétique sans précédent pour l'inférence de réseau neuronal en éliminant le goulot d'étranglement de von Neumann grâce à une architecture de mémoire distribuée.
Dynamic Vision Sensor (DVS)
Une caméra neuromorphique qui détecte les changements de luminosité au niveau des pixels de manière asynchrone, produisant des événements avec une résolution temporelle de l'ordre de la microseconde et une plage dynamique extrême, imitant le traitement rétinien.
Neural ODE
Un cadre mathématique qui modélise les couches de réseaux neuronaux sous forme de transformations continues, reliant l'apprentissage profond à la théorie des systèmes dynamiques et permettant un traitement en temps continu plus proche du cerveau.
Brainomorphic
Un terme plus spécifique pour désigner le matériel qui imite fidèlement la structure physique et la dynamique du tissu neuronal biologique, allant au-delà des approches neuromorphiques fonctionnelles pour reproduire les détails biologiques.
Liquid State Machine
Une approche informatique de réservoir utilisant un réseau neuronal à pointes récurrentes (le « liquide ») qui transforme l'entrée en une représentation de grande dimension, avec seule une couche de lecture étant entraînée.
Spike Rate Coding
Un schéma de codage neuronal dans lequel les informations sont codées dans la fréquence des pics au fil du temps. Des cadences de déclenchement plus élevées représentent des signaux plus forts, similaires à la façon dont la luminosité pourrait augmenter les cadences de déclenchement des neurones dans le cortex visuel.
Temporal Coding
Un schéma de codage neuronal dans lequel les informations sont codées selon le timing précis des pics individuels plutôt que selon leur fréquence. Le codage temporel peut transporter plus d'informations par pic que le codage de débit.
Dendritic Computing
On comprend désormais que les dendrites (branches d'entrée des neurones) effectuent des calculs locaux sophistiqués, et pas seulement une transmission passive de signaux. Les conceptions neuromorphiques modélisent de plus en plus le traitement dendritique.
BrainScaleS
Une plate-forme informatique neuromorphique développée à l'Université de Heidelberg qui fonctionne en temps accéléré (1 000 fois plus rapide que le temps réel biologique), permettant une exploration rapide de la dynamique des réseaux neuronaux.
Catastrophic Forgetting
Un problème dans les réseaux de neurones traditionnels où l’apprentissage de nouvelles informations efface les connaissances précédemment acquises. Les systèmes neuromorphiques dotés de règles d'apprentissage locales comme le STDP sont naturellement résistants à ce problème.
Spike Train
Une séquence de pointes discrètes (potentiels d'action) produites par un neurone au fil du temps. Le motif de pointes code les informations et constitue le signal de communication fondamental dans les systèmes neuromorphiques.
Synaptic Weight
Une valeur numérique représentant la force d'une connexion entre deux neurones. Dans le matériel neuromorphique, les poids synaptiques sont stockés dans des éléments de mémoire (SRAM, memristors ou circuits analogiques) et modifiés lors de l'apprentissage.
Leaky Integrate-and-Fire (LIF)
Le modèle de neurone simplifié le plus couramment utilisé en informatique neuromorphique. Les courants d'entrée sont intégrés (accumulés) avec une fuite (décroissance), et lorsque le potentiel de membrane atteint un seuil, une pointe est émise.
Neuromorphic Accelerator
Une puce matérielle spécialisée optimisée pour exécuter des calculs de réseaux neuronaux de pointe, réalisant des améliorations de plusieurs ordres de grandeur en termes d'efficacité énergétique par rapport aux processeurs à usage général pour l'inférence de réseaux neuronaux.
Bio-Inspired Computing
Terme large englobant toutes les approches informatiques inspirées des systèmes biologiques, notamment l'informatique neuromorphique (cerveau), les algorithmes évolutifs (évolution) et l'intelligence en essaim (comportement collectif).
Address-Event Representation (AER)
Un protocole de communication utilisé dans le matériel neuromorphique dans lequel les pointes sont codées en tant qu'adresses du neurone émetteur et transmises de manière asynchrone, permettant une communication efficace entre les puces.
Neural Dust
Capteurs sans fil ultraminiatures conçus pour être implantés dans le corps pour surveiller l’activité neuronale, représentant l’extrême miniaturisation de la technologie de détection neuromorphique.
Astrocyte
Un type de cellule cérébrale autrefois considérée comme un support passif, maintenant connu pour moduler la transmission synaptique et le calcul neuronal. Certains systèmes neuromorphiques modélisent les interactions astrocytes-neurones pour un apprentissage amélioré.

🏆 Personnages clés

Carver Mead (1990)

Pionnier dans le domaine de l'ingénierie neuromorphique à la fin des années 1980 et au début des années 1990 à Caltech. Il a inventé le terme « neuromorphique » et a démontré que les circuits analogiques VLSI pouvaient émuler les calculs neuronaux effectués par les systèmes nerveux biologiques, établissant ainsi les principes fondamentaux du domaine.

Mike Davies (2017)

Directeur du laboratoire de calcul neuromorphique d'Intel et architecte principal de la puce de recherche neuromorphique Loihi. Loihi implémente des réseaux neuronaux à pointe dans une architecture manycore avec des capacités d'apprentissage sur puce, prenant en charge les règles de plasticité synaptique programmables et la connectivité hiérarchique.

Steve Furber (2006)

Professeur à l'Université de Manchester qui a dirigé le développement du projet SpiNNaker (Spiking Neural Network Architecture), une plateforme informatique massivement parallèle conçue pour simuler des réseaux neuronaux à grande échelle en temps réel à l'aide d'un million de processeurs ARM.

Giacomo Indiveri (2011)

Pionnier de la conception de processeurs neuromorphiques analogiques/numériques à signaux mixtes à l'ETH Zurich, créant des puces DYNAP-SE qui mettent en œuvre une dynamique neuronale biologiquement réaliste dans le silicium avec une consommation d'énergie ultra-faible.

Dharmendra Modha (2014)

A dirigé le groupe informatique inspiré du cerveau d'IBM Research et créé TrueNorth, une puce neuromorphique dotée d'un million de neurones et de 256 millions de synapses qui ne consomme que 70 milliwatts d'énergie.

Chris Eliasmith (2012)

Création de Nengo et de l'architecture de pointeur sémantique, fournissant des cadres théoriques et des outils pratiques pour construire des modèles cérébraux fonctionnels à grande échelle sur du matériel neuromorphique.

🎓 Ressources d'apprentissage

💬 Message aux apprenants

{'encouragement': 'The human brain is the most sophisticated information processing system we know of, performing incredible feats of perception, learning, and decision-making while consuming less energy than a light bulb. Neuromorphic computing seeks to unlock these secrets by building machines that compute the way brains do.', 'reminder': "Every expert was once a beginner. The most important step is the first one - and you've already taken it by being here.", 'action': "Explore the simulator! Try different settings, experiment freely, and don't be afraid to make mistakes - that's how the best learning happens.", 'dream': 'Perhaps a neuroscientist in Accra will design the chip that truly mimics brain learning. Perhaps an engineer in Beirut will build neuromorphic sensors that give prosthetic limbs a sense of touch. Brain-inspired computing is for everyone.', 'wiaVision': 'WIA Book believes the science of the brain belongs to all humanity. From Seoul to Kampala, from Damascus to Lima - understanding how neurons compute is your birthright. Free forever, in the spirit of Hongik-ingan.'}

Commencer

Gratuit, sans inscription

Commencer →