🧠

neuromorphic-brain

An interactive educational simulator that models brain-inspired computing architectures, allowing users to explore spiking neural networks, neuromorphic chip designs, and the principles of biological neural computation. Users can visualize neuron firing patterns, synaptic connections, and experiment with event-driven processing paradigms.

🧠 Experimente agora

O que é isso?

🎯 Dicas do simulador

📚 Glossário

Action Potential
Um breve impulso elétrico (pico) gerado por um neurônio quando seu potencial de membrana excede um limite. Este sinal de tudo ou nada se propaga ao longo do axônio para se comunicar com outros neurônios. Nos sistemas neuromórficos, os picos são a unidade fundamental de troca de informações.
Axon
A longa projeção de um neurônio que transmite impulsos elétricos (picos) do corpo celular para outros neurônios. No hardware neuromórfico, os axônios são implementados como canais de roteamento que entregam mensagens de pico entre neurônios artificiais.
Dendrite
As estruturas ramificadas de um neurônio que recebem sinais de entrada de outros neurônios por meio de sinapses. Em chips neuromórficos, o processamento dendrítico é modelado por circuitos de acumulação de entrada que integram sinais de pico recebidos.
Integrate-and-Fire Model
Um modelo matemático simplificado de um neurônio que acumula (integra) sinais de entrada ao longo do tempo e gera um pico de saída quando o valor acumulado excede um limite, após o qual o neurônio é reiniciado. A variante Leaky Integrate-and-Fire (LIF) adiciona um termo de decaimento para mais realismo biológico.
Membrane Potential
A diferença de voltagem elétrica através da membrana celular de um neurônio. Nos neurônios biológicos, determina quando um neurônio dispara. Nos modelos neuromórficos, representa a variável de estado interno que integra a entrada e desencadeia picos.
Spike-Timing-Dependent Plasticity (STDP)
Uma regra de aprendizagem biológica em que a mudança na força sináptica depende do tempo relativo dos picos pré e pós-sinápticos. Se o neurônio pré-sináptico dispara pouco antes do neurônio pós-sináptico, a sinapse é fortalecida; a ordem inversa leva ao enfraquecimento.
Von Neumann Bottleneck
A limitação fundamental de desempenho nas arquiteturas de computadores convencionais é causada pela separação da memória e das unidades de processamento, exigindo que os dados sejam constantemente transferidos entre elas. As arquiteturas neuromórficas evitam isso ao colocar computação e memória.
Neurosynaptic Core
Uma unidade de processamento fundamental em chips neuromórficos que contém um grupo de neurônios artificiais, suas conexões sinápticas e lógica de roteamento local. Vários núcleos estão interligados para formar um processador neuromórfico completo.
Lateral Inhibition
Um mecanismo neural onde um neurônio ativo reduz a atividade de seus vizinhos. Em sistemas neuromórficos, isso implementa a competição onde o vencedor leva tudo e é usado para tarefas como reconhecimento de padrões e seleção de recursos.
Refractory Period
O breve período após o disparo de um neurônio, durante o qual ele não pode disparar novamente (período refratário absoluto) ou requer um estímulo mais forte (período refratário relativo). Esta restrição biológica é implementada em modelos neuromórficos para regular as taxas de disparo.
Asynchronous Circuit
Um circuito eletrônico que opera sem sinal de relógio global, processando dados à medida que os eventos chegam. Os chips neuromórficos geralmente usam princípios de design assíncronos para obter operação de baixo consumo de energia orientada a eventos.
Crossbar Array
Uma topologia de circuito usada em alguns hardwares neuromórficos onde os pesos sinápticos são armazenados nas interseções de fios horizontais e verticais, permitindo multiplicação de vetores de matriz altamente paralela para computação neural.
Neural Coding
A forma como a informação é representada e transmitida pelos neurônios. A codificação de taxa codifica informações na frequência de pico, enquanto a codificação temporal usa tempo de pico preciso. Os sistemas neuromórficos podem explorar ambos os esquemas de codificação.
Hebbian Learning
Um princípio de aprendizagem resumido como “neurônios que disparam juntos, conectam-se juntos”. Afirma que as conexões sinápticas são fortalecidas quando os neurônios pré e pós-sinápticos estão simultaneamente ativos. STDP é uma forma temporalmente precisa de aprendizagem Hebbiana.
Soma
O corpo celular de um neurônio que contém o núcleo e integra os sinais recebidos dos dendritos. No hardware neuromórfico, a função soma é implementada por circuitos que acumulam entradas sinápticas e geram picos.
Memristor
Um componente eletrônico de dois terminais cuja resistência muda com base no histórico do fluxo de corrente através dele. Os memristores são promissores para a computação neuromórfica porque podem implementar naturalmente o armazenamento de peso sináptico e a plasticidade no hardware.
Winner-Take-All (WTA) Network
Um motivo de circuito neural onde vários neurônios competem através da inibição lateral, e apenas o neurônio mais fortemente ativado produz saída. As redes WTA são usadas em sistemas neuromórficos para classificação, reconhecimento de padrões e mecanismos de atenção.
Neuromorphic Sensor
Um sensor projetado para operar com base em princípios neuromórficos, produzindo saída assíncrona e orientada por eventos, em vez de quadros de taxa fixa. Sensores de visão dinâmica (DVS) ou câmeras de eventos são exemplos que geram alterações de brilho no nível de pixel como eventos individuais com resolução temporal de microssegundos.
Spike Encoding
O processo de conversão de sinais de entrada analógicos (como dados de sensores ou valores de pixels) em trens de picos que podem ser processados ​​por redes neurais de picos. Os métodos incluem codificação de taxa, codificação temporal, modulação delta e codificação populacional.
Homeostatic Plasticity
Uma forma de plasticidade neural que mantém a atividade neural estável ajustando a excitabilidade dos neurônios ou as forças sinápticas em resposta a mudanças prolongadas nos níveis de atividade. Em sistemas neuromórficos, evita a excitação descontrolada ou o silenciamento completo dos neurônios.
Reservoir Computing
Uma estrutura computacional que usa uma rede neural recorrente fixa e conectada aleatoriamente (o reservatório), onde apenas a camada de saída é treinada. Implementações neuromórficas de computação de reservatório aproveitam a dinâmica inerente de redes de picos para reconhecimento de padrões temporais.
Excitatory and Inhibitory Neurons
Dois tipos fundamentais de neurônios em circuitos neurais. Os neurônios excitatórios aumentam a probabilidade de disparo dos neurônios-alvo, enquanto os neurônios inibitórios a diminuem. O equilíbrio entre excitação e inibição é crítico para a computação neural estável em sistemas biológicos e neuromórficos.
Plasticity Rule
Uma regra matemática que define como os pesos sinápticos mudam em resposta à atividade neural. Em sistemas neuromórficos, regras de plasticidade como STDP, BCM e regra de Oja podem ser implementadas diretamente no hardware, permitindo o aprendizado no chip sem supervisão externa ou retropropagação.
TrueNorth
Chip neuromórfico da IBM contendo 1 milhão de neurônios programáveis ​​e 256 milhões de sinapses configuráveis, operando com potência extremamente baixa (70mW) para tarefas de reconhecimento de padrões.
Loihi
Chip de pesquisa neuromórfica da Intel que implementa 128 núcleos neuromórficos com regras de aprendizagem sináptica programáveis, permitindo aprendizagem e adaptação no chip sem treinamento externo.
NorthPole
O mais recente chip neuromórfico da IBM (2023) alcançando eficiência energética sem precedentes para inferência de redes neurais, eliminando o gargalo de von Neumann por meio da arquitetura de memória distribuída.
Dynamic Vision Sensor (DVS)
Uma câmera neuromórfica que detecta alterações de brilho no nível de pixel de forma assíncrona, produzindo eventos com resolução temporal de microssegundos e faixa dinâmica extrema, imitando o processamento da retina.
Neural ODE
Uma estrutura matemática que modela camadas de redes neurais como transformações contínuas, conectando o aprendizado profundo à teoria de sistemas dinâmicos e permitindo um processamento em tempo contínuo mais semelhante ao do cérebro.
Brainomorphic
Um termo mais específico para hardware que imita de perto a estrutura física e a dinâmica do tecido neural biológico, indo além das abordagens neuromórficas funcionais para replicar detalhes biológicos.
Liquid State Machine
Uma abordagem de computação de reservatório usando uma rede neural de picos recorrentes (o 'líquido') que transforma a entrada em uma representação de alta dimensão, com apenas uma camada de leitura sendo treinada.
Spike Rate Coding
Um esquema de codificação neural onde as informações são codificadas na frequência dos picos ao longo do tempo. Taxas de disparo mais altas representam sinais mais fortes, semelhantes a como o brilho pode aumentar as taxas de disparo dos neurônios no córtex visual.
Temporal Coding
Um esquema de codificação neural em que as informações são codificadas no tempo preciso de picos individuais, e não em sua frequência. A codificação temporal pode transportar mais informações por pico do que a codificação de taxa.
Dendritic Computing
A compreensão emergente de que os dendritos (ramos de entrada dos neurônios) realizam cálculos locais sofisticados, não apenas transmissão passiva de sinais. Projetos neuromórficos modelam cada vez mais o processamento dendrítico.
BrainScaleS
Uma plataforma de computação neuromórfica desenvolvida na Universidade de Heidelberg que opera em tempo acelerado (1000x mais rápido que o tempo real biológico), permitindo a rápida exploração da dinâmica da rede neural.
Catastrophic Forgetting
Um problema nas redes neurais tradicionais onde o aprendizado de novas informações apaga o conhecimento previamente aprendido. Sistemas neuromórficos com regras de aprendizagem locais como STDP são naturalmente resistentes a este problema.
Spike Train
Uma sequência de picos discretos (potenciais de ação) produzidos por um neurônio ao longo do tempo. O padrão de pontas codifica informações e é o sinal de comunicação fundamental em sistemas neuromórficos.
Synaptic Weight
Um valor numérico que representa a força de uma conexão entre dois neurônios. No hardware neuromórfico, os pesos sinápticos são armazenados em elementos de memória (SRAM, memristores ou circuitos analógicos) e modificados durante o aprendizado.
Leaky Integrate-and-Fire (LIF)
O modelo de neurônio simplificado mais comum usado na computação neuromórfica. As correntes de entrada são integradas (acumuladas) com um vazamento (decaimento) e quando o potencial da membrana atinge um limite, um pico é emitido.
Neuromorphic Accelerator
Um chip de hardware especializado otimizado para executar cálculos de rede neural de pico, alcançando melhorias de ordens de grandeza na eficiência energética em comparação com processadores de uso geral para inferência de rede neural.
Bio-Inspired Computing
Um termo amplo que abrange todas as abordagens de computação inspiradas em sistemas biológicos, incluindo computação neuromórfica (cérebro), algoritmos evolutivos (evolução) e inteligência de enxame (comportamento coletivo).
Address-Event Representation (AER)
Um protocolo de comunicação usado em hardware neuromórfico onde os picos são codificados como endereços do neurônio emissor e transmitidos de forma assíncrona, permitindo uma comunicação eficiente entre chips.
Neural Dust
Sensores sem fio ultraminiatura projetados para serem implantados no corpo para monitorar a atividade neural, representando a miniaturização extrema da tecnologia de detecção neuromórfica.
Astrocyte
Um tipo de célula cerebral que antes se pensava ser um suporte passivo, agora conhecida por modular a transmissão sináptica e a computação neural. Alguns sistemas neuromórficos modelam interações astrócitos-neurônio para melhorar o aprendizado.

🏆 Figuras-chave

Carver Mead (1990)

Foi pioneiro no campo da engenharia neuromórfica no final dos anos 1980 e início dos anos 1990 na Caltech. Ele cunhou o termo 'neuromórfico' e demonstrou que os circuitos analógicos VLSI poderiam emular os cálculos neurais realizados pelos sistemas nervosos biológicos, estabelecendo os princípios fundamentais da área.

Mike Davies (2017)

Diretor do Laboratório de Computação Neuromórfica da Intel e arquiteto-chefe do chip de pesquisa neuromórfica Loihi. Loihi implementa redes neurais de pico em uma arquitetura manycore com recursos de aprendizagem no chip, suportando regras de plasticidade sináptica programáveis ​​e conectividade hierárquica.

Steve Furber (2006)

Professor da Universidade de Manchester que liderou o desenvolvimento do projeto SpiNNaker (Spiking Neural Network Architecture), uma plataforma de computação massivamente paralela projetada para simular redes neurais spiking em larga escala em tempo real usando um milhão de processadores ARM.

Giacomo Indiveri (2011)

Foi pioneiro em projetos de processadores neuromórficos analógicos/digitais de sinais mistos na ETH Zurich, criando chips DYNAP-SE que implementam dinâmicas neurais biologicamente realistas em silício com consumo de energia ultrabaixo

Dharmendra Modha (2014)

Liderou o grupo de computação inspirado no cérebro da IBM Research e criou o TrueNorth, um chip neuromórfico com 1 milhão de neurônios e 256 milhões de sinapses que consome apenas 70 miliwatts de energia

Chris Eliasmith (2012)

Criou o Nengo e a Semantic Pointer Architecture, fornecendo estruturas teóricas e ferramentas práticas para a construção de modelos cerebrais funcionais em larga escala em hardware neuromórfico

🎓 Recursos de aprendizagem

💬 Mensagem aos estudantes

{'encouragement': 'The human brain is the most sophisticated information processing system we know of, performing incredible feats of perception, learning, and decision-making while consuming less energy than a light bulb. Neuromorphic computing seeks to unlock these secrets by building machines that compute the way brains do.', 'reminder': "Every expert was once a beginner. The most important step is the first one - and you've already taken it by being here.", 'action': "Explore the simulator! Try different settings, experiment freely, and don't be afraid to make mistakes - that's how the best learning happens.", 'dream': 'Perhaps a neuroscientist in Accra will design the chip that truly mimics brain learning. Perhaps an engineer in Beirut will build neuromorphic sensors that give prosthetic limbs a sense of touch. Brain-inspired computing is for everyone.', 'wiaVision': 'WIA Book believes the science of the brain belongs to all humanity. From Seoul to Kampala, from Damascus to Lima - understanding how neurons compute is your birthright. Free forever, in the spirit of Hongik-ingan.'}

Começar

Grátis, sem cadastro

Começar →