Action PotentialUn breve impulso eléctrico (pico) generado por una neurona cuando su potencial de membrana excede un umbral. Esta señal de todo o nada se propaga a lo largo del axón para comunicarse con otras neuronas. En los sistemas neuromórficos, los picos son la unidad fundamental de intercambio de información.
AxonLa proyección larga de una neurona que transmite impulsos eléctricos (picos) desde el cuerpo celular a otras neuronas. En el hardware neuromórfico, los axones se implementan como canales de enrutamiento que envían mensajes de pico entre neuronas artificiales.
DendriteLas estructuras ramificadas de una neurona que reciben señales de entrada de otras neuronas a través de sinapsis. En los chips neuromórficos, el procesamiento dendrítico se modela mediante circuitos de acumulación de entrada que integran señales de pico entrantes.
Integrate-and-Fire ModelUn modelo matemático simplificado de una neurona que acumula (integra) señales entrantes a lo largo del tiempo y genera un pico de salida cuando el valor acumulado excede un umbral, después del cual la neurona se reinicia. La variante Leaky Integrate-and-Fire (LIF) agrega un término de descomposición para lograr un mayor realismo biológico.
Membrane PotentialLa diferencia de voltaje eléctrico a través de la membrana celular de una neurona. En las neuronas biológicas, determina cuándo se activa una neurona. En los modelos neuromórficos, representa la variable de estado interno que integra la entrada y desencadena picos.
Spike-Timing-Dependent Plasticity (STDP)Una regla de aprendizaje biológico en la que el cambio en la fuerza sináptica depende del momento relativo de los picos presinápticos y postsinápticos. Si la neurona presináptica se activa poco antes que la neurona postsináptica, la sinapsis se fortalece; el orden inverso conduce al debilitamiento.
Von Neumann BottleneckLa limitación fundamental del rendimiento en las arquitecturas informáticas convencionales causada por la separación de la memoria y las unidades de procesamiento, lo que requiere que los datos se transfieran constantemente entre ellas. Las arquitecturas neuromórficas evitan esto al ubicar la computación y la memoria.
Neurosynaptic CoreUnidad de procesamiento fundamental en chips neuromórficos que contiene un grupo de neuronas artificiales, sus conexiones sinápticas y su lógica de enrutamiento local. Múltiples núcleos están interconectados para formar un procesador neuromórfico completo.
Lateral InhibitionUn mecanismo neuronal donde una neurona activa reduce la actividad de sus vecinas. En los sistemas neuromórficos, esto implementa la competencia en la que el ganador se lo lleva todo y se utiliza para tareas como el reconocimiento de patrones y la selección de características.
Refractory PeriodEl breve período después de que una neurona se dispara durante el cual no puede volver a dispararse (período refractario absoluto) o requiere un estímulo más fuerte (período refractario relativo). Esta restricción biológica se implementa en modelos neuromórficos para regular las tasas de disparo.
Asynchronous CircuitUn circuito electrónico que funciona sin una señal de reloj global y procesa datos a medida que llegan los eventos. Los chips neuromórficos a menudo utilizan principios de diseño asincrónicos para lograr un funcionamiento de bajo consumo impulsado por eventos.
Crossbar ArrayUna topología de circuito utilizada en algunos hardware neuromórfico donde los pesos sinápticos se almacenan en las intersecciones de cables horizontales y verticales, lo que permite una multiplicación de vectores de matriz altamente paralela para el cálculo neuronal.
Neural CodingLa forma en que las neuronas representan y transmiten la información. La codificación de velocidad codifica información en una frecuencia de pico, mientras que la codificación temporal utiliza una sincronización de pico precisa. Los sistemas neuromórficos pueden explotar ambos esquemas de codificación.
Hebbian LearningUn principio de aprendizaje resumido en "neuronas que se activan juntas, se conectan juntas". Afirma que las conexiones sinápticas se fortalecen cuando las neuronas presinápticas y postsinápticas están activas simultáneamente. STDP es una forma temporalmente precisa de aprendizaje hebbiano.
SomaCuerpo celular de una neurona que contiene el núcleo e integra las señales entrantes de las dendritas. En el hardware neuromórfico, la función soma se implementa mediante circuitos que acumulan entradas sinápticas y generan picos.
MemristorUn componente electrónico de dos terminales cuya resistencia cambia según el historial del flujo de corriente a través de él. Los memristores son prometedores para la computación neuromórfica porque pueden implementar naturalmente el almacenamiento de peso sináptico y la plasticidad en el hardware.
Winner-Take-All (WTA) NetworkUn motivo de circuito neuronal donde múltiples neuronas compiten a través de la inhibición lateral, y solo la neurona más fuertemente activada produce salida. Las redes WTA se utilizan en sistemas neuromórficos para clasificación, reconocimiento de patrones y mecanismos de atención.
Neuromorphic SensorUn sensor diseñado para operar según principios neuromórficos, produciendo resultados asíncronos impulsados por eventos en lugar de fotogramas de velocidad fija. Los sensores de visión dinámicos (DVS) o las cámaras de eventos son ejemplos que generan cambios de brillo a nivel de píxeles como eventos individuales con una resolución temporal de microsegundos.
Spike EncodingEl proceso de convertir señales de entrada analógicas (como datos de sensores o valores de píxeles) en trenes de picos que pueden procesarse mediante redes neuronales de picos. Los métodos incluyen codificación de velocidad, codificación temporal, modulación delta y codificación de población.
Homeostatic PlasticityUna forma de plasticidad neuronal que mantiene la actividad neuronal estable ajustando la excitabilidad de las neuronas o las fuerzas sinápticas en respuesta a cambios prolongados en los niveles de actividad. En los sistemas neuromórficos, previene la excitación descontrolada o el silenciamiento completo de las neuronas.
Reservoir ComputingUn marco computacional que utiliza una red neuronal recurrente fija y conectada aleatoriamente (el depósito) donde solo se entrena la capa de salida. Las implementaciones neuromórficas de la computación de reservorios aprovechan la dinámica inherente de las redes de picos para el reconocimiento de patrones temporales.
Excitatory and Inhibitory NeuronsDos tipos fundamentales de neuronas en los circuitos neuronales. Las neuronas excitadoras aumentan la probabilidad de activación de las neuronas objetivo, mientras que las neuronas inhibidoras la disminuyen. El equilibrio entre excitación e inhibición es fundamental para una computación neuronal estable tanto en sistemas biológicos como neuromórficos.
Plasticity RuleUna regla matemática que define cómo cambian los pesos sinápticos en respuesta a la actividad neuronal. En los sistemas neuromórficos, las reglas de plasticidad como STDP, BCM y la regla de Oja se pueden implementar directamente en el hardware, lo que permite el aprendizaje en el chip sin supervisión externa ni retropropagación.
TrueNorthEl chip neuromórfico de IBM contiene 1 millón de neuronas programables y 256 millones de sinapsis configurables, que funciona a una potencia extremadamente baja (70 mW) para tareas de reconocimiento de patrones.
LoihiEl chip de investigación neuromórfico de Intel implementa 128 núcleos neuromórficos con reglas de aprendizaje sináptico programables, lo que permite el aprendizaje y la adaptación en el chip sin capacitación externa.
NorthPoleEl último chip neuromórfico de IBM (2023) logra una eficiencia energética sin precedentes para la inferencia de redes neuronales al eliminar el cuello de botella de von Neumann a través de una arquitectura de memoria distribuida.
Dynamic Vision Sensor (DVS)Una cámara neuromórfica que detecta cambios de brillo a nivel de píxeles de forma asincrónica, produciendo eventos con resolución temporal de microsegundos y rango dinámico extremo, imitando el procesamiento de la retina.
Neural ODEUn marco matemático que modela capas de redes neuronales como transformaciones continuas, conectando el aprendizaje profundo con la teoría de sistemas dinámicos y permitiendo un procesamiento en tiempo continuo más similar al del cerebro.
BrainomorphicUn término más específico para hardware que imita estrechamente la estructura física y la dinámica del tejido neural biológico, yendo más allá de los enfoques neuromórficos funcionales para replicar detalles biológicos.
Liquid State MachineUn enfoque de computación de reservorio que utiliza una red neuronal de picos recurrentes (el 'líquido') que transforma la entrada en una representación de alta dimensión, con solo una capa de lectura entrenada.
Spike Rate CodingUn esquema de codificación neuronal donde la información se codifica en la frecuencia de picos a lo largo del tiempo. Las tasas de activación más altas representan señales más fuertes, similar a cómo el brillo podría aumentar las tasas de activación de las neuronas en la corteza visual.
Temporal CodingUn esquema de codificación neuronal donde la información se codifica en el momento preciso de los picos individuales en lugar de su frecuencia. La codificación temporal puede transportar más información por pico que la codificación de tarifas.
Dendritic ComputingLa comprensión emergente de que las dendritas (ramas de entrada de las neuronas) realizan cálculos locales sofisticados, no solo la transmisión pasiva de señales. Los diseños neuromórficos modelan cada vez más el procesamiento dendrítico.
BrainScaleSUna plataforma de computación neuromórfica desarrollada en la Universidad de Heidelberg que opera en tiempo acelerado (1000 veces más rápido que el tiempo real biológico), lo que permite una exploración rápida de la dinámica de las redes neuronales.
Catastrophic ForgettingUn problema en las redes neuronales tradicionales donde el aprendizaje de nueva información borra el conocimiento aprendido previamente. Los sistemas neuromórficos con reglas de aprendizaje locales como STDP son naturalmente resistentes a este problema.
Spike TrainSecuencia de picos discretos (potenciales de acción) producidos por una neurona a lo largo del tiempo. El patrón de picos codifica información y es la señal de comunicación fundamental en los sistemas neuromórficos.
Synaptic WeightUn valor numérico que representa la fuerza de una conexión entre dos neuronas. En el hardware neuromórfico, los pesos sinápticos se almacenan en elementos de memoria (SRAM, memristores o circuitos analógicos) y se modifican durante el aprendizaje.
Leaky Integrate-and-Fire (LIF)El modelo de neurona simplificado más común utilizado en la computación neuromórfica. Las corrientes de entrada se integran (acumulan) con una fuga (desintegración) y cuando el potencial de membrana alcanza un umbral, se emite un pico.
Neuromorphic AcceleratorUn chip de hardware especializado optimizado para ejecutar cálculos de redes neuronales con picos, logrando mejoras de órdenes de magnitud en la eficiencia energética en comparación con los procesadores de uso general para la inferencia de redes neuronales.
Bio-Inspired ComputingUn término amplio que abarca todos los enfoques informáticos inspirados en sistemas biológicos, incluida la computación neuromórfica (cerebro), los algoritmos evolutivos (evolución) y la inteligencia de enjambre (comportamiento colectivo).
Address-Event Representation (AER)Un protocolo de comunicación utilizado en hardware neuromórfico donde los picos se codifican como direcciones de la neurona emisora y se transmiten de forma asincrónica, lo que permite una comunicación eficiente entre chips.
Neural DustSensores inalámbricos ultraminiatura diseñados para implantarse en el cuerpo para monitorear la actividad neuronal, lo que representa la miniaturización extrema de la tecnología de detección neuromórfica.
AstrocyteUn tipo de célula cerebral que alguna vez se pensó que era de apoyo pasivo, ahora se sabe que modula la transmisión sináptica y la computación neuronal. Algunos sistemas neuromórficos modelan las interacciones entre astrocitos y neuronas para mejorar el aprendizaje.