Vés al contingut

Teoria BCM

De la Viquipèdia, l'enciclopèdia lliure

La teoria BCM, modificació sinàptica de BCM o la regla BCM, anomenada així per Elie Bienenstock, Leon Cooper i Paul Munro, és una teoria física de l'aprenentatge a l'escorça visual desenvolupada el 1981. El model BCM proposa un llindar lliscant per a la inducció de potenciació a llarg termini (LTP) o depressió a llarg termini (LTD), i afirma que la plasticitat sinàptica s'estabilitza mitjançant una adaptació dinàmica de l'activitat postsinàptica mitjana en el temps. Segons el model BCM, quan una neurona presinàptica s'encén, les neurones postsinàptiques tendiran a patir LTP si es troba en un estat d'alta activitat (p. ex., dispara a alta freqüència i/o té concentracions internes elevades de calci), o LTD si es troba en un estat de menor activitat (p. ex., disparant a baixa freqüència, concentracions internes baixes de calci).[1] Aquesta teoria s'utilitza sovint per explicar com les neurones corticals poden patir tant LTP com LTD depenent de diferents protocols d'estímul de condicionament aplicats a les neurones presinàptiques (generalment estimulació d'alta freqüència, o HFS, per a LTP, o estimulació de baixa freqüència, LFS, per a LTD).[2]

Desenvolupament

[modifica]

El 1949, Donald Hebb va proposar un mecanisme de treball per a la memòria i l'adaptació computacional al cervell que ara s'anomena aprenentatge Hebbian, o la màxima que les cèl·lules que s'encenen juntes, es connecten juntes.[3] Aquesta noció és fonamental en la comprensió moderna del cervell com a xarxa neuronal, i encara que no és universalment certa, segueix sent una bona primera aproximació recolzada per dècades d'evidència.[3] [4]

Teoria

[modifica]

La regla bàsica de BCM pren la forma

on

  • és el pes sinàptic de la la sinapsi,
  • és corrent d'entrada de la sinapsi,
  • és el producte intern de pesos i corrents d'entrada (suma ponderada d'entrades),
  • és una funció no lineal. Aquesta funció ha de canviar de signe en algun llindar , això és, si i només si . Consulteu a continuació els detalls i les propietats.
  • i és la constant de temps (sovint insignificant) de la decadència uniforme de totes les sinapsis.

Aquest model és una forma modificada de la regla d'aprenentatge d'Hebbian, , i requereix una elecció adequada de la funció per evitar els problemes hebbians d'inestabilitat.

Referències

[modifica]
  1. Izhikevich, Eugene M.; Desai, Niraj S. Neural Computation, 15, 7, 01-07-2003, pàg. 1511–1523. DOI: 10.1162/089976603321891783. ISSN: 0899-7667. PMID: 12816564.
  2. Coesmans, Michiel; Weber, John T.; Zeeuw, Chris I. De; Hansel, Christian Neuron, 44, 4, 2004, pàg. 691–700. DOI: 10.1016/j.neuron.2004.10.031. PMID: 15541316 [Consulta: lliure].
  3. 3,0 3,1 Principles of neural science (en anglès). 5th, 2013. ISBN 978-0-07-139011-8. OCLC 795553723. 
  4. Markram, Henry; Gerstner, Wulfram; Sjöström, Per Jesper (en anglès) Frontiers in Synaptic Neuroscience, 4, 2012, pàg. 2. DOI: 10.3389/fnsyn.2012.00002. ISSN: 1663-3563. PMC: 3395004. PMID: 22807913 [Consulta: lliure].