Vés al contingut

Algorisme de Hebb generalitzat

De la Viquipèdia, l'enciclopèdia lliure

L'algorisme de Hebb generalitzat (GHA), també conegut a la literatura com la regla de Sanger, és un model de xarxa neuronal deirecta lineal per a l'aprenentatge no supervisat amb aplicacions principalment en l'anàlisi de components principals. Definit per primera vegada el 1989,[1] és similar a la regla d'Oja en la seva formulació i estabilitat, excepte que es pot aplicar a xarxes amb múltiples sortides. El nom s'origina a causa de la similitud entre l'algorisme i una hipòtesi formulada per Donald Hebb [2] sobre la manera com les forces sinàptiques del cervell es modifiquen en resposta a l'experiència, és a dir, que els canvis són proporcionals a la correlació entre l'activació de neurones pre i postsinàptiques.[3]

Teoria

[modifica]

La GHA combina la regla d'Oja amb el procés de Gram-Schmidt per produir una regla d'aprenentatge de la forma

on wij defineix el pes sinàptic o la força de connexió entre les neurones j entrada i i de sortida, x i y són els vectors d'entrada i de sortida, respectivament, i η és el paràmetre de velocitat d'aprenentatge.

Aplicacions

[modifica]

El GHA s'utilitza en aplicacions on es necessita un mapa autoorganitzat o on es pot utilitzar una anàlisi de característiques o components principals. Alguns exemples d'aquests casos inclouen la intel·ligència artificial i el processament de la parla i la imatge.

La seva importància prové del fet que l'aprenentatge és un procés d'una sola capa, és a dir, un pes sinàptic canvia només en funció de la resposta de les entrades i sortides d'aquesta capa, evitant així la dependència multicapa associada a l'algorisme de retropropagació. També té una compensació senzilla i predictible entre la velocitat d'aprenentatge i la precisió de la convergència tal com estableix el paràmetre de velocitat d'aprenentatge η.[4]

Referències

[modifica]
  1. Sanger, Terence D. Neural Networks, 2, 6, 1989, pàg. 459–473. DOI: 10.1016/0893-6080(89)90044-0 [Consulta: 24 novembre 2007].
  2. Hebb, D.O.. The Organization of Behavior (en anglès). Nova York: Wiley & Sons, 1949. ISBN 9781135631918. 
  3. Hertz, John. Introduction to the Theory of Neural Computation (en anglès). Redwood City, CA: Addison-Wesley Publishing Company, 1991. ISBN 978-0201515602. 
  4. Haykin, Simon. Neural Networks: A Comprehensive Foundation (en anglès). 2a edició. Prentice Hall, 1998. ISBN 978-0-13-273350-2.