Vés al contingut

Cadena de Màrkov

De la Viquipèdia, l'enciclopèdia lliure
(S'ha redirigit des de: Procés de Markov)
Un diagrama que representa un procés de Markov de dos estats, amb els estats etiquetats com a E i A. Cada número representa la probabilitat que el procés de Màrkov canviï d'un estat a un altre, amb la direcció indicada per la fletxa. Per exemple, si el procés de Màrkov està en l'estat A, aleshores la probabilitat que canviï l'estat E és 0.4, mentre que la probabilitat que romangui en l'estat A és 0.6.

Una cadena de Màrkov , que rep el seu nom del matemàtic rus Andrei Màrkov (1856-1922), és una sèrie d'esdeveniments, en la qual la probabilitat que passi un esdeveniment depèn de l'esdeveniment immediat anterior.[1][2][3] En efecte, les cadenes d'aquest tipus tenen memòria. "Recorden" l'últim esdeveniment i això condiciona les possibilitats dels esdeveniments futurs. Aquesta dependència de l'esdeveniment anterior distingeix a les cadenes de Màrkov de les sèries d'esdeveniments independents, com tirar una moneda a l'aire o un dau.

Aquest tipus de procés, introduït per Màrkov en un article publicat a 1907,[4] presenta una forma de dependència simple, però molt útil en molts models, entre les variables aleatòries que formen un procés estocàstic. En els negocis, les cadenes de Màrkov s'han utilitzat per analitzar els patrons de compra dels deutors morosos, per planificar les necessitats de personal i per analitzar el reemplaçament d'equip.

Les seves aplicacions són diverses, com ara en els models estadístics de procesos del món real,[1][5][6][7] com ara l'estudi dels sistemes de control de creuer en vehicles amb motor, les cues de clients que arriben en un aeroport, les taxes de canvi de les monedes i les dinàmiques poblacionals dels animals.[8]

Els processos de Markov són la base dels mètodes generals de simulació estocàstica coneguts com cadena de Markov Monte Carlo, que s'utilitzen per simular mostres que provenen de distribucions probabilístiques complexes, i se n'han trobat aplicacions en l'estadística bayesiana, la termodinàmica, la mecànica estadística, la física, la química, l'economia, les finances, el processament de senyals, la teoria de la informació i la intel·ligència artificial.[8][9][10]

S'utilitza l'adjectiu markovià (en anglès, Markovian) per notar que alguna cosa està relacionada amb el procés de Markov.[1][11]

Definició formal

[modifica]

En les matemàtiques, es defineix com un procés estocàstic discret que compleix amb la propietat de Màrkov, és a dir, si es coneix la història del sistema fins a la seva moment actual, el seu estat present resumeix tota la informació rellevant per descriure en probabilitat el seu estat futur.

Una cadena de Màrkov és una seqüència X 1 , X 2 , X 3 , ... de variables aleatòries. El rang d'aquestes variables, és anomenat espai estat, el valor de X n és l'estat del procés en el temps n . Si la distribució de probabilitat condicional de X n +1 en estats passats és una funció de X n per si sola, aleshores:

On x i és l'estat del procés en l'instant i . La identitat mostrada és la propietat de Màrkov.

Notació útil

[modifica]

Cadenes homogènies i no homogènies

[modifica]
  • Una cadena de Markov es diu homogènia si la probabilitat d'anar de l'estat i a l'estat j en un pas no depèn del temps en què es troba la cadena, és a dir:
per a tot ni per a qualsevol i, j.

Si per alguna parella d'estats i per algun temps n la propietat abans esmentada no es compleix direm que la cadena de Màrkov és no homogènia.

Probabilitats de transició i matriu de transició

[modifica]
  • La probabilitat d'anar de l'estat i a l'estat j a n unitats de temps és
,

en la probabilitat de transició en un pas s'omet el superíndex de manera que queda

Les probabilitats de transició solen venir donades mitjançant números reals. Si aquestes probabilitats no es coneixen de manera precisa, cal estimar-les d'alguna manera amb la incertesa que implica qualsevol procediment d'estimació.[12][13] Així, per exemple, es poden estimar mitjançant intervals modals[14] o per números borrosos.[15]

  • Un fet important és que les probabilitats de transició en n passos satisfan l'equació de Chapman-Kolmogórov, és a dir, per a qualsevol k tal que 0 < k < n es compleix que

on E denota l'espai d'estats.

  • Quan la cadena de Màrkov és homogènia, moltes de les seves propietats útils es poden obtenir a través de la seva matriu de transició, definida entrada a entrada com

és a dir, l'entrada i, j correspon a la probabilitat d'anar de l'estat iaj en un pas.

De la mateixa manera es pot obtenir la matriu de transició en n passos com:

, on .

Vector de probabilitat invariant

[modifica]
  • Es defineix la distribució inicial .
  • Direm que un vector de probabilitat (finit o infinit numerable) és invariant per a una cadena de Màrkov si

on P denota la matriu de transició de la cadena de Markov. Al vector de probabilitat invariant s'anomena distribució estacionària o distribució d'equilibri .

Classes de comunicació

[modifica]
  • Per dos estats i , j en l'espai d'estats E , direm que d' i s'accedeix a j (i es denotarà ) si
per algun n ,

si i llavors direm que i comunica amb j i es denotarà i ↔ j.

La propietat "↔" és una relació d'equivalència. Aquesta relació indueix una partició de l'espai d'estats. A aquestes classes d'equivalència les anomenarem classes de comunicació .

Donat un estat x , denotarem a la seva classe de comunicació com C (x) .

  • Direm que un subconjunt C de l'espai d'estats (al qual denotarem E ) és tancat si cap estat de E -C pot ser accedit des d'un estat de C, és a dir, si per a tot x ∈ C, per a tot i ∈ E -C i per a tot natural m> 0.

Temps d'entrada

[modifica]

Si , definim el primer temps d'entrada a C com la variable aleatòria

és a dir, denota la primera vegada que la cadena entra al conjunt d'estats C.

Recurrència

[modifica]

En una cadena de Màrkov amb espai d'estats E , si x E es defineix i direm que:

  • X és estat recurrent si .
  • X és transitori si
  • X és absorbent si
  • Una classe de comunicació és classe recurrent si tots els seus estats són recurrents.

Sigui , si x ∈ E direm que:

  • X és zero-recurrent si
  • X és positiu-recurrent si

El reial s'interpreta com el temps mitjà de recurrència.

Periodicitat

[modifica]
  • L' període d'un estat x ∈ E es defineix com:

on denota el màxim comú divisor.

  • Si d (x) = 1 direm que x és un estat aperiòdic .
  • Una cadena de Màrkov es diu aperiòdica si tots els seus estats són aperiòdics.

Tipus de cadenes de Màrkov

[modifica]

Cadenes irreductibles

[modifica]

Una cadena de Màrkov es diu irreductible si es compleix qualsevol de les següents condicions (equivalents entre si):

1. Des de qualsevol estat de E es pot accedir a qualsevol altre.

2. Tots els estats es comuniquen entre si.

3. C (x) = E per algun x ∈ E .

4. C (x) = E per a tot x ∈ E .

5. L'únic conjunt tancat és el total.

La cadena d'Ehrenfest o el camí aleatori sense barreres absorbents són exemples de cadenes de Màrkov irreductibles.

Cadenes positiu-recurrents

[modifica]

Una cadena de Màrkov es diu positiu-recurrent si tots els seus estats són positiu-recurrents. Si la cadena és més irreductible és possible demostrar que existeix un únic vector de probabilitat invariant i està donat per:

Cadenes regulars

[modifica]

Una cadena de Màrkov es diu regular (també primitiva o ergòdica ) si hi ha alguna potència positiva de la matriu de transició les entrades siguin totes estrictament majors que zero.

Quan l'espai d'estats E és finit, si P denota la matriu de transició de la cadena s'ha de:

on W és una matriu amb tots els seus línies iguals a un mateix vector de probabilitat w , que resulta ser el vector de probabilitat invariant de la cadena. En el cas de cadenes regulars, aquest vector invariant és únic.

Cadenes absorbents

[modifica]

Una cadena de Màrkov amb espai d'estats finit es diu absorbent si es compleixen les dues condicions següents:

1. La cadena té almenys un estat absorbent.

2. De qualsevol estat no absorbent s'accedeix a algun estat absorbent.

Si denotem com A al conjunt de tots els estats absorbents i al seu complement com D , tenim els següents resultats:

  • La seva matriu de transició sempre es pot portar a una de la forma

on la submatriu Q correspon als estats del conjunt D, I és la matriu identitat, 0 és la matriu nul i R alguna submatriu.


  • , és a dir, no importa on es trobi la cadena, eventualment acabarà en un estat absorbent.

Cadenes de Màrkov en temps continu

[modifica]

Si en lloc de considerar una seqüència discreta X 1 , X 2 ,..., X i , .. amb i indexat en el conjunt de nombres naturals, es consideren les variables aleatòries X t amb t que varia en un interval continu del conjunt de nombres reals, tindrem una cadena en temps continu. Per a aquest tipus de cadenes en temps continu la propietat de Markov s'expressa de la següent manera:

tal que

Aplicacions

[modifica]

Física

[modifica]

Les cadenes de Màrkov són usades en molts problemes de la termodinàmica i la física estadística. Exemples importants es poden trobar a la Cadena de Ehrenfest o el model de difusió de Laplace.

Meteorologia

[modifica]

Si considerem el clima d'una regió a través de diferents dies, és clar que l'estat actual només depèn de l'últim estat i no de tota la història en si, de manera que es poden utilitzar cadenes de Markov per formular models climatològics bàsics.

Models epidemiològics

[modifica]

Una important aplicació de les cadenes de Màrkov es troba en el procés de Galton-Watson. Aquest és un procés de ramificació que es pot fer servir, entre altres coses, per modelar el desenvolupament d'una epidèmia (vegeu modelatge matemàtic d'epidèmies).

Internet

[modifica]

El pagerank d'una pàgina web (usat per google en els seus motors de cerca) es defineix a través d'una cadena de Markov, on la posició que tindrà una pàgina en el cercador serà determinada pel seu pes en la distribució estacionària de la cadena.

Jocs d'atzar

[modifica]

Són molts els jocs d'atzar que es poden modelar a través d'una cadena de Màrkov. El model de la ruïna del jugador, que estableix la probabilitat que una persona que aposta en un joc d'atzar eventualment acabi sense diners, és una de les aplicacions de les cadenes de Màrkov en aquest rubro.

Economia i Finances

[modifica]

Les cadenes de Màrkov es poden utilitzar en models simples de valoració d'opcions per determinar quan hi ha oportunitat d'arbitratge, així com en el model de col·lapses d'una borsa de valors o per determinar la volatilitat de preus.

Música

[modifica]

Diversos algorismes de composició musical fan servir cadenes de Màrkov, per exemple el programari Csound o Max.

Referències

[modifica]
  1. 1,0 1,1 1,2 Gagniuc, Paul A. Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons, 2017, p. 1–235. ISBN 978-1-119-38755-8. 
  2. «Markov chain | Definition of Markov chain in US English by Oxford Dictionaries». Arxivat de l'original el 2017-12-15. [Consulta: 14 desembre 2017].
  3. Definition at Brilliant.org "Brilliant Math and Science Wiki". Retrieved on 12 May 2019
  4. Basharin, Gely P. et al. «The Life and Work of A. A. Markov». Elsevier, 2.004.
  5. Samuel Karlin; Howard E. Taylor A First Course in Stochastic Processes. Academic Press, 2 desembre 2012, p. 47. ISBN 978-0-08-057041-9. 
  6. Bruce Hajek. Random Processes for Engineers. Cambridge University Press, 12 març 2015. ISBN 978-1-316-24124-0. 
  7. G. Latouche; V. Ramaswami Introduction to Matrix Analytic Methods in Stochastic Modeling. SIAM, 1 gener 1999, p. 4–. ISBN 978-0-89871-425-8. 
  8. 8,0 8,1 Sean Meyn; Richard L. Tweedie Markov Chains and Stochastic Stability. Cambridge University Press, 2 abril 2009, p. 3. ISBN 978-0-521-73182-9. 
  9. Reuven Y. Rubinstein; Dirk P. Kroese Simulation and the Monte Carlo Method. John Wiley & Sons, 20 setembre 2011, p. 225. ISBN 978-1-118-21052-9. 
  10. Dani Gamerman; Hedibert F. Lopes Markov Chain Monte Carlo: Stochastic Simulation for Bayesian Inference, Second Edition. CRC Press, 10 maig 2006. ISBN 978-1-58488-587-0. 
  11. «Markovian». A: . Online. Oxford University Press.  requereix subscripció o ser soci de la biblioteca pública del Regne Unit
  12. Buckley, J.J.; Eslami, E. (2002). Fuzzy Markov Chains: Uncertain Probabilities. Mathware and Soft Computing 9, 33–41.
  13. Villacorta, P.J.; Verdegay, J.L. (2016) FuzzyStatProb: An R Package for the Estimation of Fuzzy Stationary Probabilities from a Sequence of Observations of an Unknown Markov Chain. Journal of Statistical Software 71, 1–27, {{format ref}} https://doi.org/10.18637/jss.v071.i08
  14. Adillon, Romàn; Jorba, Lambert; Mármol, Maite «Modal Interval Probability: Application to Bonus-Malus Systems» (en anglès). International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 28, 05, 10-2020, pàg. 837–851. DOI: 10.1142/S0218488520500361. ISSN: 0218-4885.
  15. Villacorta, Pablo J.; González-Vila Puchades, Laura; de Andrés-Sánchez, Jorge «Fuzzy Markovian Bonus-Malus Systems in Non-Life Insurance» (en anglès). Mathematics, 9, 4, 1-2021, pàg. 347. DOI: 10.3390/math9040347. ISSN: 2227-7390.

Bibliografia

[modifica]
  • A.A.A Markov. "Rasprostranenie zákona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fizik-matematicheskogo obschestva primer Kazanskom universitet , 2-ja seriya, tom 15, pp. 135-156, 1906.
  • A.A.A Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B de: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains . John Wiley and Sons, 1971.
  • Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591-600. Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500
  • Leo Breim. Probability . Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (Vegeu Capítol 7.)
  • J.L. Doob. Stochastic Processes . New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.
  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability . London: Springer-Verlag, 1993. ISBN 0-387-19832-6. línia: https://netfiles.uiuc.edu/Meyn/www/spm_files/book.html Arxivat 2010-06-19 a Wayback Machine.. Second edition to appear, Cambridge University Press, 2009.
  • S. P. Meyn. Control Techniques for Complex Networks . Cambridge University Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn & Tweedie. línia: https://netfiles.uiuc.edu/Meyn/www/spm_files/CTCN/CTCN.html Arxivat 2010-06-19 a Wayback Machine.
  • Booth, Taylor L. Sequential Machines and Automata Theory. Nova York: John Wiley and Sons, Inc, 1967. Library of Congress Card Catalog Number 67-25924. Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
  • Kemeny, John G.; Hazleton Mirkil, J. Laurie Snell, Gerald L. Thomas. Finite Mathematical Structures. Englewood Cliffs, NJ: Prentice-Hall, Inc, 1959. Library of Congress Card Catalog Number 59-12841. Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.
  • E. Nummelin. "General irreductible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X

Enllaços externs

[modifica]