Probabilitat posterior
La probabilitat posterior o a posteriori és un tipus de probabilitat condicional que resulta de l'actualització de la probabilitat prèvia amb informació resumida per la probabilitat, mitjançant una aplicació del teorema de Bayes.[1] Des d'una perspectiva epistemològica, la probabilitat posterior conté tot el que cal saber sobre una proposició incerta (com ara una hipòtesi científica, o valors de paràmetres), donats els coneixements previs i un model matemàtic que descriu les observacions disponibles en un moment determinat. Després de l'arribada de nova informació, la probabilitat posterior actual pot servir com a anterior en una altra ronda d'actualització bayesiana.[2][3]
En el context de l'estadística bayesiana, la distribució de probabilitat posterior normalment descriu la incertesa epistèmica sobre els paràmetres estadístics condicionada a una col·lecció de dades observades. A partir d'una distribució posterior determinada, es poden derivar diverses estimacions puntuals i d'interval, com ara el màxim a posteriori (MAP) o l'interval de densitat posterior més alt (HPDI). Però tot i que conceptualment és senzilla, la distribució posterior generalment no és tractable i, per tant, s'ha d'aproximar analíticament o numèricament.[4]
En els mètodes bayesians variacionals, la probabilitat posterior és la probabilitat dels paràmetres donada l'evidència , i es denota .
Contrasta amb la funció de versemblança, que és la probabilitat de l'evidència donat els paràmetres: .
Els dos estan relacionats de la següent manera:
Donada una probabilitat prèvia que una funció de distribució de probabilitat és i que les observacions tenir una probabilitat , aleshores la probabilitat posterior es defineix com [5]
on és la constant normalitzadora i es calcula com
per contínua , o sumant sobre tots els valors possibles de per discrets .[6]
La probabilitat posterior és, per tant, proporcional al producte Veriblitat · Probabilitat prèvia.[7]
Referències
[modifica]- ↑ Lambert, Ben. «The posterior – the goal of Bayesian inference». A: A Student's Guide to Bayesian Statistics. Sage, 2018, p. 121–140. ISBN 978-1-4739-1636-4.
- ↑ Team, Wallstreetmojo Editorial. «Posterior Probability» (en anglès). https://www.wallstreetmojo.com,+31-03-2022.+[Consulta: 30 octubre 2022].
- ↑ Zach. «Posterior Probability: Definition + Example» (en anglès). https://www.statology.org,+19-02-2020.+[Consulta: 30 octubre 2022].
- ↑ Press, S. James. «Approximations, Numerical Methods, and Computer Programs». A: Bayesian Statistics : Principles, Models, and Applications (en anglès). New York: John Wiley & Sons, 1989, p. 69–102. ISBN 0-471-63729-7.
- ↑ Christopher M. Bishop. Pattern Recognition and Machine Learning (en anglès). Springer, 2006, p. 21–24. ISBN 978-0-387-31073-2.
- ↑ Andrew Gelman, John B. Carlin, Hal S. Stern, David B. Dunson, Aki Vehtari and Donald B. Rubin. Bayesian Data Analysis (en anglès). CRC Press, 2014, p. 7. ISBN 978-1-4398-4095-5.
- ↑ Ross, Kevin. Chapter 8 Introduction to Continuous Prior and Posterior Distributions | An Introduction to Bayesian Reasoning and Methods (en anglès). https://bookdown.org.