Regularització (matemàtiques)
En matemàtiques, estadística, finances,[1] informàtica, particularment en aprenentatge automàtic i problemes inversos, la regularització és un procés que canvia la resposta del resultat per ser "més simple". Sovint s'utilitza per obtenir resultats per problemes mal plantejats o per evitar un sobreajust.[2]
Tot i que els procediments de regularització es poden dividir de moltes maneres, la delimitació següent és especialment útil:
- La regularització explícita és regularització sempre que s'afegeix explícitament un terme al problema d'optimització. Aquests termes poden ser anteriors, penalitzacions o limitacions. La regularització explícita s'utilitza habitualment amb problemes d'optimització mal plantejats. El terme de regularització, o penalització, imposa un cost a la funció d'optimització per fer única la solució òptima.
- La regularització implícita és totes les altres formes de regularització. Això inclou, per exemple, l'aturada anticipada, l'ús d'una funció de pèrdua robusta i l'eliminació dels valors atípics. La regularització implícita és essencialment omnipresent en els enfocaments moderns d'aprenentatge automàtic, inclòs el descens de gradient estocàstic per a l'entrenament de xarxes neuronals profundes i mètodes de conjunt (com boscos aleatoris i arbres augmentats amb gradients).[3]
En la regularització explícita, independentment del problema o model, sempre hi ha un terme de dades, que correspon a una probabilitat de la mesura i un terme de regularització que correspon a un a priori. En combinar ambdues utilitzant l'estadística bayesiana, es pot calcular una posterior, que inclou ambdues fonts d'informació i, per tant, estabilitza el procés d'estimació. Compartint ambdós objectius, es tria ser més addictiu a les dades o fer complir la generalització (per evitar un sobreajust). Hi ha tota una branca de recerca que s'ocupa de totes les regularitzacions possibles. A la pràctica, s'acostuma a provar una regularització específica i després es calcula la densitat de probabilitat que correspon a aquesta regularització per justificar l'elecció. També pot estar motivat físicament pel sentit comú o la intuïció.
En l'aprenentatge automàtic, el terme de dades correspon a les dades d'entrenament i la regularització és l'elecció del model o les modificacions a l'algorisme. Sempre es pretén reduir l'error de generalització, és a dir, la puntuació d'error amb el model entrenat en el conjunt d'avaluació i no les dades d'entrenament.[4]
Referències
[modifica]- ↑ Kratsios, Anastasis . "Deep Arbitrage-Free Learning in a Generalized HJM Framework via Arbitrage-Regularization Data", 8, 2, 2020, pàg. [1]. DOI: 10.3390/risks8020040 [Consulta: lliure]. «Term structure models can be regularized to remove arbitrage opportunities [sic?].»
- ↑ Bühlmann, Peter. Statistics for High-Dimensional Data, 2011, p. 9 (Springer Series in Statistics). DOI 10.1007/978-3-642-20192-9. ISBN 978-3-642-20191-2.
- ↑ Ye, Andre. «Exploring the Simple & Satisfying Math Behind Regularization» (en anglès). https://towardsdatascience.com/,+04-09-2020.+[Consulta: 15 agost 2023].
- ↑ «Deep Learning Book» (en anglès). www.deeplearningbook.org. [Consulta: 29 gener 2021].