Classificador Bayes primari
En estadística, els classificadors Bayes primaris són una família de " classificadors probabilistes" simples basats en l'aplicació del teorema de Bayes amb supòsits d'independència (primari) forts entre les característiques (vegeu el classificador de Bayes). Es troben entre els models de xarxa bayesians més simples,[1] però, juntament amb l'estimació de la densitat del nucli, poden assolir alts nivells de precisió.[2]
En moltes aplicacions pràctiques, l'estimació de paràmetres per a models de Bayes naïf utilitza el mètode de la màxima probabilitat; en altres paraules, es pot treballar amb el model de Bayes ingenu sense acceptar la probabilitat bayesiana ni utilitzar cap mètode bayesià.[3]
Malgrat el seu disseny ingenu i supòsits aparentment simplificats, els classificadors Bayes primaris han funcionat força bé en moltes situacions complexes del món real. L'any 2004, una anàlisi del problema de classificació bayesià va mostrar que hi ha raons teòriques sòlides per a l'eficàcia aparentment poc plausible dels classificadors Bayes primaris.[4] Tot i així, una comparació exhaustiva amb altres algorismes de classificació l'any 2006 va demostrar que la classificació de Bayes superava altres enfocaments, com ara arbres potenciats o boscos aleatoris.[5]Un avantatge de Bayes primari és que només requereix un petit nombre de dades d'entrenament per estimar els paràmetres necessaris per a la classificació.
De manera abstracta, Bayes ingenu és un model de probabilitat condicional: donada una instància de problema que cal classificar, representada per un vector representant algunes n característiques (variables independents), assigna a aquesta instància probabilitats
per a cadascun dels K possibles resultats o classes .
El problema de la formulació anterior és que si el nombre de característiques n és gran o si una característica pot prendre un gran nombre de valors, aleshores basar aquest model en taules de probabilitats és inviable. Per tant, cal reformular el model per fer-lo més manejable. Utilitzant el teorema de Bayes, la probabilitat condicional es pot descompondre com
En anglès senzill, utilitzant la terminologia de probabilitat bayesiana, l'equació anterior es pot escriure com
A la pràctica, només hi ha interès en el numerador d'aquesta fracció, perquè el denominador no depèn de i els valors de les característiques es donen, de manera que el denominador és efectivament constant. El numerador és equivalent al model de probabilitat conjunta.[6]
Referències
[modifica]- ↑ McCallum, Andrew. «Graphical Models, Lecture2: Bayesian Network Representation» (en anglès). https://people.cs.umass.edu. Arxivat de l'original el 2022-10-09. [Consulta: 22 octubre 2019].
- ↑ Gandhi, Rohith. «Naive Bayes Classifier» (en anglès). https://towardsdatascience.com,+17-05-2018.+[Consulta: 31 octubre 2022].
- ↑ «Naive Bayes Classifier - Machine Learning [Updated | Simplilearn]» (en anglès). https://www.simplilearn.com.+[Consulta: 31 octubre 2022].
- ↑ "[1]" a FLAIRS2004 conference.
- ↑ "" a Proc. 23rd International Conference on Machine Learning.
- ↑ «Naive Bayes Classifier in Machine Learning - Javatpoint» (en anglès). https://www.javatpoint.com.+[Consulta: 31 octubre 2022].