Classificació d'una sola classe
En l'aprenentatge automàtic, la classificació d'una classe (OCC), també coneguda com a classificació unària o modelatge de classes, intenta identificar objectes d'una classe específica entre tots els objectes, aprenent principalment a partir d'un conjunt d'entrenament que conté només els objectes d'aquesta classe [1] encara que existeixen variants de classificadors d'una classe on s'utilitzen contra-exemples per refinar encara més el límit de classificació. Això és diferent i més difícil que el problema de classificació tradicional, que intenta distingir entre dues o més classes amb el conjunt d'entrenament que conté objectes de totes les classes. Alguns exemples inclouen el seguiment de les caixes de canvis dels helicòpters,[2] predicció de fallades del motor o l'estat operatiu d'una planta nuclear com a "normal": [3] En aquest escenari, si n'hi ha cap, exemples d'estats de sistema catastròfics; només es coneixen les estadístiques de funcionament normal.
Tot i que molts dels enfocaments anteriors se centren en el cas d'eliminar un nombre reduït d'anomalies o anomalies, també es pot aprendre l'altre extrem, on la classe única cobreix un petit subconjunt coherent de dades, utilitzant un enfocament de coll d'ampolla de la informació.[4]
Visió general
[modifica]El terme classificació d'una classe (OCC) va ser encunyat per Moya i Hush (1996) [5] i es poden trobar moltes aplicacions a la literatura científica, per exemple, detecció de valors atípics, detecció d'anomalies, detecció de novetats. Una característica d'OCC és que només utilitza punts de mostra de la classe assignada, de manera que no es requereix estrictament un mostreig representatiu per a les classes no objectiu.[6]
Introducció
[modifica]La classificació d'una classe basada en SVM (OCC) es basa en identificar la hiperesfera més petita (amb radi r i centre c) que consta de tots els punts de dades.[7] Aquest mètode s'anomena Support Vector Data Description (SVDD). Formalment, el problema es pot definir en la següent forma d'optimització restringida,
Aprenentatge PU (Positiu sense etiqueta)
[modifica]Un problema similar és l'aprenentatge PU, en el qual un classificador binari s'aprèn de manera semisupervisada només a partir de punts de mostra positius i sense etiquetar.[8]
En l'aprenentatge de PU, se suposa que hi ha dos conjunts d'exemples disponibles per a la formació: el conjunt positiu i un conjunt mixt , que se suposa que conté mostres tant positives com negatives, però sense que aquestes estiguin etiquetades com a tals. Això contrasta amb altres formes d'aprenentatge semisupervisat, on s'assumeix que hi ha disponible un conjunt etiquetat que conté exemples d'ambdues classes a més de mostres sense etiquetar. Existeixen diverses tècniques per adaptar els classificadors supervisats a l'entorn d'aprenentatge PU, incloses variants de l'algorisme EM. L'aprenentatge PU s'ha aplicat amb èxit al text, sèries temporals, tasques de bioinformàtica, [9] i dades de teledetecció.[10]
Aplicacions
[modifica]Classificació de documents
[modifica]El paradigma bàsic de la màquina vectorial de suport (SVM) s'entrena utilitzant exemples positius i negatius, però els estudis han demostrat que hi ha moltes raons vàlides per utilitzar només exemples positius.
Estudis biomèdics
[modifica]La classificació d'una classe pot ser especialment útil en estudis biomèdics on sovint les dades d'altres classes poden ser difícils o impossibles d'obtenir. En estudiar dades biomèdiques pot ser difícil i/o costós obtenir el conjunt de dades etiquetades de la segona classe que seria necessari per realitzar una classificació de dues classes.[11][12]
Detecció de deriva conceptual no supervisada
[modifica]La classificació d'una sola classe té similituds amb la detecció de deriva de conceptes no supervisada, on tots dos tenen com a objectiu identificar si les dades no vistes comparteixen característiques similars a les dades inicials. Un concepte es coneix com la distribució de probabilitat fixa de la qual s'extreuen les dades.[13][14]
Referències
[modifica]- ↑ Analytica Chimica Acta, 982, 8-2017, pàg. 9–19. DOI: 10.1016/j.aca.2017.05.013. PMID: 28734370.
- ↑ Machine Learning, 42, 2001, pàg. 97–122. DOI: 10.1023/A:1007660820062 [Consulta: free].
- ↑ One-class classification: Concept-learning in the absence of counter-examples (tesi) (en anglès). Ph.D., 2001. Arxivat 2022-11-21 a Wayback Machine.
- ↑ Crammer, Koby. «A needle in a haystack». A: Twenty-first international conference on Machine learning - ICML '04 (en anglès), 2004, p. 26. DOI 10.1145/1015330.1015399. ISBN 978-1-58113-838-2.
- ↑ Moya, M.; Hush, D. Neural Networks, 9, 3, 1996, pàg. 463–474. DOI: 10.1016/0893-6080(95)00120-4.
- ↑ Chemometrics and Intelligent Laboratory Systems, 159, 15-12-2016, pàg. 89–96. DOI: 10.1016/j.chemolab.2016.10.002.
- ↑ Zineb, Noumir; Honeine, Paul; Richard, Cedue IEEE International Symposium on Information Theory Proceedings, 2012.
- ↑ Liu, Bing. Web Data Mining (en anglès). Springer, 2007, p. 165–178.
- ↑ Bugnon, L. A.; Yones, C.; Milone, D. H.; Stegmayer, G. Oxford Bioinformatics, 22, 3, 2020. DOI: 10.1093/bib/bbaa184. PMID: 32814347.
- ↑ Li, W.; Guo, Q.; Elkan, C. IEEE Transactions on Geoscience and Remote Sensing, 49, 2, 2-2011, pàg. 717–725. Bibcode: 2011ITGRS..49..717L. DOI: 10.1109/TGRS.2010.2058578. ISSN: 0196-2892.
- ↑ Statistics in Medicine, 27, 15, 7-2008, pàg. 2948–73. DOI: 10.1002/sim.3143. PMID: 18050154.
- ↑ TheScientificWorldJournal, 2014, 2014, pàg. 730712. DOI: 10.1155/2014/730712. PMC: 3980920. PMID: 24778600 [Consulta: free].
- ↑ Gözüaçık, Ömer; Can, Fazli Artificial Intelligence Review, 54, 5, 11-2020, pàg. 3725–3747. DOI: 10.1007/s10462-020-09939-x.
- ↑ Krawczyk, Bartosz; Woźniak, Michał Soft Computing, 19, 12, 2015, pàg. 3387–3400. DOI: 10.1007/s00500-014-1492-5 [Consulta: free].