Classificatore bayesiano: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Folto82 (discussione | contributi)
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1:
{{S|matematica applicata}}
Un '''classificatore ''bayesiano''''' è un [[Classificatore (matematica)|classificatore]] basato sull'applicazione del [[teorema di Bayes]]<ref name="duda">Duda, R. O. & P. E. Hart (1973), ''Pattern Classification and Scene Analysis'', New York: John Wiley & Sons</ref>.
 
Il classificatore ''bayesiano'' richiede la conoscenza delle probabilità a priori e condizionali relative al problema, quantità che in generale non sono note, ma sono tipicamente stimabili. Se è possibile ottenere delle stime affidabili delle probabilità coinvolte nel teorema, il classificatore ''bayesiano'' risulta generalmente affidabile e potenzialmente compatto. Spesso viene detto "classificatore ''classificatore bayesiano completo'' completo" (''Fullfull Bayes Classifierclassifier'') o anche ''Beliefbelief Networknetwork''). Per costruzione, il classificatore ''bayesiano'' minimizza il rischio di classificazione<ref name="duda" />.
 
Nel gergo della classificazione di testi o [[Text Categorization|classificazione di testi]], con il termine "classificatore ''bayesiano''" ci si riferisce convenzionalmente al ''cosiddetto "classificatore ''bayesiano naif'' ingenuo" (''Naivenaïve Bayes Classifierclassifier'')<ref name="duda" /><ref>Langley, P., W. Iba, & K. Thompson (1992), ''An analysis of Bayesian classifiers'', da ''Proceedings, Tenth National Conference on Artificial Intelligence'' (pp. 223–228). Menlo Park, CA: AAAI Press</ref>, ossia un classificatore ''bayesiano'' semplificato con un modello di [[probabilità]] sottostante che fa l'ipotesi di [[Indipendenza (probabilità)|indipendenza]] delle ''[[Caratteristica (apprendimento automatico)|featurecaratteristiche]]'', ovverocioè assume che la presenza o l'assenza di unaun particolare ''feature''attributo in un documento testuale non è correlata alla presenza o assenza di altri altre ''feature''attributi.
 
In queste ipotesi semplificate (dette appunto naif"ingenue", in oinglese anche ''idiot''), il modello è realizzabile con molta maggiore facilità. L'esperienza dimostra che il metodo funziona in molti problemi pratici<ref>N. Friedman, D. Geiger, & M. Goldszmit (1997), ''Bayesian Network Classifiers'', in ''Machine Learning'', 29, 131–163</ref>, come per esempio il filtraggio antispamanti-spam adattivo<ref>M. Sahami, S. Dumais, D. Heckerman, E. Horvitz (1998), ''A Bayesian approach to filtering junk e-mail'', AAAI'98 ''Workshop on Learning for Text Categorization''</ref>.
 
== Note ==