Utente:Rbattistin/Sandbox2: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Riga 10:
In statistica e in [[Apprendimento automatico|apprendimento automatico]], la regolarizzazione è utilizzata per prevenire l'[[overfitting]]. Tipici esempi di regolarizzazione nell'apprendimento automatico statistico includono la [[Regolarizzazione_di_Tichonov|regolarizzazione di Tichonov]], il cosiddetto metodo dei minimi quadrati LASSO (''Least Absolute Shrinkage and Selection Operator''), e la [[Norma_(matematica)|norma ''L''<sup>2</sup>]] nelle [[Macchine_a_vettori_di_supporto|macchine a vettori di supporto]].
I metodi di regolarizzazione sono impiegati anche per la selezione di modelli, dove il loro funzionamento è basato sull'implicita o esplicita penalizzazione del numero di parametri del modello. Per esempio, i metodi di [[Apprendimento_bayesiano|apprendimento bayesiano]] fanno uso di una probabilità a priori che (solitamente) attribuisce un valore di probabilità inferiore ai modelli più complessi. Tecniche ben note di selezione includono il criterio informativo di Akaike (AIC), la lunghezza di descrizione minima (''minimum description length'', MDL), e il criterio informativo bayesiano (''Bayesian information criterion'', BIC). Metodi alternativi per controllare l'[[Overfitting|overfitting]] non coinvolgenti la regolarizzazione includono la [[Cross-validazione]].
Esempi di metodi differenti di regolarizzazione applicati al [[Modello_lineare|modello lineare]] sono:
|