Utente:Rbattistin/Sandbox2: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Riga 10:
In statistica e in [[Apprendimento automatico|apprendimento automatico]], la regolarizzazione è utilizzata per prevenire l'[[overfitting]]. Tipici esempi di regolarizzazione nell'apprendimento automatico statistico includono la [[Regolarizzazione_di_Tichonov|regolarizzazione di Tichonov]], il cosiddetto metodo dei minimi quadrati LASSO (''Least Absolute Shrinkage and Selection Operator''), e la [[Norma_(matematica)|norma ''L''<sup>2</sup>]] nelle [[Macchine_a_vettori_di_supporto|macchine a vettori di supporto]].
 
I metodi di regolarizzazione sono impiegati anche per la selezione di modelli, dove il loro funzionamento è basato sull'implicita o esplicita penalizzazione del numero di parametri del modello. Per esempio, i metodi di [[Apprendimento_bayesiano|apprendimento bayesiano]] fanno uso di una probabilità a priori che (solitamente) attribuisce un valore di probabilità inferiore ai modelli più complessi. Tecniche ben note di selezione includono il [[Test_di_verifica_delle_informazioni_di_Akaike|criterio informativo di Akaike]] (AIC), la lunghezza di descrizione minima (''minimum description length'', MDL), e il criterio informativo bayesiano (''Bayesianbayesian information criterion'', BIC). Metodi alternativi per controllare l'[[Overfitting|overfitting]] non coinvolgenti la regolarizzazione includono la [[Cross-validazione]].
 
Esempi di metodi differenti di regolarizzazione applicati al [[Modello_lineare|modello lineare]] sono: