Utente:Rbattistin/Sandbox2: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
→Regolarizzazione (matematica): ritocchi formali |
|||
(13 versioni intermedie di 4 utenti non mostrate) | |||
Riga 1:
=Regolarizzazione (matematica)=
In [[matematica]] e [[statistica]], particolarmente nei campi dell'[[Apprendimento_automatico|apprendimento automatico]] e dei [[Problema_inverso|problemi inversi]], la '''regolarizzazione'''
Una giustificazione teorica per la regolarizzazione è quella per cui essa costituisce un tentativo di imporre il [[Rasoio_di_Occam|rasoio di Occam]] alla soluzione. Da un punto di vista [[Inferenza_bayesiana|bayesiano]], molte tecniche di regolarizzazione corrispondono ad imporre certe distribuzioni di [[Probabilità|probabilità a priori]] dei parametri del modello.
==Regolarizzazione in statistica==
In statistica e in [[Apprendimento automatico|apprendimento automatico]], la regolarizzazione è utilizzata per prevenire l'[[overfitting]]. Tipici esempi di regolarizzazione nell'apprendimento automatico statistico includono la [[Regolarizzazione_di_Tichonov|regolarizzazione di Tichonov]], il cosiddetto metodo dei minimi quadrati LASSO (''Least Absolute Shrinkage and Selection Operator''), e la [[Norma_(matematica)|norma ''L''<sup>2</sup>]] nelle [[Macchine_a_vettori_di_supporto|macchine a vettori di supporto]].
I metodi di regolarizzazione sono impiegati anche per la selezione di modelli, dove il loro funzionamento è basato sull'implicita o esplicita penalizzazione del numero di parametri del modello. Per esempio, i metodi di [[Apprendimento_bayesiano|apprendimento bayesiano]] fanno uso di una probabilità a priori che (solitamente) attribuisce un valore di probabilità inferiore ai modelli più complessi. Tecniche ben note di selezione includono il [[Test_di_verifica_delle_informazioni_di_Akaike|criterio informativo di Akaike]] (''Akaike information criterion'', AIC), la lunghezza di descrizione
Esempi di metodi differenti di regolarizzazione applicati al [[Modello_lineare|modello lineare]] sono:
Riga 18:
|[[Criterio informativo di Akaike|AIC]]/[[Criterio informativo bayesiano|BIC]]||<math>\|Y-X\beta\|_2</math>||<math>\|\beta\|_0</math>
|-
|[[
|-
|[[Least_squares#LASSO_method|
| last = Tibshirani
| first = Robert
Riga 36:
|<math>\|Y-X\beta\|_2</math>||<math>\|\beta\|_1</math>
|-
|[[''Basis pursuit denoising'']] || <math>\|Y-X\beta\|_2</math> || <math>\lambda\|\beta\|_1</math>
|-
|RLAD<ref>{{Cite conference
Riga 49:
| <math>\|Y-X\beta\|_1</math> || <math>\|\beta\|_1</math>
|-
|
| last = Candes
| first = Emmanuel | authorlink = Emmanuel Candès
Riga 66:
|}
==
{{Reflist}}
==
* A. Neumaier, Solving ill-conditioned and singular linear systems: A tutorial on regularization, SIAM Review 40 (1998), 636-666.
<nowiki>[[Categoria:Analisi numerica]]
[[de:Regularisierung]]
[[ru:Регуляризация (математика)]]
</nowiki>
|