Utente:Rbattistin/Sandbox2: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
←Nuova pagina: =Regolarizzazione= In matematica e statistica, particolarmente nei campi dell'apprendimento automatico e dei [[Problema_inverso|pr... |
Nessun oggetto della modifica |
||
Riga 3:
In [[matematica]] e [[statistica]], particolarmente nei campi dell'[[Apprendimento_automatico|apprendimento automatico]] e dei [[Problema_inverso|problemi inversi]], la '''regolarizzazione''' implica l'introduzione di ulteriore informazione allo scopo di risolvere un [[problema mal condizionato]] o per prevenire l'[[Overfitting|overfitting]]. Tale informazione è solitamente nella forma di una penalità per complessità, tale come una restrizione su una funzione [[Funzione_liscia|funzione liscia]] o una limitazione sulla [[Spazio_normato|norma di uno spazio vettoriale]].
Una giustificazione teorica per la regolarizzazione è quella per cui essa costituisce un tentativo di imporre il [[Rasoio_di_Occam|rasoio di Occam]] alla soluzione. Da un punto di vista [[Inferenza_bayesiana|bayesiano]], molte tecniche di regolarizzazione corrispondono ad imporre certe distribuzioni di [[Probabilità|probabilità a priori]] dei parametri del modello.
The same idea arose in many fields of [[science]]. For example, the [[least-squares method]] can be viewed as a very simple form of regularization. A simple form of regularization applied to [[integral equation]]s, generally termed [[Tikhonov regularization]] after [[Andrey Nikolayevich Tikhonov]], is essentially a trade-off between fitting the data and reducing a norm of the solution. More recently, [[non-linear regularization]] methods, including [[total variation regularization]] have become popular.
|