Overfitting: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m fix
m smistamento lavoro sporco e fix vari
Riga 1:
{{F|Informaticastatistica|novembre 2016}}
{{S|statistica}}
[[File:Overfitted Data.png|thumb|upright=1.4|Una serie di dati all'incirca lineare (ma affetta da rumore), approssimabile sia da una [[funzione lineare]] sia da una [[interpolazione polinomiale]]. Nonostante quella polinomiale si adatti in modo perfetto ai dati, ci si aspetta che la versione lineare debba rappresentare una migliore generalizzazione: quindi, in un'estrapolazione al di fuori dei dati conosciuti la funzione lineare fornirebbe migliori [[Previsione|predizioni]].]]
Riga 7:
In [[statistica]] e in [[informatica]], si parla di '''''overfitting''''' (in [[lingua italiana|italiano]]: '''adattamento eccessivo''', '''sovradattamento''') quando un [[modello statistico]] molto complesso si adatta ai dati osservati (il [[Campionamento statistico|campione]]) perché ha un numero eccessivo di parametri rispetto al numero di osservazioni.
 
Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili.
 
Si sostiene che l'''overfitting'' sia una violazione del principio del [[rasoio di Occam]].
Riga 16:
== Contromisure ==
 
Sia nella statistica sia nel [[apprendimento automatico]], per prevenire ed evitare l<nowiki>'</nowiki>''overfitting'' è necessario mettere in atto particolari accorgimenti tecnici, come la [[Convalida incrociata|convalidazione incrociata]] e l'[[Arresto anticipato (statistica)|arresto anticipato]], che indicano quando un ulteriore allenamento non porterebbe a una migliore generalizzazione.
 
Nel [[treatment learning]] si evita l'overfitting utilizzando il valore di supporto migliore e minimale.