Overfitting: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica Etichette: Modifica da mobile Modifica da web per mobile |
fix |
||
(13 versioni intermedie di 12 utenti non mostrate) | |||
Riga 1:
{{F|
{{S|statistica}}
[[File:Overfitted Data.png|thumb|upright=1.4|Una serie di dati all'incirca lineare (ma affetta da rumore), approssimabile sia da una [[funzione lineare]] sia da una [[interpolazione polinomiale]]. Nonostante quella polinomiale si adatti in modo perfetto ai dati, ci si aspetta che la versione lineare debba rappresentare una migliore generalizzazione: quindi, in un'estrapolazione al di fuori dei dati conosciuti la funzione lineare fornirebbe migliori [[Previsione|predizioni]].]]
[[File:Overfitting svg.svg|thumb|upright=1.4|La curva blu mostra l'andamento dell'errore nel classificare i dati di ''training'', mentre la curva rossa mostra l'errore nel classificare i dati di ''test'' o ''validazione''. Una situazione in cui il secondo aumenta mentre il primo diminuisce è indice della possibile presenza di un caso di ''overfitting''.]]▼
In [[statistica]] e in [[informatica]], si parla di '''''overfitting'''''
▲[[File:Overfitting svg.svg|thumb|upright=1.4|La curva blu mostra l'andamento dell'errore nel classificare i dati di ''training'', mentre la curva rossa mostra l'errore nel classificare i dati di ''test'' o ''validazione''. Una situazione in cui il secondo aumenta mentre il primo diminuisce è indice della possibile presenza di un caso di overfitting.]]
Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili.
▲In [[statistica]] e in [[informatica]], si parla di '''''overfitting''''' (in [[lingua italiana|italiano]]: '''eccessivo adattamento''') quando un [[modello statistico]] molto complesso si adatta ai dati osservati (il [[Campionamento statistico|campione]]) perché ha un numero eccessivo di parametri rispetto al numero di osservazioni.
▲Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili.
▲Spesso si sostiene che l'''overfitting'' sia una violazione del principio del [[Rasoio di Occam]]. <Questa è una stronzata, toglietela>.
== Apprendimento automatico e ''data mining'' ==
Il concetto di ''overfitting'' è molto importante anche nell'[[apprendimento automatico]] e nel [[data mining]]. Di solito un [[algoritmo]] di apprendimento viene ''allenato'' usando un certo insieme di
Tuttavia, soprattutto nei casi in cui l'apprendimento è stato effettuato troppo a lungo o dove c'era uno scarso numero di esempi di allenamento, il modello potrebbe adattarsi a caratteristiche che sono specifiche solo del ''training set'', ma che non hanno riscontro nella distribuzione tipica del resto dei casi. Perciò il modello impara le peculiarità del training set e non riesce ad adattarsi a dati nuovi. Si ha quindi ''overfitting'' quando il miglioramento delle prestazioni del modello (cioè la capacità di adattarsi/prevedere) sui dati di allenamento non implica un miglioramento delle prestazioni sui dati nuovi.
== Contromisure ==
Sia nella statistica sia
Nel [[treatment learning]] si evita l
▲Sia nella statistica sia nel ''[[machine learning]]'', per prevenire ed evitare l<nowiki>'</nowiki>''overfitting'' è necessario mettere in atto particolari accorgimenti tecnici, come la [[cross-validation]] e l'[[Arresto anticipato (statistica)|arresto anticipato]], che indicano quando un ulteriore allenamento non porterebbe a una migliore generalizzazione.
== Altri progetti ==
▲Nel [[treatment learning]] si evita l<nowiki>'</nowiki>''overfitting'' utilizzando il valore di supporto migliore e minimale.
{{interprogetto}}
{{Portale|matematica|informatica|statistica}}
[[Categoria:
[[Categoria:Elaborazione digitale delle immagini]]
[[Categoria:Teoria dell'informazione]]
|