Criterio informativo della devianza: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: rimuovo template obsoleto |
|||
Riga 1:
{{O|statistica|aprile 2013}}
Il '''criterio informativo della devianza''', DIC (''deviance information criterion''), è una generalizzazione di modellizzazione gerarchica del [[Test di verifica delle informazioni di Akaike|criterio informativo di Akaike]] (AIC, ''Akaike information criterion'') e dello Schwarz Criterion (BIC). È particolarmente utile nei problemi di [[scelta di modello|scelta di modelli]] [[Inferenza bayesiana|bayesiani]] in cui le [[Probabilità a posteriori|distribuzioni a posteriori]] dei [[modello statistico|modelli]] è stata ottenuta mediante simulazione [[
Definiamo la [[devianza (statistica matematica)|devianza]] come <math> D(\theta)=-2 \log(p(y|\theta))+C\, </math>, dove <math>y\,</math> rappresenta i dati, <math>\theta\,</math> i parametri incogniti del modello e <math> p(y|\theta)\, </math> è la [[funzione di verosimiglianza]]. <math>C\,</math> è una costante che può essere trascurata in tutti i calcoli cui vengono confrontati modelli differenti, e in quanto tale non richiede di essere calcolata.
Riga 14:
L'idea è quella per cui modelli con valore di DIC piccolo dovrebbero essere preferiti a quelli con DIC grande. I modelli sono penalizzati mediante il valore di <math>\bar{D}</math>, il quale favorisce un buon adattamento ai dati, ma anche (in comune con AIC e BIC) mediante il numero di parametri efficace <math>p_D\,</math>. poiché <math> \bar D </math> diminuisce all'aumentare del numero di parametri, il termine <math>p_D\,</math> compensa per questo effetto favorendo modelli con un numero piccolo di parametri.
Nel caso di scelta tra modelli bayesiani, il vantaggio del DIC rispetto agli altri è di essere più facilmente calcolabile da campioni generati mediante simulazioni Monte Carlo basate su [[
Nella derivazione del DIC, la famiglia parametrica di distribuzioni di probabilità specificata, e che genera le osservazioni future, include il modello vero. Questa assunzione non è sempre valida e in tale scenario è auspicabile considerare delle procedure di accertamento del modello. Inoltre, anche i dati osservati sono impiegati per costruire la distribuzione a posteriori e per determinare i modelli stimati. Perciò, il DIC tende a prediligere modelli sovra-adattati ai dati. Recentemente questi problemi sono stati risolti da Ando (2007) sviluppando criteri di scelta del modello bayesiano a partire da un punto di vista predittivo, BPIC (''Bayesian model selection criteria'').
Riga 74:
| doi = 10.1111/1467-9868.00353 |mr=1979380 | jstor = 3088806
}}
[[Categoria:Statistica bayesiana]]
|