Criterio informativo della devianza: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
FrescoBot (discussione | contributi)
IncolaBot (discussione | contributi)
m Bot: rimuovo template obsoleto
Riga 1:
{{O|statistica|aprile 2013}}
Il '''criterio informativo della devianza''', DIC (''deviance information criterion''), è una generalizzazione di modellizzazione gerarchica del [[Test di verifica delle informazioni di Akaike|criterio informativo di Akaike]] (AIC, ''Akaike information criterion'') e dello Schwarz Criterion (BIC). È particolarmente utile nei problemi di [[scelta di modello|scelta di modelli]] [[Inferenza bayesiana|bayesiani]] in cui le [[Probabilità a posteriori|distribuzioni a posteriori]] dei [[modello statistico|modelli]] è stata ottenuta mediante simulazione [[Catena_di_Markov_Monte_CarloCatena di Markov Monte Carlo|MCMC]]. Analogamente all'AIC e al BIC, il DIC è una approssimazione asintotica che migliora ampliando la dimensione del campione di dati. È valida solamente quando la distribuzione a posteriori è approssimativamente di tipo [[distribuzione normale multivariata|normale multivariata]].
 
Definiamo la [[devianza (statistica matematica)|devianza]] come <math> D(\theta)=-2 \log(p(y|\theta))+C\, </math>, dove <math>y\,</math> rappresenta i dati, <math>\theta\,</math> i parametri incogniti del modello e <math> p(y|\theta)\, </math> è la [[funzione di verosimiglianza]]. <math>C\,</math> è una costante che può essere trascurata in tutti i calcoli cui vengono confrontati modelli differenti, e in quanto tale non richiede di essere calcolata.
Riga 14:
L'idea è quella per cui modelli con valore di DIC piccolo dovrebbero essere preferiti a quelli con DIC grande. I modelli sono penalizzati mediante il valore di <math>\bar{D}</math>, il quale favorisce un buon adattamento ai dati, ma anche (in comune con AIC e BIC) mediante il numero di parametri efficace <math>p_D\,</math>. poiché <math> \bar D </math> diminuisce all'aumentare del numero di parametri, il termine <math>p_D\,</math> compensa per questo effetto favorendo modelli con un numero piccolo di parametri.
 
Nel caso di scelta tra modelli bayesiani, il vantaggio del DIC rispetto agli altri è di essere più facilmente calcolabile da campioni generati mediante simulazioni Monte Carlo basate su [[Catena_di_Markov_Monte_CarloCatena di Markov Monte Carlo|catene di Markov]], MCMC (''Markov Chain Monte Carlo''). I criteri AIC e BIC richiedono il calcolo del massimo della verosimiglianza sopra il parametro <math>\theta\,</math>, e questo non è direttamente reso disponibile da una simulazione MCMC. Invece per calcolare il valore del DIC, semplicemente si calcola <math>\bar{D}</math> come la media di <math>D(\theta)\,</math> sopra i campioni di <math>\theta\,</math>, mentre <math>D(\bar{\theta})</math> come il valore di <math>D\,</math> calcolato sulla media dei campioni di <math> \theta\, </math>. Il valore del DIC segue allora direttamente da queste approssimazioni. Claeskens e Hjort (2008, Cap. 3.5) mostrano che il DIC è equivalente per campionamenti estesi alla naturale versione robusta (in termini di modello) dell'AIC.
 
Nella derivazione del DIC, la famiglia parametrica di distribuzioni di probabilità specificata, e che genera le osservazioni future, include il modello vero. Questa assunzione non è sempre valida e in tale scenario è auspicabile considerare delle procedure di accertamento del modello. Inoltre, anche i dati osservati sono impiegati per costruire la distribuzione a posteriori e per determinare i modelli stimati. Perciò, il DIC tende a prediligere modelli sovra-adattati ai dati. Recentemente questi problemi sono stati risolti da Ando (2007) sviluppando criteri di scelta del modello bayesiano a partire da un punto di vista predittivo, BPIC (''Bayesian model selection criteria'').
Riga 74:
| doi = 10.1111/1467-9868.00353 |mr=1979380 | jstor = 3088806
}}
 
{{Voci isolate}}
 
[[Categoria:Statistica bayesiana]]