Criterio informativo della devianza: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
tagged isolated of cluster Orfana0. |
Aggiungi 1 libro per la Wikipedia:Verificabilità (20240410)) #IABot (v2.0.9.5) (GreenC bot |
||
(15 versioni intermedie di 10 utenti non mostrate) | |||
Riga 1:
Il '''criterio informativo della devianza''', DIC (''deviance information criterion''), è una generalizzazione di modellizzazione gerarchica del [[Test di verifica delle informazioni di Akaike|criterio informativo di Akaike]]
Definiamo la [[devianza (statistica matematica)|devianza]] come <math> D(\theta)=-2 \log(p(y|\theta))+C\, </math>, dove <math>y\,</math> rappresenta i dati, <math>\theta\,</math> i parametri incogniti del modello e <math> p(y|\theta)\, </math> è la [[funzione di verosimiglianza]]. <math>C\,</math> è una costante che può essere trascurata in tutti i calcoli cui vengono confrontati modelli differenti, e in quanto tale non richiede di essere calcolata.
Riga 13:
L'idea è quella per cui modelli con valore di DIC piccolo dovrebbero essere preferiti a quelli con DIC grande. I modelli sono penalizzati mediante il valore di <math>\bar{D}</math>, il quale favorisce un buon adattamento ai dati, ma anche (in comune con AIC e BIC) mediante il numero di parametri efficace <math>p_D\,</math>. poiché <math> \bar D </math> diminuisce all'aumentare del numero di parametri, il termine <math>p_D\,</math> compensa per questo effetto favorendo modelli con un numero piccolo di parametri.
Nel caso di scelta tra modelli bayesiani, il vantaggio del DIC rispetto agli altri è di essere più facilmente calcolabile da campioni generati mediante simulazioni Monte Carlo basate su [[
Nella derivazione del DIC, la famiglia parametrica di distribuzioni di probabilità specificata, e che genera le osservazioni future, include il modello vero. Questa assunzione non è sempre valida e in tale scenario è auspicabile considerare delle procedure di accertamento del modello. Inoltre, anche i dati osservati sono impiegati per costruire la distribuzione a posteriori e per determinare i modelli stimati. Perciò, il DIC tende a prediligere modelli sovra-adattati ai dati. Recentemente questi problemi sono stati risolti da Ando (2007) sviluppando criteri di scelta del modello bayesiano a partire da un punto di vista predittivo, BPIC (''Bayesian model selection criteria'').
Riga 22:
Il primo termine è una misura di quanto bene il modello si adatta ai dati, mentre il secondo termine è una penalità sulla complessità del modello.
* [[Test di verifica delle informazioni di Akaike|Criterio informativo di Akaike]] (AIC)▼
* [[Criterio di informazione Bayesiano|Criterio informativo bayesiano]] (BIC)▼
* [[Criterio informativo predittivo bayesiano]] (BPIC)▼
* [[Criterio informativo focalizzato]] (FIC)▼
* [[Divergenza di Kullback-Leibler]]▼
* [[Divergenza di Jensen-Shannon]]▼
==Bibliografia==
*{{Cita pubblicazione
▲ | first = Tomohiro | last = Ando
|
▲ | year = 2007
▲ | title = Bayesian predictive information criterion for the evaluation of hierarchical Bayesian and empirical Bayes models
▲ | journal = [[Biometrika]]
▲ | volume = 94 | pages = 443–458
| doi = 10.1093/biomet/asm017
|
}}
*{{Cita pubblicazione
|
|
|
|
}}
* Claeskens, G, and [[Nils Lid Hjort|Hjort, N.L.]] (2008). ''Model Selection and Model Averaging'', Cambridge. Section 3.5.
*{{
|
|
| url = https://archive.org/details/bayesiandataanal0000unse_w6z6 | ed = 2
▲ | year = 2004
| pagine = 182–184
▲ | title = Bayesian Data Analysis
|
| mr = 2027492
▲ | publisher = Chapman & Hall/CRC
* van der Linde, A. (2005). "DIC in variable selection", ''Statistica Neerlandica'', 59: 45-56. doi:[
▲ | isbn = 1-58488-388-X
*{{Cita pubblicazione
▲* van der Linde, A. (2005). "DIC in variable selection", ''Statistica Neerlandica'', 59: 45-56. doi:[http://dx.doi.org/10.1111/j.1467-9574.2005.00278.x 10.1111/j.1467-9574.2005.00278.x]
▲ | first = David J. | last = Spiegelhalter | authorlink = David Spiegelhalter
| mese = ottobre
▲ | first2 = Nicola G. |last2=Best
▲ | first3=Bradley P. |last3=Carlin
▲ |first4= Angelika |last4=van der Linde
|
▲ | year = 2002
▲ | title = Bayesian measures of model complexity and fit (with discussion)
▲ | journal = [[Journal of the Royal Statistical Society]], Series B (Statistical Methodology)
▲ | volume = 64 | issue = 4 | pages = 583–639
| doi = 10.1111/1467-9868.00353 |mr=1979380 | jstor = 3088806
}}
▲* [[Criterio informativo predittivo bayesiano]] (BPIC)
▲* [[Criterio informativo focalizzato]] (FIC)
▲* [[Divergenza di Kullback-Leibler]]
▲* [[Divergenza di Jensen-Shannon]]
[[Categoria:Statistica bayesiana]]
|