Algoritmo di Metropolis-Hastings: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
fix vari |
→Derivazione formale: Correzione formula |
||
(2 versioni intermedie di 2 utenti non mostrate) | |||
Riga 47:
## ''positivamente ricorrente'' - il numero atteso di passi per tornare nello stesso stato è finito.
L'algoritmo di Metropolis–Hastings consiste nel progettare un processo di Markov (costruendo le [[probabilità di transizione]]) che soddisfi le due condizioni sopra, in modo che la sua distribuzione stazionaria <math>\pi(x)</math> sia esattamente <math>P(x)</math>. La derivazione dell'algoritmo parte dalla condizione di bilanciamento dettagliato:
:<math>
che può essere riscritta come:
Riga 73:
* Muoversi verso zone di più alta densità di probabilità aumenta la probabilità di accettazione, infatti in tal caso <math>\frac{P(x')}{P(x)} > 1</math>.
* Il termine <math>\frac{g(x \mid x')}{g(x' \mid x)}</math> corregge l'eventuale
::<math>P(x)P(x' \mid x) = P(x)g(x'\mid x)A(x', x) =
:Quindi <math>P(x)</math> è effettivamente la distribuzione limitre della catena di Markov.
Riga 88:
## calcoliamo la probabilità di accettazione <math>A(x', x_t)</math>.
# Accettazione o rifiuto
## generiamo un [[numero casuale]] uniforme <math>u \in [0, 1]</math>;
## se <math>u \le A(x' , x_t)</math>, allora accettiamo il candidato e assegnamo: <math>x_{t+1} = x'</math>;
## se <math>u > A(x' , x_t)</math>, allora rifiutiamo il candidato e assegnamo: <math>x_{t+1} = x_t</math>.
|