Processo markoviano: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: Modifico: es:Cadena de Markov; modifiche estetiche |
|||
Riga 1:
Un '''processo stocastico markoviano''' o '''processo di Markov''' è un [[processo stocastico]] nel quale la [[probabilità di transizione]] che determina il passaggio ad uno [[stato di sistema]]
dipende unicamente dallo stato di sistema immediatamente precedente
e non dal ''come'' si è giunti a tale stato (in quest'ultima ipotesi si parla di [[processo non markoviano]]).<br />
Modelli di tipo markoviano vengono anche utilizzati nel progetto di reti di telecomunicazioni; la teoria delle
code che ne consegue trova applicazione in molti ambiti: dalla fila alle poste ai pacchetti in coda in un router.
Riga 12:
== Catene di Markov ==
Una '''catena di Markov''' è un processo di Markov a stati discreti, ovvero è un [[processo stocastico discreto]] per cui ad ogni istante ''t'' estraiamo dal processo una [[variabile casuale discreta]].
<br />
Formalmente questo può essere scritto come
: <math> P(X(t_{n+1})= x_{n+1}|X(t_n)= x_n, X(t_{n-1})= x_{n-1}, \ldots, X(t_0)= x_0) = P(X(t_{n+1})= x_{n+1}|X(t_n)=x_n). \, </math>
Riga 18:
: <math> P(X_{n+1}=x_{n+1}|X_n, X_{n-1}, \ldots, X_0) = P(X_{n+1}=x_{n+1}|X_n). \, </math>
=== Catene omogenee di Markov ===
Una '''catena omogenea di Markov''' è un processo markoviano nel quale la probabilità di transizione dipende unicamente dallo [[stato di sistema|stato del sistema]] immediatamente precedente
e non anche dal tempo ''t'' (o dal passo ''n'' se tempo discreto), ed è pertanto detto [[processo stocastico omogeneo|omogeneo]].
<br />
Per le catene omogenee vale la condizione
: <math>P(X_{n+1}=x|X_n=y) = \Pr(X_{n}=x|X_{n-1}=y)\,</math>
Riga 27:
: <math>P(X_{n+t}=x|X_n=y) = \Pr(X_{n-1+t}=x|X_{n-1}=y)\,</math>
=== Catene di Markov ergodiche ===
Una '''catena di Markov''' si definisce '''ergodica''' se e solo se per ogni istante iniziale <math>t_0</math> e per ogni condizione iniziale di probabilità <math>p(t_0)</math> esiste ed è indipendente da <math>t_0</math> e da <math>p(t_0)</math>, il limite della probabilità per tempi infiniti
:<math> P=\lim_{t \to \infty}p(t)</math>
== Voci correlate ==
* [[Statistica]]
* [[Processo stocastico]]
Riga 37:
* [[Andrej Andreevič Markov (1856)]]
* [[Modello nascosto di Markov]]
* [[N-gramma]]
{{Probabilità}}
Riga 50:
[[el:Αλυσίδα Μαρκόφ]]
[[en:Markov chain]]
[[es:Cadena de
[[et:Markovi ahel]]
[[fa:فرایند مارکف]]
|