Processo markoviano

sistema matematico

Un processo stocastico markoviano o processo di Markov è un processo stocastico nel quale la probabilità di transizione che determina il passaggio ad uno stato di sistema dipende unicamente dallo stato di sistema immediatamente precedente e non dal come si è giunti a tale stato (in quest'ultima ipotesi si parla di processo non markoviano).
Modelli di tipo markoviano vengono anche utilizzati nel progetto di reti di telecomunicazioni; la teoria delle code che ne consegue trova applicazione in molti ambiti: dalla fila alle poste ai pacchetti in coda in un router.

Formalmente questo può essere scritto come

Questa è detta proprietà di Markov, o condizione di "assenza di memoria".

Catene di Markov

Una catena di Markov è un processo di Markov a stati discreti, ovvero è un processo stocastico discreto per cui ad ogni istante t estraiamo dal processo una variabile casuale discreta.
Formalmente questo può essere scritto come

 

Nel caso di catena di Markov a tempo discreto si può assumere la notazione più semplice

 

Catene omogenee di Markov

Una catena omogenea di Markov è un processo markoviano nel quale la probabilità di transizione dipende unicamente dallo stato del sistema immediatamente precedente e non anche dal tempo t (o dal passo n se tempo discreto), ed è pertanto detto omogeneo.
Per le catene omogenee vale la condizione

 

Più in generale si dimostra che in una catena di Markov omogenea si ha che la probabilità di passare da uno stato ad un altro in t passi è costante nel tempo

 

Catene di Markov ergodiche

Una catena di Markov si definisce ergodica se e solo se per ogni istante iniziale   e per ogni condizione iniziale di probabilità   esiste ed è indipendente da   e da  , il limite della probabilità per tempi infiniti

 

Voci correlate

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica