Distribuzione Gamma: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
La formula della funzione di densità era errata, in quanto {\theta^k} era al numeratore anziché al denominatore |
m Annullata la modifica 143495923 di 51.179.109.72 (discussione) Etichetta: Annulla |
||
(42 versioni intermedie di 27 utenti non mostrate) | |||
Riga 2:
| nome = Distribuzione Gamma
| tipo = densità di probabilità
| pdf_image = [[
| cdf_image = [[
| parametri = <math>k>0\ </math> e <math>\theta>0\ </math><br />oppure<br /><math>\alpha>0\ </math> e <math>\beta>0\ </math><br />(<math>k=\alpha</math>, <math>\theta\beta=1</math>)
| supporto = <math>\R^+</math>
Riga 18:
| funzcar = <math>(1-i\theta t)^{-k}\ </math>
}}
In [[Teoria della probabilità|teoria delle probabilità]] la '''distribuzione [[Gamma (lettera)|Gamma]]''' è una [[Variabile casuale#Distribuzione di probabilità|distribuzione di probabilità]] [[distribuzione continua|continua]], che comprende, come casi particolari, anche le distribuzioni [[distribuzione esponenziale|esponenziale]] e [[distribuzione chi quadrato|chi quadrato]].
Viene utilizzata come modello generale dei tempi di attesa nella [[teoria delle code]], soprattutto qualora siano importanti effetti che rimuovano "l'assenza di memoria" della distribuzione esponenziale. Nella [[statistica bayesiana]] è comune sia come distribuzione ''a priori'' che come distribuzione ''a posteriori''.
== Definizione ==
La distribuzione Gamma è la distribuzione di probabilità della variabile aleatoria definita come la somma di variabili aleatorie indipendenti e con distribuzione esponenziale; la distribuzione Gamma è una distribuzione di probabilità definita sui [[Numero reale|numeri reali]] positivi, <math>\mathbb{R}^+</math>. A seconda degli autori, viene parametrizzata in due modi diversi: sia tramite la coppia di numeri positivi <math>(k,\theta)</math>, sia tramite la coppia di numeri positivi <math>(\alpha,\beta)</math>. Le due parametrizzazioni sono legate dalle relazioni <math>\alpha=k</math> e <math>\beta=1/\theta</math>. Nel seguito si farà riferimento alla parametrizzazione Gamma<math>(k,\theta)</math>.
La sua [[funzione di densità di probabilità]] è
Riga 31:
Possiamo osservare che se <math>k\in\mathbb{N}</math> vale che <math>\Gamma(k)=(k-1)!</math>
La sua [[funzione di ripartizione]] è la [[funzione
:<math>F(x)=P(k,x)=\frac{\gamma(k,x/\theta)}{\Gamma(k)}=\frac{\gamma(\alpha,\beta x)}{\Gamma(\alpha)}</math>,
dove <math>\gamma(k,x)=\int_0^x t^{k-1}e^{-t}dt</math> è la funzione Gamma incompleta inferiore.
=== Caratteristiche ===
I [[
:<math>\mu_n=\mathbb{E}[X^n]=\tfrac{1}{\theta^k\Gamma(k)}\int_0^{\infty}x^{k+n-1}e^{-\frac{x}{\theta}}dx</math>
:<math>\mu_n = \tfrac{\theta^{k+n-1}}{\theta^{k-1}\Gamma(k)}\int_0^{\infty}u^{k+n-1}e^{-u}du =\theta^n\frac{\Gamma(k+n)}{\Gamma(k)}=\theta^n\prod_{i=0}^{n-1}(k+i),</math>▼
▲\tfrac{\theta^{k+n-1}}{\theta^{k-1}\Gamma(k)}\int_0^{\infty}u^{k+n-1}e^{-u}du =
In particolare la distribuzione ha:▼
▲Dove si effettua la solita sostituzione <math>\frac{x}{\theta} = u</math> per ottenere la rappresentazione integrale della funzione Gamma di Eulero.
*indice di [[
*indice di [[curtosi]] <math>\gamma_2=6\,k^{-1}.</math>▼
[[Funzione generatrice]] di momenti:▼
▲In particolare la distribuzione ha
▲*[[valore atteso]] <math>\mathbb{E}[X]=k\theta</math>,
▲*[[varianza]] <math>\mathrm{Var}(X)=k\theta^2</math>,
▲*indice di [[skewness|asimmetria]] <math>\gamma_1=2\, k^{-\frac{1}{2}}</math>
▲*indice di [[curtosi]] <math>\gamma_2=6\,k^{-1}</math>
:<math>\mathbb{M}_X(t)=\mathbb{E}[e^{tX}]=\frac{1}{\theta^k\Gamma(k)}\int_0^\infty x^{k-1}e^{-x\left(\frac{1}{\theta}-t\right)}dx=\frac{1}{\theta^k\Gamma(k)(\tfrac{1}{\theta}-t)^k}\int_0^\infty u^{k-1}e^{-u}du</math>
▲Funzione generatrice di momenti
:<math>\mathbb{M}_X(t)=
=== Proprietà (Teorema del cambiamento di scala) ===
Se <math>X</math> segue la distribuzione Gamma<math>(k,\theta)</math> allora <math>aX</math> segue la distribuzione Gamma<math>(k,a\theta
Se <math>X_1,
▲Se <math>X</math> segue la distribuzione Gamma<math>(k,\theta)</math> allora <math>aX</math> segue la distribuzione Gamma<math>(k,\theta/a)</math>.
▲Se <math>X_1,...X_n</math> sono [[variabile aleatoria|variabili aleatorie]] [[variabili indipendenti|indipendenti]], ognuna con distribuzione Gamma<math>(k_i,\theta)</math>, allora la loro somma <math>X_1+...+X_n</math> segue la distribuzione Gamma<math>(k_1+...+k_n,\theta)</math>.
== Altre distribuzioni ==
La distribuzione Gamma generalizza diverse distribuzioni (è conveniente ora utilizzare la seconda delle due parametrizzazioni presentate):
* se <math>k</math> è un [[numero naturale]] si ottiene la [[distribuzione di Erlang]];
* <math>\mathrm{Gamma}(1,{\
* <math>\mathrm{Gamma}(\tfrac{n}{2},1/2)=\chi^2(n)</math> è la [[distribuzione chi quadrato]];
*
Nell'[[inferenza bayesiana]] la distribuzione Gamma può descrivere sia ''a priori'' che ''a posteriori'' di un'osservazione il parametro <math>X</math> di diverse distribuzioni di probabilità, ad esempio della [[distribuzione esponenziale]] e della [[distribuzione di Poisson]].
Riga 85 ⟶ 80:
Calcoliamo ora degli stimatori che possano, dato un campione presumibilmente Gamma distribuito, restituirci una stima dei suoi parametri <math>\theta</math> e <math>k</math>.
Uno stimatore corretto per <math>\theta</math> è
Per farlo adottiamo il [[metodo della massima verosimiglianza]], pertanto cominciamo con lo scrivere la funzione di verosimiglianza dato il campione▼
:<math>\hat{
[[Bias_(statistica)#Correttezza_asintotica|Stimatore asintoticamente corretto]] per <math>k</math> è:
\frac{1}{\theta^{nk}\Gamma^n(k)}\,\cdot\,\left(\prod_{i=1}^n x_i\right)^{k-1}\, e^{-\frac{1}{\theta}\sum_{i=1}^n x_i}</math>▼
:<math>\hat{k}=\psi_0^{-1}\left[\ln\left(\sqrt[n]{\prod_{i=1}^n \frac{x_i}{\theta}}\right)\right] = \psi_0^{-1}\left[\frac{1}{n} \sum_{i=1}^n \ln\left(\frac{x_i}{\theta}\right)\right].</math>
Cominciamo con il determinare <math>\theta</math>, il parametro più semplice da stimare.▼
dove <math>\psi_0^{-1}</math> è la [[funzione inversa]] della [[funzione digamma]] <math>\psi_0(k)</math> così definita:
:<math>\psi_0(x):=\frac{\Gamma'(x)}{\Gamma(x)}=\frac{d}{dx} \ln\Gamma(x).</math>
▲
▲:<math>\mathcal{L}(\{X_i\}|\theta, k)=\frac{1}{\theta^{nk}\Gamma^n(k)}\,\cdot\,\left(\prod_{i=1}^n x_i\right)^{k-1}\, e^{-\frac{1}{\theta}\sum_{i=1}^n x_i}.</math>
=== Dimostrazione stimatore di ''θ'' ===
▲
Notiamo che la funzione di verosimiglianza è ovunque positiva e nel limite degli estremi di <math>\theta</math>, si annulla.
:<math>\lim_{\theta\rightarrow 0^+}\mathcal{L} = 0</math>
:<math>\lim_{\theta\rightarrow +\infty}\mathcal{L} = 0</math>
Pertanto se imponiamo la sua derivata uguale a zero, nel caso la soluzione sia unica, questa deve per forza essere un punto di massimo.
:<math>\left(\frac{\partial \mathcal{L}}{\partial \theta}\right)_{\theta=\hat{\theta}}=
\frac{e^{-\frac{1}{\hat{\theta}}\sum_{i=1}^n x_i}}{\Gamma^n(k)}\left(\prod_{i=1}^n x_i\right)^{k-1}\, \cdot
\left(\hat{\theta}^{-nk-2}\sum_{i=1}^n x_i -nk\hat{\theta}^{-nk-1}\right)</math>
Riga 108 ⟶ 117:
Occorre adesso eguagliare a zero tale espressione
:<math>\left(\frac{\partial \mathcal{L}}{\partial \theta}\right)_{\theta=\hat{\theta}}=0\,\Rightarrow\,
\hat{\theta}^{-nk-2}\sum_{i=1}^n x_i -nk\hat{\theta}^{-nk-1}=0\,\Rightarrow\,
\hat{\theta}=\frac{1}{nk} \sum_{i=1}^n x_i</math>
Ed ecco il nostro stimatore di <math>\theta</math>, che ricorda molto una media aritmetica, riscalata sul parametro <math>k</math> (che ricordiamo essere uguale a 1 nel caso particolare della distribuzione esponenziale). Si può notare facilmente che il valor atteso di questo stimatore è proprio <math>\theta</math>, data la linearità dell'operatore.
:<math>\mathbb{E}[\hat{\theta}]=\mathbb{E}\left[\frac{1}{kn}\sum_{i=1}^n x_i\right]=\frac{1}{kn}\sum_{i=1}^n\mathbb{E}[x_i].</math>
▲\frac{1}{kn}\sum_{i=1}^n\mathbb{E}[x_i]</math>
Ricordiamo <math>\mathbb{E}[x_i]=k\theta</math>
:<math>\mathbb{E}[\hat{\theta}]=\frac{nk\theta}{kn}=\theta.</math>
=== Dimostrazione stimatore di ''k'' ===
Prendiamo ora in esame il calcolo dello stimatore per <math>k</math>. Anche qui la funzione di verosimiglianza si annulla per il limite di <math>k\rightarrow 0^+</math> e <math>k\rightarrow +\infty</math>, pertanto procediamo con il calcolo della derivata.
:<math>\left(\frac{\partial \mathcal{L}}{\partial k}\right)_{k=\hat{k}}\!\!\!\!\!=
e^{-\frac{1}{\theta}\sum x_i} \left(\prod x_i\right)^{\hat{k}-1}\left[
\frac{\ln\left(\prod x_i\right)}{\theta^{n\hat{k}}\Gamma^{n}(\hat{k})} - n\frac{\ln(\theta)+\psi_0(\hat{k})}{\theta^{n\hat{k}}\Gamma^{n}(\hat{k})}\right]=
\frac{e^{-\frac{1}{\theta}\sum x_i} \left(\prod x_i\right)^{\hat{k}-1}}{\theta^{n\hat{k}}\Gamma^n(\hat{k})}
\left[\ln\left(\prod \frac{x_i}{\theta}\right)-n\psi_0(\hat{k})\right].</math>
Con <math>\psi_0(k)</math> indichiamo la [[funzione digamma]] così definita:
:<math>\psi_0(x):=\frac{\Gamma'(x)}{\Gamma(x)}=\frac{d}{dx} \ln\Gamma(x),</math>
:<math>\psi_0(x)=\int_0^\infty \frac{e^{-t}-(1+t)^{-x}}{t} dt.</math>
Eguagliando a zero la nostra funzione di verosimiglianza otteniamo il nostro punto di massimo
:<math>\left(\frac{\partial \mathcal{L}}{\partial k}\right)_{k=\hat{k}}\!\!\!\!\!=0\,\Rightarrow\,
\ln\left(\prod \frac{x_i}{\theta}\right)-n\psi_0(\hat{k})=0\,\Rightarrow\,
\psi_0(\hat{k})=\ln\left(\sqrt[n]{\prod \frac{x_i}{\theta}}\right)</math>
La [[funzione digamma]], nei reali positivi è strettamente crescente, per cui esiste la funzione inversa
:<math>\hat{k}=\psi_0^{-1}\left[\ln\left(\sqrt[n]{\prod_{i=1}^n \frac{x_i}{\theta}}\right)\right] = \psi_0^{-1}\left[\frac{1}{n} \sum_{i=1}^n \ln\left(\frac{x_i}{\theta}\right)\right].</math>
Questo stimatore ottenuto è [[Bias_(statistica)#Correttezza_asintotica|asintoticamente corretto
Calcoliamo quindi
:<math>\mathbb{E}[\psi_0(\hat{k})]=\mathbb{E}\left[\frac{1}{n} \sum_{i=1}^n \ln\left(\frac{x_i}{\theta}\right)\right]=
\frac{1}{n} \sum_{i=1}^n \mathbb{E}\left[\ln\left(\frac{x_i}{\theta}\right)\right]=
\frac{1}{n} \sum_{i=1}^n \int_0 ^{\infty} \ln\left(\frac{x_i}{\theta}\right) \frac{x_i ^ {k-1} }{\theta^k \Gamma(k)} e^{-\frac{x_i}{\theta}} dx_i,</math>
dove abbiamo usato la linearità del valore atteso e scritto la sua definizione su variabile aleatoria continua.
:<math>\mathbb{E}[\psi_0(\hat{k})]= \frac{1}{n \theta^k \Gamma(k)} \sum_{i=1}^n \int_0 ^{\infty} \ln\left(\frac{x_i}{\theta}\right) x_i ^ {k-1} e^{-\frac{x_i}{\theta}} dx_i = \frac{1}{\theta^k \Gamma(k)} \int_0 ^{\infty} \ln\left(\frac{t}{\theta}\right) t ^ {k-1} e^{-\frac{t}{\theta}} dt </math>
:<math>\mathbb{E}[\psi_0(\hat{k})]=
\frac{1}{\theta^k \Gamma(k)} \int_0 ^{\infty} \ln\left(\frac{t}{\theta}\right) t ^ {k-1} e^{-\frac{t}{\theta}} dt
= \frac{\theta^{k-1}}{\theta^{k-1} \Gamma(k)} \int_0 ^{\infty} \ln(u) u ^ {k-1} e^{-u} du
= \frac{1}{\Gamma(k)} \int_0 ^{\infty} u ^ {k-1} \ln(u) e^{-u} du
e il risultato di quest'ultimo integrale è proprio <math>\Gamma(k) \psi_0 (k)</math> per qualunque <math>k</math> con [[parte reale]] positiva. Abbiamo quindi ottenuto l'identità
:<math>\mathbb{E}[\psi_0(\hat{k})] = \psi_0(k),</math>
In effetti dalla [[disuguaglianza di Jensen]] (secondo cui <math>\varphi(\mathbb{E}[X])\leq \mathbb{E}[\varphi(X)]</math> per una qualunque variabile aleatoria X e una funzione convessa <math>\varphi</math>) si ottiene un risultato più forte grazie al fatto che la funzione <math>\psi^{-1}_0
Infatti usando la disuguaglianza di Jensen per <math>X=\psi_0(\hat{k})</math> e <math>\varphi=\psi^{-1}_0</math> risulterà
:<math>\psi^{-1}_0\left(\mathbb{E}\left[\psi_0(\hat{k})\right]\right)\leq \mathbb{E}\left[\psi_0^{-1}\left(\psi_0(\hat{k})\right)\right]=\mathbb{E}[\hat{k}]
:<math>k \leq \mathbb{E}[\hat{k}]
== Voci correlate ==
Riga 203 ⟶ 204:
==Collegamenti esterni==
* {{Collegamenti esterni}}
{{Probabilità}}
{{Controllo di autorità}}
{{Portale|matematica}}
|