Distribuzione Gamma: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
La formula della funzione di densità era errata, in quanto {\theta^k} era al numeratore anziché al denominatore
m Annullata la modifica 143495923 di 51.179.109.72 (discussione)
Etichetta: Annulla
 
(42 versioni intermedie di 27 utenti non mostrate)
Riga 2:
| nome = Distribuzione Gamma
| tipo = densità di probabilità
| pdf_image = [[ImageFile:Gamma distribution pdf.pngsvg|325px|Funzione di densità di probabilità]]
| cdf_image = [[ImageFile:Gamma distribution cdf.pngsvg|325px|Funzione di ripartizione]]
| parametri = <math>k>0\ </math> e <math>\theta>0\ </math><br />oppure<br /><math>\alpha>0\ </math> e <math>\beta>0\ </math><br />(<math>k=\alpha</math>, <math>\theta\beta=1</math>)
| supporto = <math>\R^+</math>
Riga 18:
| funzcar = <math>(1-i\theta t)^{-k}\ </math>
}}
In [[Teoria della probabilità|teoria delle probabilità]] la '''distribuzione [[Gamma (lettera)|Gamma]]''' è una [[Variabile casuale#Distribuzione di probabilità|distribuzione di probabilità]] [[distribuzione continua|continua]], che comprende, come casi particolari, anche le distribuzioni [[distribuzione esponenziale|esponenziale]] e [[distribuzione chi quadrato|chi quadrato]].
 
Viene utilizzata come modello generale dei tempi di attesa nella [[teoria delle code]], soprattutto qualora siano importanti effetti che rimuovano "l'assenza di memoria" della distribuzione esponenziale. Nella [[statistica bayesiana]] è comune sia come distribuzione ''a priori'' che come distribuzione ''a posteriori''.
 
== Definizione ==
La distribuzione Gamma è la distribuzione di probabilità della variabile aleatoria definita come la somma di variabili aleatorie indipendenti e con distribuzione esponenziale; la distribuzione Gamma è una distribuzione di probabilità definita sui [[Numero reale|numeri reali]] positivi, <math>\mathbb{R}^+</math>. A seconda degli autori, viene parametrizzata in due modi diversi: sia tramite la coppia di numeri positivi <math>(k,\theta)</math>, sia tramite la coppia di numeri positivi <math>(\alpha,\beta)</math>. Le due parametrizzazioni sono legate dalle relazioni <math>\alpha=k</math> e <math>\beta=1/\theta</math>. Nel seguito si farà riferimento alla parametrizzazione Gamma<math>(k,\theta)</math>.
 
La sua [[funzione di densità di probabilità]] è
Riga 31:
Possiamo osservare che se <math>k\in\mathbb{N}</math> vale che <math>\Gamma(k)=(k-1)!</math>
 
La sua [[funzione di ripartizione]] è la [[funzione Gammagamma incompleta]] inferiore regolarizzata
:<math>F(x)=P(k,x)=\frac{\gamma(k,x/\theta)}{\Gamma(k)}=\frac{\gamma(\alpha,\beta x)}{\Gamma(\alpha)}</math>,
dove <math>\gamma(k,x)=\int_0^x t^{k-1}e^{-t}dt</math> è la funzione Gamma incompleta inferiore.
 
=== Caratteristiche ===
I [[momentoMomento (statisticaprobabilità)|momenti semplici]] della distribuzione Gamma di parametri <math>(k,\theta)</math> sono<math>\mu_n=\mathbb{E}[X^n]=
:<math>\mu_n=\mathbb{E}[X^n]=\tfrac{1}{\theta^k\Gamma(k)}\int_0^{\infty}x^{k+n-1}e^{-\frac{x}{\theta}}dx</math>
</math>
 
:<math>\mu_n = \tfrac{\theta^{k+n-1}}{\theta^{k-1}\Gamma(k)}\int_0^{\infty}u^{k+n-1}e^{-u}du =\theta^n\frac{\Gamma(k+n)}{\Gamma(k)}=\theta^n\prod_{i=0}^{n-1}(k+i),</math>
<math>\mu_n =
\tfrac{\theta^{k+n-1}}{\theta^{k-1}\Gamma(k)}\int_0^{\infty}u^{k+n-1}e^{-u}du =
 
Dovedove si effettua la solita sostituzione <math>\frac{x}{\theta} = u</math> per ottenere la rappresentazione integrale della funzione Gamma di Eulero.
\theta^n\frac{\Gamma(k+n)}{\Gamma(k)}=
\theta^n\prod_{i=0}^{n-1}(k+i)</math>
 
In particolare la distribuzione ha:
Dove si effettua la solita sostituzione <math>\frac{x}{\theta} = u</math> per ottenere la rappresentazione integrale della funzione Gamma di Eulero.
*[[valore atteso]] <math>\mathbb{E}[X]=k\theta;</math>,
*[[varianza]] <math>\mathrm{Var}(X)=k\theta^2;</math>,
*indice di [[skewnessSimmetria (statistica)|asimmetria]] <math>\gamma_1=2\, k^{-\frac{1}{2}};</math>
*indice di [[curtosi]] <math>\gamma_2=6\,k^{-1}.</math>
 
[[Funzione generatrice]] di momenti:
In particolare la distribuzione ha
*[[valore atteso]] <math>\mathbb{E}[X]=k\theta</math>,
*[[varianza]] <math>\mathrm{Var}(X)=k\theta^2</math>,
*indice di [[skewness|asimmetria]] <math>\gamma_1=2\, k^{-\frac{1}{2}}</math>
*indice di [[curtosi]] <math>\gamma_2=6\,k^{-1}</math>
 
:<math>\mathbb{M}_X(t)=\mathbb{E}[e^{tX}]=\frac{1}{\theta^k\Gamma(k)}\int_0^\infty x^{k-1}e^{-x\left(\frac{1}{\theta}-t\right)}dx=\frac{1}{\theta^k\Gamma(k)(\tfrac{1}{\theta}-t)^k}\int_0^\infty u^{k-1}e^{-u}du</math>
Funzione generatrice di momenti
 
:<math>\mathbb{M}_X(t)=\mathbb{E}[e^{tX}]=\frac{(1}{-\theta t)^{-k\Gamma(k)}\int_0^\infty</math> che esiste per x^{k-ogni valore di t tale che <math>1}e^{-x\left(\frac{1}{\theta}- t > 0 \right)}dx=\frac{1}{Rightarrow t < \theta^k\Gamma(k)(\tfrac{1}{\theta}-t)^k}\int_0^\infty u^{k-1}e^{-u}du.</math>
 
=== Proprietà (Teorema del cambiamento di scala) ===
<math>\mathbb{M}_X(t)=(1-\theta t)^{-k}</math> che esiste per ogni valore di t tale che <math>1-\theta t > 0 \Rightarrow t < \theta^{-1}</math>
Se <math>X</math> segue la distribuzione Gamma<math>(k,\theta)</math> allora <math>aX</math> segue la distribuzione Gamma<math>(k,a\theta/a)</math>.
 
Se <math>X_1,...\ldots,X_n</math> sono [[variabileVariabile aleatoriacasuale|variabili aleatorie]] [[variabiliVariabili dipendenti e indipendenti|indipendenti]], ognuna con distribuzione Gamma<math>(k_i,\theta)</math>, allora la loro somma <math>X_1+...\ldots+X_n</math> segue la distribuzione Gamma<math>(k_1+...\ldots+k_n,\theta)</math>.
=== Proprietà ===
Se <math>X</math> segue la distribuzione Gamma<math>(k,\theta)</math> allora <math>aX</math> segue la distribuzione Gamma<math>(k,\theta/a)</math>.
 
Se <math>X_1,...X_n</math> sono [[variabile aleatoria|variabili aleatorie]] [[variabili indipendenti|indipendenti]], ognuna con distribuzione Gamma<math>(k_i,\theta)</math>, allora la loro somma <math>X_1+...+X_n</math> segue la distribuzione Gamma<math>(k_1+...+k_n,\theta)</math>.
 
== Altre distribuzioni ==
La distribuzione Gamma generalizza diverse distribuzioni (è conveniente ora utilizzare la seconda delle due parametrizzazioni presentate):
* se <math>k</math> è un [[numero naturale]] si ottiene la [[distribuzione di Erlang]];
* <math>\mathrm{Gamma}(1,{\lambdatheta})=\mathcal{E}({1/\lambdatheta})</math> è la [[distribuzione esponenziale]];
* <math>\mathrm{Gamma}(\tfrac{n}{2},1/2)=\chi^2(n)</math> è la [[distribuzione chi quadrato]];
* Sese <math>X</math> segue una [[distribuzione di Maxwell-Boltzmann]] di parametro <math>a</math> allora <math>X^2</math>è distribuito secondo <math>\mathrm{Gamma}(\tfrac{3}{2},2a^2)</math>.
 
Nell'[[inferenza bayesiana]] la distribuzione Gamma può descrivere sia ''a priori'' che ''a posteriori'' di un'osservazione il parametro <math>X</math> di diverse distribuzioni di probabilità, ad esempio della [[distribuzione esponenziale]] e della [[distribuzione di Poisson]].
Riga 85 ⟶ 80:
Calcoliamo ora degli stimatori che possano, dato un campione presumibilmente Gamma distribuito, restituirci una stima dei suoi parametri <math>\theta</math> e <math>k</math>.
 
Uno stimatore corretto per <math>\theta</math> è
Per farlo adottiamo il [[metodo della massima verosimiglianza]], pertanto cominciamo con lo scrivere la funzione di verosimiglianza dato il campione
 
:<math>\hat{X_i\theta}_{i=\frac{1}^n{nk} \sub \mathbbsum_{Ri=1}^+n x_i.</math>
 
[[Bias_(statistica)#Correttezza_asintotica|Stimatore asintoticamente corretto]] per <math>k</math> è:
<math>\mathcal{L}(\{X_i\}|\theta, k)=
\frac{1}{\theta^{nk}\Gamma^n(k)}\,\cdot\,\left(\prod_{i=1}^n x_i\right)^{k-1}\, e^{-\frac{1}{\theta}\sum_{i=1}^n x_i}</math>
 
:<math>\hat{k}=\psi_0^{-1}\left[\ln\left(\sqrt[n]{\prod_{i=1}^n \frac{x_i}{\theta}}\right)\right] = \psi_0^{-1}\left[\frac{1}{n} \sum_{i=1}^n \ln\left(\frac{x_i}{\theta}\right)\right].</math>
Cominciamo con il determinare <math>\theta</math>, il parametro più semplice da stimare.
 
 
dove <math>\psi_0^{-1}</math> è la [[funzione inversa]] della [[funzione digamma]] <math>\psi_0(k)</math> così definita:
 
:<math>\psi_0(x):=\frac{\Gamma'(x)}{\Gamma(x)}=\frac{d}{dx} \ln\Gamma(x).</math>
 
PerLe farlodimostrazioni adottiamoadottano il [[metodo della massima verosimiglianza]], pertanto cominciamo con lo scriveredove la [[funzione di verosimiglianza]] dato il campione è
 
:<math>\frac{1X_i\}{kn}\sum__{i=1}^n \sub \mathbb{ER}[x_i]^+</math>
 
:<math>\mathcal{L}(\{X_i\}|\theta, k)=\frac{1}{\theta^{nk}\Gamma^n(k)}\,\cdot\,\left(\prod_{i=1}^n x_i\right)^{k-1}\, e^{-\frac{1}{\theta}\sum_{i=1}^n x_i}.</math>
 
=== Dimostrazione stimatore di ''θ'' ===
 
CominciamoIl con il determinareparametro <math>\theta</math>, è il parametro più semplice da stimare.
 
Notiamo che la funzione di verosimiglianza è ovunque positiva e nel limite degli estremi di <math>\theta</math>, si annulla.
 
:<math>\lim_{\theta\rightarrow 0^+}\mathcal{L} = 0</math>
 
:<math>\lim_{\theta\rightarrow +\infty}\mathcal{L} = 0</math>
 
Pertanto se imponiamo la sua derivata uguale a zero, nel caso la soluzione sia unica, questa deve per forza essere un punto di massimo.
 
:<math>\left(\frac{\partial \mathcal{L}}{\partial \theta}\right)_{\theta=\hat{\theta}}=
\frac{e^{-\frac{1}{\hat{\theta}}\sum_{i=1}^n x_i}}{\Gamma^n(k)}\left(\prod_{i=1}^n x_i\right)^{k-1}\, \cdot
\left(\hat{\theta}^{-nk-2}\sum_{i=1}^n x_i -nk\hat{\theta}^{-nk-1}\right)</math>
Riga 108 ⟶ 117:
Occorre adesso eguagliare a zero tale espressione
 
:<math>\left(\frac{\partial \mathcal{L}}{\partial \theta}\right)_{\theta=\hat{\theta}}=0\,\Rightarrow\,
\hat{\theta}^{-nk-2}\sum_{i=1}^n x_i -nk\hat{\theta}^{-nk-1}=0\,\Rightarrow\,
\hat{\theta}=\frac{1}{nk} \sum_{i=1}^n x_i</math>
 
Ed ecco il nostro stimatore di <math>\theta</math>, che ricorda molto una media aritmetica, riscalata sul parametro <math>k</math> (che ricordiamo essere uguale a 1 nel caso particolare della distribuzione esponenziale). Si può notare facilmente che il valor atteso di questo stimatore è proprio <math>\theta</math>, data la linearità dell'operatore.
 
:<math>\mathbb{E}[\hat{\theta}]=\mathbb{E}\left[\frac{1}{kn}\sum_{i=1}^n x_i\right]=\frac{1}{kn}\sum_{i=1}^n\mathbb{E}[x_i].</math>
\frac{1}{kn}\sum_{i=1}^n\mathbb{E}[x_i]</math>
 
Ricordiamo <math>\mathbb{E}[x_i]=k\theta</math>
 
:<math>\mathbb{E}[\hat{\theta}]=\frac{nk\theta}{kn}=\theta.</math>
 
=== Dimostrazione stimatore di ''k'' ===

Prendiamo ora in esame il calcolo dello stimatore per <math>k</math>.
 
Anche qui la funzione di verosimiglianza si annulla per il limite di <math>k\rightarrow 0^+</math> e <math>k\rightarrow +\infty</math>, pertanto procediamo con il calcolo della derivata.
 
:<math>\left(\frac{\partial \mathcal{L}}{\partial k}\right)_{k=\hat{k}}\!\!\!\!\!=
e^{-\frac{1}{\theta}\sum x_i} \left(\prod x_i\right)^{\hat{k}-1}\left[
\frac{\ln\left(\prod x_i\right)}{\theta^{n\hat{k}}\Gamma^{n}(\hat{k})} - n\frac{\ln(\theta)+\psi_0(\hat{k})}{\theta^{n\hat{k}}\Gamma^{n}(\hat{k})}\right]=
\frac{e^{-\frac{1}{\theta}\sum x_i} \left(\prod x_i\right)^{\hat{k}-1}}{\theta^{n\hat{k}}\Gamma^n(\hat{k})}
\left[\ln\left(\prod \frac{x_i}{\theta}\right)-n\psi_0(\hat{k})\right].</math>
</math>
 
Con <math>\psi_0(k)</math> indichiamo la [[funzione digamma]] così definita:
</math> indichiamo la [[funzione digamma]] così definita
 
:<math>\psi_0(x):=\frac{\Gamma'(x)}{\Gamma(x)}=\frac{d}{dx} \ln\Gamma(x),</math>
 
Cheche può essere espressa mediante una relazione integrale
 
:<math>\psi_0(x)=\int_0^\infty \frac{e^{-t}-(1+t)^{-x}}{t} dt.</math>
 
Eguagliando a zero la nostra funzione di verosimiglianza otteniamo il nostro punto di massimo
 
:<math>\left(\frac{\partial \mathcal{L}}{\partial k}\right)_{k=\hat{k}}\!\!\!\!\!=0\,\Rightarrow\,
\ln\left(\prod \frac{x_i}{\theta}\right)-n\psi_0(\hat{k})=0\,\Rightarrow\,
\psi_0(\hat{k})=\ln\left(\sqrt[n]{\prod \frac{x_i}{\theta}}\right)</math>
</math>
 
La [[funzione digamma]], nei reali positivi è strettamente crescente, per cui esiste la funzione inversa
 
:<math>\hat{k}=\psi_0^{-1}\left[\ln\left(\sqrt[n]{\prod_{i=1}^n \frac{x_i}{\theta}}\right)\right] = \psi_0^{-1}\left[\frac{1}{n} \sum_{i=1}^n \ln\left(\frac{x_i}{\theta}\right)\right].</math>
</math>
 
Questo stimatore ottenuto è [[Bias_(statistica)#Correttezza_asintotica|asintoticamente corretto (ovvero per una popolazione con <math>n</math> molto grande)]], ma per valori finiti andrebbe verificato il suo valore atteso che, se risultasse essere <math>k</math>, allora sarebbe un corretto stimatore.
 
Calcoliamo quindi
 
:<math>\mathbb{E}[\psi_0(\hat{k})]=\mathbb{E}\left[\frac{1}{n} \sum_{i=1}^n \ln\left(\frac{x_i}{\theta}\right)\right]=
\mathbb{E}\left[\frac{1}{n} \sum_{i=1}^n \ln\left(\frac{x_i}{\theta}\right)\right]=
\frac{1}{n} \sum_{i=1}^n \mathbb{E}\left[\ln\left(\frac{x_i}{\theta}\right)\right]=
\frac{1}{n} \sum_{i=1}^n \int_0 ^{\infty} \ln\left(\frac{x_i}{\theta}\right) \frac{x_i ^ {k-1} }{\theta^k \Gamma(k)} e^{-\frac{x_i}{\theta}} dx_i,</math>
 
dove abbiamo usato la linearità del valore atteso e scritto la sua definizione su variabile aleatoria continua.
 
:<math>\mathbb{E}[\psi_0(\hat{k})]= \frac{1}{n \theta^k \Gamma(k)} \sum_{i=1}^n \int_0 ^{\infty} \ln\left(\frac{x_i}{\theta}\right) x_i ^ {k-1} e^{-\frac{x_i}{\theta}} dx_i = \frac{1}{\theta^k \Gamma(k)} \int_0 ^{\infty} \ln\left(\frac{t}{\theta}\right) t ^ {k-1} e^{-\frac{t}{\theta}} dt </math>
 
Ovviamente tuttiTutti gli integrali nella <math>i</math>-esima variabile sono uguali tra di loro, quindi la loro somma dà <math>n</math> volte il singolo integrale nella generica variabile di integrazione <math>t</math>.
 
:<math>\mathbb{E}[\psi_0(\hat{k})]=
\frac{1}{\theta^k \Gamma(k)} \int_0 ^{\infty} \ln\left(\frac{t}{\theta}\right) t ^ {k-1} e^{-\frac{t}{\theta}} dt
= \frac{\theta^{k-1}}{\theta^{k-1} \Gamma(k)} \int_0 ^{\infty} \ln(u) u ^ {k-1} e^{-u} du
= \frac{1}{\Gamma(k)} \int_0 ^{\infty} u ^ {k-1} \ln(u) e^{-u} du </math>
 
</math>
 
e il risultato di quest'ultimo integrale è proprio <math>\Gamma(k) \psi_0 (k)
 
e il risultato di quest'ultimo integrale è proprio <math>\Gamma(k) \psi_0 (k)</math> per qualunque <math>k</math> con [[parte reale]] positiva. Abbiamo quindi ottenuto l'identità
 
:<math>\mathbb{E}[\psi_0(\hat{k})] = \psi_0(k),</math>
 
</math> che non è sufficiente a dire che lo stimatore sia corretto (non solo per n grandiasintoticamente), ma è tuttavia necessario.
 
In effetti dalla [[disuguaglianza di Jensen]] (secondo cui <math>\varphi(\mathbb{E}[X])\leq \mathbb{E}[\varphi(X)]</math> per una qualunque variabile aleatoria X e una funzione convessa <math>\varphi</math>) si ottiene un risultato più forte grazie al fatto che la funzione <math>\psi^{-1}_0:\colon \mathbb{R}\rightarrow\mathbb{R}^+</math> è convessa su tutto il suo dominio.
 
Infatti usando la disuguaglianza di Jensen per <math>X=\psi_0(\hat{k})</math> e <math>\varphi=\psi^{-1}_0</math> risulterà
 
:<math>\psi^{-1}_0\left(\mathbb{E}\left[\psi_0(\hat{k})\right]\right)\leq \mathbb{E}\left[\psi_0^{-1}\left(\psi_0(\hat{k})\right)\right]=\mathbb{E}[\hat{k}] .</math>
 
dallDall'uguaglianza ottenuta in precedenza il membro di sinistra si semplifica così da avere:
 
:<math>k \leq \mathbb{E}[\hat{k}] .</math>
 
== Voci correlate ==
Riga 203 ⟶ 204:
 
==Collegamenti esterni==
* {{Collegamenti esterni}}
{{Mathworld|GammaDistribution}}
 
{{Probabilità}}
{{Controllo di autorità}}
{{Portale|matematica}}