Distribuzione beta-binomiale: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: Formatto ISBN |
|||
(18 versioni intermedie di 15 utenti non mostrate) | |||
Riga 1:
In [[teoria delle probabilità]] la '''distribuzione
La distribuzione beta-binomiale dipende da tre parametri:
== Definizione ==
Se
:<math>P(X=x) = C {n \choose x} \Gamma(a+x) \Gamma(b+n-x),</math>
dove la costante <math>C</math> è data da
:<math>C = \frac{\Gamma(a+b)}{\Gamma(a) \Gamma(b) \Gamma (a+b+n)}</math>
e <math>\Gamma</math> è la [[funzione gamma]].
:<math>P(X=x) = {n \choose x} \frac{\Beta(a+x , b+n-x)}{\Beta (a, b)},</math>
dove <math>\Beta</math> è la [[funzione beta di Eulero]].
== Caratteristiche ==
Il [[valore atteso]] dipende da tutti e tre i parametri
:<math>\mathrm{E}(X) = n \frac{a}{a+b},</math>
così come pure la [[varianza]]
:<math>\mathrm{Var}(X) = n \frac{a b}{(a+b)^2} \frac{a+b+n}{a+b+1}.</math>
L'asimmetria viene indicata con
:<math>(a + b + 2 n)\frac{b-a}{a+b+2} \sqrt{\frac{1+a+b}{n a b (n+a+b)}}=(a + b + 2 n)\frac{b-a}{a+b+2}\ \frac{1}{a+b} \sqrt{\frac{1}{\mathrm{Var}(X)}}.</math>
Utilizzando la notazione <math>p=\frac{a}{a+b},</math> il valore atteso e la varianza possono essere descritti in una forma che ricorda quella della variabile casuale binomiale:
:<math>\mathrm{E}(X) = n \frac{a}{a+b} = n p;</math>
:<math>\mathrm{Var}(X) = n \frac{a b}{(a+b)^2} \frac{a+b+n}{a+b+1} = n p (1-p) \frac{a+b+n}{a+b+1}.</math>
Dalle precedenti si nota che a parità di valore atteso (ed <math>n</math>) la variabile casuale beta-binomiale ha sempre una varianza maggiore della variabile casuale binomiale.
L'asimmetria viene indicata con
:<math>\frac{1-2p}{\sqrt{\mathrm{Var}(X)}} \frac{a + b + 2 n}{a + b + 2}= \frac{1-2p}{\sqrt{n p (1-p)}} \frac{a + b + 2 n}{a + b + 2} \sqrt{\frac{a + b + 1}{a + b + n}}.</math>
Anche in questo caso diventa evidente come l'asimmetria della beta-binomiale sia sempre maggiore dell'asimmetria della binomiale, a parità valore atteso (ed <math>n</math>).
== Casi particolari ==
Nel caso che <math>a=1</math> e <math>b=1,</math> allora si tratta di una [[variabile casuale uniforme discreta]] con <math>P(X=x)=1/(n+1)</math> essendoci <math>n+1</math> valori possibili.
== Ambiti di applicazione ==
La
Un possibile caso è quello di prevedere in senso probabilistico quante lampadine si
Analogamente, qualora ci si trovi di fronte ad un modello che dovrebbe essere descritto da una
== Esempi ==
=== Probabilità di estrarre ''X'' palline rosse da un'urna della quale si conosce solo approssimativamente la composizione ===
==== Un modello ====
Nell'ambito dell'[[inferenza bayesiana]], da un'urna della quale si ignora il numero di palline presenti ma che da estrazioni precedenti risulta che vi siano una percentuale di palline rosse che varia come una
==== Esempio numerico ====
Partendo da un concetto di completa ignoranza che ci porta a descrivere la distribuzione a priori come una
A questo punto si decide di fare un'ulteriore estrazione di 40 palline e ci si chiede quale sia la probabilità che esattamente due di queste siano rosse.
Essendo in questa seconda estrazione la probabilità <math>P(X=x)</math> quella di una variabile casuale <math>\mathrm{BetaBin}(40,2,15)</math> si ottiene che
:<math>P(X=2 | n=40, a=2, b=15) = C {40 \choose 2} \Gamma(2+2) \Gamma(15+40-2),</math>
dove
:<math>C = \frac{\Gamma(2+15)}{\Gamma(2) \Gamma(15) \Gamma (2+15+40)},</math>
ed essendo <math>{40 \choose 2} = 780</math> e inoltre essendo in generale <math>\Gamma(k) = (k-1)!</math> e pertanto
:<math>\Gamma(2) = 1</math>
:<math>\Gamma(4) = 6</math>
Riga 66 ⟶ 81:
:<math>\Gamma(53) = 52! </math>
:<math>\Gamma(57) = 56! </math>
si ottiene
:<math>P(X=2 | n=40, a=2, b=15) = \frac{16!}{1 \ 14! \ 56!} (780 \ 6 \ 52!) = </math>
::<math>= 780 \ 6 \ \frac{16!}{14!} \ \frac{54!}{56!} = \frac{780}{53} \ \frac{6}{54} \ \frac{15}{55} \ \frac{16}{56} = </math>
::<math> = \frac{260}{53} \ \frac{2}{77} = 0,12741975 = 12,74%.</math>
[[File:BetaBinomVsBinom.svg|
Questo risultato è diverso da quello che si sarebbe ottenuto utilizzando come probabilità di successo la stima puntuale, vale a dire la semplice proporzione ottenuta nella prima serie di estrazioni (1/15 = 6,67%) e applicando per la seconda la variabile casuale binomiale <math>B(n=40,p=1/15).</math> In questo caso si sarebbe ottenuto <math>P(X=2 | n=40, p=1/15) = 25,19%.</math>
Il grafico mette in evidenza il fatto che la variabile casuale <math>B(n=40,p=1/15)</math> è molto più "stretta" della <math>\mathrm{BetaBin}(40,2,15),</math> ciò è dovuto al fatto che nell'approccio bayesiano non ci si "dimentica" che vi è un'incertezza su quale sia la vera proporzione di palline rosse e questa incertezza rende probabili anche valori più "distanti".
=== Scelta bayesiana tra due modelli: Estrazione da un'urna, determinare a quale urna nota corrisponda un'urna ===
* Di un'urna si sa che una percentuale ignota di palline sono rosse.
* Si sa che l'urna è o l'urna <math>A</math> oppure l'urna <math>B.</math>
* Dall'urna <math>A</math> sono state estratte in passato 10 palline, delle quali 2 rosse (dunque il 20%)
*
* Nulla fa pensare che l'urna in questione sia l'urna <math>A</math> piuttosto che l'urna <math>B.</math>
* Né dell'urna <math>A,</math> né dell'urna B si conosce il numero complessivo di palline.
*
Domande
* qual è la probabilità che l'urna in questione sia l'urna <math>A</math>?
* qual è la distribuzione a posteriori della percentuale di palline rosse?
* qual è la probabilità che dall'urna in questione alla prossima estrazione di 10 palline, neanche una volta esca una rossa?
Nell'ambito dell'inferenza bayesiana si può dire pertanto che:
* la probabilità a priori che l'urna in questione sia l'urna <math>A</math> è pari a <math>P(U=A)=1/2</math> e di conseguenza <math>P(U=B)=1-P(U=A)=1/2;</math>
* per l'urna <math>A,</math> grazie all'estrazione di 10 palline, delle quali 2 rosse, la distribuzione a posteriori della percentuale di palline rosse è una
* analogamente per l'urna <math>B,</math> la distribuzione a posteriori è una <math>\Beta(a_B=1+10,b_B=1+15-10).</math>
Per procedere è necessario fare ricorso alla
:<math>P(U=A|X=x,n)=\frac{P(U=A) \mathrm{BetaBin}(X=x,n,a_A,b_A)}{P(U=A) \mathrm{BetaBin}(X=x,n,a_A,b_A) + P(U=B) \mathrm{BetaBin}(X=x,n,a_B,b_B)}</math>
che grazie al fatto che <math>P(U=B)=1-P(U=A)=1/2=P(U=A)</math> si semplifica ottenendo:
:<math>P(U=A|X=x,n)=\frac{ \mathrm{BetaBin}(X=x,n,a_A,b_A)}{ \mathrm{BetaBin}(X=x,n,a_A,b_A) + \mathrm{BetaBin}(X=x,n,a_B,b_B)}.</math>
Tenuto conto dei valori dell'esempio, si calcola
:<math>\mathrm{BetaBin}(X=12,n=50,a_A=2,b_A=9) = 0,04499198;</math>
:<math>\mathrm{BetaBin}(X=12,n=50,a_B=11,b_B=6) = 0,0007276656;</math>
:<math>P(U=A|X=12,n=50)=\frac{ 0,04499198}{0,04499198 + 0,0007276656 }=\frac{ 0,04499198}{0.04571965 } = 0,984084 = 98,4%.</math>
Ciò vuol dire che la probabilità che l'urna in questione sia l'urna <math>A</math> è del 98,4%. Questo risultato è comprensibile, visto che il 24% dell'urna ignota è molto più prossimo al 20% dell'urna <math>A</math> che non al 67% dell'urna <math>B.</math>
Tenuto conto delle prime due estrazioni (quando le urne erano note) e l'estrazione dall'urna della quale si era perso il nome, e del fatto che al 98,4% l'urna in questione è l'urna <math>A,</math> ma che c'è pur sempre una probabilità dell'1,6% che si tratti dell'urna <math>B,</math> la percentuale di palline rosse in questa urna della quale non si sa quale delle due sia viene descritta dalla mistura delle due variabili casuali <math>\Beta(n,a=a_i,b=b_i)</math> (con <math>i=A,B</math>) ponderate con le probabilità <math>P(U=i|X=x,n).</math>
Una volta nota tale mistura di variabili casuali è possibile calcolare la probabilità che alla prossima estrazione di 10 palline neanche una sia rossa. Par fare ciò è necessario fare ricorso a tecniche di [[calcolo numerico]].
== Bibliografia ==
* {{de}} Leonhard Held, ''Methoden der statistischen Inferenz. Likelihood und Bayes'', con la collaborazione di Daniel Sabanés Bové, Spektrum Akademischer Verlag Heidelberg 2008, ISBN 978-3-8274-1939-2
* {{en}} Jim Albert, ''Bayesian Computation With R'', Springer New York, 2009, ISBN 978-0-387-92297-3 {{Collegamento interrotto|1=[http://www.springerlink.com/content/978-0-387-92297-3] |data=gennaio 2020 |bot=InternetArchiveBot }}
== Collegamenti esterni ==
*
* http://www.vosesoftware.com/ModelRiskHelp/Distributions/Discrete_distributions/Beta-Binomial_distribution.htm
* http://mathworld.wolfram.com/BetaBinomialDistribution.html
[[Categoria:Distribuzioni di probabilità|Beta-Binomiale]]
|