Distribuzione beta-binomiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
LauBot (discussione | contributi)
m Bot: passaggio degli url da HTTP a HTTPS
Revisione
Riga 4:
 
== Definizione ==
Se ''X''~BeB(n,a,b) è una variabile casuale distribuita come una v.c.variabile casuale beta-binomiale con i parametri ''n'', ''a'', ''b'' allora per <math>x \ge 0</math>
:<math>P(X=x) = C {n \choose x} \Gamma(a+x) \Gamma(b+n-x)</math>
dove la costante ''C'' è data da
Riga 23:
:=<math>(a + b + 2 n)\frac{b-a}{a+b+2}\ \frac{1}{a+b} \sqrt{\frac{1}{Var(X)}}</math>
 
Utilizzando la notazione <math>p=\frac{a}{a+b}</math> il valore atteso e la varianza possono essere descritti in una forma che ricorda quella della v.c.variabile casuale binomiale.
:<math>E(X) = n \frac{a}{a+b} = n p</math>
:<math>Var(X) = n \frac{a b}{(a+b)^2} \frac{a+b+n}{a+b+1} = n p (1-p) \frac{a+b+n}{a+b+1}</math>
dalla quale si nota che a parità di valore atteso (ed ''n'') la v.c.variabile casuale beta-binomiale ha sempre una varianza maggiore della v.c.variabile casuale binomiale.
 
e l'assimitria viene indicata con
Riga 32:
:<math>= \frac{1-2p}{\sqrt{n p (1-p)}} \frac{a + b + 2 n}{a + b + 2} \sqrt{\frac{a + b + 1}{a + b + n}}</math>
 
e così anche in questo caso diventa evidente come l'assimetriaasimmetria della beta-binomiale sia sempre maggiore dell'assimetriaasimmetria della binomiale, a parità valore atteso (ed ''n'').
 
== Casi particolari ==
Riga 38:
 
== Ambiti di applicazione ==
La v.c.variabile casuale beta-binomiale è idonea a descrivere fenomeni solitamente descritti dalla v.c.variabile casuale binomiale, qualora però la probabilità vari.
 
Un possibile caso è quello di prevedere quante lampadine si fulminano entro 1 anno dall'installazione sapendo che la probabilità che si fulminino non è uguale per tutte, ma riesce ad essere descritta da una v.c.variabile casuale Beta.
 
Analogamente, qualora ci si trovi di fronte ad un modello che dovrebbe essere descritto da una v.c.variabile casuale binomiale, ma dove i dati mostrano una distribuzione molto "larga", allora si può sospettare che la probabilità degli eventi non sia costante, ma vari attorno ad un valore come nel modello beta-binomiale.
 
== Esempi ==
=== Probabilità di estrarre X palline rosse da un'urna della quale si conosce solo approssimativamente la composizione ===
==== Un modello ====
Nell'ambito dell'[[inferenza bayesiana]], da un'urna della quale si ignora il numero di palline presenti ma che da estrazioni precedenti risulta che vi siano una percentuale di palline rosse che varia come una v.c.variabile casuale Beta(a,b), dovranno essere estratte (e ogni volta reinserite) ''n'' palline. Ci si chiede quale sia la probabilità che ''x'' di queste siano rosse. La risposta sta nella v.c.variabile casuale BetaB(n,a,b)
==== Esempio numerico ====
Partendo da un concetto di completa ignoranza che ci porta a descrivere la distribuzione a priori come una v.c.variabile casuale uniforme continua e dunque come una Beta(1,1) vengono estratte 15 palline, delle quali solo una è rossa. In questo modo la probabilità a posteriori diventa una v.c.variabile casuale Beta(1+1,1+14)=Beta(2,15).
 
A questo punto si decide di fare una un'ulteriore estrazione di 40 palline e ci si chiede quale sia la probabilità che esattamente due di queste siano rosse.
 
Essendo in questa seconda estrazione la probabilità P(X=x) quella di una v.c.variabile casuale BetaB(40,2,15) si ottiene che
:<math>P(X=2 | n=40, a=2, b=15) = C {40 \choose 2} \Gamma(2+2) \Gamma(15+40-2)</math>
dove
Riga 71:
::<math> = \frac{260}{53} \ \frac{2}{77} = 0,12741975 = 12,74\%</math>
 
[[File:BetaBinomVsBinom.svg|upright=1.4|thumb|Le due v.c.variabili casuali usate nell'esempio]]
 
Questo risultato è diverso da quello che si sarebbe ottenuto utilizzando come probabilità di successo la stima puntuale, vale a dire la semplice proporzione ottenuta nella prima serie di estrazioni (1/15 = 6,67%) e applicando per la seconda la v.c.variabile casuale binomiale B(n=40,p=1/15). In questo caso si sarebbe ottenuto P(X=2 | n=40, p=1/15) = 25,19%.
 
Il grafico mette in evidenza il fatto che la v.c.variabile casuale B(n=40,p=1/15) è molto più "stretta" della BetaB(40,2,15), ciò è dovuto al fatto che nell'approccio bayesiano non ci si "dimentica" che vi è una un'incertezza su quale sia la vera proporzione di palline rosse e questa incertezza rende probabili anche valori più "distanti".
 
=== Scelta bayesiana tra due modelli: Estrazione da un'urna: determinare a quale urna nota corrisponda un'urna ===
Riga 94:
Nell'ambito dell'inferenza bayesiana si può dire pertanto che
* la probabilità a priori che l'urna in questione sia l'urna A è pari a P(U=A)=1/2 e di conseguenza P(U=B)=1-P(U=A)=1/2
* per l'urna A, grazie all'estrazione di 10 palline, delle quali 2 rosse, la distribuzione a posteriori della percentuale di palline rosse è una v.c.variabile casuale Beta <math>Beta(a_A=1+2,b_A=1+10-2)</math>, nel caso che la distribuzione a priori sia una rettangolare, equivalente ad una Beta(1,1)
* analogamente per l'urna B, la distribuzione a posteriori è una <math>Beta(a_B=1+10,b_B=1+15-10)</math>
 
Per procedere è necessario fare ricorso alla v.c.variabile casuale beta-binomiale, infatti sapendo che su 50 palline estratte 12 sono rosse, si può calcolare la probabilità <math>P(U=A|X=12,n=50)</math> che si tratti dell'urna A, nel seguente modo
:<math>P(U=A|X=x,n)=\frac{P(U=A) BetaB(X=x,n,a_A,b_A)}{P(U=A) BetaB(X=x,n,a_A,b_A) + P(U=B) BetaB(X=x,n,a_B,b_B)}</math>
che grazie al fatto che P(U=B)=1-P(U=A)=1/2=P(U=A) si semplifica ottenendo
Riga 109:
Questo risultato è comprensibile, visto che il 24% dell'urna ignota è molto più prossimo al 20% dell'urna A che non al 67% dell'urna B.
 
Tenuto conto delle prime due estrazioni (quando le urne erano note) e l'estrazione dall'urna della quale si era perso il nome, e del fatto che al 98,4% l'urna in questione è l'urna A, ma che c'è pur sempre una probabilità del dell'1,6% che si tratti dell'urna B, la percentuale di palline rosse in questa urna della quale non si sa quale delle due sia viene descritta dalla mistura delle due v.c.variabili casuali <math>Beta(n,a=a_i,b=b_i)</math> (con i=A,B) ponderate con le probabilità P(U=i|X=x,n).
 
Una volta nota tale mistura di v.c.variabili casuali è possibile calcolare la probabilità che alla prossima estrazione di 10 palline neanche una sia rossa. Par fare ciò è necessario fare ricorso a tecniche di [[calcolo numerico]].
 
== Bibliografia ==
* {{de}} Leonhard Held, "''Methoden der statistischen Inferenz. Likelihood und Bayes"'', con la collaborazione di Daniel Sabanés Bové, Spektrum Akademischer Verlag Heidelberg 2008, ISBN 978-3-8274-1939-2
* {{en}} Jim Albert, "''Bayesian Computation With R"'', Springer New York, 2009, ISBN 978-0-387-92297-3 [http://www.springerlink.com/content/978-0-387-92297-3]
 
== Collegamenti esterni ==