Distribuzione t di Student: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Ysyl (discussione | contributi)
Nessun oggetto della modifica
Etichette: Modifica da mobile Modifica da web per mobile
m Storia: fix
 
(18 versioni intermedie di 6 utenti non mostrate)
Riga 2:
| nome = distribuzione <math>t</math> di Student
| tipo = densità di probabilità
| pdf_image = [[File:student_t_pdf.svg|325px|Funzione di densità di probabilità (<math>\nu/math è n nelle formule)]]
| cdf_image = [[File:student_t_cdf.svg|325px|Funzione di ripartizione]]
| parametri = <math>\nu = n>0\ </math> (''gradi di libertà'')
| supporto = <math>\mathbb{R}</math>
| pdf = <math>\frac{\Gamma(\frac{n+1}{2})}{\sqrt{n\pi}\Gamma(\frac{n}{2})} \left(1+\frac{t^2}{n}\right)^{-(\frac{n+1}{2})}</math>
| cdf = <math>\frac {\Beta\left( \frac{t+\sqrt{t^2+n}}{2\sqrt{t^2+n}},\frac{n}{2},\frac{n}{2} \right)} {\Beta\left( \frac{n}{2},\frac{n}{2} \right)}</math>
<br><small>dove <math>\Beta</math> è la [[funzione beta di Eulero|funzione beta]]</small>
| media = <math>0\ </math> se <math>n>1</math><br>non definita altrimenti
Riga 15:
| skewness = <math>0\ </math> se <math>n>3</math><br>non definita altrimenti
| curtosi = <math>\frac{6}{n-4}\ </math> se <math>n>4</math><br>infinita altrimenti
| entropia = <math>\tfrac{n+1}{2}\left(\digamma\left( \tfrac{1+n}{2} \right)-\digamma\left(\tfrac{n}{2}\right)\right)+\log{\left(\sqrt{n}\Beta\left( \tfrac{n}{2},\tfrac{1}{2} \right)\right)}</math><br>
dove <math>\digamma</math> è la [[funzione digamma]] e <math>\Beta</math> è la [[funzione beta di Eulero|funzione beta]]
| momgenfun =
Riga 21:
dove <math>K_{n}(x)</math> è una [[Armoniche cilindriche#Funzioni di Bessel|funzione di Bessel]]
}}
Nella [[Teoria della probabilità|teoria delle probabilità]] la '''distribuzione di Student''', o '''t di Student''', è una [[Variabile casuale#Distribuzione di probabilità|distribuzione di probabilità]] continua che governa il rapporto tra due [[Variabile casuale|variabili aleatorie]], la prima con [[distribuzione normale]] standard e la seconda, al quadrato, segue una [[distribuzione chi quadrato]].
 
Questa distribuzione interviene nella stima della [[media (statistica)|media]] di una popolazione che segue la distribuzione normale, e viene utilizzata negli omonimi [[test t|test t di Student]] per la [[significatività]] e per ogni [[intervallo di confidenza]] della differenza tra due medie.
 
== Storia ==
La distribuzione venne descritta nel [[1908]] da [[William Sealy Gosset]], che pubblicò il suo risultato sotto lo [[pseudonimo]] "Student" perché la fabbrica di birra [[Guinness (azienda)|fabbrica di birra Guinness]] presso la quale era impiegato vietava ai propri dipendenti di pubblicare articoli affinché questi non divulgassero segreti di produzione. Il nome ''distribuzione di Student'' venne successivamente introdotto da [[Ronald Fisher]].<ref>
{{cita pubblicazione
|autore=Student ([[William Sealy Gosset]])
Riga 100:
:<math>S^2=\frac{1}{N-1}\sum_i(X_i-\bar{X})^2 = \frac{1}{N-1}\sum_i(X_i + \mu - \mu -\bar{X})^2.</math>
 
Definiamo i parametri <math>aa_i</math> e <math>b</math> come <math>aa_i = X_i - \mu, b = \bar{X}-\mu</math> e riscriviamo la formula precedente
 
:<math>(N-1)S^2 = \sum_i(aa_i-b)^2 = \sum_i aa_i^2 + \sum_i b^2 -2\sum_i aba_ib = \sum_i (X_i - \mu)^2 + \sum_i (\bar{X} - \mu)^2 - 2 \sum_i (\bar{X} - \mu)(X_i - \mu).</math>
 
Ora possiamo esplicitare fuori dalle sommatorie tutti i termini che non dipendono da <math>i</math>, ossia <math>\bar{X}</math> e <math>\mu</math>
Riga 111:
sapendo che la somma su tutti gli <math>X_i</math> è uguale a <math>N\bar{X}</math>. Dividendo ora a destra e a sinistra per <math>\sigma^2</math> otteniamo a destra delle variabili normali
 
:<math>\frac{(N-1)S^2}{\sigma^2} = \sum_isum_{i=1}^N \left(\frac{X_i - \mu}{\sigma}\right)^2 - N \left(\frac{\bar{X} - \mu}{\sigma}\right)^2 = \sum_isum_{i=1}^N \left(\frac{X_i - \mu}{\sigma}\right)^2 - \left(\frac{\bar{X} - \mu}{\sigma/\sqrt{N}}\right)^2.</math>
 
Abbiamo quindi ottenuto a sinistra una variabile che precedentemente avevamo indicato con <math>k</math>, mentre a destra abbiamo somme di variabili normali standard al quadrato, coincidenti con una variabile chi quadro con <math>N</math> gradi di libertà e un'altra variabile normale anch'essa standard elevata al quadrato, ossia una variabile chi-quadro ad un solo grado di libertà. Sapendo che somme di variabili di tipo chi-quadro con <math>n</math> e <math>m</math> gradi di libertà corrispondono ancora ad una variabile chi-quadro con <math>n+m</math> gradi di libertà otteniamo che la funzione di densità di probabilità di <math>k</math> è di tipo chi-quadro con <math>N-1</math> gradi di libertà.