Formula computazionale per la varianza: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
| mNessun oggetto della modifica | m →In termini di momenti di origine zero: fix errore Lint - Tag di chiusura mancante | ||
| (13 versioni intermedie di 7 utenti non mostrate) | |||
| Riga 1: In [[teoria della probabilità]] e [[statistica]], ci sono parecchie '''formule computazionali per la varianza''' che permettono di ottenere la [[varianza]] di una [[variabile casuale]]. La loro utilità dipende da ciò che è già noto sulla variabile casuale; per esempio, una variabile casuale può essere definita in termini della sua [[funzione di densità di probabilità]] o per costruzione da altre variabili casuali. In questo contesto, intendiamo ottenere espressioni algebriche per la varianza teorica di una variabile casuale, differentemente dalle questioni di stimare la varianza di una [[popolazione statistica|popolazione]] da dati campione per i quali ci sono speciali considerazioni per l'implementazione di [[algoritmi per il calcolo della varianza|algoritmi di calcolo]]. == In termini di momenti di origine zero == Se i [[momento (probabilità)|momenti di origine zero]] <math>E( :<math>\operatorname{Var}(X) = \operatorname{E}(X^2) - [\operatorname{E}(X)]^2   .</math> Il risultato è chiamato formula di [[Johann Samuel König|König]]–[[Christiaan Huygens|Huygens]] nella letteratura [[Lingua francese|francese]]<ref> Esiste una formula corrispondente da utilizzare per la stima della varianza da dati campione, che può essere utile nei calcoli manuali. Si tratta di un'identità strettamente correlata che è strutturata per creare una stima [[Bias (statistica)|priva di bias]] della varianza della popolazione :<math> \hat{\sigma}^2 = \frac{1}{N-1}\sum_{i=1}^N(x_i-\bar{x})^2 = \frac{N}{N-1}\left( \bar{x^2} - \bar{x}^2\right) = \frac{N}{N-1}\left(\frac{1}{N}\left(\sum_{i=1}^N x_i^2\right) - \bar{x}^2\right)  \equiv \frac{1}{N-1}\left(\left(\sum_{i=1}^N x_i^2\right) - N \left(\bar{x}\right)^2\right)   .  </math> L'uso di queste formule può tuttavia essere sconveniente nella pratica quando si utilizza l'aritmetica in [[virgola mobile]] con precisione limitata: la sottrazione tra due valori di grandezza analoga può portare a una [[Cancellazione numerica|cancellazione catastrofica]],<ref>{{cita libro|autore=[[Donald E. Knuth]] Esistono altri [[algoritmi per il calcolo della varianza]] [[stabilità numerica|numericamente  {{Approfondimento === Dimostrazione ===▼ |larghezza = 100% |contenuto = La formula computazionale per la varianza della popolazione segue in maniera diretta dalla proprietà di [[Valore atteso#Linearità|linearità dei valori attesi]] e dalla definizione di varianza: :<math> Riga 34 ⟶ 33: \end{align} </math> }} {{Approfondimento |larghezza = 100% |titolo = Dimostrazione per la stima della varianza |contenuto = :<math> \begin{align} \hat{\sigma}^2 &= \frac{1}{N-1}\sum_{i=1}^N(x_i-\bar{x})^2 \\                      &= \frac{1}{N-1}\sum_{i=1}^N(x_i^2- 2x_i \bar{x} + \bar{x}^2) \\                      &= \frac{1}{N-1}\left(\left(\sum_{i=1}^N x_i^2\right) - 2 \bar{x} \left(\sum_{i=1}^N x_i \right) + N \bar{x}^2 \right) \\                      &= \frac{1}{N-1}\left(\left(\sum_{i=1}^N x_i^2\right) - 2 N \bar{x}^2 + N \bar{x}^2 \right) \\                      &= \frac{1}{N-1}\left(\left(\sum_{i=1}^N x_i^2\right) - N \bar{x}^2 \right) \\                      &= \frac{N}{N-1}\left(\frac{1}{N}\left(\sum_{i=1}^N x_i^2\right) - \bar{x}^2\right)                      &= \frac{N}{N-1}\left(\bar{x^2} - \bar{x}^2\right) \end{align} </math> }} === Generalizzazione per la covarianza === Questa formula può essere generalizzata per la [[covarianza (probabilità)|covarianza]], con due variabili casuali  :<math>\operatorname{Cov}(X_i, X_j) = \operatorname{E}(X_iX_j) -\operatorname{E}(X_i)\operatorname{E}(X_j)</math> così come per la [[matrice delle covarianze]]  :<math> \operatorname{Var}(\mathbf{X}) = \operatorname{E}(\mathbf{X X^\top}) - \operatorname{E}(\mathbf{X})\operatorname{E}(\mathbf{X})^\top</math> e per la [[matrice delle covarianze incrociate]]  :<math> Riga 51 ⟶ 68: \operatorname{E}(\mathbf{X Y^\top}) - \operatorname{E}(\mathbf{X})\operatorname{E}(\mathbf{Y})^\top</math> dove le aspettazioni sono prese elemento per elemento e <math>\mathbf{X}=\{X_1,X_2,\ldots,X_n\}</math> e <math>\mathbf{Y}=\{Y_1,Y_2,\ldots,Y_m\}</math> sono vettori casuali di lunghezze rispettive  Notare che questa formula soffre della stessa [[Cancellazione numerica|perdita di significato]] di cui soffre la formula per la varianza se usata per  ==  <references/> == Voci correlate == * [[Algoritmi per il calcolo della varianza]] [[Categoria:Indici di dispersione]] | |||