Formula computazionale per la varianza: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
→Voci correlate: +cat |
m →In termini di momenti di origine zero: fix errore Lint - Tag di chiusura mancante |
||
| (11 versioni intermedie di 7 utenti non mostrate) | |||
Riga 2:
== In termini di momenti di origine zero ==
Se i [[momento (probabilità)|momenti di origine zero]] <math>E(
:<math>\operatorname{Var}(X) = \operatorname{E}(X^2) - [\operatorname{E}(X)]^2 .</math>
Il risultato è chiamato formula di [[Johann Samuel König|König]]–[[Christiaan Huygens|Huygens]] nella letteratura [[Lingua francese|francese]]<ref>
Esiste una formula corrispondente da utilizzare per la stima della varianza da dati campione, che può essere utile nei calcoli manuali. Si tratta di un'identità strettamente correlata che è strutturata per creare una stima [[Bias (statistica)|priva di bias]] della varianza della popolazione
:<math>
\hat{\sigma}^2 = \frac{1}{N-1}\sum_{i=1}^N(x_i-\bar{x})^2 = \frac{N}{N-1}\left( \bar{x^2} - \bar{x}^2\right) = \frac{N}{N-1}\left(\frac{1}{N}\left(\sum_{i=1}^N x_i^2\right) - \bar{x}^2\right)
\equiv \frac{1}{N-1}\left(\left(\sum_{i=1}^N x_i^2\right) - N \left(\bar{x}\right)^2\right) .
</math>
L'uso di queste formule può tuttavia essere sconveniente nella pratica quando si utilizza l'aritmetica in [[virgola mobile]] con precisione limitata: la sottrazione tra due valori di grandezza analoga può portare a una [[Cancellazione numerica|cancellazione catastrofica]],<ref>{{cita libro|autore=[[Donald E. Knuth]]
Esistono altri [[algoritmi per il calcolo della varianza]] [[stabilità numerica|numericamente
{{Approfondimento
=== Dimostrazione ===▼
|larghezza = 100%
|contenuto = La formula computazionale per la varianza della popolazione segue in maniera diretta dalla proprietà di [[Valore atteso#Linearità|linearità dei valori attesi]] e dalla definizione di varianza:
:<math>
Riga 32 ⟶ 33:
\end{align}
</math>
}}
{{Approfondimento
|larghezza = 100%
|titolo = Dimostrazione per la stima della varianza
|contenuto =
:<math>
\begin{align}
\hat{\sigma}^2 &= \frac{1}{N-1}\sum_{i=1}^N(x_i-\bar{x})^2 \\
&= \frac{1}{N-1}\sum_{i=1}^N(x_i^2- 2x_i \bar{x} + \bar{x}^2) \\
&= \frac{1}{N-1}\left(\left(\sum_{i=1}^N x_i^2\right) - 2 \bar{x} \left(\sum_{i=1}^N x_i \right) + N \bar{x}^2 \right) \\
&= \frac{1}{N-1}\left(\left(\sum_{i=1}^N x_i^2\right) - 2 N \bar{x}^2 + N \bar{x}^2 \right) \\
&= \frac{1}{N-1}\left(\left(\sum_{i=1}^N x_i^2\right) - N \bar{x}^2 \right) \\
&= \frac{N}{N-1}\left(\frac{1}{N}\left(\sum_{i=1}^N x_i^2\right) - \bar{x}^2\right)
&= \frac{N}{N-1}\left(\bar{x^2} - \bar{x}^2\right)
\end{align}
</math>
}}
=== Generalizzazione per la covarianza ===
Questa formula può essere generalizzata per la [[covarianza (probabilità)|covarianza]], con due variabili casuali
:<math>\operatorname{Cov}(X_i, X_j) = \operatorname{E}(X_iX_j) -\operatorname{E}(X_i)\operatorname{E}(X_j)</math>
così come per la [[matrice delle covarianze]]
:<math> \operatorname{Var}(\mathbf{X}) = \operatorname{E}(\mathbf{X X^\top}) - \operatorname{E}(\mathbf{X})\operatorname{E}(\mathbf{X})^\top</math>
e per la [[matrice delle covarianze incrociate]]
:<math>
Riga 49 ⟶ 68:
\operatorname{E}(\mathbf{X Y^\top}) - \operatorname{E}(\mathbf{X})\operatorname{E}(\mathbf{Y})^\top</math>
dove le aspettazioni sono prese elemento per elemento e <math>\mathbf{X}=\{X_1,X_2,\ldots,X_n\}</math> e <math>\mathbf{Y}=\{Y_1,Y_2,\ldots,Y_m\}</math> sono vettori casuali di lunghezze rispettive
Notare che questa formula soffre della stessa [[Cancellazione numerica|perdita di significato]] di cui soffre la formula per la varianza se usata per
==
<references/>
| |||