Simmetria (statistica): differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
Funzionalità collegamenti suggeriti: 1 collegamento inserito. Etichette: Modifica visuale Modifica da mobile Modifica da web per mobile Attività per i nuovi utenti Suggerito: aggiungi collegamenti |
||
(57 versioni intermedie di 47 utenti non mostrate) | |||
Riga 1:
[[File:SkewedDistribution.png|thumb|Esempio di dati sperimentali che presentano asimmetria]]
In [[teoria delle probabilità]] una [[distribuzione di probabilità]] è '''simmetrica''' quando la sua [[funzione di probabilità]] <math>P</math> (nel caso [[distribuzione discreta|discreto]]) o la sua [[funzione di densità di probabilità]] (nel caso [[distribuzione continua|continuo]]) siano [[simmetria (matematica)|simmetriche]] rispetto ad un particolare valore <math>x_0</math>:
:<math>P(x_0+x)=P(x_0-x)</math> oppure <math>f(x_0+x)=f(x_0-x).</math>
Esempi di distribuzioni simmetriche sono le distribuzioni uniformi ([[distribuzione discreta uniforme|discreta]] e [[distribuzione continua uniforme]]) su insiemi simmetrici, la [[distribuzione normale]] e altre distribuzioni derivate da distribuzioni simmetriche (la [[distribuzione t di Student]]) oppure definite in maniera simmetrica (la [[distribuzione di Skellam]] con parametri uguali).
Un '''indice di asimmetria''' (in [[lingua inglese|inglese]] ''skewness'') di una distribuzione è un valore che cerca di fornire una misura della sua mancanza di simmetria.
Esistono diversi indici di asimmetria. Per ognuno di essi il valore 0 fornisce una condizione necessaria, ma '''non''' sufficiente, affinché una distribuzione sia simmetrica. (Ogni distribuzione simmetrica ha indice 0, ma esistono anche distribuzioni non simmetriche con indice 0).
Gli indici di asimmetria comunemente utilizzati si basano su alcune proprietà delle distribuzioni simmetriche o, in particolare, della [[distribuzione normale]]. Per tutte queste
* il [[valore atteso]], la [[mediana (statistica)|mediana]] e la [[moda (statistica)|moda]] (se è unica) coincidono;
* i [[momento (statistica)|momenti centrali]] di ordine dispari sono nulli.
== Indice di asimmetria ==
L'indice più utilizzato, noto semplicemente come ''indice di asimmetria'' o ''skewness'', è definito come
:<math>\gamma_1=\frac{m_3}{m_2^{3/2}}</math>
tramite i momenti centrali <math>m_k=E[\bar{X}^k]</math>, ossia i valori attesi delle potenze della variabile aleatoria [[valore atteso|centrata]] <math>\bar{X}=X-E[X].</math>
Poiché il primo momento centrale è sempre nullo ed il secondo momento centrale (la [[varianza]]) è nullo solo per le distribuzioni concentrate su un unico valore, il terzo momento centrale <math>m_3</math> è quello di ordine più basso che può "sperare" di misurare l'asimmetria di una distribuzione. Inoltre il riscalamento per <math>m_2^{3/2}</math> permette all'indice <math>\gamma_1</math> di restare invariato per [[trasformazione lineare|trasformazioni lineari]] <math>Y=aX+b,</math> che trasformano i momenti centrali come <math>m_k(aX+b)=a^km_k(X).</math>
Talvolta viene utilizzato al posto di <math>\gamma_1</math> l'indice
:<math>\beta_1=\gamma_1^2=\frac{m_3^2}{m_2^3},</math>
che tuttavia perde l'informazione sul [[segno (matematica)|segno]] dell'asimmetria.
In [[statistica]] l'indice di asimmetria calcolato su un campione osservato <math>\{x_1,\ldots,x_n\}</math> di media <math>\bar{x}</math> segue la formula
:<math>\gamma_1=\frac{\sum_{i=1}^n\frac{1}{n}(x_i-\bar{x})^3}{\left(\sum_{i=1}^n\frac{1}{n}(x_i-\bar{x})^2\right)^{3/2}}.</math>
Il successivo momento centrale <math>m_4</math> viene invece utilizzato per calcolare la [[curtosi]] (che vuole "misurare" l'allontanamento della distribuzione dalla distribuzione normale).
=== Proprietà ===
Ogni distribuzione simmetrica ha indice di asimmetria 0.
La somma <math>Y=X_1+\ldots+X_n</math> di <math>n</math> variabili aleatorie [[variabili indipendenti]] con la ''stessa'' distribuzione ha momenti centrali <math>m_k(Y)=nm_k(X);</math> in particolare
:<math>\gamma_1(Y)=\frac{1}{\sqrt{n}}\gamma_1(X).</math>
Una convinzione '''sbagliata''' ma diffusa (e "sostenuta" da alcuni testi che la riportano come "regola indicativa") è che il segno del coefficiente <math>\gamma_1</math> possa determinare le posizioni reciproche del valore atteso, della [[mediana (statistica)|mediana]] e della [[moda (statistica)|moda]] (se questa è unica) di una distribuzione, in particolare che esse debbano coincidere se <math>\gamma_1=0</math>.<ref>{{cita web|url=https://doi.org/10.1080/10691898.2005.11910556|titolo=Mean, Median, and Skew: Correcting a Textbook Rule|lingua={{en}}|autore=Paul T. von Hippel|accesso=06 novembre 2022|opera=Journal of Statistics Education}}</ref>
== Indice di Pearson ==
Alcuni indici di asimmetria alternativi per un [[campione (statistica)|campione statistico]] sono stati proposti da [[Karl Pearson]]; coinvolgono la media (il [[valore atteso]]), la [[mediana (statistica)|mediana]], la [[moda (statistica)|moda]] e lo [[scarto quadratico medio]] (la radice quadrata della varianza):
* l'asimmetria di moda di Pearson
::<math>\frac{\text{media} - \text{moda}}{\text{scarto quadratico medio}};</math>
* il primo coefficiente di asimmetria di Pearson
::<math>\frac{3(\text{media} - \text{moda})}{\text{scarto quadratico medio}};</math>
* il secondo coefficiente di asimmetria di Pearson
::<math>\frac{3(\text{media} - \text{mediana})}{\text{scarto quadratico medio}}.</math>
Poiché la media e la mediana sono uniche per ogni distribuzione e coincidono per distribuzioni simmetriche, il segno del secondo coefficiente di Pearson dà informazioni sul tipo di asimmetria. Nel caso in cui il segno sia positivo, ossia la media è maggiore della mediana, il picco della distribuzione è spostato verso destra; verso sinistra se il segno è negativo.
== Indice di Bowley-Yule ==
Un altro indice di asimmetria, basato sui [[Quantile|quantili]], introdotto da [[Arthur Lyon Bowley|Bowley]] e riproposto da [[George Udny Yule|Yule]] usa la formula
:<math>\gamma = \frac{(x_{(0,75)} - x_{(0,5)})-(x_{(0,5)}-x_{(0,25)})}{x_{(0,75)}-x_{(0,25)}}=\frac{q_1+q_3-2M}{q_3-q_1},</math>
dove <math>x_{( \alpha)}</math> indica il quantile di ordine <math>\alpha</math>, <math>q_1</math> e <math>q_3</math> identificano rispettivamente il primo e il terzo quartile di <math>x</math> e <math>M=q_2</math> è la mediana della distribuzione.<ref>{{Cita libro|autore=Arthur Lyon Bowley|titolo=Elements of Statistics|edizione=4|annooriginale=1901|anno=1920|editore=P.S. King & Son|città=Londra|lingua=inglese}}</ref>
Talvolta questa quantità viene generalizzata nella forma
:<math>\gamma_\alpha = \frac{x_{(\alpha)}+x_{(1-\alpha)}-2M}{x_{(1-\alpha)}-x_{( \alpha)}},\qquad</math> con <math>0 \le \alpha < 0,5.</math>
== Esempio ==
Un esempio di distribuzione non simmetrica con coefficiente di asimmetria 0 è la distribuzione discreta
:<math>P(-4)=\tfrac{1}{3},\quad P(1)=\tfrac{1}{2},\quad P(5)=\tfrac{1}{6},</math>
che può essere visualizzata come il lancio di un dado le cui sei facce presentino i numeri "-4, -4, 1, 1, 1, 5".
Questa distribuzione è chiaramente non simmetrica, tuttavia ha [[valore atteso]] uguale a 0 (è centrata) e terzo momento centrale uguale a <math>\tfrac{-64-64+1+1+1+125}{6}=0,</math> pertanto ha indici di asimmetria <math>\gamma_1=\beta_1=0.</math>
Nell'esempio la moda e la mediana non coincidono con la media, ma questo si può ottenere aggiungendo altre 4 "facce" con valore 0; in questo modo anche gli indici di Pearson diventano nulli e la distribuzione resta non simmetrica.
== Note ==
<references/>
== Voci correlate ==
*[[Curtosi]]
*[[Momento (statistica)]]
*[[Simmetria (matematica)]]
*[[Valore atteso]]
*[[Varianza]]
== Altri progetti ==
{{interprogetto|preposizione=sulla}}
== Collegamenti esterni ==
* {{Collegamenti esterni}}
{{Statistica}}
{{portale|matematica}}
[[Categoria:Teoria della probabilità]]
[[Categoria:Indici di forma]]
[[Categoria:Statistica descrittiva]]
|