Simmetria (statistica)

Versione del 13 mag 2003 alle 19:36 di pppfree165-191-bz.aknet.it (discussione) (Tomi)

In statistica una distribuzione, una funzione di probabilità, una funzione di densità o comunque una variabile casuale si dicono simmetriche quando esiste un valore Xm (che coincide con la media aritmetica ovvero con il valore atteso) per il quale a tutti i valori minori Xa (con Xa=Xm-Δ) corrisponde una frequenza o funzione di probabilità o funzione di densità identica a quella che corrisponde al valore Xb=Xm+Δ.

In altre parole, quando vale l'uguaglianza f(μ-δ)=f(μ+δ).

In generale viene usato l'indicatore di simmetria

β1 = (m3)² / (m2

ove m2 e m3 sono relativamente il momento centrale secondo e terzo.

Tale indicatore è

=0, nel caso di perfetta simmetria
<0, per l'assimetria a destra
>0, per l'assimetria a sinistra

oppure la sua radice

γ1 = m3 / √(m2)³ = √β1

Entrambi hanno lo svantaggio che possono assumero valore nullo anche in presenza di assimetria.

Un altro importante indice di asimmetria è lo skewness di Pearson.

Sk = (μ-ν0)/σ ove ν0 è la moda

che ha come difetto il fatto che

  • è applicabile solo a distribuzioni unimodali
  • non è normalizzato
  • assumere valore zero è una condizione necessaria ma non sufficiente per una simmetria

Vedi anche: