Simmetria (statistica)

Versione del 13 apr 2003 alle 01:20 di pppfree165-15-bz.aknet.it (discussione) (Tomi)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)

In statistica una distribuzione, una funzione di probabilità, una funzione di densità o comunque una variabile casuale si dicono simmetriche quando esiste un valore Xm (che coincide con la media aritmetica ovvero con il valore atteso) per il quale a tutti i valori minori Xa (con Xa=Xm-Δ) corrisponde una frequenza o funzione di probabilità o funzione di densità identica a quella che corrisponde al valore Xb=Xm+Δ.

In altre parole, quando vale l'uguaglianza f(μ-δ)=f(μ+δ).

In generale viene usato l'indicatore di simmetria

β1 = (μ3)² / (μ2

che è

=0, nel caso di perfetta simmetria
<0, per l'assimetria a destra
>0, per l'assimetria a sinistra

oppure la sua radice

γ1 = μ3 / √(μ2)³ = √β1

Entrambi hanno lo svantaggio che possono assumero valore nullo anche in presenza di assimetria.

Un altro importante indice di asimmetria è lo skewness di Pearson.

Sk = (μ-ν0)/σ ove ν0 è la moda

che ha come difetto il fatto che

  • è applicabile solo a distribuzioni unimodali
  • non è normalizzato
  • assumere valore zero è una condizione necessaria ma non sufficiente per una simmetria

Vedi anche: