Test parametrico: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
(30 versioni intermedie di 26 utenti non mostrate) | |||
Riga 1:
{{
Si definisce '''test parametrico''' un [[test statistico]] che si può applicare in presenza di una [[distribuzione
▲Si definisce '''test parametrico''' un test statistico che si può applicare in presenza di una [[distribuzione normale]] dei dati. Effettuando un controllo delle ipotesi sul valore di un parametro, quale la [[media]], la [[proporzione]], la [[deviazione standard]], l’uguaglianza tra due medie…
Al contrario un [[test non parametrico]] non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un’ipotesi statistica errata. Infatti una volta formulata l’[[ipotesi]] il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l’ipotesi (nulla) si basa sul concetto di [[valore-p]].▼
Il valore-p rappresenta dunque la possibilità di rifiutare l’ipotesi nulla quando in realtà questa è vera e più questo valore è piccolo più si sceglie di rifiutare l’ipotesi fornendo il livello di significatività critico del test ( probabilità massima tollerata di rifiuto), scendendo al di sotto del quale la decisione cambia da rifiuto a accettazione.▼
▲Al contrario un [[test non parametrico]] non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare
▲Il valore-p rappresenta dunque la possibilità di rifiutare
Tra i test parametrici principali troviamo il:
*test di Student ([[test t]]) a campioni dipendenti e a campioni indipendenti
▲| - || T di Student
▲| - || Normale standardizzata (N(0,1))
|}▼
▲'''T di Student:''' La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensione ( meno di 30 elementi) e i valori sono distribuiti come una [[variabile casuale normale]]. Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra.
Una volta formulata una congettura nei confronti del vero valore assunto dalla media aritmetica della variabile aleatoria, per verificare la validità si potrà ricorrere ad un [[test di verifica d'ipotesi|sistema di ipotesi]] del tipo:
<math>\left\{\begin{matrix} H_0 & \mu =\mu_0 \\ H_1 & \mu = \mu_1
Riga 25 ⟶ 18:
</math>
==Formule statistiche comuni==
▲Si basa sulla [[variabile casuale t di Student|distribuzione T di Student]].
Qui di seguito vengono riportati in modo sintetico alcuni [[test di verifica d'ipotesi|test]] statistici parametrici:
{| border=1 cellspacing=0 cellpadding=5
|Nome
|Formula
|Assunzioni
|-
|1 campione [[test Z]]
|<math>z=\frac{\overline{x} - \mu_0}{\frac{\sigma}{\sqrt{n}}}</math>
|([[variabile casuale normale|Distribuzione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> conosciuta
|-
|2 campioni test-z
|<math>z=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}}</math>
|[[variabile casuale normale|Distribuzione normale]] '''e''' osservazioni indipendenti '''e''' (<math>\sigma</math>1 e <math>\sigma</math>2 conosciute)
|-
|1 campione [[test t]]
|<math>t=\frac{\overline{x} - \mu_0}{\frac{s}{\sqrt{n}}},</math><br />
<math>df=n-1</math>
|([[variabile casuale normale|Popolazione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> sconosciuta
|-
|2 campioni riuniti test-t
|<math>t=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{s_p\sqrt{\frac{1}{n_1} + \frac{1}{n_2}}},</math><br />
<math>s_p^2=\frac{(n_1 - 1)s_1^2 + (n_2 - 1)s_2^2}{n_1 + n_2 - 2},</math><br />
<math>df=n_1 + n_2 - 2</math>
|([[variabile casuale normale|Popolazioni normali]] '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 = s2 '''e''' (<math>\sigma</math>1 e <math>\sigma</math>2 sconosciuti)
|-
|2 campioni non riuniti test-t
|<math>t=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}},</math><br />
<math>df=\frac{(n_1 - 1)(n_2 - 1)}{(n_2 - 1)c^2 + (n_1 - 1)(1 - c^2)},</math><br />
<math>c=\frac{\frac{s_1^2}{n_1}}{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}</math><br />
'''o''' <math>df=\min\{n_1,n_2\}</math>
|(Popolazioni normali '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 <math>\neq</math> s2 '''e''' (<math>\sigma</math>1 '''e''' <math>\sigma</math>2 sconosciuti)
|-
|Accoppiato test-t
|<math>t=\frac{\overline{d} - d_0}{s_d},</math><br />
<math>df=n-1</math>
|(Popolazione normale di differenze '''o''' ''n'' > 30) '''e''' s sconosciuta
|-
|1 campione test-z
|<math>z=\frac{\hat{p} - p}{\sqrt{\frac{p(1-p)}{n}}}</math>
|''np'' > 10 '''e''' ''n''(1 − ''p'') > 10
|-
|2 preposizioni test-z, con stessa varianza
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - ({p}_1 - {p}_2)}{\sqrt{\hat{p}(1 - \hat{p})(\frac{1}{n_1} + \frac{1}{n_2})}}</math>
<math>\hat{p}=\frac{x_1 + x_2}{n_1 + n_2}</math>
|n1p1 > 5 e ''n''1(1 − ''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1 − ''p''2) > 5 '''e''' osservazioni indipendenti
|-
|2 preposizioni test-z, con varianza differente
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - (p_1 - p_2)}{\sqrt{\frac{\hat{p}_1(1 - \hat{p}_1)}{n_1} + \frac{\hat{p}_2(1 - \hat{p}_2)}{n_2}}}</math>
|''n''1''p''1 > 5 '''e''' ''n''1(1 − ''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1 − ''p''2) > 5 '''e''' osservazioni indipendenti
▲|}
{{Concetti base di metrologia, statistica e metodologia della ricerca}}
{{portale|matematica|scienza e tecnica}}
[[Categoria:
|