Test parametrico: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica |
Nessun oggetto della modifica |
||
(39 versioni intermedie di 29 utenti non mostrate) | |||
Riga 1:
{{F|statistica|luglio 2017}}
Si definisce '''test parametrico''' un [[test statistico]] che si può applicare in presenza di una [[distribuzione
Al contrario un [[test
▲Si definisce '''test parametrico''' un test statistico che si può applicare in presenza di una [[distribuzione normale]] dei dati. Effettuando un controllo delle ipotesi sul valore di un parametro, quale la media, la proporzione, la deviazione standard, l’uguaglianza tra due medie…
▲Al contrario un test statistico non parametrico non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un’ipotesi statistica errata. Infatti una volta formulata l’ipotesi il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l’ipotesi (nulla) si basa sul concetto di valore-p.
Il valore-p rappresenta dunque la possibilità di rifiutare
Tra i test parametrici principali troviamo il:
*test di Student ([[test t]]) a campioni dipendenti e a campioni indipendenti
*test sulla Normale standardizzata N(0,1) ([[test Z]])
==T di Student==
La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensioni (meno di 30 elementi) e i valori sono distribuiti come una [[variabile casuale normale]]. Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra.
Una volta formulata una congettura nei confronti del vero valore assunto dalla media aritmetica della variabile aleatoria, per verificare la validità si potrà ricorrere ad un [[test di verifica d'ipotesi|sistema di ipotesi]] del tipo:
<math>\left\{\begin{matrix} H_0 & \mu =\mu_0 \\ H_1 & \mu = \mu_1
\end{matrix}\right.
</math>
Si basa sulla [[distribuzione t di Student]].
==Formule statistiche comuni==
Qui di seguito vengono riportati in modo sintetico alcuni [[test di verifica d'ipotesi|test]] statistici parametrici:
{| border=1 cellspacing=0 cellpadding=5
|Nome
|Formula
|Assunzioni
|-
|1 campione [[test Z]]
|<math>z=\frac{\overline{x} - \mu_0}{\frac{\sigma}{\sqrt{n}}}</math>
|([[variabile casuale normale|Distribuzione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> conosciuta
|-
|2 campioni test-z
|<math>z=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}}</math>
|[[variabile casuale normale|Distribuzione normale]] '''e''' osservazioni indipendenti '''e''' (<math>\sigma</math>1 e <math>\sigma</math>2 conosciute)
|-
|1 campione [[test t]]
|<math>t=\frac{\overline{x} - \mu_0}{\frac{s}{\sqrt{n}}},</math><br />
<math>df=n-1</math>
|([[variabile casuale normale|Popolazione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> sconosciuta
|-
|2 campioni riuniti test-t
|<math>t=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{s_p\sqrt{\frac{1}{n_1} + \frac{1}{n_2}}},</math><br />
<math>s_p^2=\frac{(n_1 - 1)s_1^2 + (n_2 - 1)s_2^2}{n_1 + n_2 - 2},</math><br />
<math>df=n_1 + n_2 - 2</math>
|([[variabile casuale normale|Popolazioni normali]] '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 = s2 '''e''' (<math>\sigma</math>1 e <math>\sigma</math>2 sconosciuti)
|-
|2 campioni non riuniti test-t
|<math>t=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}},</math><br />
<math>df=\frac{(n_1 - 1)(n_2 - 1)}{(n_2 - 1)c^2 + (n_1 - 1)(1 - c^2)},</math><br />
<math>c=\frac{\frac{s_1^2}{n_1}}{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}</math><br />
'''o''' <math>df=\min\{n_1,n_2\}</math>
|(Popolazioni normali '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 <math>\neq</math> s2 '''e''' (<math>\sigma</math>1 '''e''' <math>\sigma</math>2 sconosciuti)
|-
|Accoppiato test-t
|<math>t=\frac{\overline{d} - d_0}{s_d},</math><br />
<math>df=n-1</math>
|(Popolazione normale di differenze '''o''' ''n'' > 30) '''e''' s sconosciuta
|-
|1 campione test-z
|<math>z=\frac{\hat{p} - p}{\sqrt{\frac{p(1-p)}{n}}}</math>
|''np'' > 10 '''e''' ''n''(1 − ''p'') > 10
|-
|2 preposizioni test-z, con stessa varianza
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - ({p}_1 - {p}_2)}{\sqrt{\hat{p}(1 - \hat{p})(\frac{1}{n_1} + \frac{1}{n_2})}}</math>
<math>\hat{p}=\frac{x_1 + x_2}{n_1 + n_2}</math>
|n1p1 > 5 e ''n''1(1 − ''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1 − ''p''2) > 5 '''e''' osservazioni indipendenti
|-
|2 preposizioni test-z, con varianza differente
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - (p_1 - p_2)}{\sqrt{\frac{\hat{p}_1(1 - \hat{p}_1)}{n_1} + \frac{\hat{p}_2(1 - \hat{p}_2)}{n_2}}}</math>
|''n''1''p''1 > 5 '''e''' ''n''1(1 − ''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1 − ''p''2) > 5 '''e''' osservazioni indipendenti
|}
{{Concetti base di metrologia, statistica e metodologia della ricerca}}
{{portale|matematica|scienza e tecnica}}
[[Categoria:Test statistici|Parametrico]]
|