Test parametrico: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica
Nessun oggetto della modifica
 
(39 versioni intermedie di 29 utenti non mostrate)
Riga 1:
{{F|statistica|luglio 2017}}
{{da wikificare}}
Si definisce '''test parametrico''' un [[test statistico]] che si può applicare in presenza di una [[distribuzione normalelibera]] dei dati, o comunque nell'ambito della [[statistica parametrica]]. EffettuandoCiò avviene effettuando un controllo delle ipotesi sul valore di un parametro, quale la [[media (statistica)|media]], la [[proporzionalità (matematica)|proporzione]], la [[deviazione standard]], l’uguaglianzal'uguaglianza tra due medie…medie, etc.
 
Al contrario un [[test statistico non parametrico]] non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un’ipotesiun'ipotesi statistica errata. Infatti una volta formulata l’ipotesil'[[ipotesi]] il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l’ipotesil'ipotesi (nulla) si basa sul concetto di [[valore-p]].
Si definisce '''test parametrico''' un test statistico che si può applicare in presenza di una [[distribuzione normale]] dei dati. Effettuando un controllo delle ipotesi sul valore di un parametro, quale la media, la proporzione, la deviazione standard, l’uguaglianza tra due medie…
Al contrario un test statistico non parametrico non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un’ipotesi statistica errata. Infatti una volta formulata l’ipotesi il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l’ipotesi (nulla) si basa sul concetto di valore-p.
 
Il valore-p rappresenta dunque la possibilità di rifiutare l’ipotesil'ipotesi nulla quando in realtà questa è vera e più questo valore è piccolo più si sceglie di rifiutare l’ipotesil'ipotesi fornendo il livello di significatività critico del test ( probabilità massima tollerata di rifiuto), scendendo al di sotto del quale la decisione cambia da rifiuto a accettazione.
 
{{da categorizzare}}
Tra i test parametrici principali troviamo il:
*test di Student ([[test t]]) a campioni dipendenti e a campioni indipendenti
*test sulla Normale standardizzata N(0,1) ([[test Z]])
 
==T di Student==
La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensioni (meno di 30 elementi) e i valori sono distribuiti come una [[variabile casuale normale]]. Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra.
Una volta formulata una congettura nei confronti del vero valore assunto dalla media aritmetica della variabile aleatoria, per verificare la validità si potrà ricorrere ad un [[test di verifica d'ipotesi|sistema di ipotesi]] del tipo:
 
<math>\left\{\begin{matrix} H_0 & \mu =\mu_0 \\ H_1 & \mu = \mu_1
\end{matrix}\right.
</math>
 
Si basa sulla [[distribuzione t di Student]].
 
==Formule statistiche comuni==
Qui di seguito vengono riportati in modo sintetico alcuni [[test di verifica d'ipotesi|test]] statistici parametrici:
{| border=1 cellspacing=0 cellpadding=5
|Nome
|Formula
|Assunzioni
|-
|1 campione [[test Z]]
|<math>z=\frac{\overline{x} - \mu_0}{\frac{\sigma}{\sqrt{n}}}</math>
|([[variabile casuale normale|Distribuzione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> conosciuta
|-
|2 campioni test-z
|<math>z=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}}</math>
|[[variabile casuale normale|Distribuzione normale]] '''e''' osservazioni indipendenti '''e''' (<math>\sigma</math>1 e <math>\sigma</math>2 conosciute)
|-
|1 campione [[test t]]
|<math>t=\frac{\overline{x} - \mu_0}{\frac{s}{\sqrt{n}}},</math><br />
<math>df=n-1</math>
|([[variabile casuale normale|Popolazione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> sconosciuta
|-
|2 campioni riuniti test-t
|<math>t=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{s_p\sqrt{\frac{1}{n_1} + \frac{1}{n_2}}},</math><br />
<math>s_p^2=\frac{(n_1 - 1)s_1^2 + (n_2 - 1)s_2^2}{n_1 + n_2 - 2},</math><br />
<math>df=n_1 + n_2 - 2</math>
|([[variabile casuale normale|Popolazioni normali]] '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 = s2 '''e''' (<math>\sigma</math>1 e <math>\sigma</math>2 sconosciuti)
|-
|2 campioni non riuniti test-t
|<math>t=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}},</math><br />
<math>df=\frac{(n_1 - 1)(n_2 - 1)}{(n_2 - 1)c^2 + (n_1 - 1)(1 - c^2)},</math><br />
<math>c=\frac{\frac{s_1^2}{n_1}}{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}</math><br />
'''o''' <math>df=\min\{n_1,n_2\}</math>
|(Popolazioni normali '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 <math>\neq</math> s2 '''e''' (<math>\sigma</math>1 '''e''' <math>\sigma</math>2 sconosciuti)
|-
|Accoppiato test-t
|<math>t=\frac{\overline{d} - d_0}{s_d},</math><br />
<math>df=n-1</math>
|(Popolazione normale di differenze '''o''' ''n'' > 30) '''e''' s sconosciuta
|-
|1 campione test-z
|<math>z=\frac{\hat{p} - p}{\sqrt{\frac{p(1-p)}{n}}}</math>
|''np'' > 10 '''e''' ''n''(1&nbsp;−&nbsp;''p'') > 10
|-
|2 preposizioni test-z, con stessa varianza
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - ({p}_1 - {p}_2)}{\sqrt{\hat{p}(1 - \hat{p})(\frac{1}{n_1} + \frac{1}{n_2})}}</math>
<math>\hat{p}=\frac{x_1 + x_2}{n_1 + n_2}</math>
|n1p1 > 5 e ''n''1(1&nbsp;−&nbsp;''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1&nbsp;−&nbsp;''p''2) > 5 '''e''' osservazioni indipendenti
|-
|2 preposizioni test-z, con varianza differente
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - (p_1 - p_2)}{\sqrt{\frac{\hat{p}_1(1 - \hat{p}_1)}{n_1} + \frac{\hat{p}_2(1 - \hat{p}_2)}{n_2}}}</math>
|''n''1''p''1 > 5 '''e''' ''n''1(1&nbsp;−&nbsp;''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1&nbsp;−&nbsp;''p''2) > 5 '''e''' osservazioni indipendenti
|}
 
{{Concetti base di metrologia, statistica e metodologia della ricerca}}
{{portale|matematica|scienza e tecnica}}
 
[[Categoria:Test statistici|Parametrico]]