Test parametrico: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(17 versioni intermedie di 14 utenti non mostrate)
Riga 1:
{{F|statistica|luglio 2017}}
Si definisce '''test parametrico''' un [[test statistico]] che si può applicare in presenza di una [[distribuzione libera]] dei dati, o comunque nell'ambito della [[statistica parametrica]]. Ciò avviene effettuando un controllo delle ipotesi sul valore di un parametro, quale la [[media (statistica)|media]], la [[proporzionalità (matematica)|proporzione]], la [[deviazione standard]], l’uguaglianzal'uguaglianza tra due medie…medie, etc.
 
Al contrario un [[test non parametrico]] non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un’ipotesiun'ipotesi statistica errata. Infatti una volta formulata l’l'[[ipotesi]] il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l’ipotesil'ipotesi (nulla) si basa sul concetto di [[valore-p]].
 
Il valore-p rappresenta dunque la possibilità di rifiutare l’ipotesil'ipotesi nulla quando in realtà questa è vera e più questo valore è piccolo più si sceglie di rifiutare l’ipotesil'ipotesi fornendo il livello di significatività critico del test (probabilità massima tollerata di rifiuto), scendendo al di sotto del quale la decisione cambia da rifiuto a accettazione.
 
Tra i test parametrici principali troviamo il:
*test di Student ([[test t]]) a campioni dipendenti e a campioni indipendenti
*T di Student
*test sulla Normale standardizzata (N(0,1) ([[test Z]])
*F di Fisher
*Normale standardizzata (N(0,1))
 
==T di Student==
La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensionedimensioni (meno di 30 elementi) e i valori sono distribuiti come una [[variabile casuale normale]]. Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra.
Una volta formulata una congettura nei confronti del vero valore assunto dalla media aritmetica della variabile aleatoria, per verificare la validità si potrà ricorrere ad un [[test di verifica d'ipotesi|sistema di ipotesi]] del tipo:
 
Riga 18:
</math>
 
Si basa sulla [[variabile casualedistribuzione t di Student|distribuzione T di Student]].
 
==Formule statistiche comuni==
Riga 33:
|2 campioni test-z
|<math>z=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}}</math>
|[[variabile casuale normale|Distribuzione normale]] '''e''' osservazioni indipendenti '''e''' (s1<math>\sigma</math>1 e s2<math>\sigma</math>2 conosciute)
|-
|1 campione [[test t]]
|<math>t=\frac{\overline{x} - \mu_0}{\frac{s}{\sqrt{n}}},</math><br />
<math>df=n-1</math>
|([[variabile casuale normale|Popolazione normale]] o ''n'' > 30) '''e''' s[[varianza]] <math>\sigma</math> sconosciuta
|-
|2 campioni riuniti test-t
Riga 44:
<math>s_p^2=\frac{(n_1 - 1)s_1^2 + (n_2 - 1)s_2^2}{n_1 + n_2 - 2},</math><br />
<math>df=n_1 + n_2 - 2</math>
|([[variabile casuale normale|Popolazioni normali]] '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 = s2 '''e''' (s1<math>\sigma</math>1 e s2<math>\sigma</math>2 sconosciuti)
|-
|2 campioni non riuniti test-t
Riga 51:
<math>c=\frac{\frac{s_1^2}{n_1}}{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}</math><br />
'''o''' <math>df=\min\{n_1,n_2\}</math>
|(Popolazioni normali '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 <math>\neq</math> s2 '''e''' (s1<math>\sigma</math>1 '''e''' s2<math>\sigma</math>2 sconosciuti)
|-
|Accoppiato test-t
Riga 60:
|1 campione test-z
|<math>z=\frac{\hat{p} - p}{\sqrt{\frac{p(1-p)}{n}}}</math>
|''np'' > 10 '''e''' ''n''(1&nbsp;&minus;&nbsp;''p'') > 10
|-
|2 preposizioni test-z, con stessa varianza
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - ({p}_1 - {p}_2)}{\sqrt{\hat{p}(1 - \hat{p})(\frac{1}{n_1} + \frac{1}{n_2})}}</math>
<math>\hat{p}=\frac{x_1 + x_2}{n_1 + n_2}</math>
|n1p1 > 5 e ''n''1(1&nbsp;&minus;&nbsp;''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1&nbsp;&minus;&nbsp;''p''2) > 5 '''e''' osservazioni indipendenti
|-
|2 preposizioni test-z, con varianza differente
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - (p_1 - p_2)}{\sqrt{\frac{\hat{p}_1(1 - \hat{p}_1)}{n_1} + \frac{\hat{p}_2(1 - \hat{p}_2)}{n_2}}}</math>
|''n''1''p''1 > 5 '''e''' ''n''1(1&nbsp;&minus;&nbsp;''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1&nbsp;&minus;&nbsp;''p''2) > 5 '''e''' osservazioni indipendenti
|}
 
{{Concetti base di chimicametrologia, analiticastatistica e metodologia della ricerca}}
{{portale|matematica|scienza e tecnica}}