Test parametrico: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(32 versioni intermedie di 27 utenti non mostrate)
Riga 1:
{{wF|statistica|luglio 20062017}}
Si definisce '''test parametrico''' un [[test statistico]] che si può applicare in presenza di una [[distribuzione normalelibera]] dei dati, o comunque nell'ambito della [[statistica parametrica]]. EffettuandoCiò avviene effettuando un controllo delle ipotesi sul valore di un parametro, quale la [[media (statistica)|media]], la [[proporzionalità (matematica)|proporzione]], la [[deviazione standard]], l’uguaglianzal'uguaglianza tra due medie…medie, etc.
{{c|da contestualizzare|statistica|luglio 2006|--[[Utente:Caulfield|Caulfield]] 18:18, 20 lug 2006 (CEST)}}
Si definisce '''test parametrico''' un test statistico che si può applicare in presenza di una [[distribuzione normale]] dei dati. Effettuando un controllo delle ipotesi sul valore di un parametro, quale la [[media]], la [[proporzione]], la [[deviazione standard]], l’uguaglianza tra due medie…
Al contrario un [[test non parametrico]] non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un’ipotesi statistica errata. Infatti una volta formulata l’[[ipotesi]] il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l’ipotesi (nulla) si basa sul concetto di [[valore-p]].
Il valore-p rappresenta dunque la possibilità di rifiutare l’ipotesi nulla quando in realtà questa è vera e più questo valore è piccolo più si sceglie di rifiutare l’ipotesi fornendo il livello di significatività critico del test ( probabilità massima tollerata di rifiuto), scendendo al di sotto del quale la decisione cambia da rifiuto a accettazione.
 
Al contrario un [[test non parametrico]] non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un’ipotesiun'ipotesi statistica errata. Infatti una volta formulata l’l'[[ipotesi]] il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l’ipotesil'ipotesi (nulla) si basa sul concetto di [[valore-p]].
 
Il valore-p rappresenta dunque la possibilità di rifiutare l’ipotesil'ipotesi nulla quando in realtà questa è vera e più questo valore è piccolo più si sceglie di rifiutare l’ipotesil'ipotesi fornendo il livello di significatività critico del test ( probabilità massima tollerata di rifiuto), scendendo al di sotto del quale la decisione cambia da rifiuto a accettazione.
 
Tra i test parametrici principali troviamo il:
*test di Student ([[test t]]) a campioni dipendenti e a campioni indipendenti
|*test - ||sulla Normale standardizzata (N(0,1) ([[test Z]])
 
| - || ==T di Student==
{|
'''T di Student:''' La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensionedimensioni ( meno di 30 elementi) e i valori sono distribuiti come una [[variabile casuale normale]]. Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra.
| - || T di Student
Una volta formulata una congettura nei confronti del vero valore assunto dalla media aritmetica della variabile aleatoria, per verificare la validità si potrà ricorrere ad un [[test di verifica d'ipotesi|sistema di ipotesi]] del tipo:
|- bgcolor=#ffffff
| - || F di Fisher
|- bgcolor=#ffffff
| - || Normale standardizzata (N(0,1))
|}
 
 
'''T di Student:''' La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensione ( meno di 30 elementi). Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra.
Una volta formulata una congettura nei confronti del vero valore assunto dalla media aritmetica della variabile aleatoria, per verificare la validità si potrà ricorrere ad un sistema di ipotesi del tipo:
 
 
<math>\left\{\begin{matrix} H_0 & \mu =\mu_0 \\ H_1 & \mu = \mu_1
Riga 25 ⟶ 18:
</math>
 
Si basa sulla [[distribuzione Tt di Student]].
 
==Formule statistiche comuni==
Si basa sulla distribuzione T di Student.
Qui di seguito vengono riportati in modo sintetico alcuni [[test di verifica d'ipotesi|test]] statistici parametrici:
{| border=1 cellspacing=0 cellpadding=5
|Nome
|Formula
|Assunzioni
|-
|1 campione [[test Z]]
|<math>z=\frac{\overline{x} - \mu_0}{\frac{\sigma}{\sqrt{n}}}</math>
|([[variabile casuale normale|Distribuzione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> conosciuta
|-
|2 campioni test-z
|<math>z=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}}</math>
|[[variabile casuale normale|Distribuzione normale]] '''e''' osservazioni indipendenti '''e''' (<math>\sigma</math>1 e <math>\sigma</math>2 conosciute)
|-
|1 campione [[test t]]
|<math>t=\frac{\overline{x} - \mu_0}{\frac{s}{\sqrt{n}}},</math><br />
<math>df=n-1</math>
|([[variabile casuale normale|Popolazione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> sconosciuta
|-
|2 campioni riuniti test-t
|<math>t=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{s_p\sqrt{\frac{1}{n_1} + \frac{1}{n_2}}},</math><br />
<math>s_p^2=\frac{(n_1 - 1)s_1^2 + (n_2 - 1)s_2^2}{n_1 + n_2 - 2},</math><br />
<math>df=n_1 + n_2 - 2</math>
|([[variabile casuale normale|Popolazioni normali]] '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 = s2 '''e''' (<math>\sigma</math>1 e <math>\sigma</math>2 sconosciuti)
|-
|2 campioni non riuniti test-t
|<math>t=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}},</math><br />
<math>df=\frac{(n_1 - 1)(n_2 - 1)}{(n_2 - 1)c^2 + (n_1 - 1)(1 - c^2)},</math><br />
<math>c=\frac{\frac{s_1^2}{n_1}}{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}</math><br />
'''o''' <math>df=\min\{n_1,n_2\}</math>
|(Popolazioni normali '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 <math>\neq</math> s2 '''e''' (<math>\sigma</math>1 '''e''' <math>\sigma</math>2 sconosciuti)
|-
|Accoppiato test-t
|<math>t=\frac{\overline{d} - d_0}{s_d},</math><br />
<math>df=n-1</math>
|(Popolazione normale di differenze '''o''' ''n'' > 30) '''e''' s sconosciuta
|-
|1 campione test-z
|<math>z=\frac{\hat{p} - p}{\sqrt{\frac{p(1-p)}{n}}}</math>
|''np'' > 10 '''e''' ''n''(1&nbsp;−&nbsp;''p'') > 10
|-
|2 preposizioni test-z, con stessa varianza
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - ({p}_1 - {p}_2)}{\sqrt{\hat{p}(1 - \hat{p})(\frac{1}{n_1} + \frac{1}{n_2})}}</math>
<math>\hat{p}=\frac{x_1 + x_2}{n_1 + n_2}</math>
|n1p1 > 5 e ''n''1(1&nbsp;−&nbsp;''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1&nbsp;−&nbsp;''p''2) > 5 '''e''' osservazioni indipendenti
|-
|2 preposizioni test-z, con varianza differente
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - (p_1 - p_2)}{\sqrt{\frac{\hat{p}_1(1 - \hat{p}_1)}{n_1} + \frac{\hat{p}_2(1 - \hat{p}_2)}{n_2}}}</math>
|''n''1''p''1 > 5 '''e''' ''n''1(1&nbsp;−&nbsp;''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1&nbsp;−&nbsp;''p''2) > 5 '''e''' osservazioni indipendenti
|}
 
{{Concetti base di metrologia, statistica e metodologia della ricerca}}
{{portale|matematica|scienza e tecnica}}
 
[[Categoria:StatisticaTest statistici|Parametrico]]