Test parametrico: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
.snoopybot. (discussione | contributi)
m Robot: Removing selflinks
Nessun oggetto della modifica
 
(27 versioni intermedie di 23 utenti non mostrate)
Riga 1:
{{wF|statistica|luglio 20062017}}
Si definisce '''test parametrico''' un [[test statistico]] che si può applicare in presenza di una [[distribuzione normalelibera]] dei dati, o comunque nell'ambito della [[statistica parametrica]]. Ciò avviene effettuando un controllo delle ipotesi sul valore di un parametro, quale la [[media (statistica)|media]], la [[proporzionalità (matematica)|proporzione]], la [[deviazione standard]], l’uguaglianzal'uguaglianza tra due medie…medie, etc.
{{c|da contestualizzare|statistica|luglio 2006|--[[Utente:Caulfield|Caulfield]] 18:18, 20 lug 2006 (CEST)}}
Si definisce '''test parametrico''' un test statistico che si può applicare in presenza di una [[distribuzione normale]] dei dati, o comunque nell'ambito della [[statistica parametrica]]. Ciò avviene effettuando un controllo delle ipotesi sul valore di un parametro, quale la [[media]], la [[proporzione]], la [[deviazione standard]], l’uguaglianza tra due medie…
 
Al contrario un [[test non parametrico]] non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un’ipotesiun'ipotesi statistica errata. Infatti una volta formulata l’l'[[ipotesi]] il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l’ipotesil'ipotesi (nulla) si basa sul concetto di [[valore-p]].
 
Il valore-p rappresenta dunque la possibilità di rifiutare l’ipotesi nulla quando in realtà questa è vera e più questo valore è piccolo più si sceglie di rifiutare l’ipotesi fornendo il livello di significatività critico del test ( probabilità massima tollerata di rifiuto), scendendo al di sotto del quale la decisione cambia da rifiuto a accettazione.
 
Il valore-p rappresenta dunque la possibilità di rifiutare l’ipotesil'ipotesi nulla quando in realtà questa è vera e più questo valore è piccolo più si sceglie di rifiutare l’ipotesil'ipotesi fornendo il livello di significatività critico del test ( probabilità massima tollerata di rifiuto), scendendo al di sotto del quale la decisione cambia da rifiuto a accettazione.
 
Tra i test parametrici principali troviamo il:
*test di Student ([[test t]]) a campioni dipendenti e a campioni indipendenti
|*test - ||sulla Normale standardizzata (N(0,1) ([[test Z]])
 
| - || ==T di Student==
{|
'''T di Student:''' La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensionedimensioni ( meno di 30 elementi) e i valori sono distribuiti come una [[variabile casuale normale]]. Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra.
| - || T di Student
|- bgcolor=#ffffff
| - || F di Fisher
|- bgcolor=#ffffff
| - || Normale standardizzata (N(0,1))
|}
 
 
'''T di Student:''' La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensione ( meno di 30 elementi) e i valori sono distribuiti come una [[variabile casuale normale]]. Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra.
Una volta formulata una congettura nei confronti del vero valore assunto dalla media aritmetica della variabile aleatoria, per verificare la validità si potrà ricorrere ad un [[test di verifica d'ipotesi|sistema di ipotesi]] del tipo:
 
 
<math>\left\{\begin{matrix} H_0 & \mu =\mu_0 \\ H_1 & \mu = \mu_1
Riga 27 ⟶ 18:
</math>
 
Si basa sulla [[variabile casualedistribuzione t di Student|distribuzione T di Student]].
 
Si basa sulla [[variabile casuale t di Student|distribuzione T di Student]].
 
==Formule statistiche comuni==
Riga 37 ⟶ 27:
|Assunzioni
|-
|1 campione [[test-z Z]]
|<math>z=\frac{\overline{x} - \mu_0}{\frac{\sigma}{\sqrt{n}}}</math>
|([[variabile casuale normale|Distribuzione normale]] o ''n'' > 30) '''e''' [[varianza]] <math>\sigma</math> conosciuta
Riga 43 ⟶ 33:
|2 campioni test-z
|<math>z=\frac{(\overline{x}_1 - \overline{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}}</math>
|[[variabile casuale normale|Distribuzione normale]] '''e''' osservazioni indipendenti '''e''' (s1<math>\sigma</math>1 e s2<math>\sigma</math>2 conosciute)
|-
|One-sample1 campione [[test- t]]
|<math>t=\frac{\overline{x} - \mu_0}{\frac{s}{\sqrt{n}}},</math><br />
<math>df=n-1</math>
|([[variabile casuale normale|Popolazione normale]] o ''n'' > 30) '''e''' s[[varianza]] <math>\sigma</math> sconosciuta
|-
|2 campioni riuniti test-t
Riga 54 ⟶ 44:
<math>s_p^2=\frac{(n_1 - 1)s_1^2 + (n_2 - 1)s_2^2}{n_1 + n_2 - 2},</math><br />
<math>df=n_1 + n_2 - 2</math>
|([[variabile casuale normale|Popolazioni normali]] '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 = s2 '''e''' (s1<math>\sigma</math>1 e s2<math>\sigma</math>2 sconosciuti)
|-
|2 campioni non riuniti test-t
Riga 61 ⟶ 51:
<math>c=\frac{\frac{s_1^2}{n_1}}{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}</math><br />
'''o''' <math>df=\min\{n_1,n_2\}</math>
|(Popolazioni normali '''o''' ''n''1 + ''n''2 > 40) '''e''' osservazioni indipendenti '''e''' s1 ?<math>\neq</math> s2 '''e''' (s1<math>\sigma</math>1 '''e''' s2<math>\sigma</math>2 sconosciuti)
|-
|Accoppiato test-t
Riga 68 ⟶ 58:
|(Popolazione normale di differenze '''o''' ''n'' > 30) '''e''' s sconosciuta
|-
|One-sample1 campione test-z
|<math>z=\frac{\hat{p} - p}{\sqrt{\frac{p(1-p)}{n}}}</math>
|''np'' > 10 '''e''' ''n''(1&nbsp;&minus;&nbsp;''p'') > 10
|-
|2 preposizioni test-z, con stessa varianza
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - ({p}_1 - {p}_2)}{\sqrt{\hat{p}(1 - \hat{p})(\frac{1}{n_1} + \frac{1}{n_2})}}</math>
<math>\hat{p}=\frac{x_1 + x_2}{n_1 + n_2}</math>
|n1p1 > 5 e ''n''1(1&nbsp;&minus;&nbsp;''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1&nbsp;&minus;&nbsp;''p''2) > 5 '''e''' osservazioni indipendenti
|-
|2 preposizioni test-z, con varianza differente
|<math>z=\frac{(\hat{p}_1 - \hat{p}_2) - (p_1 - p_2)}{\sqrt{\frac{\hat{p}_1(1 - \hat{p}_1)}{n_1} + \frac{\hat{p}_2(1 - \hat{p}_2)}{n_2}}}</math>
|''n''1''p''1 > 5 '''e''' ''n''1(1&nbsp;&minus;&nbsp;''p''1) > 5 '''e''' ''n''2''p''2 > 5 '''e''' ''n''2(1&nbsp;&minus;&nbsp;''p''2) > 5 '''e''' osservazioni indipendenti
|}
 
{{Concetti base di metrologia, statistica e metodologia della ricerca}}
{{portale|matematica|scienza e tecnica}}
 
[[Categoria:Test statistici|_Test parametricoParametrico]]
 
[[Categoria:Statistica]]
[[Categoria:Test statistici|_Test parametrico]]