Modello lineare generalizzato: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
AggiuntAggiunta della sezioni: Stima del modello, Stima dei parametri e Interpretazione dei coefficienti di regressione
Aggiunta della sezione bontà del modello
Riga 51:
 
== Specificazione del modello ==
Come sopra citato, i modelli lineari generalizzati comprendono una vasta gamma di modelli. Dunque per individuare un particolare modello é necessiario specificare:ù
 
# la funzione di collegamento <math>g</math> (nota anche come link function) da applicare al valore atteso della variabile risposta <math>g(E[Y])=\eta</math>; tale funzione deve essere nota, monotona e derivabile
Riga 60:
== Stima dei paramentri ==
 
=== Stima dei coefficienti di regressione <math>\beta</math> ===
La stima dei coefficienti di regressione <math>\beta </math> avviene tramite il [[metodo della massima verosimiglianza]], che consistesteconsiste nel massimizzare la funzione di verosimiglianza. Nel caso dei glm, che conservano l'indipendenza della variabile risposta, tale funzione è data dalla produttoria della funzione di denistà o di probabilità. Si procede facendo la derivata prima della funzione di verosimiglianza e uguagliandola a zero. Da tale equazione si dovrebbe ottenere la stima <math>\widehat{\beta}</math> dei coefficienti <math>\beta</math>. Tuttavia tale equazione non ammette soluzione analitica. Pertanto, è necessario ricorrere ad algoritmi numerici per ottenere tale stima.
 
Il metodo più usato è l'algoritmo IRLS (''iterative reweighted leasts squares).'' Dalla denominazione dell'algoritmo si può desumere il suo funzionamento:
Riga 69:
# ''leasts squares'': si dimostra che la formula dell'algoritmo di Fisher-Scoring nel caso dei glm si ricorduce alla seguente <math>\beta^{(r+1)}=(X'W^{(r)}X)^{-1}X'W^{(r)}z^{(r)}</math>, dove <math>z</math> è il vettore delle pseudo-risposte <math>z_i=\eta_i*(y_i-\mu_i)*{d\eta_i \over d\mu_i}</math>; che, ponendo <math>W=I</math> e <math>y_i=z_i</math>, si riconduce alla formula dei [[Metodo dei minimi quadrati|minimi quadrati]] per il modello di regressione lineare normale. <ref name=":0" />
 
=== Stima del parametro di dispersione <math>\tau</math> ===
Per la stima del parametro di dispersione <math>\tau</math> si ricorre al [[Metodo dei momenti (statistica)|metodo dei momenti]] e si ottiengono i seguenti risultati:
 
* <math>\tilde{d(\tau)}={1 \over n-k-1}*\sum_{i=1}^N{(y_i-\widehat{\mu_i})^2 \over V(\widehat{\mu_i})}</math>
Riga 81:
* regressione logistica e binomiale: <math>\widehat{OR}=\exp{\beta_j}</math> corrisponde all'aumento percentuale dell'[[Odds ratio|Odds Ratio]] all'aumentare di un'unità della j-esima covariata a parità delle altre condiioni
* regressione poissoniana: <math>\widehat{IRR}=\exp{\widehat{\beta_j}}</math> corrisponde alla variazione percentuale della risposta media all'aumentare di un'unità della j-esima covariata a parità delle altre condizioni (Incident Rate Ratio)
 
 
Inoltre, è possibile stabilire tramite [[Test di verifica d'ipotesi|verifica d'ipotesi]] la significatività dei singoli coefficienti di regressione. In paricolare, si ricorre al test di Wald, noto anche come [[test Z]]: <math>H_0:\beta_j=0</math> vs <math>H_1:\beta_j\neq0</math>.
 
La statistica test è: <math>z.value={\widehat{\beta_j}-0 \over SE(\widehat{B_j})} \sim N(0,1)</math>, il [[Valore p|p-value]] si calcola come: <math>2P(Z>|z.value|)</math>. Se il p-value è inferiore al valore <math>\alpha</math> fissato a priori allora la covariata è significativa al livello <math>\alpha</math>.
 
== Bonta del modello e confronto tra modelli ==
Innanzitutto, si definisce il concetto di devianza per un modello lineare generalizzato, interpretabile come la distanza dal modello saturo in termini di estremo superiore della log-[[Funzione di verosimiglianza|verosimiglianza]]. Il modullo saturo è quello con <math>k=n</math>, ha un fit perfetto ma genera [[overfitting]]. In formule: <math>D=-2*d(\tau)*[l(\widehat\beta, y)-l(\widehat\beta_s, y)]=-2*\sum_{i=1}^N[y_i\widehat\theta_i-c(\widehat\theta_i)]-[y_i\widehat\theta_{iS}-c(\widehat\theta_{iS})=\sum_{i=1}^Nd_i</math>. Inoltre, si introduce la devianza normalizzata <math>D^*={D \over d(\tau)}</math>
 
=== Bontà del modello ===
Per varificare la bontà del modello si può ricorrere a due test statistici: uno basato sulla devianza ed uno basato sulla <math>\mathrm{X}^2</math> di Pearson. Entrambi hanno come ipotesi nulla l'adaguetezza del modello.
 
# Test basato devianza: la statistica test è <math>D^*\sim\chi_{n-k-1}^2</math> (per n grande)
#
 
== Note ==