Regressione Fama-MacBeth: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Amanconi (discussione | contributi)
Nessun oggetto della modifica
 
Amanconi (discussione | contributi)
Nessun oggetto della modifica
Riga 7:
Il metodo di Fama-MacBeth rappresenta un metodo immediato di stima di modelli di regressione su dati ''panel'', ed è particolarmente indicato in presenza di [[correlazione seriale]] nelle variabili <math>y_{it}</math>, <math>x_{it}</math> (in quanto ne elimina gli effetti sulle stime -- v. [[correlazione spuria|regressione spuria]] -- per costruzione).
 
La procedura prende il nome da EugenieEugene Fama e James MacBeth, che per primi la applicarono in un noto lavoro apparso nel 1973 sul ''[[Journal of Political Economy]]''.
 
==Descrizione del metodo e inferenza==
 
Come illustrato sopra, le stime dei parametri di un modello di regressione lineare:
::<math>\ y_i^{(t)}=\alpha_t+\beta_t'x_i^{(t)},\quad i=1,\ldots,N_t,\ t=1,\ldots,T </math>
sono ottenute, tramite il metodo di Fama e MacBeth, come:
::<math>\hat\alpha=\frac{1}{T}\sum_{t=1}^{T}\hat\alpha_t</math>
::<math>\hat\beta=\frac{1}{T}\sum_{t=1}^{T}\hat\beta_t</math>
dove <math>\hat\alpha_t</math>, <math>\hat\beta_t</math> sono le stime dei parametri <math>\alpha</math> e <math>\beta</math> per lo stesso modello, stimato su dati relativi a un singolo anno (o periodo di tempo in cui è suddiviso il ''panel'' di dati).
 
Le statistiche ''t'' di Student per il test dell'ipotesi nulla che un coefficiente del modello sia uguale a zero sono date da:
::<math>\hat t_k = \frac{\hat\beta^{(k)}}{\sqrt{\frac{1}{T(T-1)}\sum_{t=1}^{T}\left(\hat\beta_t^{(k)}-\hat\beta^{(k)}\right)^2 }}</math>
dove <math>\hat\beta^{(k)}</math> denota la componente <math>k</math>-esima del vettore di stime <math>\hat\beta</math>.
 
==Bibliografia==