Modello probit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Aggiungi 2 libri per la Wikipedia:Verificabilità (20230810)) #IABot (v2.0.9.5) (GreenC bot |
tolgo un a capo |
||
(2 versioni intermedie di 2 utenti non mostrate) | |||
Riga 33:
=== Effetto marginale ===
L'effetto sulla variabile dipendente <math>Y</math> dato da un cambiamento in un regressore <math>X_j</math>, chiamato effetto marginale, è calcolato come la derivata del [[valore atteso]] di <math>Y</math> rispetto a <math>X_j</math>:
::<math>\frac{\partial}{\partial X_j}\mathbb{E}\left[Y\mid\mathbf{X}\right] = \Phi\left(\mathbf{X}^T \boldsymbol{\beta} \right) = \phi\left(\mathbf{X}^T \boldsymbol{\beta}\right)\cdot \beta_j</math>
dove <math>\phi</math> è la [[funzione di densità di probabilità]] della [[distribuzione normale]] standard e <math>\beta_j</math> è il parametro che moltiplica il regressore <math>X_j</math>.<ref name="Definizione" /> Per il calcolo della derivata il regressore deve essere continuo.
Riga 64:
::<math>=\sum_{i=1}^n Y_i \ln \left [\Phi\left(\beta_0 + \beta_1 X_{1i} + \ldots + \beta_k X_{ki} \right) \right ] + \sum_{i=1}^n \left (1-Y_i \right ) \ln \left [1 - \Phi\left(\beta_0 + \beta_1 X_{1i} + \ldots + \beta_k X_{ki} \right) \right ]</math>.
Gli stimatori calcolati con il metodo della massima verosimiglianza massimizzano la funzione precedente risolvendo il seguente problema:
::<math>\left \{ \hat \beta_0, \hat \beta_1, \ldots, \hat \beta_k \right \}_{MV} = \arg\max_{\beta_0,\ldots, \beta_k} \mathcal{l}_{probit} \left ( \beta_0, \ldots, \beta_k; Y_1, \ldots, Y_n \mid X_{1i}, \ldots, X_{ki} \right )</math>.<ref name="metodo MV">{{Cita libro|titolo=Introduction to Econometrics|url=https://archive.org/details/introductiontoec0000stoc_z0a9|autore1=James H. Stock|autore2=Mark W. Watson|editore=Pearson|anno=2015|edizione=3|lingua=inglese|ISBN=978-1-292-07131-2|capitolo=Regression with a Binary Dependent Variable|pp=[https://archive.org/details/introductiontoec0000stoc_z0a9/page/465 465]-466}}</ref>
Per semplificare la scrittura consideriamo <math>\boldsymbol{\beta}</math> un vettore dei parametri <math>\beta_0, \beta_1, \ldots, \beta_k</math>, <math>\phi</math> la derivata di <math>\Phi</math>, ossia la [[funzione di densità di probabilità]] della distribuzione normale standard, e <math>n</math> il numero di osservazioni nel campione. Le condizioni per la massimizzazione sono due: quella di primo ordine dove la [[derivata]] prima rispetto ai parametri deve essere posta uguale a zero per trovare i punti estremanti, la seconda invece pone la derivata seconda, sempre rispetto ai parametri, minore di zero per determinare le [[concavità]] della funzione.
* <math>\frac{\partial}{\partial \boldsymbol{\beta}} \mathcal{l}_{probit} \left ( \boldsymbol{\beta}; \mathbf{y} \right ) = 0\Longleftrightarrow \sum_{i=1}^n \left\{\frac{y_i - \Phi\left(\mathbf{x}_i'\boldsymbol{\beta}\right)}{\Phi\left(\mathbf{x}_i'\boldsymbol{\beta}\right)\left[1-\Phi\left(\mathbf{x}_i'\boldsymbol{\beta}\right)\right]}\cdot\phi\left(\mathbf{x}_i'\boldsymbol{\beta}\right)\right\} = 0</math>
Riga 84:
{{Statistica}}
{{Controllo di autorità}}
{{Portale|statistica|economia}}
|