Modello probit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Aggiunto valore atteso, varianza e effetto marginale. Modifiche minori. |
Accorpamento sezioni e correzioni minori |
||
Riga 1:
[[File:Logistic-sigmoid-vs-scaled-probit.svg|thumb|In rosso tratteggiato è rappresentato il modello probit.]]
In [[statistica]]
Il modello è stato proposto per la prima volta da [[Chester Ittner Bliss]] nel [[1934]],<ref>{{Cita pubblicazione|titolo=THE METHOD OF PROBITS|autore=Chester I. Bliss|wkautore=Chester Ittner Bliss|rivista=Science|data=12 gennaio 1934|volume=79|pp=38-39|doi=10.1126/science.79.2037.38|PMID=17813446|accesso=20 novembre 2018}}</ref> ampliato l'anno successivo da [[Ronald Fisher]] che introdusse un metodo iterativo per la stima dei parametri tramite il [[metodo della massima verosimiglianza]].
Riga 20:
== Definizione ==
Il modello di regressione probit per la [[Popolazione statistica|popolazione]] è:<ref name="Definizione" />
::<math>\mathbb{E}\left[Y\mid\mathbf{X}\right]=\ Pr\left(Y=1 \mid X_1, \ldots, X_k
dove:
*<math>Pr</math> indica la probabilità;
Riga 27:
* <math>\boldsymbol{\beta}</math> è il vettore di parametri <math>\beta_0, \ldots, \beta_k</math>;
* <math>\Phi</math> è la funzione di ripartizione della distribuzione normale standard.
=== Varianza ===
La [[varianza]] della variabile dipendente risulta dipendere dal vettore dei regressori <math>\mathbf{X}</math>. Infatti
::<math>Var\left(Y
=== Effetto marginale ===
L'effetto sulla variabile dipendente <math>Y</math> dato da un cambiamento in un regressore <math>X_j</math>, chiamato effetto marginale, è calcolato come la derivata del valore atteso di <math>Y</math> rispetto a <math>X_j</math>:
::<math>\frac{\partial}{\partial X_j}\mathbb{E}\left[Y
dove <math>\phi</math> è la [[funzione di densità di probabilità]] della [[distribuzione normale]] standard e <math>\beta_j</math> è il parametro
== Illustrazione del metodo ==
Riga 69 ⟶ 65:
Gli stimatori calcolati con il metodo della massima verosimiglianza massimizzano la funzione precedente risolvendo il seguente problema:
::<math>\left \{ \hat \beta_0, \hat \beta_1, \ldots, \hat \beta_k \right \}_{MV} = \arg\max_{\beta_0,\ldots, \beta_k} \mathcal{l}_{probit} \left ( \beta_0, \ldots, \beta_k; Y_1, \ldots, Y_n \mid X_{1i}, \ldots, X_{ki} \right )</math>.<ref name="metodo MV">{{Cita libro|titolo=Introduction to Econometrics|autore1=James H. Stock|autore2=Mark W. Watson|editore=Pearson|anno=2015|edizione=3|lingua=inglese|ISBN=978-1-292-07131-2|capitolo=Regression with a Binary Dependent Variable|pp=465-466}}</ref>
Per semplificare la scrittura consideriamo <math>\boldsymbol{\beta}</math> un vettore dei parametri <math>\beta_0, \beta_1, \ldots, \beta_k</math>, <math>\phi</math> la derivata di <math>\Phi</math>, ossia la [[funzione di densità di probabilità]] della distribuzione normale standard, e <math>n</math> il numero di osservazioni nel campione. Le condizioni per la massimizzazione sono due: quella di primo ordine dove la [[derivata]] prima rispetto ai parametri deve essere posta uguale a zero per trovare i punti estremanti, la seconda invece pone la derivata seconda, sempre rispetto ai parametri, minore di zero per determinare le [[concavità]] della funzione.
* <math>\frac{\partial}{\partial \boldsymbol{\beta}} \mathcal{l}_{probit} \left ( \boldsymbol{\beta}; \mathbf{y} \right ) = 0\Longleftrightarrow \sum_{i=1}^n \left\{\frac{y_i - \Phi\left(\mathbf{x}_i'\boldsymbol{\beta}\right)}{\Phi\left(\mathbf{x}_i'\boldsymbol{\beta}\right)\left[1-\Phi\left(\mathbf{x}_i'\boldsymbol{\beta}\right)\right]}\cdot\phi\left(\mathbf{x}_i'\boldsymbol{\beta}\right)\right\} = 0</math>
* <math>\frac{\partial^2}{\partial \boldsymbol{\beta} \partial \boldsymbol{\beta'}} \mathcal{l}_{probit} \left ( \boldsymbol{\beta}; \mathbf{y} \right ) < 0</math>
Solitamente le soluzioni di queste condizioni non sono semplici da determinare oppure non possono essere trovate affatto, ma per ovviare a questo problema si possono utilizzare dei programmi statistici per computer che, attraverso alcuni [[algoritmi]], trovano delle loro approssimazioni.<ref name="metodo MV" />
|