Modello probit: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Albzf (discussione | contributi)
m Funzione probit: specificazione
Albzf (discussione | contributi)
Aggiunto valore atteso, varianza e effetto marginale. Modifiche minori.
Riga 3:
Il modello è stato proposto per la prima volta da [[Chester Ittner Bliss]] nel [[1934]],<ref>{{Cita pubblicazione|titolo=THE METHOD OF PROBITS|autore=Chester I. Bliss|wkautore=Chester Ittner Bliss|rivista=Science|data=12 gennaio 1934|volume=79|pp=38-39|doi=10.1126/science.79.2037.38|PMID=17813446|accesso=20 novembre 2018}}</ref> ampliato l'anno successivo da [[Ronald Fisher]] che introdusse un metodo iterativo per la stima dei parametri tramite il [[metodo della massima verosimiglianza]].
 
== FunzioneScelta probitdella funzione ==
[[File:Probit plot.png|thumb|La funzione probit. L'inversa di questa funzione è utilizzata nel modello probit.]]
Un modello di regressione dove la variabile dipendente è dicotomica, ossia una variabile che può avere come unici valori 0 e 1 o riconducibili ad essi, calcola la probabilità che questa variabile acquisisca valore 1.
Riga 22:
::<math>\ Pr\left(Y=1 \mid X_1, \ldots, X_k\right)=\Phi\left(\mathbf{X}^T \boldsymbol{\beta} \right)=\Phi\left(\beta_0 + \beta_1 X_1 + \ldots + \beta_k X_k \right) </math>
dove:
*<math>YPr</math> èindica la [[variabile dipendente]] [[Variabile dicotomica|dicotomica]]probabilità;
*<math>Y</math> è la [[variabile dipendente]] [[Variabile dicotomica|dicotomica]] con una [[distribuzione bernoulliana]] <math>Y \sim \mathcal{Be}\left(\Phi\left(\mathbf{X}^T \boldsymbol{\beta} \right)\right)</math>;
* <math>\mathbf{X}</math> è il [[Vettore (matematica)|vettore]] di [[variabili indipendenti]] o regressori <math>X_1, \ldots, X_k</math>;
* <math>\boldsymbol{\beta}</math> è il vettore di parametri <math>\beta_0, \ldots, \beta_k</math>;
* <math>\Phi</math> è la funzione di ripartizione della distribuzione normale standard.
 
=== Valore atteso ===
Poiché la variabile dipendente è distribuita <math>Y \sim \mathcal{Be}\left(\Phi\left(\mathbf{X}^T \boldsymbol{\beta} \right)\right)</math>, il suo [[valore atteso]] è
::<math>\mathbb{E}\left[Y=y_i\mid\mathbf{X}\right]=1 \ Pr \left ( Y=1 \mid \mathbf{X} \right )+0 \ Pr \left ( Y=0 \mid \mathbf{X} \right )=\ Pr \left ( Y=1 \mid \mathbf{X} \right )=\Phi\left(\mathbf{X}^T \boldsymbol{\beta} \right)</math>.
 
=== Varianza ===
La [[varianza]] della variabile dipendente risulta dipendere dal vettore dei regressori <math>\mathbf{X}</math>. Infatti
::<math>Var\left(Y=y_i\mid\mathbf{X}\right)=\mathbb{E}\left[Y^2=y_i^2\mid\mathbf{X}\right]-\mathbb{E}\left[Y=y_i\mid\mathbf{X}\right]^2=\Phi\left(\mathbf{X}^T \boldsymbol{\beta} \right)\cdot\left(1-\Phi\left(\mathbf{X}^T \boldsymbol{\beta} \right)\right)</math>.
 
=== Effetto marginale ===
L'effetto sulla variabile dipendente <math>Y</math> dato da un cambiamento in un regressore <math>X_j</math>, chiamato effetto marginale, è calcolato come la derivata del valore atteso di <math>Y</math> rispetto a <math>X_j</math>:
::<math>\frac{\partial}{\partial X_j}\mathbb{E}\left[Y=y_i\mid\mathbf{X}\right] = \Phi\left(\mathbf{X}^T \boldsymbol{\beta} \right) = \phi\left(\mathbf{X}^T \boldsymbol{\beta}\right)\cdot \beta_j</math>
dove <math>\phi</math> è la [[funzione di densità di probabilità]] della [[distribuzione normale]] standard e <math>\beta_j</math> è il parametro associato al regressore <math>X_j</math>.<ref name="Definizione" /> Per il calcolo della derivata il regressore deve essere continuo.
 
== Illustrazione del metodo ==