Regressione dei quantili: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica |
Funzionalità collegamenti suggeriti: 3 collegamenti inseriti. |
||
(12 versioni intermedie di 7 utenti non mostrate) | |||
Riga 1:
La '''regressione dei quantili'''
La regressione mediana si ottiene minimizzando la somma degli scarti assoluti, mentre per altri quantili <math>\tau \in [0,1]</math>, la [[funzione di perdita]] è
Per costruzione, la retta (o iperpiano) di regressione si trova al di sopra della proporzione <math>\tau</math> delle osservazioni del campione. Perciò, nel caso della mediana (<math>\tau = 0.5</math>) metà delle osservazioni si troverà sopra alla retta di regressione e metà sotto.
==
L'idea di stimare la pendenza della regressione mediana, un importante teorema a proposito della minimizzazione della somma degli scarti assoluti e un algoritmo geometrico per costruire la regressione mediana sono stati proposti nel 1760 da
==
La regressione dei quantili è il metodo da utilizzare se interessa stimare l'intera distribuzione condizionata della variabile di risposta, e non solo il suo [[valore atteso]]. In questo senso, è possibile valutare simultaneamente il comportamento di diversi quantili
Un vantaggio della regressione mediana è che la stima dei parametri risulta più robusta a valori estremi, esattamente come la mediana lo è rispetto alla media.
Lo svantaggio principale della regressione dei quantili riguarda la soluzione del problema di minimizzazione: mentre il metodo dei minimi quadrati ha una soluzione in forma chiusa, la regressione dei quantili richiede l'impiego di un metodo di [[programmazione lineare]]. Inoltre gli stimatori degli stessi parametri hanno per la regressione in
La regressione dei quantili ha un'altra importante applicazione se il quantile di interesse è estremo, come <math>0.05</math> o <math>0.95</math>: in questa maniera si possono stimare delle bande di confidenza per la variabile dipendente senza assumere per essa una particolare distribuzione condizionata.
== Proprietà asintotiche ==
Per
: <math>\sqrt{n}(\hat{\beta}_{\tau}-\beta_{\tau})\overset{d}{\rightarrow}N(0,\tau(1-\tau)D^{-1}\Omega_{x}D^{-1}),</math>
dove
: <math>D=E(f_{Y}(X\beta)XX^{\prime})</math> e
Stime dirette della matrice di varianza-covarianza asintotiche non sono sempre soddisfacenti. L'inferenza sui parametri può essere condotta con il [[metodo bootstrap]]<ref>{{Cita pubblicazione|nome=Masha|cognome=Kocherginsky|data=2005-03-01|titolo=Practical Confidence Intervals for Regression Quantiles|rivista=Journal of Computational and Graphical Statistics|volume=14|numero=1|pp=
== Proprietà di equivarianza ==
Per qualsiasi
: <math>\hat{\beta}(\tau;aY,X)=a\hat{\beta}(\tau;Y,X),</math>
: <math>\hat{\beta}(\tau;-aY,X)=-a\hat{\beta}(1-\tau;Y,X).</math>
Per qualsiasi <math>\gamma\in
: <math>\hat{\beta}(\tau;Y+X\gamma,X)=\hat{\beta}(\tau;Y,X)+\gamma .</math>
Sia
: <math>\hat{\beta}(\tau;Y,XA)=A^{-1}\hat{\beta}(\tau;Y,X) .</math>
===Equivarianza rispetto a trasformazioni monotone<ref>{{Cita pubblicazione|nome=Roger|cognome=Koenker|data=1978-01|titolo=Regression Quantiles|rivista=Econometrica|volume=46|numero=1|p=33|accesso=2018-11-23|doi=10.2307/1913643|url=https://dx.doi.org/10.2307/1913643|nome2=Gilbert|cognome2=Bassett}}</ref>===
Se
: <math>h(Q_{Y|X}(\tau))\equiv Q_{h(Y)|X}(\tau).</math>
Poichè la regressione dei quantili non assume generalmente una distribuzione specifica per gli errori, e dunque una verosimiglianza calcolabile, metodi bayesiani, quali ad esempio i [[Modello gerarchico|modelli gerarchici]], non sono immediatamente applicabili. Per risolvere questo problema si utilizza la distribuzione asimmetrica di Laplace per la stima della verosimiglianza<ref>{{Cita pubblicazione|nome=Hideo|cognome=Kozumi|data=2011-11-01|titolo=Gibbs sampling methods for Bayesian quantile regression|rivista=Journal of Statistical Computation and Simulation|volume=81|numero=11|pp=1565–1578|accesso=2017-11-09|doi=10.1080/00949655.2010.496117|url=http://dx.doi.org/10.1080/00949655.2010.496117|nome2=Genya|cognome2=Kobayashi}}</ref>, questo perché il [[metodo della massima verosimiglianza]] risulta in questo caso nelle stesse stime della regressione dei quantili. L'inferenza a posteriori, comunque, va interpretata con attenzione, perché la distribuzione utilizzata nella stima non corrisponde, in genere, a quella degli errori. Yang e He<ref>{{Cita pubblicazione|nome=Yunwen|cognome=Yang|data=2012-04|titolo=Bayesian empirical likelihood for quantile regression|rivista=The Annals of Statistics|volume=40|numero=2|pp=1102–1131|lingua=EN|accesso=2017-11-09|doi=10.1214/12-aos1005|url=https://projecteuclid.org/euclid.aos/1342625463|nome2=Xuming|cognome2=He}}</ref> hanno dimostrato che si può aver un'inferenza a posteriori valida, ammesso però che la distribuzione utilizzata nella stima corrisponde a quella empirica.▼
==Metodi bayesiani per la regressione dei quantili==
▲
==
<references />
==Bibliografia==
* {{Cita libro|Joshua D.|Angrist|titolo=Mostly harmless econometrics : an empiricist's companion|url=https://www.worldcat.org/oclc/231586808|data=2009|editore=Princeton University Press|pp=269-291|OCLC=231586808|ISBN=9780691120348}}
* {{Cita libro|Roger|Koenker|anno= 2005|titolo=Quantile regression|url=https://www.worldcat.org/oclc/61895919|data=2005|editore=Cambridge University Press|OCLC=61895919|ISBN=0521608279}}
{{portale|statistica}}
[[Categoria:Analisi di regressione]]
|