Regressione dei quantili: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
FrescoBot (discussione | contributi)
Funzionalità collegamenti suggeriti: 3 collegamenti inseriti.
 
(Una versione intermedia di un altro utente non mostrate)
Riga 6:
 
==Storia==
L'idea di stimare la pendenza della regressione mediana, un importante teorema a proposito della minimizzazione della somma degli scarti assoluti e un algoritmo geometrico per costruire la regressione mediana sono stati proposti nel 1760 da [[Ruggero Giuseppe Boscovich|Ruđer Josip Bošković]], un prete gesuita di Dubrovnik<ref>{{Cita pubblicazione|nome=Stephen M.|cognome=Stigler|data=1984-12-01|titolo=Studies in the history of probability and statistics XL Boscovich, Simpson and a 1760 manuscript note on fitting a linear relation|rivista=Biometrika|volume=71|numero=3|pp=615–620615-620|accesso=2017-11-09|doi=10.1093/biomet/71.3.615|url=https://academic.oup.com/biomet/article/71/3/615/258808}}</ref><ref>{{cita|Koenker|p. 4}}.</ref> e sono perciò molto più antichi del metodo dei minimi quadrati<ref name=":0" />. I calcoli necessari all'analisi della regressione mediana sono però particolarmente ostici per dataset più grandi, se confrontati con quelli del metodo dei minimi quadrati; per cui questo è divenuto molto più popolare di quello dei minimi scarti assoluti, fin dalla sua formulazione. La grande diffusione dei computer nell'ultima parte del ventesimo secolo ha permesso una nuova popolarità per la regressione dei quantili.
 
==Confronto con la regressione in media==
La regressione dei quantili è il metodo da utilizzare se interessa stimare l'intera distribuzione condizionata della variabile di risposta, e non solo il suo [[valore atteso]]. In questo senso, è possibile valutare simultaneamente il comportamento di diversi quantili. Il suo primo utilizzo è tuttavia quello della stima della mediana condizionata, in questo caso è alternativa alla regressione in media (metodo dei minimi quadrati).
 
Un vantaggio della regressione mediana è che la stima dei parametri risulta più robusta a valori estremi, esattamente come la mediana lo è rispetto alla media. Confrontare le stime della regressione mediana con quelle della regressione in media può rivelare se degli [[outlier]] influenzano i risultati<ref name=":0">{{Cita libro|nome=Fahrmeir,|cognome=L.|titolo=Regression : models, methods and applications|url=https://www.worldcat.org/oclc/843758031|OCLC=843758031|ISBN=9783642343339}}</ref>.
 
Lo svantaggio principale della regressione dei quantili riguarda la soluzione del problema di minimizzazione: mentre il metodo dei minimi quadrati ha una soluzione in forma chiusa, la regressione dei quantili richiede l'impiego di un metodo di [[programmazione lineare]]. Inoltre gli stimatori degli stessi parametri hanno per la regressione in mediana una maggior varianza e una convergenza alla [[distribuzione normale]] più problematica. Non è assolutamente possibile sfruttare la distribuzione esatta degli stimatori con campioni piccoli, come invece è possibile con il metodo dei minimi quadrati se gli errori si distribuiscono normalmente.
 
La regressione dei quantili ha un'altra importante applicazione se il quantile di interesse è estremo, come <math>0.05</math> o <math>0.95</math>: in questa maniera si possono stimare delle bande di confidenza per la variabile dipendente senza assumere per essa una particolare distribuzione condizionata.
Riga 22:
dove
: <math>D=E(f_{Y}(X\beta)XX^{\prime})</math> e <math>\Omega_{x}=E(X^{\prime} X) .</math>
Stime dirette della matrice di varianza-covarianza asintotiche non sono sempre soddisfacenti. L'inferenza sui parametri può essere condotta con il [[metodo bootstrap]]<ref>{{Cita pubblicazione|nome=Masha|cognome=Kocherginsky|data=2005-03-01|titolo=Practical Confidence Intervals for Regression Quantiles|rivista=Journal of Computational and Graphical Statistics|volume=14|numero=1|pp=41–5541-55|accesso=2017-11-09|doi=10.1198/106186005x27563|url=https://dx.doi.org/10.1198/106186005X27563|nome2=Xuming|cognome2=He|nome3=Yunming|cognome3=Mu}}</ref>.
 
== Proprietà di equivarianza ==
Riga 33:
: <math>\hat{\beta}(\tau;Y,XA)=A^{-1}\hat{\beta}(\tau;Y,X) .</math>
 
===Equivarianza rispetto a trasformazioni monotone<ref>{{Cita pubblicazione|nome=Roger|cognome=Koenker|data=1978-01|titolo=Regression Quantiles|rivista=Econometrica|volume=46|numero=1|ppp=33|accesso=2018-11-23|doi=10.2307/1913643|url=https://dx.doi.org/10.2307/1913643|nome2=Gilbert|cognome2=Bassett}}</ref>===
Se <math>h</math> è una funzione monotona crescente in <math>\mathbb R</math>, vale:
: <math>h(Q_{Y|X}(\tau))\equiv Q_{h(Y)|X}(\tau).</math>
Riga 40:
 
==Metodi bayesiani per la regressione dei quantili==
Poiché la regressione dei quantili non assume generalmente una distribuzione specifica per gli errori, e dunque una verosimiglianza calcolabile, metodi bayesiani, quali ad esempio i [[Modello gerarchico|modelli gerarchici]], non sono immediatamente applicabili. Per risolvere questo problema si utilizza la [[distribuzione asimmetrica di Laplace]] per la stima della verosimiglianza<ref>{{Cita pubblicazione|nome=Hideo|cognome=Kozumi|data=2011-11-01|titolo=Gibbs sampling methods for Bayesian quantile regression|rivista=Journal of Statistical Computation and Simulation|volume=81|numero=11|pp=1565–15781565-1578|accesso=2017-11-09|doi=10.1080/00949655.2010.496117|url=https://dx.doi.org/10.1080/00949655.2010.496117|nome2=Genya|cognome2=Kobayashi}}</ref>, questo perché il [[metodo della massima verosimiglianza]] risulta in questo caso nelle stesse stime della regressione dei quantili. L'inferenza a posteriori, comunque, va interpretata con attenzione, perché la distribuzione utilizzata nella stima non corrisponde, in genere, a quella degli errori. Yang e He<ref>{{Cita pubblicazione|nome=Yunwen|cognome=Yang|data=2012-04|titolo=Bayesian empirical likelihood for quantile regression|rivista=The Annals of Statistics|volume=40|numero=2|pp=1102–11311102-1131|lingua=EN|accesso=2017-11-09|doi=10.1214/12-aos1005|url=https://projecteuclid.org/euclid.aos/1342625463|nome2=Xuming|cognome2=He}}</ref> hanno dimostrato che si può aver un'inferenza a posteriori valida, ammesso però che la distribuzione utilizzata nella stima corrisponde a quella empirica.
 
==Note==