Gradient boosting: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Recupero di 1 fonte/i e segnalazione di 0 link interrotto/i.) #IABot (v2.0.9.5 |
mNessun oggetto della modifica |
||
Riga 2:
Costruisce un modello in maniera simile ai metodi di [[boosting]], e li generalizza permettendo l'ottimizzazione di una [[funzione di perdita]] differenziabile arbitraria.
L'idea del gradient boosting è nata dall'osservazione di [[Leo Breiman]]<ref name="Breiman1997">Breiman, L. "[http://statistics.berkeley.edu/sites/default/files/tech-reports/486.pdf Arcing The Edge]" (June 1997)</ref> quel potenziamento può essere interpretato come un [[algoritmo]] di ottimizzazione su una [[Funzione obiettivo|funzione di costo]] adeguata. Gli algoritmi i gradient boosting con regressione esplicita da [[Jerome H. Friedman]]<ref name="Friedman1999a">Friedman, J. H. "[http://www-stat.stanford.edu/~jhf/ftp/trebst.pdf Greedy Function Approximation: A Gradient Boosting Machine.] {{Webarchive|url=https://web.archive.org/web/20130608083258/http://www-stat.stanford.edu/~jhf/ftp/trebst.pdf |date=8 giugno 2013 }}" (February 1999)</ref><ref name="Friedman1999b">Friedman, J. H. "[https://statweb.stanford.edu/~jhf/ftp/stobst.pdf Stochastic Gradient Boosting.] {{Webarchive|url=https://web.archive.org/web/20140801033113/http://statweb.stanford.edu/~jhf/ftp/stobst.pdf |date=1 agosto 2014 }}" (March 1999)</ref> simultaneamente con la più generale prospettiva di gradient boosting funzionale di Llew Mason, Jonathan Baxter, Peter Bartlett and Marcus Frean.<ref name="MasonBaxterBartlettFrean1999a">
{{Cita conferenza|cognome1= Mason |nome1= L. |cognome2= Baxter |nome2= J. |cognome3= Bartlett |nome3= P. L. |cognome4= Frean |nome4= Marcus
|anno= 1999
|