Gradient boosting: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Recupero di 1 fonte/i e segnalazione di 0 link interrotto/i.) #IABot (v2.0 |
|||
Riga 10:
|pp= 512–518
|url= http://papers.nips.cc/paper/1766-boosting-algorithms-as-gradient-descent.pdf
}}</ref><ref name="MasonBaxterBartlettFrean1999b">{{cita libro |cognome1=
▲{{cita libro|cognome1= Mason |nome1=L. |cognome2= Baxter |nome2=J. |cognome3= Bartlett |nome3=P. L. |cognome4= Frean |nome4=Marcus |data=maggio 1999 |titolo=Boosting Algorithms as Gradient Descent in Function Space | url = http://maths.dur.ac.uk/~dma6kp/pdf/face_recognition/Boosting/Mason99AnyboostLong.pdf}}</ref>
Questi ultimi 2 articoli introdussero la visione astratta degli algoritmi di boosting come algoritmi di gradienti funzionali discendenti iterativi; ovvero gli algoritmi che ottimizzano una funzione costo su una funzione spazio scegliendo iterativamente una funzione (ipotesi debole) che punti ad una direzione con gradiente negativo.
Questa visione del gradiente funzionale del boosting ha portato allo sviluppo di algoritmi di boosting in diverse aree del [[machine learning]] e della statistica che vanno oltre la regressione e la classificazione.
|