Algoritmo di Gauss-Newton: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
FrescoBot (discussione | contributi)
Riga 161:
== Algoritmi collegati ==
 
In un metodo quasi-Newton, come quello dovuto a ''Davidon, Fletcher e Powell'' oppure a ''Broyden–Fletcher–Goldfarb–Shanno'' (metodo BFGS method), si calcola numericamente una stima della Hessiana <math>\frac{\partial^2 S}{\partial \beta_j \partial\beta_k}</math> usando solo le derivate prime <math>\frac{\partial r_i}{\partial\beta_j}</math>, in modo che solo dopo <math>n</math> cicli di perfezionamento il metodo si avvicina approssimativamente a quello di Newton in termini di prestazioni. Da notare che i metodi quasi-Newton possono minimizzare funzioni arbitrarie a valori reali, mentre Gauss–Newton, Levenberg–Marquardt, ecc. risolvono solo problemi di minimi quadrati non lineari.
 
Un altro metodo per risolvere problemi di minimo usando solo derivate prime è la [[discesa del gradiente]]. Tuttavia, quest'ultimo metodo non considera le derivate seconde nemmeno approssimativamente, perciò è altamente inefficiente per molte funzioni, specialmente se i parametri hanno una forte correlazione.