Algoritmo di Gauss-Newton: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
IrishBot (discussione | contributi)
m Elimino wikilink da parametri editore, città, anno di {{Cita libro}} come da manuale
FrescoBot (discussione | contributi)
m Bot: numeri di pagina nei template citazione
 
(Una versione intermedia di un altro utente non mostrate)
Riga 94:
==Convergenza del metodo==
 
Si può mostrare<ref>Björck (1996), p. 260.</ref> che l'incremento <math>\Delta</math> è una [[direzione di discesa]] per <math>S</math>, e, se l'algoritmo converge, che il limite è un [[punto critico (matematica)|punto stazionario]] di <math>S</math>. Tuttavia, la convergenza non è garantita, nemmeno quella locale come nel [[metodo delle tangenti]], o sotto le comuni condizioni di Wolfe.<ref>{{Cita pubblicazione|titolo=The divergence of the BFGS and Gauss Newton Methods |cognome1=Mascarenhas |rivista=Mathematical Programming |data=2013 |volume=147 |numero=1 |pp=253–276253-276 |doi=10.1007/s10107-013-0720-6 |arxiv=1309.7922}}</ref>
 
La velocità di convergenza di Gauss–Newton può diventare quadratica.<ref>Björck (1996), p. 341, 342.</ref> L'algoritmo potrebbe anche convergere lentamente o affatto se la stima iniziale è lontana dal minimo oppure la matrice <math>\mathbf{J_r^\mathsf{T} J_r}</math> è [[condizionamento (matematica)|mal condizionata]]. Per esempio, si consideri il problema con <math>m = 2</math> equazioni e <math>n = 1</math> variabili, dato da
Riga 175:
*{{Cita libro|cognome= Nocedal |nome= Jorge |autore2=Wright, Stephen
|titolo= Numerical optimization
|url= https://archive.org/details/numericaloptimiz0000noce |editore= New York: Springer |anno= 1999 | isbn = 0-387-98793-2 }}
 
== Collegamenti esterni ==