Algoritmo di Gauss-Newton: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Elimino wikilink da parametri editore, città, anno di {{Cita libro}} come da manuale |
m Bot: numeri di pagina nei template citazione |
||
(Una versione intermedia di un altro utente non mostrate) | |||
Riga 94:
==Convergenza del metodo==
Si può mostrare<ref>Björck (1996), p. 260.</ref> che l'incremento <math>\Delta</math> è una [[direzione di discesa]] per <math>S</math>, e, se l'algoritmo converge, che il limite è un [[punto critico (matematica)|punto stazionario]] di <math>S</math>. Tuttavia, la convergenza non è garantita, nemmeno quella locale come nel [[metodo delle tangenti]], o sotto le comuni condizioni di Wolfe.<ref>{{Cita pubblicazione|titolo=The divergence of the BFGS and Gauss Newton Methods |cognome1=Mascarenhas |rivista=Mathematical Programming |data=2013 |volume=147 |numero=1 |pp=
La velocità di convergenza di Gauss–Newton può diventare quadratica.<ref>Björck (1996), p. 341, 342.</ref> L'algoritmo potrebbe anche convergere lentamente o affatto se la stima iniziale è lontana dal minimo oppure la matrice <math>\mathbf{J_r^\mathsf{T} J_r}</math> è [[condizionamento (matematica)|mal condizionata]]. Per esempio, si consideri il problema con <math>m = 2</math> equazioni e <math>n = 1</math> variabili, dato da
Riga 175:
*{{Cita libro|cognome= Nocedal |nome= Jorge |autore2=Wright, Stephen
|titolo= Numerical optimization
|url= https://archive.org/details/numericaloptimiz0000noce |editore= New York: Springer |anno= 1999 | isbn = 0-387-98793-2 }}
== Collegamenti esterni ==
|