Algoritmo EM: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
piccole correzioni refusi
m + wikilink
Riga 1:
In [[statistica]], un '''algoritmo''' '''expectation–maximization''' ('''EM''')<ref>{{Cita pubblicazione|nome=A. P.|cognome=Dempster|nome2=N. M.|cognome2=Laird|nome3=D. B.|cognome3=Rubin|data=1977-09|titolo=Maximum Likelihood from Incomplete Data Via theEMAlgorithm|rivista=Journal of the Royal Statistical Society: Series B (Methodological)|volume=39|numero=1|pp=1–22|accesso=2022-03-20|doi=10.1111/j.2517-6161.1977.tb01600.x|url=http://dx.doi.org/10.1111/j.2517-6161.1977.tb01600.x}}</ref> è un metodo iterativo per trovare [[Stima|stime]] (locali) di [[Metodo della massima verosimiglianza|massima verosimiglianza]] (o le stime [[maximum a posteriori]]) di parametri di modelli statistici, in cui il modello dipende da [[Variabile casuale|variabili latenti]] (non osservate). L' iterazione di EM alterna l'esecuzione di un passo ''expectation'' (E), che crea una funzione per il valore atteso della ''log-likelihood'' calcolata usando la stima dei parametri corrente, e un passo ''maximization'' (M), che calcola i parametri massimizzando la funzione di log-likelihood attesa trovata al passo ''E''. Tali stime di parametri possono poi essere usate per determinare la distribuzione delle variabili latenti al prossimo passo E step.
 
== Descrizione ==