Algoritmo EM

Versione del 20 mar 2022 alle 14:27 di 94.37.57.18 (discussione) (nuova voce)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)

In statistica, un algoritmo expectation–maximization (EM)[1] è un metodo iterativo per trovare stime (locali) di massima verosimiglianza o stime maximum a posteriori (MAP) di parametri di modelli statistici, in cui il modello dipende da variabili latenti (non osservate). L' iterazione di EM alterna l'esecuzione di un passo expectation (E), che crea una funzione per il valore atteso della log-likelihood calcolata usando la stima dei parametri corrente, e un passo maximization (M), che calcola i parametri massimizzando la funzione di log-likelihood attesa trovata al passo E. Tali stime di parametri possono poi essere usate per determinare la distribuzione delle variabili latenti al prossimo passo E step.

  1. ^ A. P. Dempster, N. M. Laird e D. B. Rubin, Maximum Likelihood from Incomplete Data Via theEMAlgorithm, in Journal of the Royal Statistical Society: Series B (Methodological), vol. 39, n. 1, 1977-09, pp. 1–22, DOI:10.1111/j.2517-6161.1977.tb01600.x. URL consultato il 20 marzo 2022.