Regressione logistica multinomiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Note: fix rif.
Etichetta: Bozza o sandbox pubblicata da non AV
 
(2 versioni intermedie di uno stesso utente non sono mostrate)
Riga 1:
{{References|30em}}{{References|30em}}
 
In [[statistica]] e [[apprendimento automatico]] la '''regressione logistica multinomiale''' è un metodo [[Classificazione statistica|di classificazione]] che generalizza [[Modello logit|la regressione logistica]] al caso dei problemi ''multiclasse'', cioè con più di due possibili esiti discreti.<ref>{{Cita libro|nome=William H.|cognome=Greene|titolo=Econometric Analysis|edizione=Seventh|anno=2012|editore=Pearson Education|pp=803–806|ISBN=978-0-273-75356-8}}</ref> Si tratta, cioè, di un modello utilizzato per predire le probabilità dei diversi possibili valori di una [[Variabili dipendenti e indipendenti|variabile dipendente]] distribuita categoricamente, dato un insieme di [[Variabili dipendenti e indipendenti|variabili indipendenti]] (che possono essere a valori reali, a valori binari, a valori categorici, ecc.).
 
Riga 209 ⟶ 207:
 
# In generale, se <math>X \sim \operatorname{EV}_1(a,b)</math> e <math>Y \sim \operatorname{EV}_1(a,b)</math> allora <math>X - Y \sim \operatorname{Logistica}(0,b).</math> Ciò significa che la differenza di due variabili [[Variabili indipendenti e identicamente distribuite|indipendenti con distribuzione identica]] dei valori estremi segue la [[distribuzione logistica]], e il primo parametro è irrilevante. Ciò è comprensibile poiché il primo parametro è un ''parametro di posizione'', ovvero sposta la media di una quantità fissa e se due valori vengono entrambi spostati della stessa quantità, la loro differenza rimane invariata. Ciò significa che tutti gli enunciati affermazioni relazionali alla base della probabilità di una data scelta coinvolgono la distribuzione logistica, il che rende la scelta iniziale della distribuzione dei valori estremi, che sembrava piuttosto arbitraria, in qualche modo più comprensibile.
# Il secondo parametro in una distribuzione di valori estremi o logistica è un ''parametro di scala'', tale che se <math>X \sim \operatorname{Logistic}(0,1)</math> Poiallora <math>bX \sim \operatorname{Logistic}(0,b).</math> Ciò significa che l'effetto dell'utilizzo di una variabile di errore con un parametro di scala arbitrario al posto della scala 1 può essere compensato semplicemente moltiplicando tutti i vettori di regressione per la stessa scala. Insieme al punto precedente, questo dimostra che l'utilizzo di una distribuzione standard dei valori estremi (posizione 0, scala 1) per le variabili di errore non comporta alcuna perdita di generalità rispetto all'utilizzo di una distribuzione dei valori estremi arbitraria. Difatti il modello è non identificabile (non c'è un singolo insieme di coefficienti ottimali) se si utilizza la distribuzione più generale.
# Poiché vengono utilizzate solo le differenze dei vettori dei coefficienti di regressione, l'aggiunta a tutti i vettori di coefficienti di una costante arbitraria non ha alcun effetto sul modello. Ciò significa che, proprio come nel modello log-lineare, solo ''K''&nbsp;−&nbsp;1 dei vettori dei coefficienti è identificabile e l'ultimo può essere impostato su un valore arbitrario (ad esempio 0).
 
Riga 231 ⟶ 229:
 
: <math>-\log L = - \sum_{i=1}^n \sum_{j=1}^K \delta_{j,y_i} \log(P(Y_i=j))= - \sum_{j=1}^K\sum_{y_i=j}\log(P(Y_i=j)).</math>
 
== Applicazione nell'elaborazione del linguaggio naturale ==
 
== Voci correlate ==
Riga 243 ⟶ 239:
 
{{apprendimento automatico}}
{{Statistica}}
 
[[Categoria:Algoritmi di classificazione]]
[[Categoria:Apprendimento automatico]]