Matrice di confusione

Versione del 6 set 2010 alle 17:28 di Llorenzi (discussione | contributi) (Nuova pagina: {{s|statistica}} Nell'ambito dell'Intelligenza artificiale, la '''matrice di confusione''' restituisce un valore dell'accuratezza di [[classificazione|classificazione ...)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)

Nell'ambito dell'Intelligenza artificiale, la matrice di confusione restituisce un valore dell'accuratezza di classificazione statistica.

Ogni riga della matrice rappresenta i valori predetti, mentre ogni colonna rappresenta i valori attuali. Attraverso questa matrice e' osservabile se vi e' "confusione" nella classificazione di diverse classi.

Attraverso l'uso della matrice di confusione e' possibile calcolare il coefficiente kappa, anche conosciuto come coefficiente di Cohen.

Matrice di confusione

Nell'apprendimento automatico questa tabella puo' anche essere utilizzata con i valori di "veri positivi"/"falsi positivi" e "falsi negativi"/"veri negativi".

  Vaolri
attuali
  p n totale
Valori
predetti
p' Veri
positivi
Falsi
positivi
P'
n' Falsi
negativi
Veri
negativi
N'
totale P N