Matrice di confusione: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
|||
Riga 2:
Nell'ambito dell'[[Intelligenza artificiale]], la '''matrice di confusione''' restituisce una rappresentazione dell'accuratezza di [[classificazione|classificazione statistica]].
Ogni
Attraverso questa matrice è osservabile se vi e' "confusione" nella classificazione di diverse classi.
Attraverso l'uso della matrice di confusione è possibile calcolare il coefficiente kappa, anche conosciuto come coefficiente [[kappa di Cohen]].
==Esempio==
Esaminiamo il caso di una classificazione dove si distinguono tre classi: gatto, cane e coniglio. Nelle
In questo modo si possono ottenere due valori:
Riga 21 ⟶ 22:
!
!
!colspan="3"|
!rowspan="2"|''Somma
|-
Riga 30 ⟶ 31:
!Coniglio
|-
!rowspan="3"|
!Gatto
|5
Riga 63 ⟶ 64:
|-
! colspan=2 |
! colspan=2 align=center | Vaolri<br>
|-
! colspan=2 | !! ''p'' !! ''n'' !! style="padding-left:1em;" | totale
|-
! rowspan=2 valign=middle | Valori<br>
! valign=middle style="padding-right:1em;" | ''p'''
| style="border:thin solid; padding:1em;" | Veri<br>positivi || style="border:thin solid; padding:1em;" | Falsi<br>positivi
|