Matrice di confusione: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Annullate le modifiche di 79.3.237.111 (discussione), riportata alla versione precedente di Taueres |
Nessun oggetto della modifica |
||
(21 versioni intermedie di 18 utenti non mostrate) | |||
Riga 1:
{{s|statistica}}
Nell'ambito
Ogni colonna della matrice rappresenta i valori predetti, mentre ogni riga rappresenta i valori
Attraverso questa matrice è osservabile se vi
Attraverso l'uso della matrice di confusione è possibile calcolare il coefficiente kappa, anche conosciuto come coefficiente [[kappa di Cohen]].
==Esempio==
Esaminiamo il caso di una classificazione dove si distinguono tre classi: gatto, cane e coniglio. Nelle righe si scrivono i valori
{| border="1" cellspacing=0 cellpadding="2"
Riga 15:
!
!colspan="3"| Predetti
!rowspan="2"|''Somma''
|-
!
Riga 23:
!Coniglio
|-
!rowspan="3"|
!Gatto
|5
Riga 40:
|1
|11
|
|-
!rowspan="2"|''Somma''
|
|8
|6
|
|27
|}
Nell'esempio si può notare che dei 7 gatti reali, il sistema ne ha classificati 2 come cani. Allo stesso modo si può notare come dei 12 conigli veri, solamente 1 è stato classificato erroneamente. Gli oggetti che sono stati classificati correttamente sono indicati sulla diagonale della matrice, per questo è immediato osservare dalla matrice se il classificatore ha commesso o no degli errori.
Inoltre, è possibile ottenere due valori di accuratezza significativi:
*''Producer Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori appartenenti alla classe X)
*''User Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori classificati come classe X)
Nel caso della classe "gatto", questo ha i seguenti valori (vedi la matrice qui sopra):
*<math>P.A. = 5 / 7 = 71,4 \%</math>
*<math>U.A. = 5 / 8 = 62,5 \%</math>
==Matrice di confusione==
Nell'[[apprendimento automatico]] questa tabella
{| align = center
|-
! colspan=2 |
! colspan=2 align=center |
|-
! colspan=2 | !! ''n''' !! ''p''' !! style="padding-left:1em;" | totale
|-
! rowspan="2" valign="middle" | Valori<br>
! valign=middle style="padding-right:1em;" | ''n''
| style="border:thin solid; padding:1em;" | Veri<br>negativi|| style="border:thin solid; padding:1em;" | Falsi<br>
| style="padding-left:1em;" | N
|-
! valign=middle style="padding-right:1em;" | ''p''
| style="border:thin solid; padding:1em;" | Falsi<br>
| style="padding-left:1em;" | P
|-
Riga 81 ⟶ 83:
|}
* accuratezza: <math>ACC=\frac{(VP+VN)}{(VP+VN+FP+FN)}</math>
*
*
{{Statistica}}
{{portale|matematica|statistica}}
[[Categoria:Intelligenza artificiale]]
[[Categoria:Statistica]]
|