Matrice di confusione: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
(41 versioni intermedie di 22 utenti non mostrate) | |||
Riga 1:
{{s|statistica}}
Nell'ambito
Ogni
Attraverso questa matrice è osservabile se vi è "confusione" nella classificazione di diverse classi.
Attraverso l'uso della matrice di confusione
==Esempio==
Esaminiamo il caso di una classificazione dove si distinguono tre classi: gatto, cane e coniglio. Nelle righe si scrivono i valori veri, reali. Mentre nelle colonne quelli predetti, stimati dal sistema.
{| border="1" cellspacing=0 cellpadding="2"
|+Esempio di matrice di confusione
!
!
!colspan="3"| Predetti
!rowspan="2"|''Somma''
|-
!
!
!Gatto
!Cane
!Coniglio
|-
!rowspan="3"| Reali
!Gatto
|5
|2
|0
|7
|-
!Cane
|3
|3
|2
|8
|-
!Coniglio
|0
|1
|11
|12
|-
!rowspan="2"|''Somma''
|
|8
|6
|13
|27
|}
Nell'esempio si può notare che dei 7 gatti reali, il sistema ne ha classificati 2 come cani. Allo stesso modo si può notare come dei 12 conigli veri, solamente 1 è stato classificato erroneamente. Gli oggetti che sono stati classificati correttamente sono indicati sulla diagonale della matrice, per questo è immediato osservare dalla matrice se il classificatore ha commesso o no degli errori.
Inoltre, è possibile ottenere due valori di accuratezza significativi:
*''Producer Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori appartenenti alla classe X)
*''User Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori classificati come classe X)
Nel caso della classe "gatto", questo ha i seguenti valori (vedi la matrice qui sopra):
*<math>P.A. = 5 / 7 = 71,4 \%</math>
*<math>U.A. = 5 / 8 = 62,5 \%</math>
==Matrice di confusione==
Nell'[[apprendimento automatico]] questa tabella
{| align = center
|-
! colspan=2 |
! colspan=2 align=center |
|-
! colspan=2 | !! ''
|-
! rowspan="2" valign="middle" | Valori<br>
! valign=middle style="padding-right:1em;" | ''
| style="border:thin solid; padding:1em;" | Veri<br>
| style="padding-left:1em;" |
|-
! valign=middle style="padding-right:1em;" | ''
| style="border:thin solid; padding:1em;" | Falsi<br>negativi|| style="border:thin solid; padding:1em;" | Veri<br>
| style="padding-left:1em;" |
|-
! colspan=2 align=right style="padding-right:1em;" | totale
| align=center|
|}
Così facendo è possibile calcolare:
* accuratezza: <math>ACC=\frac{(VP+VN)}{(VP+VN+FP+FN)}</math>
* probabilità di falso allarme: <math>P_{FA}=\frac{FP}{(VP+FP)}</math>
* probabilità di mancato allarme: <math>P_{MA}=\frac{FN}{(VN+FN)}</math>
{{Statistica}}
{{portale|matematica|statistica}}
[[Categoria:Intelligenza artificiale]]
|