Matrice di confusione: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(38 versioni intermedie di 21 utenti non mostrate)
Riga 1:
{{s|statistica}}
Nell'ambito dell'del [[IntelligenzaMachine artificialelearning]], la '''matrice di confusione''', detta anche '''tabella di errata classificazione''', restituisce una rappresentazione dell'accuratezza di [[classificazione|classificazione statistica]].
 
Ogni rigacolonna della matrice rappresenta i valori predetti, mentre ogni colonnariga rappresenta i valori attualireali. L’elementoL'elemento sulla riga i e sulla colonna j è il numero di casi in cui il classificatore ha classificato la classe "vera" ji come classe ij.
Attraverso questa matrice e'è osservabile se vi e'è "confusione" nella classificazione di diverse classi.
 
Attraverso l'uso della matrice di confusione e'è possibile calcolare il coefficiente kappa, anche conosciuto come coefficiente [[kappa di Cohen]].
 
==Esempio==
Esaminiamo il caso di una classificazione dove si distinguono tre classi: gatto, cane e coniglio. Nelle righe si scrivono i valori veri, reali. Mentre nelle colonne quelli predetti, stimati dal sistema.
 
{| border="1" cellspacing=0 cellpadding="2"
|+Esempio di matrice di confusione
!
!
!colspan="3"| Predetti
!rowspan="2"|''Somma''
|-
!
!
!Gatto
!Cane
!Coniglio
|-
!rowspan="3"| Reali
!Gatto
|5
|2
|0
|7
|-
!Cane
|3
|3
|2
|8
|-
!Coniglio
|0
|1
|11
|12
|-
!rowspan="2"|''Somma''
|
|8
|6
|13
|27
|}
 
Nell'esempio si può notare che dei 7 gatti reali, il sistema ne ha classificati 2 come cani. Allo stesso modo si può notare come dei 12 conigli veri, solamente 1 è stato classificato erroneamente. Gli oggetti che sono stati classificati correttamente sono indicati sulla diagonale della matrice, per questo è immediato osservare dalla matrice se il classificatore ha commesso o no degli errori.
 
Inoltre, è possibile ottenere due valori di accuratezza significativi:
*''Producer Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori appartenenti alla classe X)
*''User Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori classificati come classe X)
 
Nel caso della classe "gatto", questo ha i seguenti valori (vedi la matrice qui sopra):
*<math>P.A. = 5 / 7 = 71,4 \%</math>
*<math>U.A. = 5 / 8 = 62,5 \%</math>
 
==Matrice di confusione==
Nell'[[apprendimento automatico]] questa tabella puo'può anche essere utilizzata con i valori di "veri positivi"/"[[falso positivo|falsi positivi]]" e "[[falso negativo|falsi negativi]]"/"veri negativi".
 
{| align = center
|-
! colspan=2 | &nbsp;
! colspan=2 align=center | VaolriValori<br>attualipredetti
|-
! colspan=2 | &nbsp; !! ''pn''' !! ''np''' !! style="padding-left:1em;" | totale
|-
! rowspan="2" valign="middle" | Valori<br>predettiReali
! valign=middle style="padding-right:1em;" | ''p'n''
| style="border:thin solid; padding:1em;" | Veri<br>positivi negativi|| style="border:thin solid; padding:1em;" | Falsi<br>positivi
| style="padding-left:1em;" | P'N
|-
! valign=middle style="padding-right:1em;" | ''n'p''
| style="border:thin solid; padding:1em;" | Falsi<br>negativi|| style="border:thin solid; padding:1em;" | Veri<br>negativipositivi
| style="padding-left:1em;" | N'P
|-
! colspan=2 align=right style="padding-right:1em;" | totale
| align=center| PN' || align=center | NP'
|}
 
Così facendo è possibile calcolare:
[[ca:Matriu de confusió]]
* accuratezza: <math>ACC=\frac{(VP+VN)}{(VP+VN+FP+FN)}</math>
[[de:Konfusionsmatrix]]
* probabilità di falso allarme: <math>P_{FA}=\frac{FP}{(VP+FP)}</math>
[[en:Confusion matrix]]
* probabilità di mancato allarme: <math>P_{MA}=\frac{FN}{(VN+FN)}</math>
[[es:Matriz de confusión]]
[[fr:Matrice de confusion]]
 
{{Statistica}}
{{portale|matematica|statistica}}
 
[[Categoria:Intelligenza artificiale]]