Matrice di confusione: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(42 versioni intermedie di 22 utenti non mostrate)
Riga 1:
{{s|statistica}}
Nell'ambito dell'del [[IntelligenzaMachine artificialelearning]], la '''matrice di confusione''', detta anche '''tabella di errata classificazione''', restituisce ununa valorerappresentazione dell'accuratezza di [[classificazione|classificazione statistica]].
 
Ogni rigacolonna della matrice rappresenta i valori predetti, mentre ogni colonnariga rappresenta i valori attualireali. AttraversoL'elemento questasulla matriceriga i e' osservabilesulla secolonna vij e'è il numero di casi in cui il classificatore ha classificato la classe "confusionevera" nellai classificazione dicome diverseclasse classij.
Attraverso questa matrice è osservabile se vi è "confusione" nella classificazione di diverse classi.
 
Attraverso l'uso della matrice di confusione e'è possibile calcolare il coefficiente kappa, anche conosciuto come coefficiente [[kappa di Cohen]].
 
==Esempio==
Esaminiamo il caso di una classificazione dove si distinguono tre classi: gatto, cane e coniglio. Nelle righe si scrivono i valori veri, reali. Mentre nelle colonne quelli predetti, stimati dal sistema.
 
{| border="1" cellspacing=0 cellpadding="2"
|+Esempio di matrice di confusione
!
!
!colspan="3"| Predetti
!rowspan="2"|''Somma''
|-
!
!
!Gatto
!Cane
!Coniglio
|-
!rowspan="3"| Reali
!Gatto
|5
|2
|0
|7
|-
!Cane
|3
|3
|2
|8
|-
!Coniglio
|0
|1
|11
|12
|-
!rowspan="2"|''Somma''
|
|8
|6
|13
|27
|}
 
Nell'esempio si può notare che dei 7 gatti reali, il sistema ne ha classificati 2 come cani. Allo stesso modo si può notare come dei 12 conigli veri, solamente 1 è stato classificato erroneamente. Gli oggetti che sono stati classificati correttamente sono indicati sulla diagonale della matrice, per questo è immediato osservare dalla matrice se il classificatore ha commesso o no degli errori.
 
Inoltre, è possibile ottenere due valori di accuratezza significativi:
*''Producer Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori appartenenti alla classe X)
*''User Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori classificati come classe X)
 
Nel caso della classe "gatto", questo ha i seguenti valori (vedi la matrice qui sopra):
*<math>P.A. = 5 / 7 = 71,4 \%</math>
*<math>U.A. = 5 / 8 = 62,5 \%</math>
 
==Matrice di confusione==
Nell'[[apprendimento automatico]] questa tabella puo'può anche essere utilizzata con i valori di "veri positivi"/"[[falso positivo|falsi positivi]]" e "[[falso negativo|falsi negativi]]"/"veri negativi".
 
{| align = center
|-
! colspan=2 | &nbsp;
! colspan=2 align=center | VaolriValori<br>attualipredetti
|-
! colspan=2 | &nbsp; !! ''pn''' !! ''np''' !! style="padding-left:1em;" | totale
|-
! rowspan="2" valign="middle" | Valori<br>predettiReali
! valign=middle style="padding-right:1em;" | ''p'n''
| style="border:thin solid; padding:1em;" | Veri<br>positivi negativi|| style="border:thin solid; padding:1em;" | Falsi<br>positivi
| style="padding-left:1em;" | P'N
|-
! valign=middle style="padding-right:1em;" | ''n'p''
| style="border:thin solid; padding:1em;" | Falsi<br>negativi|| style="border:thin solid; padding:1em;" | Veri<br>negativipositivi
| style="padding-left:1em;" | N'P
|-
! colspan=2 align=right style="padding-right:1em;" | totale
| align=center| PN' || align=center | NP'
|}
 
Così facendo è possibile calcolare:
[[ca:Matriu de confusió]]
* accuratezza: <math>ACC=\frac{(VP+VN)}{(VP+VN+FP+FN)}</math>
[[de:Konfusionsmatrix]]
* probabilità di falso allarme: <math>P_{FA}=\frac{FP}{(VP+FP)}</math>
[[en:Confusion matrix]]
* probabilità di mancato allarme: <math>P_{MA}=\frac{FN}{(VN+FN)}</math>
[[es:Matriz de confusión]]
[[fr:Matrice de confusion]]
 
{{Statistica}}
{{portale|matematica|statistica}}
 
[[Categoria:Intelligenza artificiale]]