Matrice di confusione: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
RibotBOT (discussione | contributi)
Nessun oggetto della modifica
 
(30 versioni intermedie di 20 utenti non mostrate)
Riga 1:
{{s|statistica}}
Nell'ambito dell'del [[IntelligenzaMachine artificialelearning]], la '''matrice di confusione''', detta anche '''tabella di errata classificazione''', restituisce una rappresentazione dell'accuratezza di [[classificazione|classificazione statistica]].
 
Ogni rigacolonna della matrice rappresenta i valori predetti, mentre ogni colonnariga rappresenta i valori attualireali. L’elementoL'elemento sulla riga i e sulla colonna j è il numero di casi in cui il classificatore ha classificato la classe "vera" ji come classe ij.
Attraverso questa matrice è osservabile se vi e'è "confusione" nella classificazione di diverse classi.
 
Attraverso l'uso della matrice di confusione è possibile calcolare il coefficiente kappa, anche conosciuto come coefficiente [[kappa di Cohen]].
 
==Esempio==
Esaminiamo il caso di una classificazione dove si distinguono tre classi: gatto, cane e coniglio. Nelle colonnerighe si scrivono i valori attuali, quelli veri, reali. Mentre nelle righecolonne quelli predetti, stimati dal sistema.
 
In questo modo si possono ottenere due valori:
*''Producer Accuracy
*''User Accuracy
 
Nel caso della classe gatto, questo ha i seguenti valori:
*<math>P.A. = 5 / 7 = 71,4 %</math>
*<math>U.A. = 5 / 8 = 62,5 %</math>
 
{| border="1" cellspacing=0 cellpadding="2"
Riga 21 ⟶ 14:
!
!
!colspan="3"| AttualiPredetti
!rowspan="2"|''Somma''
|-
!
Riga 30 ⟶ 23:
!Coniglio
|-
!rowspan="3"| PredettiReali
!Gatto
|5
Riga 47 ⟶ 40:
|1
|11
|1312
|-
!rowspan="2"|''Somma''
|
|8
|6
|1213
|27
|}
 
Nell'esempio si può notare che dei 7 gatti reali, il sistema ne ha classificati 2 come cani. Allo stesso modo si può notare come dei 12 conigli veri, solamente 1 è stato classificato erroneamente. Gli oggetti che sono stati classificati correttamente sono indicati sulla diagonale della matrice, per questo è immediato osservare dalla matrice se il classificatore ha commesso o no degli errori.
 
Inoltre, è possibile ottenere due valori di accuratezza significativi:
*''Producer Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori appartenenti alla classe X)
*''User Accuracy'' di X = (numero di valori correttamente classificati come classe X) / (numero di valori classificati come classe X)
 
Nel caso della classe "gatto", questo ha i seguenti valori (vedi la matrice qui sopra):
*<math>P.A. = 5 / 7 = 71,4 \%</math>
*<math>U.A. = 5 / 8 = 62,5 \%</math>
 
==Matrice di confusione==
Nell'[[apprendimento automatico]] questa tabella puo'può anche essere utilizzata con i valori di "veri positivi"/"[[falso positivo|falsi positivi]]" e "[[falso negativo|falsi negativi]]"/"veri negativi".
 
{| align = center
|-
! colspan=2 | &nbsp;
! colspan=2 align=center | VaolriValori<br>attualipredetti
|-
! colspan=2 | &nbsp; !! ''pn''' !! ''np''' !! style="padding-left:1em;" | totale
|-
! rowspan="2" valign="middle" | Valori<br>predettiReali
! valign=middle style="padding-right:1em;" | ''p'n''
| style="border:thin solid; padding:1em;" | Veri<br>positivi negativi|| style="border:thin solid; padding:1em;" | Falsi<br>positivi
| style="padding-left:1em;" | P'N
|-
! valign=middle style="padding-right:1em;" | ''n'p''
| style="border:thin solid; padding:1em;" | Falsi<br>negativi|| style="border:thin solid; padding:1em;" | Veri<br>negativipositivi
| style="padding-left:1em;" | N'P
|-
! colspan=2 align=right style="padding-right:1em;" | totale
| align=center| PN' || align=center | NP'
|}
 
Così facendo è possibile calcolare:
* accuratezza: <math>ACC=\frac{(VP+VN)}{(VP+VN+FP+FN)}</math>
* probabilità di falso allarme: <math>P_{FA}=\frac{FP}{(VP+FP)}</math>
* probabilità di mancato allarme: <math>P_{MA}=\frac{FN}{(VN+FN)}</math>
 
{{Statistica}}
{{portale|matematica|statistica}}
 
[[Categoria:Intelligenza artificiale]]
[[Categoria:Statistica]]
 
[[ca:Matriu de confusió]]
[[de:Beurteilung eines Klassifikators#Wahrheitsmatrix.3A_Richtige_und_falsche_Klassifikationen]]
[[en:Confusion matrix]]
[[es:Matriz de confusión]]
[[fr:Matrice de confusion]]