Perplessità

misura di predicibilità basata sull'entropia in teoria dell'informazione
Versione del 5 mar 2025 alle 13:45 di Capagira (discussione | contributi) (bozza)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)

In Teoria dell'informazione, la perplessità è una misura dell'incertezza riguardo il valore di un campione tratto da una distribuzione di probabilità discreta.

È una misura di predicibilità legata all'entropia: maggiore la perplessità, meno probabile che un osservatore riesca a predire un valore estratto dalla distribuzione.

Il termine è stata proposto originariamente nel 1977 in un lavoro di F. Jelinek et al. sul riconoscimento vocale.

Essa è molto usata nell'apprendimento automatico e nella modellizzazione statistica.

Definizione

La perplessità   di una distribuzione discreta   è definita come segue:

 

dove   è l'entropia (in bit) della distribuzione e   varia su tutti gli eventi.

Si noti che la base del logaritmo non è necessariamente  , essendone la perplessità indipendente a patto che entropia ed esponenziale usino una stessa base.

Riferimenti

  • Jelinek, F.; Mercer, R. L.; Bahl, L. R.; Baker, J. K. (1977). "Perplexity—a measure of the difficulty of speech recognition tasks". The Journal of the Acoustical Society of America. 62 (S1): S63. bibcode:1977ASAJ...62Q..63J. doi:10.1121/1.2016299. ISSN 0001-4966.