Bit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
→Come cifra binaria: Specificazione in nota Etichette: Modifica da mobile Modifica da web per mobile Modifica da mobile avanzata |
→Interpretazione: Nuova sezione |
||
Riga 44:
<math> H(E) = H(e_1) + H(e_2) = - \frac 1 2 \log_{2} \left( \frac 1 2 \right) - \frac 1 2 \log_{2} \left( \frac 1 2 \right) = 1\ bit </math>
</div>
= Interpretazione =
Una quantità in bit può essere interpretata in 2 modi differenti:
<ref>
"Grandezze della forma <math>H = -\sum p_i \log p_i</math> [...] giocano un ruolo centrale nella teoria dell'informazione come misure di informazione, scelta e incertezza".
({{cita|Shannon 2001|p. 10}})
</ref>
* come misura dell'[[autoinformazione|informazione intrinseca]]
* come misura di [[incertezza]] <ref>Scelta ed incertezza sono misure equivalenti.</ref>
Le due interpretazioni sono duali.
Per esempio assumiamo di avere un [[dato]] la cui entropia è pari a <math>n</math> bit:
Se il valore del dato non è conosciuto allora è ragionevole interpretare l'entropia come misura di incertezza: ovvero il valore del dato potrebbe essere uno qualsiasi in un set di dimensione <math>2^n</math>. <ref>{{cita|Shannon 2001|p. 1}}</ref>
Per rimuovere completamente questa incertezza sarà necessario accertarsi del valore effettivo del dato, e cioè equivalentemente scegliere un singolo valore tra quelli possibili.
Questa operazione implica ricevere <math>n</math> bit di informazione.
Alternativamente si può dire che il valore esatto "[[autoinformazione|trasporta]]" ( o "possiede", o "rappresenta" ) <math>n</math> bit di informazione.
<!--
|