Bit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
→Inizio: Aggiunta immagine |
m Unificate note identiche |
||
Riga 17:
Nel suo articolo "[[A Mathematical Theory of Communication]]" Shannon fissa il problema fondamentale della comunicazione come quello di riprodurre ad certo punto, in modo esatto oppure approssimativo che sia, un messaggio selezionato ad un altro punto.
In questo contesto egli evidenzia come l'aspetto significativo del problema dal punto di vista ingegneristico sia che il messaggio viene sempre selezionato da un set di possibili messaggi definito a priori. <ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}</ref><br>
Da questa considerazione deriva l'intuizione della natura [[probabilità|probabilistica]] dell'[[incertezza]] e quindi, dualmente, dell'[[informazione]].
Riga 60:
Per esempio assumiamo di avere un [[dato]] la cui entropia è pari a <math>n</math> bit:
Se il valore del dato non è conosciuto allora è ragionevole interpretare l'entropia come misura di incertezza: ovvero il valore del dato potrebbe essere uno qualsiasi in un set di dimensione <math>2^n</math>. <ref
Per rimuovere completamente questa incertezza sarà necessario accertarsi del valore effettivo del dato, e cioè equivalentemente scegliere un singolo valore tra quelli possibili.<ref name="cita shannon 2001 p.1"/>
Questa operazione implica ricevere <math>n</math> bit di informazione.
Alternativamente si può dire che il valore esatto "[[autoinformazione|trasporta]]" ( o "possiede", o "rappresenta" ) <math>n</math> bit di informazione.
|