Bit: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Bibliografia: Aggiunta fonte
m Definizione: Aggiunte note
Riga 13:
{{vedi anche|Entropia (teoria dell'informazione)}}
 
Il concetto di bit è stato introdotto nel 1948 da [[Claude Shannon]], fondando la [[teoria dell'informazione]].<ref name="cita history of computing 1984">{{cita|history of computing 1984}}.</ref><ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}.</ref>
 
Nel suo articolo "[[A Mathematical Theory of Communication]]" Shannon fissa il problema fondamentale della comunicazione come quello di riprodurre ad certo punto, in modo esatto oppure approssimativo che sia, un messaggio selezionato ad un altro punto.
In questo contesto egli evidenzia come l'aspetto significativo del problema dal punto di vista ingegneristico sia che il messaggio viene sempre selezionato da un set di possibili messaggi definito a priori.<ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}.</ref><br>
Da questa considerazione deriva l'intuizione della natura [[probabilità|probabilistica]] dell'[[incertezza]] e quindi, dualmente, dell'[[informazione]].