Bit: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Collegamenti esterni: Aggiunto il parametro "Nome del soggetto" nel template "FOLDOC"
m Definizione: Aggiornata didascalia
Riga 75:
<math> H_b = -K\sum_{i=1}^n p_i \log_{b} p_i </math>
</div>
<small>DefinizioneEspressione dell'[[Entropia (teoria dell'informazione)#Entropia di una sorgente di informazione|entropia di una sorgente d'informazione]]. Convenzionalmente si assume <math>K=1</math> e <math>b=2</math>.</small>
<ref>
Il parametro <math>K</math> non ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. ({{cita|Shannon 2001|p. 10}})<br>
Riga 88:
Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare come [[corollario]] che ''1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi'', come ad esempio l'esito del lancio di una moneta.<ref>{{cita|Shannon 2001|p. 19}}.</ref> In simboli:
 
<div align="center">
Sia <math> E = \{ e_1 , e_2 \}</math> una coppia di eventi indipendenti equiprobabili ( <math>p_i = 1/ 2</math> )
<math> H(E) = H(e_1) + H(e_2) = - \frac 1 2 \log_{2} \left( \frac 1 2 \right) - \frac 1 2 \log_{2} \left( \frac 1 2 \right) = 1\ bit </math>
</div>
 
== Interpretazione ==