Bit: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Definizione: Nuova sezione
Come quantità di informazione: Rimosse informazioni ora ridondanti, o comunque solo tangenzialmente collegate all'argomento della voce. Temporanemenente nascoste alcune informazioni interessanti per motivi di formattazione e leggibilità.
Riga 45:
</div>
 
<!--
==Come quantità di informazione==
In questo contesto, un ''bit'' rappresenta l'unità di misura della quantità d'informazione.
 
Matematicamente, la quantità d'informazione in bit di un evento è l'opposto del logaritmo in base due della probabilità di tale evento. La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare di scelta tra due alternative (informazione di un bit), ma è possibile usare anche <math>e</math> ([[e (costante matematica)|numero di Nepero]]), usando dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "'''Nat'''".
Questo concetto di bit è stato introdotto dalla [[teoria dell'informazione]] di [[Claude Shannon]] nel [[1948]], ed è usato nel campo della [[compressione dati]] e delle trasmissioni numeriche.
 
Intuitivamente equivale alla scelta tra due valori (sì/no, vero/falso, acceso/spento) quando questi hanno la stessa probabilità di essere scelti. In generale, per eventi non necessariamente equiprobabili, la quantità d'informazione di un evento rappresenta la "sorpresa" nel constatare il verificarsi di tale evento; per esempio, se un evento è certo, il suo verificarsi non sorprende nessuno, quindi il suo contenuto informativo è nullo; se invece un evento è raro, il suo verificarsi è sorprendente, quindi il suo contenuto informativo è alto.
 
Matematicamente, la quantità d'informazione in bit di un evento è l'opposto del logaritmo in base due della probabilità di tale evento. La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare di scelta tra due alternative (informazione di un bit), ma è possibile usare anche <math>e</math> ([[e (costante matematica)|numero di Nepero]]), usando dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "'''Nat'''".
 
Nel caso di due eventi equiprobabili, ognuno ha probabilità 0,5, e quindi la loro quantità di informazione è −log<sub>2</sub>(0,5) = 1 bit.
 
Se un evento è impossibile la probabilità è zero, cioè la sua quantità di informazione è infinita.
 
Se un evento è certo, la sua probabilità è uno e la sua quantità di informazione è −log<sub>2</sub>(1) = 0 bit.
 
Se ci sono due possibili eventi, uno con probabilità 25% e l'altro con probabilità 75%, il verificarsi del primo evento convoglia l'informazione di −log<sub>2</sub>(0,25) = 2 bit, mentre il verificarsi del secondo evento convoglia l'informazione di −log<sub>2</sub>(0,75) = ~0,415 bit.
Riga 75 ⟶ 65:
 
Cioè la sorgente genera esattamente un bit per ogni evento.
-->
 
== Come cifra binaria ==