Bit: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Collegamenti esterni: Aggiunto il parametro "Nome del soggetto" nel template "FOLDOC"
 
(11 versioni intermedie di 4 utenti non mostrate)
Riga 7:
Il nome è una [[parola macedonia]] dei termini inglesi "'''bi'''nary" (binario) e "digi'''t'''" (cifra).<ref name="Mackenzie 1980">{{cita|Mackenzie 1980}}.</ref>
Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo di [[sistema numerico binario|cifra binaria]], che però formalmente è un concetto distinto.<ref>{{Treccani|v=si|bit}}</ref>
Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che quest'ultimauna cifra binaria codifica esattamente 1 bit di informazione.
 
Il concetto di bit è stato introdotto nel 1948 da [[Claude Shannon]], fondando la [[teoria dell'informazione]].<ref name="cita history of computing 1984">{{cita|History of Computing 1984}}.</ref><ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}.</ref>
Riga 75:
<math> H_b = -K\sum_{i=1}^n p_i \log_{b} p_i </math>
</div>
<small>DefinizioneEspressione dell'[[Entropia (teoria dell'informazione)#Entropia di una sorgente di informazione|entropia di una sorgente d'informazione]]. Convenzionalmente si assume <math>K=1</math> e <math>b=2</math>.</small>
<ref>
Il parametro <math>K</math> non ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. ({{cita|Shannon 2001|p. 10}})<br>
Riga 88:
Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare come [[corollario]] che ''1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi'', come ad esempio l'esito del lancio di una moneta.<ref>{{cita|Shannon 2001|p. 19}}.</ref> In simboli:
 
<div align="center">
Sia <math> E = \{ e_1 , e_2 \}</math> una coppia di eventi indipendenti equiprobabili ( <math>p_i = 1/ 2</math> )
<math> H(E) = H(e_1) + H(e_2) = - \frac 1 2 \log_{2} \left( \frac 1 2 \right) - \frac 1 2 \log_{2} \left( \frac 1 2 \right) = 1\ bit </math>
</div>
 
== Interpretazione ==
 
Una quantità in bit può essere interpretata in 2 modi differenti:
<ref>
Line 125 ⟶ 124:
 
=== Multipli diretti ===
 
Esistono ambiti in cui risulta comodo utilizzare multipli diretti del bit. È il caso ad esempio dell'[[ingegneria delle telecomunicazioni]] e dei [[segnale (elettronica)|segnali]] più in generale.
 
=== Nibble ===
{{vedi anche|Nibble}}
 
Il ''nibble'' è un'unità equivalente a 4 bit.
Questa unità è spesso utilizzata nella rappresentazione [[esadecimale]], poiché un nibble contiene la stessa quantità di informazione di una cifra esadecimale.<ref>
{{cita web
|url=https://history-computer.com/what-is-a-nibble-in-computing-and-what-does-it-equal/
Line 142 ⟶ 140:
</ref>
 
=== Byte ===
{{vedi anche|Byte}}
 
Il ''byte'' è un'unità equivalente a 8 bit; con i relativi multipli è l'unità più utilizzata dal grande pubblico dopo la democratizzazione di [[internet]].
Questo è dovuto alla popolarità delle piattaforme [[PC]] orientate ai byte, che tuttora rappresentano la tipologia dominante.
 
Storicamente, un byte era il numero di bit necessari per codificare un carattere di testo all'interno di un computer (definizione dipendente quindi dall'architettura dell'elaboratore); oggi, tuttavia, assumeè sempre ilconsiderato significatocome diuguale ottoad 8 bit. Un byte può quindi rappresentare 2<sup>8</sup> = 256 distinti valori, come ad esempio i numeri interi tra 0 e 255, o tra -128 e 127. Lo standard [[IEEE 1541|IEEE 1541-2002]] stabilisce che "B" (lettera maiuscola) è il simbolo che indica il byte. IIl Byte,byte ed i suoi multipli di essi, sono sempre utilizzati per indicare la grandezza di file e la capacità di memorizzazione di un computer.
 
=== Parola o Word ===
{{vedi anche|Parola (informatica)}}
 
Nell'[[architettura dei calcolatori]] la ''Parola'' ( in inglese ''Word'' ) è la minima quantità di informazione processabile atomicamente da un [[processore]].
Il numero di bit all'interno di una parola è legata alla grandezza dei [[registro (informatica)|registri]] della [[CPU]] ed alla larghezza dei bus usati per il trasferimento dei dati.
Alcune architetture possono operare atomicamente su sequenze di più parole.<ref>{{cita|Patterson, Hennessy 2015|p. 57}}.</ref>
Line 167 ⟶ 165:
Sulle moderne architetture PC è tipico trovare pagine di 4&nbsp;KiB.<ref>{{cita|Patterson, Hennessy 2015|p. 376}}.</ref>
<!--
== Come quantità di informazione ==
 
La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare di scelta tra due alternative (informazione di un bit), ma è possibile usare anche <math>e</math> ([[e (costante matematica)|numero di Nepero]]), usando dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "'''Nat'''".
 
Line 188 ⟶ 185:
-->
 
== Note ==
<references/>
 
== Bibliografia ==
 
* {{cita pubblicazione
|titolo = Origin of the term Bit
Line 223 ⟶ 219:
 
== Voci correlate ==
{{Div col|cols=2|small=no}}
* [[Algebra di Boole]]
* [[Byte]]
Line 230 ⟶ 225:
* [[Sistema numerico binario]]
* [[Unità di misura]]
{{Div col end}}
 
== Altri progetti ==
{{interprogetto|wikt}}