Bit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Menzionati i sinonimi arcaici del Bit |
|||
(14 versioni intermedie di 5 utenti non mostrate) | |||
Riga 7:
Il nome è una [[parola macedonia]] dei termini inglesi "'''bi'''nary" (binario) e "digi'''t'''" (cifra).<ref name="Mackenzie 1980">{{cita|Mackenzie 1980}}.</ref>
Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo di [[sistema numerico binario|cifra binaria]], che però formalmente è un concetto distinto.<ref>{{Treccani|v=si|bit}}</ref>
Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che
Il concetto di bit è stato introdotto nel 1948 da [[Claude Shannon]], fondando la [[teoria dell'informazione]].<ref name="cita history of computing 1984">{{cita|History of Computing 1984}}.</ref><ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}.</ref>
In seguito furono proposti alcuni nomi alternativi come Binit e Bigit, che tuttavia non sono mai entrati nell'uso comune.<ref>{{cita|History of Computing
Nonostante la loro impopolarità questi termini compaiono occasionalmente in vari scritti come sinonimo di Bit.<ref>
{{cita web
Riga 75:
<math> H_b = -K\sum_{i=1}^n p_i \log_{b} p_i </math>
</div>
<small>
<ref>
Il parametro <math>K</math> non ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. ({{cita|Shannon 2001|p. 10}})<br>
Riga 88:
Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare come [[corollario]] che ''1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi'', come ad esempio l'esito del lancio di una moneta.<ref>{{cita|Shannon 2001|p. 19}}.</ref> In simboli:
Sia <math> E = \{ e_1 , e_2 \}</math> una coppia di eventi indipendenti equiprobabili ( <math>p_i = 1/ 2</math> )
<math> H(E) = H(e_1) + H(e_2) = - \frac 1 2 \log_{2} \left( \frac 1 2 \right) - \frac 1 2 \log_{2} \left( \frac 1 2 \right) = 1\ bit </math>
== Interpretazione ==
Una quantità in bit può essere interpretata in 2 modi differenti:
<ref>
Line 125 ⟶ 124:
=== Multipli diretti ===
Esistono ambiti in cui risulta comodo utilizzare multipli diretti del bit. È il caso ad esempio dell'[[ingegneria delle telecomunicazioni]] e dei [[segnale (elettronica)|segnali]] più in generale.
=== Nibble ===
{{vedi anche|Nibble}}
Il ''nibble'' è un'unità equivalente a 4 bit.
Questa unità è spesso utilizzata nella rappresentazione
{{cita web
|url=https://history-computer.com/what-is-a-nibble-in-computing-and-what-does-it-equal/
Line 142 ⟶ 140:
</ref>
=== Byte ===
{{vedi anche|Byte}}
Il ''byte'' è un'unità equivalente a 8 bit; con i relativi multipli è l'unità più utilizzata dal grande pubblico dopo la democratizzazione di [[internet]].
Questo è dovuto alla popolarità delle piattaforme [[PC]] orientate ai byte, che tuttora rappresentano la tipologia dominante.
Storicamente, un byte era il numero di bit necessari per codificare un carattere di testo all'interno di un computer (definizione dipendente quindi dall'architettura dell'elaboratore); oggi, tuttavia,
=== Parola o Word ===
{{vedi anche|Parola (informatica)}}
Nell'[[architettura dei calcolatori]] la ''Parola'' (
Il numero di bit all'interno di una parola è legata alla grandezza dei [[registro (informatica)|registri]] della [[CPU]] ed alla larghezza dei bus usati per il trasferimento dei dati.
Alcune architetture possono operare atomicamente su sequenze di più parole.<ref>{{cita|Patterson, Hennessy 2015|p. 57}}.</ref>
Line 167 ⟶ 165:
Sulle moderne architetture PC è tipico trovare pagine di 4 KiB.<ref>{{cita|Patterson, Hennessy 2015|p. 376}}.</ref>
<!--
== Come quantità di informazione ==
La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare di scelta tra due alternative (informazione di un bit), ma è possibile usare anche <math>e</math> ([[e (costante matematica)|numero di Nepero]]), usando dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "'''Nat'''".
Line 188 ⟶ 185:
-->
== Note ==
<references/>
== Bibliografia ==
* {{cita pubblicazione
|titolo = Origin of the term Bit
Line 223 ⟶ 219:
== Voci correlate ==
* [[Algebra di Boole]]
* [[Byte]]
Line 230 ⟶ 225:
* [[Sistema numerico binario]]
* [[Unità di misura]]
== Altri progetti ==
{{interprogetto|wikt}}
==Collegamenti esterni==
*{{Collegamenti esterni}}
* {{FOLDOC||bit}}
{{Controllo di autorità}}
|