Bit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m +fonti |
|||
(19 versioni intermedie di 5 utenti non mostrate) | |||
Riga 7:
Il nome è una [[parola macedonia]] dei termini inglesi "'''bi'''nary" (binario) e "digi'''t'''" (cifra).<ref name="Mackenzie 1980">{{cita|Mackenzie 1980}}.</ref>
Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo di [[sistema numerico binario|cifra binaria]], che però formalmente è un concetto distinto.<ref>{{Treccani|v=si|bit}}</ref>
Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che
Il concetto di bit è stato introdotto nel 1948 da [[Claude Shannon]], fondando la [[teoria dell'informazione]].<ref name="cita history of computing 1984">{{cita|History of Computing 1984}}.</ref><ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}.</ref>▼
▲Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che quest'ultima codifica esattamente 1 bit di informazione.
In seguito furono proposti alcuni nomi alternativi come Binit e Bigit, che tuttavia non sono mai entrati nell'uso comune.<ref>{{cita|History of Computing 1984|pp. 154-155}}.</ref>
Nonostante la loro impopolarità questi termini compaiono occasionalmente in vari scritti come sinonimo di Bit.<ref>
{{cita web
|titolo = Binit
|url = https://www.oed.com/dictionary/binit_n
|sito = Oxford English Dictionary
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita web
|titolo = Binit
|url = https://www.collinsdictionary.com/it/dizionario/inglese/binit
|sito = Collins English Dictionary
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita web
|titolo = Binit
|url = https://www.merriam-webster.com/dictionary/binit
|sito = Merriam-Webster Dictionary
|editore = Merriam-Webster
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita pubblicazione
|titolo = Some Useful Coding Techniques for Binary Communication Systems
|autore = J. C. Hancock
|autore2 = J. L. Holsinger
|url = https://docs.lib.purdue.edu/cgi/viewcontent.cgi?article=1507&context=ecetr
|data = 1962-01-01
|editore = Purdue University
|città = Lafayette, Indiana
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita pubblicazione
|titolo = Lezione 2. Rappresentazione delle informazioni
|autore = Anna Morpurgo
|autore2 = Annamaria Zanaboni
|curatore = Stefano Andreon
|url = http://www.brera.mi.astro.it/~stefano.andreon/teach/Lez02-rappr_num.pdf
|rivista = Slide dell'insegnamento di "Laboratorio di Informatica"
|editore = Osservatorio Astronomico di Brera
|anno = 2002
|accesso = 2023-10-24
}}
</ref>
== Definizione ==
{{vedi anche|
▲Il concetto di bit è stato introdotto nel 1948 da [[Claude Shannon]], fondando la [[teoria dell'informazione]].
Nel suo articolo "[[A Mathematical Theory of Communication]]" Shannon fissa il problema fondamentale della comunicazione come quello di riprodurre ad certo punto, in modo esatto oppure approssimativo che sia, un messaggio selezionato ad un altro punto.
In questo contesto egli evidenzia come l'aspetto significativo del problema dal punto di vista ingegneristico sia che il messaggio viene sempre selezionato da un set di possibili messaggi definito a priori.<ref name="cita shannon 2001 p.1"
Da questa considerazione deriva l'intuizione della natura [[probabilità|probabilistica]] dell'[[incertezza]] e quindi, dualmente, dell'[[informazione]].
Line 26 ⟶ 75:
<math> H_b = -K\sum_{i=1}^n p_i \log_{b} p_i </math>
</div>
<small>
<ref>
Il parametro <math>K</math> non ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. ({{cita|Shannon 2001|p. 10}})<br>
Line 39 ⟶ 88:
Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare come [[corollario]] che ''1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi'', come ad esempio l'esito del lancio di una moneta.<ref>{{cita|Shannon 2001|p. 19}}.</ref> In simboli:
Sia <math> E = \{ e_1 , e_2 \}</math> una coppia di eventi indipendenti equiprobabili ( <math>p_i = 1/ 2</math> )
<math> H(E) = H(e_1) + H(e_2) = - \frac 1 2 \log_{2} \left( \frac 1 2 \right) - \frac 1 2 \log_{2} \left( \frac 1 2 \right) = 1\ bit </math>
== Interpretazione ==
Una quantità in bit può essere interpretata in 2 modi differenti:
<ref>
Line 76 ⟶ 124:
=== Multipli diretti ===
Esistono ambiti in cui risulta comodo utilizzare multipli diretti del bit. È il caso ad esempio dell'[[ingegneria delle telecomunicazioni]] e dei [[segnale (elettronica)|segnali]] più in generale.
=== Nibble ===
{{vedi anche|Nibble}}
Il ''nibble'' è un'unità equivalente a 4 bit.
Questa unità è spesso utilizzata nella rappresentazione
{{cita web
|url=https://history-computer.com/what-is-a-nibble-in-computing-and-what-does-it-equal/
Line 93 ⟶ 140:
</ref>
=== Byte ===
{{vedi anche|Byte}}
Il ''byte'' è un'unità equivalente a 8 bit; con i relativi multipli è l'unità più utilizzata dal grande pubblico dopo la democratizzazione di [[internet]].
Questo è dovuto alla popolarità delle piattaforme [[PC]] orientate ai byte, che tuttora rappresentano la tipologia dominante.
Storicamente, un byte era il numero di bit necessari per codificare un carattere di testo all'interno di un computer (definizione dipendente quindi dall'architettura dell'elaboratore); oggi, tuttavia,
=== Parola o Word ===
{{vedi anche|Parola (informatica)}}
Nell'[[architettura dei calcolatori]] la ''Parola'' (
Il numero di bit all'interno di una parola è legata alla grandezza dei [[registro (informatica)|registri]] della [[CPU]] ed alla larghezza dei bus usati per il trasferimento dei dati.
Alcune architetture possono operare atomicamente su sequenze di più parole.<ref>{{cita|Patterson, Hennessy 2015|p. 57}}.</ref>
Line 118 ⟶ 165:
Sulle moderne architetture PC è tipico trovare pagine di 4 KiB.<ref>{{cita|Patterson, Hennessy 2015|p. 376}}.</ref>
<!--
== Come quantità di informazione ==
La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare di scelta tra due alternative (informazione di un bit), ma è possibile usare anche <math>e</math> ([[e (costante matematica)|numero di Nepero]]), usando dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "'''Nat'''".
Line 139 ⟶ 185:
-->
== Note ==
<references/>
== Bibliografia ==
* {{cita pubblicazione
|titolo = Origin of the term Bit
|rivista = Annals of the History of Computing
|volume = 6
|numero = 2
|pp = 152-156
|url = https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=4640520
|data = 1984-04-01
|editore = IEEE
|lingua = en
|ISSN = 0164-1239
|cid = History of Computing 1984
}}
* {{cita libro
Line 160 ⟶ 219:
== Voci correlate ==
* [[Algebra di Boole]]
* [[Byte]]
Line 167 ⟶ 225:
* [[Sistema numerico binario]]
* [[Unità di misura]]
== Altri progetti ==
{{interprogetto|wikt}}
==Collegamenti esterni==
*{{Collegamenti esterni}}
* {{FOLDOC||bit}}
{{Controllo di autorità}}
|