Bit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: punto fermo alla fine delle note che contengono solo T:Cita e modifiche minori |
|||
(36 versioni intermedie di 7 utenti non mostrate) | |||
Riga 1:
{{Nd|cifra binaria|sistema numerico binario|Binary digit}}
{{Nd}}
[[File:Coin Toss (3635981474).jpg|thumb|Il lancio di una moneta: un tipo di evento il cui esito può essere descritto con un singolo bit di informazione]]
In [[informatica]] e nella [[teoria dell'informazione]], il '''bit''' è l'unità standard di misura dell'entropia, meglio nota come [[quantità di informazione]].<ref>{{Treccani|bit}}</ref>
Il nome è una [[parola macedonia]] dei termini inglesi "'''bi'''nary" (binario) e "digi'''t'''" (cifra).<ref name="Mackenzie 1980">{{cita|Mackenzie 1980}}.</ref>
Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo di [[sistema numerico binario|cifra binaria]], che però formalmente è un concetto distinto.<ref>{{Treccani|v=si|bit}}</ref>
Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che una cifra binaria codifica esattamente 1 bit di informazione.
Il concetto di bit è stato introdotto nel 1948 da [[Claude Shannon]], fondando la [[teoria dell'informazione]].<ref name="cita history of computing 1984">{{cita|History of Computing 1984}}.</ref><ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}.</ref>
In seguito furono proposti alcuni nomi alternativi come Binit e Bigit, che tuttavia non sono mai entrati nell'uso comune.<ref>{{cita|History of Computing 1984|pp. 154-155}}.</ref>
Nonostante la loro impopolarità questi termini compaiono occasionalmente in vari scritti come sinonimo di Bit.<ref>
{{cita web
|titolo = Binit
|url = https://www.oed.com/dictionary/binit_n
|sito = Oxford English Dictionary
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita web
|titolo = Binit
|url = https://www.collinsdictionary.com/it/dizionario/inglese/binit
|sito = Collins English Dictionary
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita web
|titolo = Binit
|url = https://www.merriam-webster.com/dictionary/binit
|sito = Merriam-Webster Dictionary
|editore = Merriam-Webster
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita pubblicazione
|titolo = Some Useful Coding Techniques for Binary Communication Systems
|autore = J. C. Hancock
|autore2 = J. L. Holsinger
|url = https://docs.lib.purdue.edu/cgi/viewcontent.cgi?article=1507&context=ecetr
|data = 1962-01-01
|editore = Purdue University
|città = Lafayette, Indiana
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita pubblicazione
|titolo = Lezione 2. Rappresentazione delle informazioni
|autore = Anna Morpurgo
|autore2 = Annamaria Zanaboni
|curatore = Stefano Andreon
|url = http://www.brera.mi.astro.it/~stefano.andreon/teach/Lez02-rappr_num.pdf
|rivista = Slide dell'insegnamento di "Laboratorio di Informatica"
|editore = Osservatorio Astronomico di Brera
|anno = 2002
|accesso = 2023-10-24
}}
</ref>
== Definizione ==
{{vedi anche|
Nel suo articolo "[[A Mathematical Theory of Communication]]" Shannon fissa il problema fondamentale della comunicazione come quello di riprodurre ad certo punto, in modo esatto oppure approssimativo che sia, un messaggio selezionato ad un altro punto.
In questo contesto egli evidenzia come l'aspetto significativo del problema dal punto di vista ingegneristico sia che il messaggio viene sempre selezionato da un set di possibili messaggi definito a priori.<ref name="cita shannon 2001 p.1"
Da questa considerazione deriva l'intuizione della natura [[probabilità|probabilistica]] dell'[[incertezza]] e quindi, dualmente, dell'[[informazione]].
Line 27 ⟶ 75:
<math> H_b = -K\sum_{i=1}^n p_i \log_{b} p_i </math>
</div>
<small>
<ref>
Il parametro <math>K</math> non ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. ({{cita|Shannon 2001|p. 10}})<br>
Line 40 ⟶ 88:
Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare come [[corollario]] che ''1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi'', come ad esempio l'esito del lancio di una moneta.<ref>{{cita|Shannon 2001|p. 19}}.</ref> In simboli:
Sia <math> E = \{ e_1 , e_2 \}</math> una coppia di eventi indipendenti equiprobabili ( <math>p_i = 1/ 2</math> )
<math> H(E) = H(e_1) + H(e_2) = - \frac 1 2 \log_{2} \left( \frac 1 2 \right) - \frac 1 2 \log_{2} \left( \frac 1 2 \right) = 1\ bit </math>
== Interpretazione ==
Una quantità in bit può essere interpretata in 2 modi differenti:
<ref>
"Grandezze della forma <math>H = -\sum p_i \log p_i</math> [...] giocano un ruolo centrale nella teoria dell'informazione come misure di informazione, scelta e incertezza".
({{cita|Shannon 2001|p. 10}});<br>
Scelta ed incertezza sono misure equivalenti.
</ref>
* come misura dell'[[autoinformazione|informazione intrinseca]]
* come misura di [[incertezza]]
Le due interpretazioni sono duali.
Line 75 ⟶ 123:
Per questo motivo si è soliti adottare unità derivate che a vario titolo meglio si adattano a determinati usi.
=== Multipli diretti ===
Esistono ambiti in cui risulta comodo utilizzare multipli diretti del bit. È il caso ad esempio dell'[[ingegneria delle telecomunicazioni]] e dei [[segnale (elettronica)|segnali]] più in generale.
=== Nibble ===
{{vedi anche|Nibble}}
Il ''nibble'' è un'unità equivalente a 4 bit.
Questa unità è spesso utilizzata nella rappresentazione [[esadecimale]], poiché un nibble contiene la stessa quantità di informazione di una cifra esadecimale.<ref>
{{cita web
|url=https://history-computer.com/what-is-a-nibble-in-computing-and-what-does-it-equal/
|titolo=What Is a Nibble in Computing, and What Does It Equal?
|editore=History-Computer
|accesso=2023-09-30
|autore=Nate Williams
}}
</ref>
=== Byte ===
{{vedi anche|Byte}}
Il ''byte'' è un'unità equivalente a 8 bit; con i relativi multipli è l'unità più utilizzata dal grande pubblico dopo la democratizzazione di [[internet]].
Questo è dovuto alla popolarità delle piattaforme [[PC]] orientate ai byte, che tuttora rappresentano la tipologia dominante.
Storicamente, un byte era il numero di bit necessari per codificare un carattere di testo all'interno di un computer (definizione dipendente quindi dall'architettura dell'elaboratore); oggi, tuttavia, è sempre considerato come uguale ad 8 bit. Un byte può quindi rappresentare 2<sup>8</sup> = 256 distinti valori, come ad esempio i numeri interi tra 0 e 255, o tra -128 e 127. Lo standard [[IEEE 1541|IEEE 1541-2002]] stabilisce che "B" (lettera maiuscola) è il simbolo che indica il byte. Il byte ed i suoi multipli sono sempre utilizzati per indicare la grandezza di file e la capacità di memorizzazione di un computer.
=== Parola o Word ===
{{vedi anche|Parola (informatica)}}
Il numero di bit all'interno di una parola è legata alla grandezza dei [[registro (informatica)|registri]] della [[CPU]] ed alla larghezza dei bus usati per il trasferimento dei dati.
Alcune architetture possono operare atomicamente su sequenze di più parole.<ref>{{cita|Patterson, Hennessy 2015|p. 57}}.</ref>
=== Blocchi o pagine ===
{{vedi anche|Memoria virtuale|Memoria cache}}
Nell'ambito dell'[[architettura dei calcolatori]] ed in particolare della gerarchia delle memorie si è soliti ragionare in termini di ''blocchi'' o ''pagine''.
La definizione precisa dei due termini dipende strettamente dall'architettura del calcolatore di riferimento.<ref name="cita hp 2015 cap 5.4">{{cita|Patterson, Hennessy 2015|capitolo 5}}.</ref>
La [[memoria cache|memorie cache]] di un computer generalmente opera su blocchi di memoria che consistono di diverse "parole" consecutive. Queste unità sono chiamate "blocchi" o "linee" di cache.<ref>{{cita|Patterson, Hennessy 2015|p. 325}}.</ref>
Il sistema di [[memoria virtuale]] partiziona la memoria principale del computer in unità ancora più grandi, tradizionalmente chiamate "pagine".<ref>{{cita|Patterson, Hennessy 2015|pp. 374-375}}.</ref>
Sulle moderne architetture PC è tipico trovare pagine di 4 KiB.<ref>{{cita|Patterson, Hennessy 2015|p. 376}}.</ref>
<!--
== Come quantità di informazione ==
La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare di scelta tra due alternative (informazione di un bit), ma è possibile usare anche <math>e</math> ([[e (costante matematica)|numero di Nepero]]), usando dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "'''Nat'''".
Line 106 ⟶ 185:
-->
==
<references/>
== Bibliografia ==
* {{cita pubblicazione
|titolo = Origin of the term Bit
|rivista = Annals of the History of Computing
|volume = 6
|numero = 2
|pp = 152-156
|url = https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=4640520
|data = 1984-04-01
|editore = IEEE
|lingua = en
|ISSN = 0164-1239
|cid = History of Computing 1984
}}
* {{cita libro
|titolo = Struttura e progetto dei calcolatori
|autore = [[David Andrew Patterson]]
|autore2 = [[John LeRoy Hennessy]]
|curatore = Alberto Borghese
|edizione = 5
|editore = Zanichelli
|città = Bologna
|anno = 2015
|ISBN = 978-88-08-35202-6
|cid = Patterson, Hennessy 2015
}}
* {{cita pubblicazione|titolo = A mathematical theory of communication|autore = [[Claude Elwood Shannon]]|rivista = ACM SIGMOBILE Mobile Computing and Communications Review|volume = 5|numero = 1|editore = [[Association for Computing Machinery]]|città = New York (NY, USA)|data =1º gennaio 2001|annooriginale = prima pubblicazione 1948|lingua = en|issn = 1559-1662|doi = 10.1145/584091.584093|cid = Shannon 2001}}
* {{Cita libro|titolo = Coded Character Sets: History and Development|anno = 1980|url = https://archive.org/details/codedcharacterse00unse|autore = Charles E. Mackenzie|data = 1980|editore = Addison-Wesley Publishing Company|lingua = en|ISBN = 978-0-201-14460-4|cid = Mackenzie 1980}}
== Voci correlate ==
* [[Algebra di Boole]]
* [[Byte]]
Line 129 ⟶ 225:
* [[Sistema numerico binario]]
* [[Unità di misura]]
== Altri progetti ==
{{interprogetto|wikt}}
==Collegamenti esterni==
*{{Collegamenti esterni}}
* {{FOLDOC||bit}}
{{Controllo di autorità}}
|