Bit: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Parola o Word: Aggiunta fonte
 
(21 versioni intermedie di 5 utenti non mostrate)
Riga 1:
{{Nd|cifra binaria|sistema numerico binario|Binary digit}}
{{Nd}}
{{F|informatica|marzo 2022|Sezione Note insufficiente}}
 
[[File:Coin Toss (3635981474).jpg|thumb|Il lancio di una moneta: un tipo di evento il cui esito può essere descritto con un singolo bit di informazione]]
 
In [[informatica]] e nella [[teoria dell'informazione]], il '''bit''' è l'unità standard di misura dell'entropia, meglio nota come [[quantità di informazione]].<ref>{{Treccani|bit}}</ref>
 
Il nome è una [[parola macedonia]] dei termini inglesi "'''bi'''nary" (binario) e "digi'''t'''" (cifra).<ref name="Mackenzie 1980">{{cita|Mackenzie 1980}}.</ref>
Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo di [[sistema numerico binario|cifra binaria]], che però formalmente è un concetto distinto.<ref>{{Treccani|v=si|bit}}</ref>
Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che quest'ultimauna cifra binaria codifica esattamente 1 bit di informazione.
 
Il concetto di bit è stato introdotto nel 1948 da [[Claude Shannon]], fondando la [[teoria dell'informazione]].<ref name="cita history of computing 1984">{{cita|History of Computing 1984}}.</ref><ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}.</ref>
Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che quest'ultima codifica esattamente 1 bit di informazione.
In seguito furono proposti alcuni nomi alternativi come Binit e Bigit, che tuttavia non sono mai entrati nell'uso comune.<ref>{{cita|History of Computing 1984|pp. 154-155}}.</ref>
Nonostante la loro impopolarità questi termini compaiono occasionalmente in vari scritti come sinonimo di Bit.<ref>
{{cita web
|titolo = Binit
|url = https://www.oed.com/dictionary/binit_n
|sito = Oxford English Dictionary
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita web
|titolo = Binit
|url = https://www.collinsdictionary.com/it/dizionario/inglese/binit
|sito = Collins English Dictionary
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita web
|titolo = Binit
|url = https://www.merriam-webster.com/dictionary/binit
|sito = Merriam-Webster Dictionary
|editore = Merriam-Webster
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita pubblicazione
|titolo = Some Useful Coding Techniques for Binary Communication Systems
|autore = J. C. Hancock
|autore2 = J. L. Holsinger
|url = https://docs.lib.purdue.edu/cgi/viewcontent.cgi?article=1507&context=ecetr
|data = 1962-01-01
|editore = Purdue University
|città = Lafayette, Indiana
|lingua = en
|accesso = 2023-10-24
|postscript = nessuno
}};<br>
{{cita pubblicazione
|titolo = Lezione 2. Rappresentazione delle informazioni
|autore = Anna Morpurgo
|autore2 = Annamaria Zanaboni
|curatore = Stefano Andreon
|url = http://www.brera.mi.astro.it/~stefano.andreon/teach/Lez02-rappr_num.pdf
|rivista = Slide dell'insegnamento di "Laboratorio di Informatica"
|editore = Osservatorio Astronomico di Brera
|anno = 2002
|accesso = 2023-10-24
}}
</ref>
 
== Definizione ==
{{vedi anche|Autoinformazione|TeoriaEntropia (teoria dell'informazione#Entropia)}}
 
Il concetto di bit è stato introdotto nel 1948 da [[Claude Shannon]], fondando la [[teoria dell'informazione]].
 
Nel suo articolo "[[A Mathematical Theory of Communication]]" Shannon fissa il problema fondamentale della comunicazione come quello di riprodurre ad certo punto, in modo esatto oppure approssimativo che sia, un messaggio selezionato ad un altro punto.
In questo contesto egli evidenzia come l'aspetto significativo del problema dal punto di vista ingegneristico sia che il messaggio viene sempre selezionato da un set di possibili messaggi definito a priori.<ref name="cita shannon 2001 p.1">{{cita|Shannon 2001|p. 1}}.</ref><br>
Da questa considerazione deriva l'intuizione della natura [[probabilità|probabilistica]] dell'[[incertezza]] e quindi, dualmente, dell'[[informazione]].
 
Line 28 ⟶ 75:
<math> H_b = -K\sum_{i=1}^n p_i \log_{b} p_i </math>
</div>
<small>DefinizioneEspressione dell'[[Entropia (teoria dell'informazione)#Entropia di una sorgente di informazione|entropia di una sorgente d'informazione]]. Convenzionalmente si assume <math>K=1</math> e <math>b=2</math>.</small>
<ref>
Il parametro <math>K</math> non ha significato intrinseco e viene proposto da Shannon come termine "ausiliario" per facilitare la definizione dell'unità di misura. ({{cita|Shannon 2001|p. 10}})<br>
Line 41 ⟶ 88:
Nell'articolo Shannon non fissa in modo prescrittivo una definizione precisa dell'unità di informazione. Tuttavia si può banalmente ricavare come [[corollario]] che ''1 bit è la quantità di informazione necessaria e sufficiente a rimuovere l'incertezza relativa al realizzarsi di uno tra due eventi equiprobabili e mutualmente esclusivi'', come ad esempio l'esito del lancio di una moneta.<ref>{{cita|Shannon 2001|p. 19}}.</ref> In simboli:
 
<div align="center">
Sia <math> E = \{ e_1 , e_2 \}</math> una coppia di eventi indipendenti equiprobabili ( <math>p_i = 1/ 2</math> )
<math> H(E) = H(e_1) + H(e_2) = - \frac 1 2 \log_{2} \left( \frac 1 2 \right) - \frac 1 2 \log_{2} \left( \frac 1 2 \right) = 1\ bit </math>
</div>
 
== Interpretazione ==
 
Una quantità in bit può essere interpretata in 2 modi differenti:
<ref>
Line 78 ⟶ 124:
 
=== Multipli diretti ===
 
Esistono ambiti in cui risulta comodo utilizzare multipli diretti del bit. È il caso ad esempio dell'[[ingegneria delle telecomunicazioni]] e dei [[segnale (elettronica)|segnali]] più in generale.
 
=== Nibble ===
{{vedi anche|Nibble}}
 
Il ''nibble'' è un'unità equivalente a 4 bit.
Questa unità è spesso utilizzata nella rappresentazione [[esadecimale]], poiché un nibble contiene la stessa quantità di informazione di una cifra esadecimale.<ref>
{{cita web
|url=https://history-computer.com/what-is-a-nibble-in-computing-and-what-does-it-equal/
Line 95 ⟶ 140:
</ref>
 
=== Byte ===
{{vedi anche|Byte}}
 
Il ''byte'' è un'unità equivalente a 8 bit; con i relativi multipli è l'unità più utilizzata dal grande pubblico dopo la democratizzazione di [[internet]].
Questo è dovuto alla popolarità delle piattaforme [[PC]] orientate ai byte, che tuttora rappresentano la tipologia dominante.
 
Storicamente, un byte era il numero di bit necessari per codificare un carattere di testo all'interno di un computer (definizione dipendente quindi dall'architettura dell'elaboratore); oggi, tuttavia, assumeè sempre ilconsiderato significatocome diuguale ottoad 8 bit. Un byte può quindi rappresentare 2<sup>8</sup> = 256 distinti valori, come ad esempio i numeri interi tra 0 e 255, o tra -128 e 127. Lo standard [[IEEE 1541|IEEE 1541-2002]] stabilisce che "B" (lettera maiuscola) è il simbolo che indica il byte. IIl Byte,byte ed i suoi multipli di essi, sono sempre utilizzati per indicare la grandezza di file e la capacità di memorizzazione di un computer.
 
=== Parola o Word ===
{{vedi anche|Parola (informatica)}}
 
Nell'[[architettura dei calcolatori]] la ''Parola'' ( in inglese ''Word'' ) è la minima quantità di informazione processabile atomicamente da un [[processore]].
Il numero di bit all'interno di una parola è legata alla grandezza dei [[registro (informatica)|registri]] della [[CPU]] ed alla larghezza dei bus usati per il trasferimento dei dati.
Alcune architetture possono operare atomicamente su sequenze di più parole.<ref>{{cita|Patterson, Hennessy 2015|p. 57}}.</ref>
Line 120 ⟶ 165:
Sulle moderne architetture PC è tipico trovare pagine di 4&nbsp;KiB.<ref>{{cita|Patterson, Hennessy 2015|p. 376}}.</ref>
<!--
== Come quantità di informazione ==
 
La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso elementare di scelta tra due alternative (informazione di un bit), ma è possibile usare anche <math>e</math> ([[e (costante matematica)|numero di Nepero]]), usando dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "'''Nat'''".
 
Line 141 ⟶ 185:
-->
 
== Note ==
<references/>
 
== Bibliografia ==
* {{cita pubblicazione
|titolo = Origin of the term Bit
|rivista = Annals of the History of Computing
|volume = 6
|numero = 2
|pp = 152-156
|url = https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=4640520
|data = 1984-04-01
|editore = IEEE
|lingua = en
|ISSN = 0164-1239
|cid = History of Computing 1984
}}
 
* {{cita libro
Line 162 ⟶ 219:
 
== Voci correlate ==
{{Div col|cols=2|small=no}}
* [[Algebra di Boole]]
* [[Byte]]
Line 169 ⟶ 225:
* [[Sistema numerico binario]]
* [[Unità di misura]]
{{Div col end}}
 
== Altri progetti ==
{{interprogetto|wikt}}
 
==Collegamenti esterni==
*{{Collegamenti esterni}}
* {{FOLDOC||bit}}
 
{{Controllo di autorità}}