Bit: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Multipli e alternative: Sviluppata sezione
Come cifra binaria: Rimossa sezione ora ridondante
Riga 133:
Cioè la sorgente genera esattamente un bit per ogni evento.
-->
 
== Come cifra binaria ==
In questo contesto il bit rappresenta l'unità di definizione di uno stato logico, definito anche unità elementare dell'informazione trattata da un [[computer|elaboratore]]. La rappresentazione logica del bit è rappresentata dai soli valori {[[zero|0]], [[uno|1]]}. Ai fini della [[Programmazione (informatica)|programmazione]] è comune raggruppare sequenze di bit in entità più vaste che possono assumere valori in intervalli assai più ampi di quello consentito da un singolo bit. Questi raggruppamenti contengono generalmente un numero di stringhe binarie pari a una [[Potenza di due|potenza binaria]], pari cioè a 2<sup>''n''</sup>; il più noto è il [[byte]] (chiamato anche ottetto), corrispondente a 8 bit, che costituisce l'[[unità di misura]] più utilizzata in campo [[Informatica|informatico]]. Altri raggruppamenti di questo tipo sono i seguenti:
 
* [[nibble]] 4 bit, la metà di un [[byte]]
* [[word]] di lunghezza variabile, corrisponde a 16 o 32 o 64 bit a seconda del tipo di macchina.<ref>L'[[API di Windows]] definisce il [[tipo di dato]] <kbd>WORD</kbd> come un [[Numero intero (informatica)|numero intero]] di 16 bit senza segno su tutte le piattaforme. Questa circostanza, unita alle normali esigenze di [[retrocompatibilità]] dei nuovi sistemi, fa sì che spesso la lunghezza di un word venga fissata pari a 16 bit indipendentemente dall'hardware.</ref>
 
NB: Le espressioni ''word'', ''double word'' e ''quad word'' vengono usate come [[tipo di dato]] in [[Programmazione (informatica)|programmazione]] (prevalentemente in linguaggio [[assembly]] e in [[C (linguaggio)|linguaggio C]]).
 
==Note==