Carattere (informatica): differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Folto82 (discussione | contributi)
Nessun oggetto della modifica
Nessun oggetto della modifica
Etichette: Modifica visuale Modifica da mobile Modifica da web per mobile
 
(6 versioni intermedie di 5 utenti non mostrate)
Riga 1:
{{F|informatica|luglio 2018|}}
Nella terminologia [[informatica]], un '''carattere''' è un'unità minima di d'[[informazione]] che, semplificando, corrisponde a un [[grafema]], (o a un simbolo,) della forma scritta di una [[lingua naturale]].
 
Esempi di carattere possono essere una lettera, un [[Numero (matematica)|numero]], o un segno di [[interpunzione]]. Il concetto include anche i [[carattere di controllo|caratteri di controllo]], che non corrispondono a un segno della lingua naturale, ma sono necessari per processare un testo e gestire le periferiche di output ([[stampante]], [[Terminale (informatica)|terminale]], ecc.); tra questi ci sono, ad esempio ''Carriage return'' (invio), ''End of Text'' (fine del testo) o ''Bell'' (beep).
 
== Sistema di codifica ==
I computer o altri strumenti elettronici rappresentano i caratteri secondo un sistema di [[Codifica di caratteri|codifica]] che assegna ad ogni carattere un numero, rappresentato come serie di [[Bit (informatica)|bit]], i quali possono essere scritti su un [[Memoria di massa|supporto]] o trasmessi in una [[Rete informatica|rete]]. Il più comune sistema di codifica è l'[[ASCII]], nonostante il più versatile [[Unicode]] sta diventando sempre più diffuso. Mentre la maggior parte delle codifiche fa corrispondere un carattere ad un numero o/e a una serie di bit, il [[Codicecodice Morse]] associa ad ogni carattere una serie di impulsi elettrici di varia lunghezza.
 
== Voci correlate ==