UTF-8: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica |
|||
(123 versioni intermedie di 86 utenti non mostrate) | |||
Riga 1:
'''UTF-8''' (
▲'''UTF-8''' ('''U'''nicode '''T'''ransformation '''F''', '''8''' bit) è una codifica dei caratteri [[Unicode]] in sequenze di lunghezza variabile di byte, creata da [[Rob Pike]] e [[Ken Thompson]]. UTF-8 usa gruppi di byte per rappresentare i caratteri [[Unicode]], ed è particolarmente utile per il trasferimento tramite sistemi di [[posta elettronica]] a 8-[[bit]].
== Storia ==
UTF-8 usa da 1 a 4 [[byte]] per rappresentare un carattere Unicode. Per esempio un solo byte è necessario per rappresentare i 128 caratteri dell'alfabeto [[ASCII]], corrispondenti alle posizioni Unicode da U+0000 a U+007F.▼
UTF-8 è stato ideato da [[Ken Thompson]] e [[Rob Pike]] il 2 settembre [[1992]] su una tovaglietta in una tavola calda del [[New Jersey]]. Il giorno dopo Pike e Thompson l'hanno implementato e hanno aggiornato [[Plan 9]], il loro [[Sistema operativo]], per usarlo.
UTF-8 è stato presentato ufficialmente nel gennaio del [[1993]] a [[San Diego]] in occasione della conferenza annuale di [[USENIX]].
== Caratteristiche generali ==
La [[IETF]] (''Internet Engineering Task Force'') richiede che tutti i [[Protocollo_di_rete|protocolli]] [[Internet]] identifichino la codifica dei caratteri utilizzata, e che siano in grado di utilizzare almeno UTF-8. ▼
▲UTF-8 usa da 1 a 4 [[byte]] per rappresentare un carattere Unicode. Per esempio un solo byte è necessario per rappresentare i 128 caratteri dell'alfabeto [[ASCII]], corrispondenti alle posizioni Unicode da U+0000 a U+007F.
Quattro byte possono sembrare troppi per un solo carattere; tuttavia questo è richiesto solo per i caratteri che stanno fuori dal ''Basic Multilingual Plane'', generalmente molto rari. Inoltre anche [[UTF-16]] (la principale alternativa a UTF-8) richiede quattro byte per questi caratteri. Quale sia più efficiente, UTF-8 o UTF-16, dipende dall'intervallo di caratteri utilizzati, e l'uso di [[Compressione dei dati|algoritmi di compressione]] tradizionali riduce in maniera significativa la differenza tra le due codifiche. Per brevi brani di testo, su cui gli algoritmi di compressione tradizionali non sono efficienti ed è importante una ridotta occupazione di memoria, si potrebbe utilizzare lo [[Schema di compressione standard per Unicode]].
== Descrizione ==▼
▲La [[Internet Engineering Task Force|IETF]] (''Internet Engineering Task Force'') richiede che tutti i [[
Brevemente, i bit che compongono un carattere Unicode vengono suddivisi in gruppi, che vengono poi ripartiti tra i bit meno significativi all'interno dei byte che formano la codifica UTF-8 del carattere.▼
▲== Descrizione tecnica==
▲UTF-8 viene descritto nello standard RFC 3629 (''UTF-8, un formato di trasformazione dell'[[ISO 10646]]''). Brevemente, i bit che compongono un carattere Unicode vengono suddivisi in gruppi, che vengono poi ripartiti tra i bit meno significativi all'interno dei byte che formano la codifica UTF-8 del carattere.
I caratteri il cui valore unicode è inferiore a U+0080 vengono rappresentati con un singolo byte contenente il loro valore; essi corrispondono esattamente ai 128 caratteri ASCII. In tutti gli altri casi sono necessari fino a 4 byte, ognuno di questi con il bit più significativo impostato a 1, in modo da distinguerli dalla rappresentazione dei caratteri
{| class="wikitable"
|-
|-
|0x000000-0x00007F
|00000000
|0XXXXXXX
| Caratteri equivalenti al codice ASCII;
|-
|0x000080-0x0007FF
|00000XXX XXXXXXXX
|110XXXXX 10XXXXXX
| rowspan=2 align=top| il primo byte inizia per 110 o 1110, il successivo(i) con 10 e devono essere concatenati per formare un carattere
|-
|0x000800-0x00FFFF
|XXXXXXXX XXXXXXXX
|1110XXXX 10XXXXXX 10XXXXXX
|-
|0x010000-0x10FFFF
|110110XX XXXXXXXX<br />110111XX XXXXXXXX
|11110XXX 10XXXXXX 10XXXXXX 10XXXXXX
|Confronto tra UTF-16 e UTF-8: UTF-16 richiede l'uso di coppie surrogate
|}
Per esempio, il carattere [[aleph|alef]] (
* ricade nell'intervallo da 0x0080 a 0x07FF. Secondo la tabella verrà rappresentato con due byte
* l'esadecimale 0x05D0 equivale al binario 101-1101-0000
* gli undici bit vengono copiati in ordine nelle posizioni marcate con "X": 110-''
* il risultato finale è la coppia di byte 11010111 10010000, o in esadecimale 0xD7 0x90.
Riassumendo, i primi 128 caratteri vengono rappresentati con un singolo byte. I successivi 1920 ne richiedono due, e comprendono gli alfabeti [[
== UTF-8 Modificato ==
Il [[
Ci sono due differenze tra la codifica UTF-8 standard e quella modificata. La prima differenza è che il carattere nullo (
La seconda differenza riguarda la rappresentazione dei caratteri al di fuori del BMP (''Basic Multilingual Plane'').
==
In conseguenza dei meccanismi di funzionamento di UTF-8, le sequenze di byte godono di queste proprietà:
* Il bit
* I bit più significativi del primo di una sequenza di più byte indicano la lunghezza della sequenza. Questi bit sono 110 per le sequenze di due byte, e 1110 per quelle di tre.
* I byte successivi al primo in una sequenza composta da più byte hanno sempre 10 come bit più significativi.
UTF-8 è stato progettato per soddisfare queste tre proprietà, in modo da garantire che nessuna sequenza di byte corrispondente a uno specifico carattere sia contenuta in una sequenza più lunga, usata per codificare un carattere diverso. Grazie a questa caratteristica la ricerca di parole o frasi all'interno di un testo può essere effettuata tramite confronto byte per byte; qualche precedente sistema di codifica basato su sequenze di lunghezza variabile di byte (per esempio [[Shift-JIS]]) non godeva di questa proprietà, rendendo gli [[Algoritmo|algoritmi]] di confronto tra stringhe complicati. Nonostante si possa obiettare che questa caratteristica aggiunga ridondanza alla codifica del testo, i vantaggi sono maggiori degli svantaggi; inoltre la compressione dei dati non è uno degli scopi di
== Forme lunghe, ''input'' non valido e considerazioni di sicurezza ==
Il comportamento di un ''decoder'' in presenza di ''input'' non valido è pressoché indefinito. Ci sono molti modi in cui un ''decoder'' può reagire alla presenza di ''input'' non valido
# Inserire un carattere che rimpiazzi quello non valido (p.e. '?', '�')
# Saltare il carattere non valido
# Interpretare il carattere come proveniente da un altro [[:Categoria:Repertori di caratteri|Repertorio di caratteri]] (spesso [[Latin-1]])
# Ignorare l'errore e continuare come se il carattere fosse simile a qualche codice UTF-8 valido
# Segnalare un errore
I ''decoder'' potrebbero ovviamente comportarsi in modo diverso di fronte a diversi tipi di ''input'' non valido.
Tutte le possibilità hanno vantaggi e svantaggi, ma bisogna prestare particolare attenzione alla sicurezza se la verifica di validità dell'input viene compiuta prima della conversione da UTF-8.
Le forme lunghe (in cui un carattere viene codificato con più byte di quelli strettamente necessari, ma sempre nel rispetto delle regole precedenti) sono uno dei tipi di input che presentano maggiori problemi. Lo standard corrente prescrive che queste forme non vengano decodificate, ma specifiche più vecchie si limitavano a segnalare il problema, e molti ''decoder'' dei più semplici procedono alla decodifica senza nessun messaggio di avvertimento. Le forme lunghe sono state usate per scavalcare i controlli di sicurezza in prodotti di alto profilo, incluso il ''[[web server]]'' [[Internet Information Services]] (IIS) di [[Microsoft]]
Per mantenere la sicurezza nel caso di ''input'' non valido ci sono due opzioni. La prima è di decodificare il codice UTF-8 ''prima'' di fare qualsiasi controllo di validità necessario sull'''input''. La seconda è di usare un ''decoder'' più rigido, che nel caso di ''input'' non valido restituisca un errore o un testo che l'applicazione consideri innocuo.
== Vantaggi ==
Line 75 ⟶ 93:
* Alcuni caratteri di Unicode (per esempio l'alfabeto latino) occupano in UTF-8 un solo byte, altri richiedono fino a quattro byte. In generale un testo codificato in UTF-8 occuperà meno spazio del corrispondente [[UTF-16]] o [[UTF-32]] se contiene molti caratteri ASCII a 7 bit.
* Una sequenza di byte che codifica un carattere non può apparire come parte di una sequenza più lunga che codifica un altro carattere, come succedeva per codifiche a lunghezza variabile meno recenti (vedi la sezione precedente).
* Il primo byte di una sequenza è sufficiente a determinarne la lunghezza (è sufficiente contare il numero di bit più significativi con valore uno). Questo rende molto semplice estrarre una sotto-stringa da una stringa più lunga, senza bisogno di decodificare la sequenza di byte UTF-8.
* La maggioranza del [[software]] esistente (inclusi i [[
* UTF-8 è la codifica predefinita per il formato [[XML]].
== Svantaggi ==
* UTF-8 usa sequenze di lunghezza variabile, cioè singoli caratteri possono venire rappresentati con sequenze di byte di lunghezze diverse.
* Gli ideogrammi vengono rappresentati in UTF-8 con tre byte, mentre ne richiedono solo due in UTF-16. Di conseguenza i testi in [[Lingua cinese|Cinese]] / [[Lingua giapponese|Giapponese]] / [[Lingua coreana|Coreano]], oltre ad alcuni gruppi di caratteri Unicode meno noti, occupano più spazio rispetto alla codifica in UTF-16.
==
<references/>
== Voci correlate ==
* [[ASCII]]
* [[ASCII esteso]]
* [[Charset]]
* [[Ken Thompson]]
* [[Rob Pike]]
* [[Unicode]]
* [[UTF-32]]
* [[UTF-7]]
== Altri progetti ==
{{interprogetto}}
== Collegamenti esterni ==
* {{Collegamenti esterni}}
* {{FOLDOC}}
* {{cita web|https://www.cl.cam.ac.uk/~mgk25/ucs/utf-8-history.txt|Rob Pike racconta la creazione di UTF-8}}
* {{cita web |1=http://www.cs.bell-labs.com/sys/doc/utf.pdf |2=L'articolo originale su UTF-8 |accesso=2 dicembre 2004 |urlarchivio=https://web.archive.org/web/20050505032430/http://www.cs.bell-labs.com/sys/doc/utf.pdf# |dataarchivio=5 maggio 2005 |urlmorto=sì }}
* RFC 3629, Lo standard UTF-8
* RFC 2277, La politica della IETF sui set di caratteri e sui linguaggi
* {{cita web|http://www.utf-8.com/|UTF-8}}
{{Tabella Unicode}}
{{portale|informatica}}
[[Categoria:Repertori di caratteri]]
▲[[en:UTF-8]]
|