Unicode è uno standard che definisce un elenco di caratteri astratti, regole di rendering, punti di codice, regole di composizione e sistemi di codifica. Ad esempio:
UTF-8, UTF-16 e UTF32 sono formati di codifica per caratteri unicode su interi 8,16 o 32 bit. Va aggiunto che quando si guardano i flussi di byte (ad esempio i file), UTF-16 e UTF-32 hanno una variante big endian (BE) e little endian (LE).
Quindi parlare di codifica unicode è fuorviante: non ce n'è uno singolo. Ma c'è un uso comune di questo termine:
- su Windows , quando dici UNICODE , si presume che sia la codifica UTF-16. Nell'API di Windows, la codifica unicode predefinita utilizza un
wchar_t
che viene mappato su un numero intero a 16 bit.
- su Linux , la codifica preferita per unicode è UTF-8. Esiste comunque un UTF-8 in tutto il mondo che spiega la motivazione alla base e cerca di promuovere questa pratica.