HomeMacityIn EvidenzaUn sistema assegna i caratteri giusti a tutte le lingue. Si chiama...

Un sistema assegna i caratteri giusti a tutte le lingue. Si chiama Unicode

I computer, lo sappiamo, trattano solo dei numeri: non lettere, non parole. Siamo noi a dare significati differenti a questi numeri, organizzandoli in modo tale che possano rappresentare lettere, byte di immagini, filmati e tutto il resto. Per quanto riguarda le lettere, i caratteri che compongono le parole come queste che state leggendo nel sito di Macity, si tratta di numeri organizzati in sequenze, secondo una codifica che identifica in modo univoco ogni lettera con un numero.

E’ lo standard Ascii, per esempio, che codifica in 128 numeri progressivi lettere e segni d’interpunzione oltre a caratteri speciali come ad esempio le lettere accentate. Un documento di testo contiene una sequenza di numeri che identificano le lettere e un riferimento al font usato, alle sue dimensioni, alle sue caratteristiche e attributi (a seconda del software di videoscrittura impiegato). Il problema, però, è che anche lo standard Ascii non è completamente standard, dato che ne esistono differenti varianti.

Prima di Unicode, infatti, non è mai esistito uno standard unico in grado di codificare tutti i caratteri necessari per i vari sistemi linguistici utilizzati nel mondo. A differenza di quanto si immaginavano gli ingegneri statunitensi che hanno preparato l’Ascii, la lingua inglese (che non conosce se non come eccezioni le lettere accentate e che comunque è limitata ai caratteri di derivazione romana) non è stata l’unica a venir utilizzata da chi si voleva avvicinare a un computer.

Ma i problemi non hanno riguardato solo le lingue esotiche. Nel tempo, infatti, sono nati parecchi problemi di conversione che non si sono limitati alle storiche idiosincrasie tra Mac e Pc. Anche i server prodotti da differenti aziende (Sun, Ibm, Hewlett-Packard, ad esempio) hanno sistematicamente scelto sistemi di codifica differenti. Inoltre, applicazioni proprietarie sviluppate su sistemi oggi chiamati legacy, ovverosia i classici mainframe, hanno poggiato per la costruzione dei loro archivi di documenti su set di caratteri codificati in modo assolutamente proprietario.

Il risultato è stata la Babele delle lingue, che portava alla necessità  di soluzioni software sempre più complesse per riuscire a identificare quale standard un documento utilizzava e a convertirlo in un altro, utilizzato dall’utente. Perché se due sistemi di codifica utilizzano lo stesso numero per identificare due caratteri differenti, in mancanza di una conversione i segni non corrispondono più a quello che l’autore intendeva scrivere e il risultato è la confusione più totale.

Per fortuna, grazie al lavoro di standardizzazione di vari ricercatori, si è giunti a un sistema di codifica che riesce a gestire tabelle sufficientemente grandi da poter contenere alcune centinaia di milioni di segni. Si va dall’alfabeto romano con tutte le sue varianti alle lingue slave e dal cirillico e agli altri alfabeti basati su segni differenti sino ai sistemi di segni basati su caratteri multipli e composti come gli ideogrammi cinesi e giapponesi, l’arabo e altre lingue.

Ci voleva la competenza di un linguista per descrivere la mole di sistemi di scrittura e la sensibilità  di un filologo per capire inoltre che attraverso i computer devono poter essere scritte anche le lingue morte (egiziano, sumero, ittita, azteco, etrusco, per esempio) per permettere ai programmi di funzionare e far scrivere con sistemi basati su logiche differenti da quelle occidentali. E la competenza di linguisti e filologi è stata richiesta per creare Unicode.

Addirittura, visto che la definizione dello standard è partita dai numeri più bassi a salire, è stato possibile aggiungere in corso d’opera ulteriori alfabeti e sistemi di caratteri e simboli senza dover creare altri standard. Il sistema incrementale e l’ampia disponibilità  di “posti liberi” ha permesso anche di aggiungere alfabeti inventati ma parte del folklore popolare soprattutto statunitense, come l’alfabeto Klingon (derivante dalla popolare serie televisiva Star Trek che negli Usa ha milioni di appassionati) oppure quello del popolo degli Elfi creato da Tolkien (che può contare su schiere altrettanto nutrite di appassionati).

Ma la mossa vincente è stato avvicinarsi a Internet, cioè alla più grande infrastruttura per lo scambio di informazioni e dati che l’uomo abbia mai realizzato. L’avvicinamento ha voluto dire che lo standard è stato accettato e utilizzato da tutte le principali aziende del settore (come Apple, HP, IBM, JustSystem, Microsoft, Oracle, SAP, Sun, Sybase, Unisys e moltissime altre) e dai consorzi che hanno creato tutti i più moderni standard per il trattamento dei dati (XML, Java, ECMAScript (JavaScript), LDAP, CORBA 3.0, WML). Inoltre, lo standard Unicode è anche il sistema per ottenere l’implementazione ISO/IEC 10646.

Il risultato è stato un circolo virtuoso sotto gli occhi di tutti anche se la trasformazione avviene in modo quasi invisibile: ogni giorno che passa sempre più applicazioni sono in grado di gestire lo standard e il trasferimento dei dati avviene su questa base anziché su quella del set di caratteri Ascii o di altri sistemi. In questo modo una pagina web scritta in Farsi può essere visualizzata da Safari su un Mac che utilizza la lingua italiana come sistema di base, senza che si perdano informazioni e permettendo a tutti, in una specie di democrazia elettronica che pone attenzione anche alle minoranze meno rappresentate, di esprimersi o leggere in qualunque lingua e con qualunque sistema di caratteri.

Ah, quasi dimenticavamo di aggiungere: ovviamente Unicode è di serie su Mac Os X. Ma probabilmente non c’era bisogno di dirlo…

Offerte Speciali

Amazon sconta il Magic Mouse 2 del 25%: solo 64 euro

Post Prime Day: Magic Mouse 2 ancora disponibile a solo 60,99 €

Su Amazon il Magic Mouse 2 è ancora disponibile in sconto. Lo pagate solo 60,99 euro fino a che le scorte resistono.
Pubblicità

Ultimi articoli

Pubblicità

iGuida

FAQ e Tutorial