La version 9.0 du standard Unicode est disponible et apporte 7500 nouveaux caractères,
parmi lesquels 72 emojis
Le consortium Unicode a annoncé la disponibilité de la version 9.0 de son standard, qui a pour vocation d’uniformiser et de standardiser le codage des caractères informatiques. Si beaucoup voient en Unicode un synonyme d'emojis, il convient de rappeler qu’il s’agit avant tout d’un système d'écriture universel et totalement compatible avec les différentes plateformes logicielles.
Unicode 9.0 apporte 7500 nouveaux caractères, ce qui porte le nombre total de caractères disponibles à 128 172. Parmi les nouveaux caractères figurent 72 emojis notamment dans la catégorie « geste avec la main » comme les doigts croisés ou les poignées de main, de nouveaux animaux (un gorille, un papillon, un lézard, un canard, une chauve-souris, etc.), de nouveaux aliments (un kebab, une carotte, des pancakes, un kiwi, une baguette, etc.), des activités diverses (le waterpolo, le jonglage, le canoë, le tambour, le handball, etc.) et certaines expressions (comme un emoji destiné à représenter l’expression Rolling On The Floor Laughing -rire à se rouler par terre-, ou le visage du menteur avec un nez s’allongeant à l’instar de Pinnochio).
Leur arrivée devrait se faire dans les prochaines versions d'iOS et d'Android.
En plus de ces emojis, Unicode 9.0 apporte des caractères pour des langues comme :
- osage, une langue amérindienne ;
- Nepal Bhasa, une langue du Népal ;
- le peul et d'autres langues africaines ;
- le dialecte bravanais du swahili, utilisé en Somalie ;
- l’orthographe Warsh pour l'arabe, utilisé en Afrique du Nord et de l'Ouest ;
- tangut, un script historique majeur de la Chine.
Pour rappel, avant l'Unicode, il y avait des systèmes d'encodage de caractères propres à chaque langage, chacun utilisant les mêmes positions (0-255) pour représenter son jeu de caractères. Certains langages (comme le russe) disposaient de multiples standards divergents sur la manière de représenter les mêmes caractères; d'autres langages (comme le japonais) avaient tant de caractères qu'ils nécessitaient de recourir à de multiples jeux de caractères. L'échange de documents entre systèmes était difficile parce qu'il n'y avait aucun moyen pour une machine de dire avec certitude quel schéma d'encodage avait utilisé l'auteur d'un document, la machine ne voyait que des nombres et ces nombres pouvaient avoir plusieurs significations. Aussi, pour enregistrer ces documents au même endroit (comme dans la même table d'une base de données), vous auriez eu besoin d'enregistrer le jeu d'encodage avec chaque partie du texte et vous assurer de le transmettre en même temps que le texte. Imaginez alors à quoi ressembleraient des documents multilingues rassemblant les caractères issus de différents langages. C'est pour résoudre ce problème qu'Unicode a été conçu.
Source : blog Unicode
Voir aussi :
Le standard Unicode (traitement de données XML)
Partager