Emoji-nation

03/01/2022

Je parlais il y a quelque temps du film Emoji Movie, film d’animation mettant en scène la vie des emojis dans nos téléphones. Et bien il semblerait que l’intérêt pour ces petits éléments graphiques suscitent toujours un certain intérêt puisqu’ils font l’objet d’un documentaire diffusé par Arte et disponible gratuitement sur YouTube, tout du moins à l’écriture de ces lignes.

À propos du documentaire

La naissance de ce documentaire est simplement issue du questionnement de son autrice, Stéphanie Cabre, qui les utilise tous les jours, sans pourtant connaitre leur histoire. Emoji-nation se structure ainsi sur ce questionnement en revenant logiquement en premier lieu par la création des emojis que nous connaissons, par Shigetaka Kurita. Puis il revient sur les raisons de leur succès, leurs designs, leurs caractéristiques linguistiques et sémantiques, la manière dont ils sont créés, et enfin un regard plus politique et plus large sur ces éléments visuels. Une part importante du documentaire est portée sur Unicode, qui est à la fois le réceptacle informatique des emojis, et également la norme qui les régit. Tous ces questionnements sont basés sur des interviews d’acteurs ayant un rapport particulier avec les emojis : créateurs, sémiologues, sociologues, membres d’Unicode, etc.

Ça vaut le coup ?

Et bien il me semble qu’Emoji-nation vaille le coup d’être vu, pour peu que l’on s’intéresse aux emojis au delà de leur simple aspect et de leur seule utilisation. Évidemment il s’agit d’un documentaire, on s’attend donc à ce qu’il nous informe sur les emojis, mais le sujet est abordé de manière large et on embrasse à la fois l’histoire et les enjeux contemporains de ces derniers. Le tout est vulgarisé efficacement, et laisse entrevoir des voies d’élargissement pour celles et ceux qui voudraient creuser le sujet. Les personnes interrogées sont diverses, n’ont pas forcément des opinions convergentes, tout en ayant des bonne raison de pouvoir parler le sujet. Je n’ai pas les compétences nécessaires pour donner un avis d’autorité, mais Emoji-nation semble faire preuve d’une rigueur journalistique digne de confiance, et donne suffisamment de cartes pour que le spectateur puisse entrevoir le spectre des enjeux liés à ces formes graphiques que l’on pourrait qualifier de banales et quotidiennes.

Pour ne pas être que dans le positif, j’ai néanmoins quelques retours critiques. Emoji-nation évoque, et c’est assez logique, beaucoup Unicode, en particulier son fonctionnement et comment sont créés de nouveaux éléments. Aussi il aurait peut-être été intéressant d’ouvrir sur les systèmes d'écritures et certains projets défendant l’inclusion de systèmes minoritaires, comme certains emojis liés à des minorités tentent d’être ajoutés. Dans ce cadre un petit détour par le Script Encoding Initiative, et des projets comme Decode Unicode, porté par Johannes Bergehausen, auraient pu aider à mieux saisir les enjeux sociaux et politiques liés à cette norme internationale, et qui vont bien au delà des seuls emojis. Le sujet de la politique est abordé, mais de manière assez discrète, et il n’est finalement pas fait mention directe d’évènements précis : le procès de menace de mort avec l’utilisation d’emojis pistolet qui a mené à une condamnation, et qui a été un des argument pour transformer le dit emoji en pistolet à eau. La transformation de l’emoji est expliquée, mais l’exemple du procès non, ce qui me semble dommage, car la porte était ouverte. Dans un autre temps la censure de certains emojis pourrait être montrée de manière plus directe, je pense ici à la censure de l’emoji représentant le drapeau Taïwanais, mais il ne s’agit que d’un exemple parmi d’autre. À ce titre Emojipedia, est une bonne ressource.

En une cinquantaine de minute Emoji-nation brosse un portrait riche et large de son sujet. Les enjeux sont posés clairement et de manière claire. La partie sur Unicode est abordée de manière simple, là où elle aurait pu être très technique, ce qui est très bien pour des personnes découvrant le sujet. Évidemment tout ne peut pas être dit, mais suffisamment de ressources sont évoquées pour que quiconque puisse aller plus loin. À voir donc, avant que ce documentaire ne soit retiré de la plateforme.


  1. Emoji-nation (52min), Stéphanie Cabre, Arte, 2021(source YouTube).
  2. The Emoji Code, Vyvyan Evans, Michael O’Mara Books, 2017.
  3. SEI (Script Encoding Initiative), Département de linguistique de l’université de Californie à Berkeley, États-Unis, depuis 2002 (source).
  4. Decode Unicode, Hoschschule Mainz, Mainz, Allemagne, depuis 2005 (source).
  5. “China’s Annual Emoji Censorship”, Keith Broni, Emojipedia.org, 15 juin 2021 (source).

Panneau jaune

07/10/2021

Habitué aux panneaux de signalisation avec fond rouge, le jaune-orange est plutôt associé, chez nous en tous cas, aux éléments de signalisation temporaires, en premier lieu lors de travaux de voirie. Aujourd’hui donc place à une petite anecdote sur la signalisation routière.

Red is the new Yellow

Si je vous dit panneau de signalisation octogonal, tout le monde comprend duquel il s’agit, puisque sa forme octogonale le rend unique dans le paysage de la signalétique routière. Ce panneau Stop, son fond rouge, son écriture blanche, tout le monde le connait. Il fait presque partie des meubles, comme s’il avait toujours été là.

Pourtant, aux origines de ce panneau, son fond n’était pas blanc sur fond rouge, mais noir sur fond jaune, d’après l’accord de standardisation américain de 1924. Ce n’est que plus tard que le fond fut changé pour le rouge que nous connaissons actuellement. Sa forme octogonale a elle été gardée, car elle permettait de différencier très clairement ce panneau, par sa forme unique, des autres du système de signalisation routière. Pourquoi donc ce changement de couleur ? Et bien la réponse est tout à faire pragmatique : à l’époque cette peinture jaune était celle qui était la plus résistante dans le temps, assurant une tenue de longue durée, plutôt pratique pour un élément de signalisation routière. Ce n’est donc que plus tard que la peinture rouge, une fois rendue assez résistante, fut adoptée et ce n’est qu’encore plus tard que l’effet de réflection lumineuse fut introduit.

Le panneau stop sur fond jaune
Le panneau stop sur fond jaune, wikimedia

C’est en 1954 que les États-Unis adoptent définitivement le changement de jaune au rouge pour le fond du panneau, et en 1968 qu’il fut adopté par la Convention de Vienne sur la signalisation routière, rendant le système routier cohérent à l’échelle mondiale.


  1. «Stop sign», Wikipedia, (source)
  2. «The cost of Colour», § ’Stop for Yellow’, The Politics of Design, Ruben Pater, p.73, Bis publishers, 2017
  3. «Stop Signs Used to Be Yellow More Recently Than You Think», Reader’s Digest, Meghan Jones, 31 décembre 2017, (source)

Des prélettres à l’écriture inclusive

Prélettres

En intégrant en 2013 l’ANRT, Éloïsa Pérez entame un travail qui se conclura par une thèse doctorale sur l’apprentissage de l’écriture par les enfants.

Dans ce cadre elle conçoit les prélettres, un ensemble de formes géométrique simples permettant aux enfants de se familiariser avec les figures qui, une fois assemblées, permettent d’écrire les lettres telles que nous les connaissons. Ce travail prend, entre autres, la forme de normographes dont on peut retirer certains éléments pour les combiner tels des puzzles, et utiliser les espaces vides comme guides de traçage au feutre, ce qui est l’utilité première du normographe. Comme précédemment dit, Il ne s’agit pas d’écrire des lettres à proprement parler, mais de s’initier au traçage de courbes, lignes et figures abstraites par une approche avant tout exploratoire et plastique. Les enfants sont libres d’expérimenter, de manipuler et de construire des formes à l’envie. L’apprentissage plus dirigé ne vient qu’ensuite.
Ce prélettres, comme leur nom l’indique, forment ainsi les prémisses de la formation des enfants à l’écriture en classe de maternelle, en permettant de les initier à la tenue d’un crayon, de tracer, de dessiner. En somme de développer leur cognition.

Après tout ne pourrait-on pas assimiler des lettres à des dessins conventionnés ? Des objets avant tout plastiques qu’il faut aborder en tant que tel.

Normographes

Les normographes sont un outil d’aisance pour le traçage de formes et dans de nombreux cas de lettres. Il n’y a qu’à suivre le tracé prédécoupé pour obtenir des signes au tracé régulier et précis, utile à qui n’est pas typographe, calligraphe ou peintre en lettres. Pensons par exemple aux caractères stencils, directement issus du mélange fructueux entre les normographes et les pochoirs, qui permettait de peindre rapidement et efficacement des lettres sur tous les supports.

un exemple de normographe, wikimedia

En ce sens le travail d’Éloïsa Pérez s’inscrit dans une continuité d’aide à l’écriture par la construction d’outil, les normographes étant une des voies possibles à explorer.

En droite lignée dans le champ du design, citons ainsi le système de Joseph Albers pour le Bauhaus, le Kombinations-Schrift, pensé entre 1926 et 1931, dont une plaque est conservée au MoMA et est visible ici. Pour les utilisateurs et les utilisatrices les plus avancées citons le PDU, pour Plaque découpée universelle, pensée par Joseph A. David en 1876 et qui permettait, pour peu que l’on sache correctement s’en servir, de tracer l’ensemble des lettres de l’alphabet latin : capitales et bas de casse, ainsi que les signes diacritique et les signes de ponctuation. Ce travail, redécouvert par Dries Wiewauters a d’ailleurs mené à la création d’une famille typographique issue de ce système et publiée en 2010 chez Colophon Foundry.

Normographes inclusifs

Quoi de plus normal donc, au vue de cet héritage que les questions contemporaines liées à l’écriture et la langue investisse une fois de plus cet outil.
Eugénie Bidaut, dans le cadre de son projet de recherche autour de l’écriture inclusive, développe un ensemble de caractères typographiques permettant d’explorer ces question. L’Adelphe Germinal, l’Adelphe Floréal et l’Adelphe Fructidor forment un trio typographique épicène, permettant d’expérimenter avec des outils typographiques le champ des possibles pour le développement d’une écriture (et par extension d’une langue) véritablement inclusive, objectif ultime de son travail de recherche entamé en 2020 à l’ANRT.
À l’occasion du workshop « No No Normo » sur l’écriture inclusive proposé par Bye Bye Binary en juillet 2021 lors du No No Fest, elle propose ainsi un normographe permettant de tracer certains des signes inclusifs développés pour l’Adelphe.

le normographe d’Eugénie Bidaut issu du workshop No No Normo, Eugénie Bidaut

La boucle est ainsi bouclée : quand Éloïsa Pérez facilite aux enfants l’apprentissage des bases de l’écriture, Joseph David donne un outil permettant d’écrire l’ensemble des signes nécessaires à la communication écrite et Eugénie Bidaut vient enfin questionner les normes et conventions de l’écriture actuelle.


  1. Éloïsa Pérez, eloisaperez.fr
  2. « L’écriture en jeu : à propos du travail d’Éloïsa Pérez », Thomas Huot-Marchand, 2018, (source)
  3. « L’Interview Timbrée - 24 - Éloïsa Pérez », Maison tangible, 5 octobre 2017, (source)
  4. « Trace-lettre », wikipedia, (source)
  5. « Pochoir », wikipedia, (source)
  6. PDU, Colophon Foundry, (source)
  7. Josef Albers, Bauhaus Stencil Lettering System (Kombinations-Schrift), 1926-1931, MoMA, (source)
  8. Eugénie Bidaut, eugéniebidaut.eu
  9. « Langage épicène », wikipedia, (source)
  10. No No Fest – festival des pratiques queer, Maison populaire, Montreuil, (source)
  11. « Focus sur… la typographie inclusive avec Caroline Dath » , CNAP, 21 avril 2021, (source)
  12. typo-inclusive.net

Translittération de l’arabe pour le tchat

26/05/2021

Je montrais il y a quelques jours à mon voisin mon avancée sur le projet Matahah, pour lequel je prépare un site spécimen et revoit quelque peu le caractère. D’origine marocaine, il pouvait en effet m’aider sur quelques points de construction de lettres et de compositions destinées au site. Au cours de la discussion il m’a parlé du dialecte qu’il utilisait pour discuter avec son smartphone : il s’agissait d’une langue liée à l’arabe, mais écrite en mélangeant l’alphabet latin et des chiffres indo-arabes. En effet, d’après ses dires, cette façon d’écrire est plus simple et plus rapide, en particulier pour l’écriture sur smartphone.

Arabe marocain et culture francophone

De ce que m’a expliqué mon voisin, l’arabe marocain est assez différent de l’arabe standard, dit aussi arabe classique. Si une personne parlant l’arabe marocain peut comprendre un locuteur de l’arabe classique, la réciproque est moins évidente. L’arabe marocain est en effet une réunion de plusieurs dialectes des populations arabophones présentes sur son territoire, donc une sorte de lingua franca pour les diverses population du pays.

Carte linguistique de la zone du Maroc
Carte linguistique de la zone du Maroc, wikimedia.

Le Maroc est fortement influencé par la francophonie, par l’historie coloniale, l’immigration et la relative proximité avec la France. Les personnes, dans ce contexte, utilisent à loisir le français ou l’arabe marocain (aussi appelé darija, الدارجة), voire les deux en même temps, et finalement assez peu l’arabe classique pour la communication vernaculaire.

Translittération de l’arabe

Avec ce socle posé vient une problématique intéressante : mon voisin, lorsqu’il communique avec ses amis, sa famille, utilise son téléphone et les divers système de messagerie instantanée. Jusque là rien d’étonnant, mais du fait de sa spécificité culturelle, son téléphone est plutôt configuré pour un européen, avec un clavier présentant l’alphabet latin, et écrivant de gauche à droite, là où l’arabe s’écrit de la droite vers la gauche.

Comment donc parler en utilisant l’alphabet arabe ? On pourrait installer un second clavier à son téléphone, mais ça ne serait pas très pratique pour communiquer aisément, rapidement, à la fois en français et en arabe et comment gérer le problème de sens de l’écriture opposé de ces deux systèmes ? La solution trouvée par les marocains a donc été de translittérer les caractères arabes utiles au darija en caractères latins et en chiffres indo-arabes pour en faire un système efficace et facile à mettre en oeuvre, appelé arabi (عربي) ou arabizi (عربيزي), de la contraction de arabic et easy (arabe facile). Bien qu’il existe des normes de translittération de l’arabe officielles (la norme DIN 31635 de 1982 entre autres), il s’agit dans ce cas d’une formation émanent directement de la communauté qui l’utilise.

Ce système d’écriture met en place plusieurs règles : Chaque lettre arabe est substituée à une lettre ou un chiffre, soit par convention entre les locuteurs, soit par similarité de forme entre la lettre arabe et le glyphe de transcription. Par exemple la lettre ‹ء› (Hamza) est translittérée en ‹2› ou en ‹a›, par symétrie de forme ou par similarité sonore ; ‹ع› (Ayn), est lui translittéré par un ‹3›. Chaque caractère a un son unique, non influencé par l’enchaînement des autres caractères. Autrement dit on ne fait pas de liaison ou de modification du son selon son contexte dans la phrase. Enfin on écrit dans le sens inverse de l’arabe : au lieu d’écrire de droite à gauche, on écrit de gauche à droite, tout en maintenant l’ordre des sons des mots d’origine.

Translittération de l’arabe
Translittération de l’arabe, wikimedia.

Do you 5P34K L33T ?

La forme que prend l’arabizi fait tout de suite écho au Leet Speak, un forme d’écriture issue du web qui avait pour but de chiffrer l’écriture (de langues utilisant l’alphabet latin) en replaçant certaines lettres par des chiffres (L33T 5P34K), pour sa forme la plus simple, ou en replaçant des lettres par un ou plusieurs signes non alphabétiques, pour les versions les plus complexes (|_ 33¯|¯ _/¯|°3/-|<). Là ou l’arabizi est utilisé pour faciliter la transmission d’information et l’accès à tous aux moyens de communications actuels, le Leet Speak était plutôt fait pour lier une communauté en rendant l’accès aux personnes extérieures plus complexe : Leet Speak vient de la déformation de Elite Speak (langage d’élite). Certains sont largement contre l’utilisation du langage SMS, qui soit-disant réduirait le niveau de français, et on pourrait rapprocher formellement ce système d’écriture à celui de l’arabizi. Mais dire qu’il s’agit d’un appauvrissement de la langue me semble faux (d’ailleurs regardez cette vidéo de Monté) : au contraire on a créé un système qui permet de contourner les limitations d’un système. À ce titre c’est plutôt un enrichissement et un renouvellement de la langue. Pour le langage SMS, il s’agissait d’écrire un message avec le moins de caractères possible, car à l’époque chaque message était facturé, et le nombre de caractère par message était limité à qu’un tweet. Ns navion pa le choi, c t kom sa. Il en est de même avec le franglais, qui, au grand dam des défenseurs acharnés de la «bonne langue», est très utile lorsqu’il s’agit de vocabulaire qui n’a pas encore eu de traduction française. Je pense en particulier aux mots liés au web ou aux nouveau canaux de communication, d’information et de divertissement, et qui ont mis un certain temps à trouver de formes françaises (spoil → divulgacher, spam → pourriel, etc.), ou qui n’ont pas réellement d’équivalent aujourd’hui (une story Instagram, binge watcher un série, etc.). Aujourd’hui écrire en langage SMS devient inutile et est même mal perçu, à raison : puisque les limitations précédentes ne sont plus d’actualité, ce système est devenu obsolète.

Captures d’écran de deux conversations bilingues arabizi-français fournies par mon voisin.

Pour les marocains cependant l’arabizi semble rester essentiel pour communiquer facilement en utilisant une seule base, l’alphabet latin (et les chiffres indo-arabes), qui permet d’écrire en continu plusieurs langues et dialectes à la fois. C’est somme toute un système très rationnel.


  1. «Arabe marocain», wikipedia (source)
  2. «Alphabet de tchat arabe», wikipedia (source)
  3. «Qu'est-ce que l’easy Arabic ou arabizi ?», Joumana Barkoudah, Institut du monde Arabe (source)
  4. «Arabizi, le printemps linguistique», Le temps, 9 octobre 2012 (source)
  5. «Lumière sur : l’arabizi», Kawa news, 17 décembre 2019 (source)
  6. «Communication écrite», Shane Hartford, TradOline (blog), 7 décembre 2020 (source)
  7. «Transcription et translittération», wikipedia (source)
  8. Transliteration of Arabic, Thomas T. Pedersen, http://transliteration.eki.ee/, 2008.
  9. «Leet speak», wikipedia (source)
  10. «Langage SMS», wikipedia (source)

[Ehmay Ghee Chah] A Universal Second Language, Elmer Joseph Hankes, 1992

À propos de l’auteur

Elmer Joseph Hankes (1913-2012), d’après le peu d’informations que j’ai pu trouvé, arrive à Minneapolis (Minnesota, USA) dans les années 1940 comme ingénieur mécanique. Il dépose divers brevets dans le domaine des machines permettant la correction automatiques des tests standardisés. Ce qui nous intéresse plus particulièrement ici est son travail d’invention d’une langue secondaire et universelle, qu’il nomme EhmayGheeChah et qui signifie « langue secondaire », tout un programme donc, qui se déploie dans une édition préliminaire éditée en 1992 : EhmayGheeChah A Universal Second Language.

Un livre sorti des collections

Cette édition préliminaire a un format assez commun de 160×233 mm pour 174 pages, avec une couverture rigide en papier gaufré noir, avec son titre encré sur le dos et deux papiers imprimés et collés pour faire office de 1re et 4e de couverture. L’édition présentée ici provient de la Hillsboro High Library (Nashville, USA), sous la référence 499.99 HAN n°222827. Cet ouvrage a été sorti des collections à une date non précisée comme l'indiquent les deux mentions « withdrawn » tamponnés sur la première page et sur la pochette accueillant la fiche d’emprunt. Je m’avancerai à dire que cette sortie du catalogue est possiblement due au fait que le livre n’a apparemment jamais été emprunté, puisque la carte d’emprunt est vierge et semble de la même époque que la sortie du livre.

La courverture de l’ouvrage avec le papier imprimé collé sur la couverture

Une édition pour la recherche

C’est précisé dès le titre intérieur, cette édition préliminaire n’est destinée qu’à la recherche, puisqu’une première édition définitive était prévue pour le quatrième semestre de l’année 1993, édition définitive dont je n’ai pas trouvé trace lors de mes recherches. Le livre est découpé en 5 parties matérialisées par une marque visible sur sa tranche. On a dans un premier temps une présentation générale du projet et des principes de construction de ce système de communication. Viennent ensuite des tableaux de construction de mots suivi par deux parties de vocabulaire général par thèmes puis par ordre alphabétique. On finit par des appendices complétant le projet et ses futurs développements. Cette édition devait à l’origine être accompagnée d’un cassette audio permettant d’écouter Elmer Hankes parler dans sa langue, pour nous permettre d’en apprendre la prononciation, mais je n’ai que le livre. En somme cet ensemble était à la fois la présentation d’un projet et un guide d’apprentissage de l’EhmayGheeChah.

Structure de la langue

La proposition de Hankes est basée sur un construction proche des hiéroglyphes égyptiens en ce qui concerne les chiffres : un signe représente à la fois un mot (un chiffre) et a également une valeur de phonème. Les chiffres sont un calque des chiffres indo-arabes, avec une nouvelle prononciation. Les lettres sont quand à elles des signes inventés, construites sur un principe monocaméral modulaire assez rigide : chaque lettre possède une barre verticale à laquelle peuvent s’ajouter un ou plusieurs traits horizontaux sur le haut, le milieu ou le bas de cette barre, à sa gauche ou sa droite. Des points pouvant se placer sur quatre positions définies (2 à gauche, 2 à droite) viennent compléter la construction. D’autres signes divers (ponctuation, notes tonales, etc.) terminent l’ensemble. Les barres horizontales ne peuvent se placer que d’un côté à la fois, les 20 voyelles ont des barres à droites et les 20 consonnes ont des barres à gauche. On peut rapprocher cette construction avec le système numéraire cistercien, dont vous pourrez retrouver une vidéo proposée récemment par Benjamin Brillaud. Les mots de base sont composés de trois syllabes, les deux premières permettant d’identifier la thématique linguistique du mot, par exemple les actions, les mathématiques, les couleurs, etc. La construction est donc emprunte d’une rigueur toute mathématique, ce qui n’a rien d’étonnant avec le passif d’ingénieur de l’auteur, le fait qu’il cherche également par ce langage à faciliter l’OCR, la communication homme-machine et l’idée que l’on se fait d’une langue universelle, qui doit être basée sur des principes éminemment logiques.

pp.4-5 : la structure de la langue, son alphabet et ses divers signes.
pp.6-7 : les signes étrangers et le système de dénombrement.
pp.68-69 : une double page du vocabulaire préliminaire.

L’utopie du langage universel

Difficile de ne pas penser à cette utopie plutôt ancienne de la création d’une langue de zéro, construite sur des bases logiques qui ferait d’elle une langue secondaire universelle (on parle alors de pasigraphie), voire pour les plus ambitieux une langue mondiale unique venant reconnecter tous les Hommes. On retourne au mythe de Babel. Mis à part l’Esperanto, qui connait un certain succès, force est de constater que cette utopie ne s’est jamais vraiment matérialisée, les diverses propositions de langues universelles restant pour la plupart des curiosités ou des expérimentation de fiction, telle que le Rapid Language que le collectif Normals développe et qui unifie les humains et l’internet (appelé chez eux le stream). Au final c’est l’anglais qui s’est peu à peu imposé comme une langue internationale, à défaut d’être à proprement parler une langue universelle. Elmer Hankes est sur ce point assez pragmatique, il reconnait la difficulté de ce travail, mais reste néanmoins extrêmement confiant sur sa réussite puisqu’il a fondé dans le même temps la Fondation Hankes pour supporter l’EhmayGheeChah, que le design des caractères et déposée par brevet et que cette édition préliminaire a été éditée à 10 000 exemplaires, ce qui me semble un peu excessif pour ce type de projet dans les années 1990. Il revient plusieurs fois sur les progrès dont pourraient bénéficier la société grâce à son language, qu’il qualifie lui-même de « poli », qui permettrait d’unifier les hommes, et c’est pourquoi les quatre premiers mots créés sont please, excuse me, thanks et welcome.

Il y a une forme d’ambiguïté dans ce projet basé sur une volonté louable : un goût pour la liaison et la paix entre les Hommes. Pourtant c’est un projet breveté, conçu, diffusé et développé par un auteur omnipotent qui ne semble pas avoir pris conscience de toutes les tentatives similaires précédentes qui se sont conclues par des échecs plus ou moins fracassant. Le peu d’informations que j’ai pu glané ne permettent pas réellement de saisir l’impact de ce travail, s’il a eu, au moins pendant un court moment, une certaine reconnaissance publique et s’il a été investi par des organisations, comme cela avait été le cas avec la sémantographie de C. K. Bliss. Trente ans après, l’EhmayGheeChah semble n’avoir été qu’une étoile filante dans le paysage des pasigraphies.


  1. Elmer J. Hankes, Ehmay Ghee Chah – A Universal Second Language – preliminary edition, The Hankes Foundation, Minneapolis, 1992
  2. «Elmer Joseph Hanks», startribune.com source
  3. «Elmer Joseph Hanks», prabook.com source
  4. Arika Okrent, In the Land of Invented Languages, Spiegel & Grau, New-York, 2010
  5. «Système cistercien de notation numérique», wikipedia.org source
  6. «Rapid Language», Normals, normalfutu.re source & source