Home |
Last modified: 23-02-2007 |
Pour comprendre lhistoire de linformatique au Japon, il faut tout dabord savoir que la japonisation des environnements informatiques a posé des problèmes pendant longtemps, et que ceux-ci nont été résolus quassez récemment. En effet, si les langues occidentales, qui sécrivent à laide dun système décriture phonétique très simple, ont pu être utilisées par les ordinateurs dès le début ( Encore quil ait fallu attendre la première moitié des années 80 pour disposer en Europe de logiciels localisés, permettant lusage des signes accentués.), cela na pas été du tout le cas pour le japonais, à linstar dailleurs des autres langues dExtrême-Orient comme le chinois ou le coréen. Ceci est dû au fait que ces langues utilisent un système décriture très compliqué basé sur plusieurs milliers de caractères idéo-graphiques.
Dans un premier temps, ces pays ont essayé de copier le système occidental, à savoir «une touche égale un signe», mais cette stratégie sest rapidement montrée inadaptée : lutilisateur devait manipuler un clavier comportant plusieurs milliers de touches!
Avec lapparition de micro-ordinateurs, linformatique sortît des laboratoires et des grandes entreprises pour être utilisée par le grand public. Afin de transformer ces machines en produit de grande consommation, il devînt donc impératif de changer de méthode pour entrer les caractères. A lorigine, les micro-ordinateurs ne possédaient pas suffisamment de RAM et des micro-processeurs suffisamment rapides pour espérer gérer des polices de caractères de plusieurs milliers de signes. On obligea donc les utilisateurs à taper leur texte uniquement en signes phonétiques, en katakana dans le cas du japonais, en hangul dans le cas du coréen. Cette méthode neût pas beaucoup de succès, de par la difficulté de lire ces langues sans aucuns caractères chinois.
La puissance des micro-ordinateurs augmentant rapidement, les Front-End Processors fîrent leur apparition afin de gérer les input-output dans ces langues. Le principe est simple: on tape les mots en alphabet latin, sur un clavier de type occidental (avec quelques touches supplémentaires: le clavier japonais comporte typiquement 106 touches, contre 101 aux Etats-Unis, et 102 en Europe), puis on laisse un programme couplé à un dictionnaire analyser le mot ou la phrase, et convertir en caractères chinois (kanji en japonais) les mots qui doivent lêtre (En effet, le japonais et le coréen sécrivent en mélangeant des caractères chinois et des caractères phonétiques, kana en japonais, hangul en coréen. Le chinois ne sécrit quavec des kanji. A cela, on doit naturellement ajouter lalphabet latin et les chiffres arabes.) Lorsque le programme rencontre un homophone, c.a.d. un mot possédant plusieurs équivalents phonétiques, le programme effectue une conversion en choisissant lhomophone sélectionné lors de la dernière utilisation. Si ce mot ne correspond toujours pas, la liste des homophones est affichée à lécran.
Par exemple, si lutilisateur tape dans un environnement japonais le mot kagaku, le programme trouvera dans son dictionnaire au moins deux homophones signifiant, lun science, lautre chimie . Comment choisir? Le programme sélectionnera donc dabord le mot choisit par lutilisateur la dernière fois que le problème sest posé. Si cela ne correspond pas, les deux mots seront affichés dans une fenêtre, à charge à lutilisateur de sélectionner le mot correcte.
Si cette méthode rend indubitablement plus difficile la frappe de documents que lorsque lon utilise un environnement occidental, les FEP récents permettent daugmenter le taux de conversion correcte en utilisant, dune part des dictionnaires beaucoup plus riches, dautre part des algorithmes basés sur lintelligence artificielle, à savoir lutilisation de mots clés. Dans lexemple ci-dessus, ce type de programme se basera sur la présence dans la portion de texte précédante de mots tels que molécules ou éléments pour choisir le mot chimie, ou, au contraire, des mots mathématiques, physique pour sélectionner le mot science.
Par ailleurs, les tables de kanji prennent beaucoup de place en mémoire, ce qui a obligé les fabricants asiatiques à les inclure à lorigine dans des cartes ROM. Si cette méthode a lavantage déconomiser de la RAM, elle a linconvénient de coûter plus cher et dinterdire toute modification des polices.
Cest cela qui a décidé IBM à introduire en 1991 DOS/V, une version japonisée de PC-DOS 4.0 (Le V tient pour VGA. A lépoque seul IBM proposait ce type daffichage ) et qui marque le début de la véritable pénétration des ordinateurs étrangers au Japon. En effet, les kanji sont désormais chargés en RAM, modifiables à volonté, ce qui noblige plus les constructeurs à personnaliser leurs machines pour le Japon.
La version 3.0 japonisée de Windows apparaît fin 1991. Même si le succès nest pas à la hauteur des espoirs de Bill Gates, cet évènement est à marquer dune pierre blanche. La sortie en 1993 de la version 3.1 est attendue. Celle-ci offre un confort dutilisation supérieur et, comme dans sa version occidentale, des polices True Type, ce qui est un élément important car laspect esthétique des caractères chinois est primordial. Les polices True Type ont ouvert la voie à une production de polices japonaises aussi riches que pour lalphabet latin. Le principal vendeur de fontes TT à lheure actuelle est le fabricant dimprimantes Ricoh; une fonte coûte environ \15,000, ceci étant dû aux efforts nécessaires pour coder une police de plus de 7,000 signes.
Le succès du Windows 3.1 japonais est tel que les constructeurs japonais décident, les uns après les autres, dabandonner leur système propriétaire pour vendre également au Japon leurs compatibles IBM- PC. Seul NEC, et EPSON dans une moindre mesure (EPSON a décidé au début 1994 de continuer à vendre ses machines compatibles NEC en magasin, mais de vendre en directe des compatibles IBM.), sentête à vendre ses machines série 98 à larchitecture incompatible, poussé en cela par une part de marché au Japon denviron 50%. A noter cependant que Microsoft a accepté de recompiler Windows et ses applications pour cette série de machines. Ceci explique pourquoi on trouve au Japon deux versions des grands logiciels pour Windows: 1.44 M (IBM-PC) et 1.25 M (NEC/EPSON). Seul lavenir dira pendant combien de temps NEC pourra résister à la tentation dabandonner cette architecture uniquement utilisée au Japon.
Reste des problèmes non encore résolus: le DOS/Windows japonais ne reconnaît que les claviers japonais 106 touches et US 101 touches; par ailleurs, lalphabet latin est limité aux 26 lettres de lalphabet: il est donc encore impossible dobtenir ne serait-ce que les signes accentués utilisés dans les langues européennes (A noter la sortie en septembre 1994 de la version 6 de Word qui permet de les obtenir, mais uniquement à laide de combinaisons de touches.), sans même parler dautres alphabets comme larabe ou lhébreu ( Pour une raison inconnue, le Japan Industrial Standard, léquivalent nippon de lAFNOR en France, a pourtant inclu dans la liste des signes utilisés en japonais les alphabets grecs et cyrilliques. Cette absence des signes accentués ne sexplique pas par manque de place, puisque cette liste contient de nombreux espaces vides. Langue étrangère égale anglais, comme disent les Nippons.).
Enfin, Microsoft réussira peut-être à imposer ladoption de la liste Unicode, pour remplacer ces différentes tables de signes, Ascii en Occident, JIS au Japon (JIS est donc le nom officiel de léquivalent japonais des Ascii. Cette liste contient environ 7,000 signes, et est séparée en deux tables. La première contient les alphabets latin, cyrillique et grec, les chiffres arabes, des symboles, les deux ensembles de signes phonétiques japonais hiragana et katakana, puis environ 3,000 kanji. La deuxième table contient environ 3,000 kanji supplémentaires, inutilisés aujourdhui mais nécessaire pour taper des documents en japonais classique), dautres encore en Corée, en Chine Populaire, à Taiwan, toutes différentes, ce qui ne facilite pas les choses. Ceci permettra de mettre un terme au bricolage actuel des environnements informatiques japonais, obligés de jongler avec deux tables de signes, les Ascii et les JIS (voir annexe).
Et Apple? Pour ce qui concerne Apple, les problèmes ont été moins nombreux puisque larchitecture du Macintosh est plus récente et que cet environnement est basé depuis lorigine sur un affichage en mode graphique, qui se prête donc facilement à une «localisation», c.a.d. une version en langue étrangère. Par ailleurs, Apple a étudié plus tôt que Microsoft le problème de linternationalisation des logiciels, et notamment les difficultés que représentent le portage dun environnement basé à lorigine sur lalphabet latin à un environnement basé sur les kanji.
La première version japonisée du Système, appelée Kanji Talk, date de 1987, et a été bienreçu par les Japonais, notamment parce que seul Apple offrait à lépoque un GUI adapté au japonais. Jusquà la version 7, le développement du Système était organisé en partant du principe que les versions étrangères seraient directement basées sur la version US. Cependant, Apple sétant rendu compte des problèmes posés par cette façon de faire, les versions 7 et 7.5 ont été au contraire développées selon le principe du concurrent engineering, c.a.d. que toutes les filiales participent simultanément au développement dune nouvelle version, ce qui contribue à réduire au maximum les problèmes liés à la localisation de son environnement, en évitant la réécriture de code après coup.
La hausse du Yen, et la nette victoire des GUI sur linformatique plus traditionnelle, ont permis depuis environ trois ans à Apple daugmenter nettement sa part de marché au Japon jusquà tenir aujourdhui 18% du marché. Cependant, la compétitition des compatibles PC est de plus en plus rude, et les choses pourraient changer de manière importante dans les deux ans qui suivent avec la version japonaise de Windows95, prévue pour... le début 1996.
Annexe Pour information, le principe des séquences escape <Ascii 27 + caractères de contrôles> a été abandonné au début des années 80 afin déviter des erreurs de transmission entre les ordinateurs et certains périphériques comme les imprimantes ou les modems.
A la place, on considère quun Ascii de base, c.a.d. un octet dont le bit de poids fort est à 0 est un véritable Ascii à chercher dans cette table, alors quun octet avec un bit de poids fort mis à 1 est un signe japonais : dans ce cas, on prend le deuxième octet, on ajoute ces deux chiffres de 7 bits en laissant de côté les deux bits de poids fort qui nont plus dutilité, puis on cherche dans la table JIS le caractère auquel correspond ce chiffre codé sur 14 bits. Cest précisément ceci qui explique pourquoi on ne peut, sur la plupart des ordinateurs japonais, pas obtenir les signes accentués des langues européennes, puisque les Ascii étendus où résident ces signes ne sont plus disponibles.
Ce système posant de gros problèmes pour échanger des informations en japonais par lintermédiaire de réseaux informatiques internationaux comme Internet ou Compuserve, on peut penser que la soi-disante internationalisation () du Japon conduira ce pays à remettre en cause prochainement ce système et adopter une alternative intéressante comme la liste Unicode (Pour en savoir plus, lire Understanding Japanese Information Processing/ par Ken Lunden, éditions OReilly & Associates Inc., Sebastopol (California), 1993, ISBN 1-56592-043-0).