Archive Liste Typographie
Message : Re: normes a la c... - Unicode (était : banalisation des smileys)

(Olivier RANDIER) - Vendredi 12 Mars 1999
Navigation par date [ Précédent    Index    Suivant ]
Navigation par sujet [ Précédent    Index    Suivant ]

Subject:    Re: normes a la c... - Unicode (était : banalisation des smileys)
Date:    Fri, 12 Mar 1999 04:18:48 +0100
From:    Olivier RANDIER <orandier@xxxxxxxxxxx>

>Jacques Melot wrote:
>>
>>Il existe, par exemple, une
>> norme AFNOR que les auteurs, croyant bien faire, m'opposent souvent en ce
>> qui concerne le constitution des bibliographies. Il s'agit, chez eux, d'un
>> malentendu et plutôt que de l'expliquer à nouveau moi-même de mon organe
>> somme toute débile, je me contenterai de vous reproduire ce qu'en dit, si
>> bien, le _Lexique des règles typographiques en usage à l'Imprimerie
>> nationale_.
>>
>> [p. 36 de la 3e éd. :]
>>
>> Remarque. - L'AFNOR a publié une série de normes Z 44 portant sur la
>> _Rédaction de la description bibliographique_. [...]
>
>Bravo, ce n'est pas le tout d'utiliser des normes, il faut utiliser
>celles qui sont faites pour ce qu'on veut faire. La norme Z44 ignore
>complètement l'italique alors que les typographes en ont besoin.

>C'est bien le même problème qu'Unicode qui est norme d'échange de
>caractères et non autre chose comme  voudraient le croire tous ceux qui
>veulent y
>ajouter des fines et autres tirets 3 cadratins.

Euh... on veut rien ajouter de tout cela, vu que ça y est déjà. Par contre,
ligatures, petites capitales, etc., nous agréeraient fortement...

D'autre part, ce n'est pas tout-à-fait comparable : la norme Z44 consiste,
si j'ai bien compris, en une série de recommandations (périmées,
semble-t-il) sur la façon d'écrire les biblios. On n'est pas obligé de s'y
conformer. Unicode est une norme d'échange informatique qui, une fois
qu'elle aura été adoptée par les principaux acteurs, s'imposera d'elle-même
et, donc restreindra les usages possibles, ce qui peut être dangereux.

Bon, on va pas revenir sur ce marronier, mais il me semble que le problème
d'Unicode, c'est que la distinction caractère/glyphe n'est pas claire (elle
est d'ailleurs délicate à établir), y compris pour les auteurs.
Ou alors, il faudra qu'on m'explique à quoi servent 12 astérisques !
Or je n'ai pas ouï dire qu'il y ait un quelconque projet de norme de
glyphes associé. Dans cette situation, il est à craindre que les glyphes
qui n'ont pas été prévus disparaissent purement et simplement, par
impossibilité technique (il n'est que de voir le sort des Experts dans le
contexte 8 bits). J'avais lu un article sur l'opposition des Japonais à
Unicode, du fait de la limitation de celui-ci à 20 000 idéogrammes. Certes,
le péquin moyen en connait 5 000, mais un lettré pourra en connaitre
50 000. Peut-on accepter qu'une norme informatique fasse disparaître des
mots de la langue ?

J'ai effleuré le sujet dans [K2], pour moi, la bonne solution serait que,
pour un caractère dans Unicode, on puisse associer une série raisonnée de
glyphes, selon une norme établie. Par exemple, le caractère XXXX peut être
affecté de l'attribut XX, qui correspondrait, dans la norme de glyphe, à la
version petite cap du caractère. De cette manière, on assurerait un échange
parfait, typographiquement, même si les fontes ne sont pas transmises avec,
et sans alourdir Unicode.
En l'absence de cette solution, j'aurais tendance à militer pour
l'intégration des petites caps et des ligatures, parce qu'alors ce serait
la meilleure solution pour les obtenir sans faire du cherche/remplace à qui
mieux mieux, et sans voir tout bousillé au moindre échange.

Olivier RANDIER -- Experluette		mailto:orandier@xxxxxxxxxxx
	http://technopole.le-village.com/Experluette/index.html
Experluette : typographie et technologie de composition. L'Hypercasse
(projet de base de données typographique), l'Outil (ouvroir de typographie
illustrative).