(réédition d’une note du premier mars 2006)
Il arrive un moment dans une suite d’études (sur la lettre, la typographie et la lisibilité) où l’on se sent obligé de descendre dans les profondeurs d’une théorie, au risque parfois de rencontrer des difficultés épistémologiques. L’organisation des savoirs dans les domaines de l’alphabet, de la lettre et de la typographie, tient autant des approches historiques, scientifiques que techniques et artistiques. La question de la lisibilité des alphabets est relativement moderne, si l’on accepte de considérer que cinq cents à sept ans années d’acharnement à rendre les caractères plus lisibles peuvent entrer dans une conception de la modernité. Je rappelais dans ce blog la révolution prônée par ITC dans les années 70 pour agrandir l’œil des bas de casses. D’autres typographes avaient déjà exploré ce cheminement. Et pour n’en citer que deux, Stanley Morison qui dessina le Times et Roger Excoffon qui créa l’Antique de la fonderie Olive. Mais les travaux d’Eric Gill ne sont pas loin de ces préoccupations. Son Antique (linéale) est un chef d’œuvre de compromis entre linéale et écriture humanistique.
- où l’on voit l’irruption de l’écriture manuscrite dans la construction d’une linéale. Pleins et déliés, attaque du a bas de casse, la lettre g conçue avec les deux o superposés…
- regardez le dessin du p italique, il fallait oser à l’époque (1927-1930) associer ainsi le tracé manuel avec une construction géométrique.
La lisibilité est donc un thème de recherche inépuisable.
les principes qui la fonde:
Le dessin
La composition
-les approches
-les interlignages
La mise en page
-grille
-colonnes
-alignements
-niveaux de lecture
La couleur
-texte en couleur
-texte en réserve
Tout au long de ce blog je les développerai comme j’ai déjà commencé avec les approches, interlignages, histoire de la lettre… Mais aujourd’hui je voudrais aborder cet aspect assez méconnu que sont les travaux sur la lisibilité.
C’est au XVIIIe siècle qu’à l’Imprimerie Nationale Annisson fournit la première expérience. Dans les années 1790 il fit composer puis lire deux pavés de textes dans le même corps, l’un en Didot, l’autre en Garamond. Il demanda aux volontaires-testés de s’éloigner progressivement du papier. Ceux-là déclarèrent le Garamond «bien plus lisible que le Didot». Celui-ci perdant toute qualité de lecture distincte alors que le Garamond continuait malgré l’éloignement progressif à servir le texte par une lisibilité précise.
Charles Babbage et Thomas Hansard furent mentionnés par Pyke en 1926 dans un ouvrage (Legibility of Print) pour avoir en 1825 et 1827 fait des essais d’impression sur un papier légèrement teinté (en jaune) et fait faire des tests de lecture. Ils en conclurent que le fait de diminuer légèrement le contraste de lecture diminuait la fatigabilité de nos rétines. Mais ils conclurent également que des lettres de hauteur égales (capitales) plutôt old style, étaient plus faciles à lire. D’autres recherches ultérieures infirmèrent leurs conclusions.
C’est en 1878 que des recherches approfondies furent menés par le professeur Emile Javal de l’Université de Paris. Ils eurent pour objet de vérifier la lisibilité intrinsèque des lettres ainsi que de leur perception dans des conditions de lumière artificielle. Il constata pour la première fois le déplacement de l’œil qui ne lit pas en suivant une ligne de base continue, mais en se fixant par saccades et mouvements compulsifs. On avait cru pendant longtemps que l’œil caressait la ligne de lecture dans un mouvement doux et continu. Javal considéra que les caractères gothiques devraient être bannis pour avoir selon lui créé des générations de myopes. Il confirma les études de Babbage concernant la nécessité de diminuer le contraste entre le papier et la lettre. Et il fit pour la première fois cette découverte essentielle encore aujourd’hui pour la compréhension de la lecture des lettres: c’est bien la partie supérieure des lettres minuscules que l’œil peut déchiffrer et non l’inverse la partie inférieure (moitié-moitié). Voici 4 planches qui vous feront mieux comprendre le phénomène.
Les deux premières planches: caractères utilisés
1 Arial,
2 Dax,
3 ITC Avant Garde,
4 Cg Gothic N°2,
5 ITC Franklin Gothic,
6 Frutiger,
7 Futura,
8 Helvetica Neue,
9 Gill Sans,
10 Meta Plus Book
caractères linéales, partie moitié inférieure. Où l’on s’aperçoit que quelque soit la police utilisée le mot Hambourgefons n’est pas déchiffrable. Il y a bien quelques lettres que vous devinez: le a, le g, le e et le s. Mais cela ne suffit pas à donner du sens au mot.
caractères linéales, partie moitié supérieure. Là le mot se lit. Presque facilement. Le Gill Sans et le Meta s’en tirent avec les honneurs quant à l’Arial et l’Helvetica (l’Arial est un dérivé Microsoft de l’Helvetica) ils passent le test avec un certain bonheur. Mais tous les caractères ci-dessus sont déchiffrables avec un peu de sagacité.
Les deux planches suivantes: caractères utilisés
1 Minion Pro,
2 Matrix,
3 Adobe Jenson,
4 Garamond Stempel,
5 GP New Libé,
6 Palatino,
7 Adobe Garamond,
8 ITC Garamond,
9 Adobe Garamond,
10 ITC Berkeley
caractères old-style (garaldes, humanes, réales) partie moitié inférieure. Le fait est qu’un caractère à empattement est plus déchiffrable. Les deux premières barres verticales: impossible. Il y a confusion. Mais le m, le u s’ajoutent aux lettres que nous avons déjà mentionné pour le bas des linéales. Cependant à l’exception du N°3 et 6, c’est à dire de l’Adobe Jenson et du Palatino les e sont devenus illisibles parce que confusion avec un c. Remarquez aussi que les a semblent pas mal souffrir de cette expérience.
caractères old-style (garaldes, humanes, réales) partie moitié supérieure. Là il n’est point besoin de vous donner mon opinion. La plupart des mots-caractères sont déchiffrables. Cependant je vous laisse le soin de me donner votre palmarès personnel. Postez-moi un commentaire en me donnant les trois polices ci-dessus les plus lisibles.
Cette expérience me semble très importante pour la compréhension du travail du dessinateur de caractère et d’une manière générale pour tous les graphistes qui mettent en page livres-publications, magazines-journaux et d’une manière générale toute édition print voire web, publicitaire ou non.
N’allez surtout pas croire que je milite en faveur d’une génération de polices rognée à la moité supérieure (bien que ce soient là des pistes largement suivis de nos jours par des type-designers en rupture de toute tradition. Mais il me semble clairement établi ici que les caractères à empattements sont expérimentalement sinon scientifiquement (ce serait une outrance) plus confortables à lire simplement pour la raison que leurs formes alphabétiques sont plus distinctes et jusqu’au bout de leurs pâtins.
Javel continue ses recherches et conclut à distinguer les lettres de l’alphabet en 4 catégories. 1) les lettres à lignes verticales, 2) les lettres aux formes courbes, 3) les mixtes (courbes+lignes verticales), 4) les lettres aux lignes obliques. C’est, conclut-il la prédominance de l’une ou l’autre de ces catégories au sein d’un mot qui en donnera l’apparence majeure. Messmer dira même que lorsqu’il y a uni-valence des catégories au sein d’un mot celui-ci sera moins déchiffrable que lorsque ces catégories seraient harmonieusement mélangées.
1) h i j l m n r t u
2) a c e g o s
3) b d p q
4) k v w x y z
Goldscheider et Müller découvrirent que la combinaison de certaines lettres favorisaient la reconnaissance des mots. Leur recherches les confirma dans l’idée que si les voyelles étaient très importantes pour la construction des syllabes, les consonnes apportaient plus de lisibilité par la présence de lettres ascendantes et montantes.
En 1885 Cattell démontra que les yeux percevaient aussi rapidement un mot entier qu’une simple lettre. Encouragé dans cette voie par Erdmann et Dodge qui montrèrent en 1898 que les sujets reconnaissaient des mots imprimés en très petits corps alors même qu’ils ne pouvaient en lire les lettres individuellement. Ils en déduirent une théorie de la morphologie des mots qui se mémorisent et se reconnaissent au détriment des lettres. Bien entendu ils durent aussi reconnaître que plus les mots étaient longs et présentaient des particularismes, plus ils étaient reconnaissables. Au contraire de Korte qui trouva que lors d’une vision périphérique, nos yeux reconnaissent plus facilement les mots courts. De toutes ces conclusions et des tests qu’il mena Catell en tirera une théorie, un texte qui fait sens est plus facilement déchiffrable qu’une suite de mots sans queue ni tête (sans doute la raison pour laquelle j’ai calé au début sur la lecture d’Ulysse de James Joyce).
Deux planches pour montrer la perception des mots malgré des conditions d’interlignage abominables. L’on voit ici l’importance des voyelles et plus généralement des lettres aux formes arrondis pour faciliter la reconnaissance des mots. Il est aussi fondamental de noter ici l’amélioration des résultats de reconnaissance lorsqu’on passe en noir sur blanc (ici un jaune sable) alors que le noir au blanc diminue considérablement le travail de reconnaissance.
Les recherches de Pillsburry (1897) à l’aide d’un tachiscope montrèrent que les lecteurs faisaient souvent état de lettres manquantes ou de fausses lettres alors même qu’ils avaient parfaitement déchiffré le mot. Il établit de même que la première partie d’un mot est plus aisément reconnaissable que la deuxième, ce en quoi il fut contredit par Vernon (1928) qui lui pensait avoir découvert que la partie du mot la plus pregnante visuellement serait celle qui comporte l’accentuation tonique. Ce qui posait d’entrée la question de la langue. Oui pour l’anglais mais quid des langues étrangères. Mais sa théorie est loin d’être inintéressante. Elle nous ramène aux origines même de l’alphabet phonétique. Il s’agit bien pour ces vingt six lettres de transcrire des sons. Je l’ai déjà évoqué à plusieurs reprises dans mes notes.
Pour Tinker (entre 1926 et 1962), nous ne lisons que ce que nous connaissons déjà. Les mots inusuels qui ne font pas sens dans notre expérience personnelle échappent à la lecture et puisque nous lisons par saccades et fixations compulsifs, nos yeux réagissent alors en régression sur la ligne. Retournent en arrière, s’arrêtent pour assimiler une nouveauté. D’après les recherches de Tinker, les mesures à la caméra ont montré que la vitesse moyenne d’un lecteur moyen était d’environ 250 à 300 mots par minute. Nos yeux se meuvent le long de la ligne par une série de petits sauts. Et pendant ces sauts notre vision ne serait pas si nette que cela. Dans la plupart des cas, nous consacrons 94 pour cent du temps de lecture aux fixations qui durent environ un quart de seconde. La rapidité comme on vient de l’indiquer dépend en grande partie du contenu rédactionnel, facile ou au contraire technique ou scientifique, nos yeux obéissent à notre conscience en gestation constante. Ils ralentissent avec la difficulté de reconnaître des termes, des concepts auxquels notre pensée serait étrangère.
La recherche sur la lisibilité, a développé des écoles, des débats nombreux sur la méthodologie, les moyens techniques et que ce soit le suédois Bror Zacchrisson au vingtième siècle ou Anisson au dix huitième tous ont contribué à dresser une carte de la compréhension de ce phénomène. Vous l’aurez compris il n’est pas aisé de le circonvenir. Détecter le rôle d’une vision périphérique qui perçoit soixante quinze pour cent des signes que nous ne focalisons pas directement (4-5, c’est le nombre de lettres qui sont vues avec une netteté absolue), déterminer avec certitude le rôle de la culture et du niveau d’éductation des sujets pour la compréhension plus ou moins rapide d’un texte relève tant de l’impossible que du nécessaire. Souvent ces recherches ont débouché sur de douces hystéries. On a voulu croire dès lors que nous percevions les mots et non les lettres l’inutilité de remplir le contour des lettres, mais Tinker a su éviter l’écueil en montrant (grâce à des tests de performance) la nécessité des contreformes dans le processus de lecture.
Le tachyscope a permis, en exposant les sujets à des stimulis (une lettre, un mot) d’en mesurer les réponses. Etudes quantitatives qui ont permis de déterminer la lisibilité relative des différentes lettres de l’alphabet. Cependant cette technique de mesure ne rendait pas compte du déplacement des yeux le long de la ligne. On a donc mis au point des techniques d’enregistrement de ces mouvements occulaires. Déterminé avec une précision toute relative les facteurs de lisibilité d’une lettre, d’un mot. Luckiesh et Moss (1940-1944) ont voulu utiliser une méthode basée sur la mesure des battements des paupières. La méthode voulait établir une relation entre le nombre de clignement d’œil pendant l’activité de lecture et de montrer que ces mouvements augmentent en rapport de l’illisibilité d’un texte. Presque tous les chercheurs, Tinker en tête ont rejeté cette méthode. Carmichael et Dearborn (1947) pensaient pouvoir mesurer la fatigue relative à une lecture, sans résultat probant. Une expérience passionnante fut menée par Weiss (1917) pour mesurer les limites de la lisibilité. La méthode de l’image floue. On fait varier la netteté et les contrastes du signe graphique pour déterminer un seuil d’illisibilité. Le haploscope a servi les recherches de Zacchrisson (1957) pour comparer l’aisance de lecture entre les sérifs et sans sérifs. Burt (1959) a rapporté de ses sujets d’expériences, l’idée que l’esthétique formelle jouait un rôle dans la qualité et les performances de la lecture, cependant la plupart des chercheurs ont cru bon de rappeler que les habitudes, l’expérience l’aisance subjective pour percevoir un texte est une chose, la performance en est une autre. La méthode qui mit finalement à peu près tout le monde d’accord est celui de la mesure du «travail». Consistait à mesurer le résultat d’une lecture donnée dans un temps donné, et celui d’un temps défini pour mesurer la quantité que le sujet était capable de lire. Bien entendu cette méthode connait également des limites. Et notamment de trouver des sujets d’expérience dont le niveau culturel et intellectuel puisse être de même valeur. Question o combien subjective.
Lisibilité des lettres
Les lecteurs médiocres ou les enfants peuvent parfois confondre les lettres de l’alphabet. Ce n’est sans doute pas le cas pour des lecteurs aguerris dont l’œil et la conscience exercés ne commettent pas ce genre de confusion. Toutefois la différenciation des formes alphabétiques donna lieu à toute une série d’études et recherches.
Catell en 1885 discrimina les lettres de l’alphabet par ordre de lisibilité. Du premier au dernier, du plus lisible au moins lisible.d k m q h b p w u l j t v z r o f n a x y e i g c s
Il pensa que la forme des lettres s g c et x les rendait particulièrement difficles à distinguer et de même que les lettres étroites f i j l t se trouvaient sans cesse confondues. Il aurait souhaité qu’on abandonne le point du i et que l’on dessine différemment le glyphe du chiffre 1.
Sandford en 1888 dans the American Journal of Psychology trouvait également que parmi les lettres les plus fréquentes de la langue se trouvait aussi quelques unes des moins lisibles, la lettre e par exemple. D’accord avec Catell il désignait les f i j l t comme les formes les plus propices à la confusion.
Mme Rœthlein en 1912 (toujours dans the American Journal of Psychology) se servant d’une méthode dite de «mesures de distances», classa les lettres capitales dans «un ordre» de lisibilité.
W M L J I A T C V Q P D O Y U F H X G N Z K E R B S
Enfin en 1928, le chercheur Tinker, résuma l’ensemble des travaux précédents en publiant trois catégories de lettres bas de casse (minuscules) allant du plus lisibles aux moins lisibles:
1) d m p q w grande lisibilité
2) j r v x y lisibilité moyenne
3) c e i n l faible lisibilité
Les analyses de Tinker indiquent par ailleurs des confusions possibles entre certaines lettres capitales, telles que les B G Q alors que des lettres comme le A ou L arrivent en tête du palmarès de la reconnaissance. Mais Tinker dérive dans ses théories lorsqu’il nous entraîne vers des réflexions sur la finesse des caractères qui en diminuerait la lisibilité (moi je dirais la visibilité) ainsi que des logueurs disproportionnés d’empattements.
Il fut aussi question de la lisibilité intrensèque des capitales. Bon nombre de chercheurs (dont Breland & Breland, Paterson & Tinker, Starch) ont confirmé qu’un texte composé en capitales était lu moins vite que le même composé en minuscule.
Herbert Spencer nous rappelle à ce sujet et à propos qu’un texte composé en capitales occupe un bon tiers de longueur plus large que le même texte mise en page en bas de casse. Il suffit de diminuer la hauteur des caps me diriez-vous, sauf qu’à ce jeu la minuscule redevient plus visible (je n’ai pas dit volontairement plus lisible).
Mais il s’agit là de réflexion pour la composition d’un livre ou d’une brochure. On ne saurait l’appliquer à la composition d’un logotype, d’une marque. Où la majuscule peut s’avérer tout à fait lisible. Je pourrais continuer ainsi à vous traduire ce livre assez remarquable de Herbert Spencer (The Visible Word) édité pour la première fois par le Royal College of Art in London en 1968 puis réédité par Lund Humphries, mais à ce stade, je vais tenter de tirer mes propres conclusions. Dans ce qui suit, Herbert Spencer aborde l’ensemble des questions typographiques, telles que les graisses, les tailles, les styles de composition, la mise en page etc.
Et l’on devine aisément alors que le but poursuivi par l’auteur était bien de nous faire prendre conscience d’un débat beaucoup plus vaste que celui exclusivement relatif à la lettre, et sa forme. Je rejoins en cela H. Spencer. Il n’est pas tant de critiquer voire de condamner la création typographique au prétexte que tout existe et que la meilleure des lisibilité a déjà été atteinte avec des caractères comme le Times ou le Méta, voire le Trébuchet ou Verdana pour l’affichage écran. Il est certain que notre métier connaît aujourd’hui un extraordinaire développement avec les technologies vectoriels du dessin d’alphabet. Il y a profusion et création, tous les jours.
Pour ce qui est de la lisibilité des caractères je pense, comme beaucoup de mes confrères qu’une police de caractère, ce n’est pas seulement des lettres, mais la capacité à composer une suite de lettres. Des mots, des phrases. Lorsque nous dessinons un alphabet, nous concevons d’abord une ligne de lecture. Une ambiance de lecture. Vient ensuite le travail de mise au point qui consiste à faire en sorte de rendre lisible chacune des lettres de l’alphabet. Stanley Morison, l’inventeur du Times New Roman l’avait déjà compris en 1929.
Parce que si vous prenez séparément chacune des lettres du Times, voilà un caractère mal dessiné, irrégulier qui semble quelquefois pour certaines lettres tomber en avant ou en arrière. Et lorsque ces mêmes lettres vous les composez, brusquement s’installe une profonde harmonie, comme par magie. Parce que Morison a dessiné des mots, des phrases et non des lettres. Mais j’y reviendrai dans une note que je consacrerai à Stanley Morison et son œuvre. Ainsi vous l’aurez compris je suis profondément persuadé que le dessin seul d’un caractère ne suffit pas à rendre plus lisible une mise en page.
C’est comme si vous disiez qu’il suffit de repeindre une maison pour qu’elle ait l’air neuve. Si les fondations craquèlent, que le toit s’écroule et les cloisons ne sont plus étanches, il vaut mieux ne rien faire ou bien de tout refaire. Pour qu’une typo soit lisible, il faut en travailler la texture (la compo), la structure (mise en page), faire d’innombrables essais jusqu’à obtenir une réelle harmonie entre fond et forme. Et éventuellement la redessiner (ou en dessiner une autre). Mais c’est l’ultime recours.