Il y a longtemps que je voulais faire un billet sur cette question des ponctuations. Nous travaillons tous de plus en plus des textes bilingues et bien entendu le typographe devient schizophrène car et c’est légitime les équipes de SR, correcteurs, et autres chefs de projets chez les clients ont tout de même appris (merci Word) que les règles de ponctuation changeaient selon la langue utilisée.
Alors oui il y a aussi une troisième voie, concernant les guillemets, celle qui a été choisie par exemple par la rédaction du Monde, d’utiliser ni la règle anglaise, ni la française… de banals guillemets droits tous droits sortis d’un film d’horreur à la gloire du tout « informatique ». J’avais déjà signalé les aberrations que cela pouvait susciter: [je vous l’avais bien dit: l' »Angleterre de Wilkinson n’a laissé aucune chance au XV de France ».] Où l' »on voit bien que les guillemets se confondent avec les apostrophes » en créant une illusion de ponctuation… sans aucune précision. Il eût été bien entendu bien plus heureux d’écrire l’«Angleterre de Wilkinson…». Ensuite bien entendu il y a tous les débats sur les espaces que l’on doit rajouter entre les guillemets et le texte qu’ils ouvrent et qu’ils ferment. Une fine insécable disent les uns, un espace normal, les autres… l’espace normal (s’il n’est pas insécable) se retrouve malheureusement bien souvent à la fin d’une ligne, rejetant la ponctu à la ligne suivante. Malheureux.
Personnellement j’utilise, l’espace très fine d’InDesign qui me satisfait de son insignifiance. Ou pas d’espace du tout.
Alors quid des guillemets «chevrons» à la française… Bien que connotant vieille France, édition, beau livre etc. ils permettent de construire «un gris typographique» bien plus régulier que les guillemets à l’anglaise. Et l’on voit bien dans les différentes figures ci-dessous le pourquoi.
J’ai surligné en jaune les espaces que libèrent chaque type de guillemet. Les chevrons s’architecturent dans le texte sans créer de rupture dans la ligne de lecture.
Les crochets au contraire créent des accidents qui dans les textes courant ne sont pas très heureux. Je dis les textes courants, parce que ce n’est évidemment valable que pour ces derniers. Dès qu’il s’agit d’un titre, d’un mot composé en grand, et servant d’accroche à une publicité, une couverture de livre, et autres emphases de mise en page, les crochets anglais reprennent leur intérêt tant leur assymétrie et leur sensualité servent la mise en scène graphique.
_
Où l’on voit les espaces courir sous les guillemets anglais en créant des trous d’air dans la lecture.
Ici une composition qui mélange les deux types de guillemet.
La même composition où nous mettons en évidence les espaces provoqués par les deux types de guillemet. Bien entendu il n’est pas besoin d’en rajouter, les guillemets français s’articulent plus intelligemment dans le texte.
Nous avons vécu durant des années sur les préceptes d’un code typographique promu et défendue par feu l’Imprimerie Nationale. Déjà Pierre Simon Fournier avait en son temps tenté de «normer» la composition typographique, mais en ces temps reculés la France était le centre du monde. Avec le village global ce n’est plus le cas. Internet redécouvre la typographie et malgré ses lacunes (composition justifiée avec algorithme de césure fine), nous assistons à l’apparition d’un mélange entre plusieurs traditions, anglo-saxonnes et francophones. Le Print tente encore de résister, avec les SR et responsables de projets qui nous rappellent sans cesse les codes en vigueur. Jamais cependant la question de l’esthétique n’est abordé. Au point que l’on nous bassine encore avec de vieilles règles d’espace devant et derrière les guillemets français, alors que cela fait cinquante ans que les graphistes tentent d’imposer la suppression de l’espace entre le guillemet et le mot qui le suit. Nombre d’entre nous avons préféré la demi-mesure d’un espace «fine» ou «ultra-fine»…
Il m’apparaît en tous les cas salutaire de rappeler la règle la plus importante pour mettre tout le monde d’accord. Quelque soit vos choix de ponctuations, appliquez-les du début à la fin d’une édition, voire d’une collection. L’important étant l’homogénéité intrinsèque. Vers une mondialisation du Code Typographique… sans doute. Mais de grâce n’abandonnez pas le double chevron des guillemets français… C’est tellement plus élégant dans une belle édition ou dans la presse. À quelques exceptions près :
Vous le connaissez tous, par son brillant ouvrage, consacré à l’Histoire du Graphisme en France, il nous revient au Musée des Arts Décoratifs pour nous distiller cette longue fresque à partir du 24 octobre. (lire la suite au bas du billet).
Michel revient sur ses sensibilités lors d’une série de conférence qu’il donnera au Musée des Arts Décoratifs à Paris
Graphisme et typographie en France du seizième siècle à nos jours | Musée des arts décoratifs jusqu’en mai prochain, débute le:
MERCREDI 24 OCTOBRE 2007, à 18 H 30,
salle de conférences des Arts Décoratifs
111 rue de Rivoli, 75001 Paris
Cette première partie concerne la typographie française de la Renaissance aux années 1900.
Par la suite :
La fondation du graphisme moderne (1925-1940)
Mercredi 21 novembre 2007
L’apport suisse et le début des images de marques (1940-1965)
Mercredi 12 décembre 2007
De la conception d’un nouvel environnement à l’entrée en scène du numérique (1965-1985)
Mercredi 13 février 2008
Extension du domaine du graphisme
Mercredi 19 mars 2008
La contestation des signes : « l’héritage de Mai 68 »
Mercredi 21 mai 2008
Réservation souhaitée par e-mail: conference@lesartsdecoratifs.fr
Tarifs : 5€ / 2€ la séance
accès
Musée des Arts décoratifs
107, rue de Rivoli 75001 Paris
Voici deux ans j’avais abordé la question épineuse de l’évolution de la presse quotidienne…(1), (2). Comparé déjà le Figaro, le Monde, Libération et puis j’avais cité l’exemple de ce grand journal Allemand le FAZ (Frankfurter Allgemeine Zeitung) qui avec une mise en page sur six colonnes, extraordinairement austère puisque les images en étaient absentes faisait figure d’un monastère au milieu d’un doux «bordel» organisé dans les autres supports de la presse Quot. Mais c’était il y a deux ans, et les choses évoluent vite en ces temps, rudes où partout dans le monde les patrons de Presse se posent la question de leur avenir face au modèle économique 1) du gratuit, 2) de l’information en ligne.
Les sénateurs s’y collent de même, un article dans le Monde daté du 10 (hier) octobre révèle que les sénateurs se sont réunis en commission (Théodule) pour je cite :
Mon dieu, ça fait un bail que la Presse Quot est en danger en France et pas seulement… Les difficultés de cette presse remonte aux années 60 lorsque déjà les tirages commençaient à décliner. Mais il est vrai que de reflux lent et persistant on est passé à une véritable débâcle…
«La baisse continue des recettes…» entendez par là la concurrence du village global des médias McLuhanien, c’est à dire électroniques… Radio, Télé, Internet, et évidemment bientôt, aujourd’hui, les mobiles…
«Le maintien des coûts de production élevée…» là il faut lire entre les lignes… Les coûts de production de la Presse comme de l’ensemble des métiers de l’Edition ont été divisés par 3 ou 4 depuis 15 ans. L’arrivée des process de production du numérique a grandement profité à l’industrie de la Presse… économies sur la circulation du «papier» qui passe directement du journaliste, au SR et sur l’ordinateur de la salle de montage de la maquette pour finir sur l’ordinateur qui va amalgamer les pages (imposition) et les graver au laser sur les plaques offset des rotatives (plus de films).
Systèmes éditoriaux efficaces qui au final ont bien changé (et réduit) le métier d’une époque où l’on allait «au marbre» pour contrôler une dernière fois les «morasse» sortis fraîchement de la presse à épreuve… Oui les coûts de production aussi bien à la typographie (du plomb au numérique) que sur les rotatives et la distribution des données pour l’impression en Presse Régionale ont été lourdement divisés par 3 ou 4…
Les seuls coûts (et encore) à être restés constants, ceux de la rédaction, des journalistes aux dirigeants se recyclent depuis quelques années (l’arrivée du haut débit) dans les compléments internet de cette presse quot. Se faisant, on peut aussi supposer que le modèle économique futur n’est pas si «impossible» ou «intenable» que cela. Reste bien sûr les droits associés à l’écriture des papiers, et à définir leur circulation maîtrisée en terme juridique et comptable. Mais l’on ne s’en fait pas trop. Les experts et syndicats sauront trouver les bonnes formules…
Si donc on ne devrait pas trop s’en faire sur les coûts, on peut alors s’intérroger sur la Vente des journaux quotidiens. D’aucuns disent qu’elle est liée au prix exorbitant, 1,50 euros en moyenne, et de proposer qui, des subventions, qui, des baisses vis à vis des étudiants… mais cela se pratique déjà. Dans bon nombre d’écoles, des journaux comme Libération ou Le Monde sont soit distribués gratuitement soit vendus avec des prix au rabais importants. Cela ne conforte pas le modèle économique mais empêche la désaffection au média.
Il faut je crois se pencher sérieusement sur cette maquette du Frankfurter pour comprendre les ressorts d’un maintien sinon d’un redéploiement de la presse écrite.
Composé déjà sur six colonnes avant le relooking et toujours sur six colonnes après, on ne distingue guère beaucoup de différence et ce n’est certes pas la suppression des filets verticaux séparateurs qui fondent une révolution visuelle.
L’éditing des titres et inter-titres gagne en contemporanité avec un mode de composition en «fer à gauche», et une force typographique nettement plus visible (mais pas plus lisible), ce qui confère à l’ensemble un rythme graphique plus marqué par les oppositions des valeurs de noir des titres et du gris des textes. Ces derniers toujours composés toujours avec autant de minutie ne laisse pas de m’enchanter par leur gris maîtrisé et l’on reconnaît bien là, la sensibilité typographique allemande qui ne supporte pas trop les lézardes et autres rivières chers à nos quotidiens français.
En conclusion ce qui fondait la notoriété principale du journal de Frankfurt, la longueur des articles, le peu de cas des relances de lectures, l’impression générale «qu’il faut y aller»,«qu’il faut se tartiner de la lecture laborieuse» parce que rien n’est prévu pour une lecture rapide «en diagonale» de cette presse, qui traite les sujets «au fond» et pas dans la précipitation d’une actualité en devenir permanent, cette impression générale donc reste constant.
Plus intéressant l’introduction de la photographie dans la nouvelle maquette.
Photographie en couleur, grosse légende au-dessus pour certaines, longue légende en-dessous pour la plupart. On pourrait se demander si cette nouvelle maquette n’est pas un artefact tant l’arrivée de ces icônes ne change pas grand chose à l’essentiel. Parfois heureux, parfois cependant terriblement mal venu tel à cette page ci-dessous où l’on introduit des témoignages avec les portraits des protagonistes à la manière d’un micro-trottoir digne du Parisien… La qualité de la formule se vérifiera dans le temps. Si comme Libération, le Frankfurter Allgemeine saura choisir les bonnes photos qui feront progresser le sentiment de vérité et d’actualité alors le pari sera gagné… mais cela passera par une culture de l’image tel qu’un Christian Caujolle l’a su porter au firmament avec les photographes de l’Agence Vu… ou bien on se contentera des banales images d’un Reuter ou d’un AFP (mille pardons pour les exceptions qui confirment la règle) qui risquent plus de polluer le papier que de la rendre plus noble.
Au fond l’évolution du FAZ est symptomatique d’une presse écrite qui se cherche. Dans la rupture et dans la continuité.
Dans la rupture, parce qu’il est difficile d’ignorer que le monde des lecteurs puisse indéfiniment se passer d’illustrations, d’images et d’une iconographie qui alimente, enrichit et relance les sujets traités.
Dans la continuité, parce que face à la montée quotidienne en puissance des portails de l’information, la presse écrite ne peut rivaliser avec l’ubicuité d’une info présente sur tous les écrans, de la télé à l’internet. Il ne lui reste donc plus qu’à s’amender sur l’essentiel. La capacité de cette presse écrite à assumer sa différence. Ces longs papiers permettent de traiter les sujets «au fond». De développer les opinions opposés, de fouiller et d’alimenter des investigations et enrichir la prise de recul à une info toujours plus brûlante, toujours plus immédiate.
Le papier a cet atout sur l’écran, un atout phénoménologique.
La lumière réflexive sur le papier journal, provoque ipso-facto une mise à distance qui redonne au lecteur son pouvoir critique, sa capacité à lire entre lignes, une posture d’acteur de sa propre consommation de l’info. Au contraire de l’écran, qui fascine d’entrée de jeu par le bombardement d’électrons et qui enveloppe le lecteur dans une sorte de rapport de dépendance physiologique: lecteur->ordinateur->lumière cathodique->fascination et donc par voie de conséquence paralysie de certains centres nerveux dont le citoyen a nettement besoin pour prendre de la hauteur et la distance nécessaires chers à un Montaigne qui aimait à se faire «son idée à lui» sur ce qu’il lisait. Le Papier Journal est, et reste une garantie pour le maintien d’une démocratie d’opinion diversifiée et non manipulée par le monde des écrans et à ce titre le Frankfurter avec ou sans images reste fidèle à cette conception noble du journalisme qui demeure la seule posture pour que ce format survive au maelström, au tsunami, des infos on-line et des journaux télé en flux continu… (I-Télé, LCI, BFM etc.). Un grand merci à Manuel Voss de la Rédaction du Frankfurter Allgemeine que j’ai contacté par téléphone et qui m’a envoyé aussitôt les quelques pages PDF que vous pouvez découvrir ci-dessous avec donc en premier l’ancienne formule du FAZ avant re–formatage…
Analyse et décryptage d’une nouvelle identité graphique de Nerim, fournisseur de services Internet historique puisque cette société a été une des premières à proposer des connexions haut débit ADSL/SDSL dès 1999.
Nerim m’a confié la réflexion print et image de marque et à Jean-Charles Baudot, designer interactif, la mission de rebâtir son site web qui sera en ligne* dans les jours qui viennent.
Ce travail a demandé près de six mois de mise au point, d’aller-retours, d’un travail collaboratif sur un mode itératif afin d’en valider chaque étape et avancer avec une relative prudence.
* vous pourrez voir quelques pages maquettes de ce nouveau site dans la Vidéo.
Une vidéo de l’analyse complète se trouve à l’adresse suivante: http://www.typogabor.com/Video/Nerim.mov
elle se visionne à 760px de large, soit très confortable pour voir les détails du travail.
Celle qui se trouve ci-dessous risque d’être trop «minimaliste» pour en voir toutes les nuances intéressantes.
ou Vidéo plus large ici (copiez le dans votre barre url):
{http://www.typogabor.com/Video/Nerim.mov}
Une création c’est souvent l’occasion de rencontres passionnantes.
C’est l’histoire d’une rencontre entre Jean-Charles Baudot et moi-même au sein des designers interactifs, celle d’un client qui était désireuse de reconstruire sa marque pour gagner en visibilité sur un marché de plus en plus tendu où tous les coups sont permis. Haut débit, bientôt la fibre optique, double play-triple play, les offres ne cessent de se multiplier et les opérateurs de se diversifier.
Même les opérateurs mobiles s’y mettent. Or Nerim ne se situe pas dans cette catégorie de fournisseur grand public qui nous sied à la plupart d’entre-nous. Son périmètre d’intervention ce sont les PME et TPE qui ne souffrent d’aucun aléa, d’aucune coupure de la sorte. Qui ont besoin de se sécuriser contre les attaques de tous genres (Firewall). Mais aussi des clients qui ont des sites multiples (franchises, délocalisations de sites de production ou de commercialisation) qui doivent échanger des données sécurisées entre elles sans être pollué par la grande toile.
Nerim comme une poignée d’autres fournisseurs de services très spécialisés, propose donc à ses vingt mille clients une palette de produits et services adaptées presque sur mesure à chaque cas de configuration-client. Il n’en reste pas moins qu’historiquement cette société est avant tout un fournisseur d’accès. D’où le choix d’un logo simplissime et minimaliste qui rappelle le cœur de métier de Nerim. Les deux points / double slash que forme le N de Nerim est là pour rappeler le métier de base.
Je voudrais profiter de l’occasion pour remercier le client d’avoir accepté un protocole de création extrêmement efficace, qui passait d’abord par un audit de l’offre de la société avec interviews, décryptages et allers-retours de validation sur l’audit qui permit dans un second temps de gagner en efficacité sur les temps de la création.
Le remercier également de m’avoir fait confiance sans jamais contester certains choix graphiques et notamment lors de la conception de la plaquette qui tout en étant très technique se devait d’être aussi spectaculaire que pédagogique. L’utilisation des espaces blancs pour rythmer la lecture fait sens dans un univers de parole aussi hermétique que l’informatique de réseau.
J’ai très vite compris qu’il fallait profiter de la largeur de pages à l’italienne afin d’assoir l’horizontalité des flux de transferts de données, c’est donc très naturellement que je me suis orienté vers une conception graphique où le plan de métro londonien me servait de trame pour signifier les échanges mais aussi la dynamique et la complexité des nœuds de croisements entre réseaux privés et virtuels (PN et IP-VPN).
Le choix de l’imprimeur était également stratégique. Burlet Graphics à Maisons Alfort , est coutumier des impressions délicates. Il s’agissait d’imprimer cette plaquette 24 pages sur un papier couché de 170g avec une couverture quadri recto verso et vernis brillant sélectif sur la Une. Le choix de l’Acrylique s’imposait. (Format Machine: 52 x 74cm).
L’imprimerie existe depuis fort longtemps, mais il s’est adapté à toutes les technologies modernes, calage électronique, CTP (plaques offset directement écrit au laser à partir de fichiers PDF certifiés que je lui déposais sur son serveur FTP). L’encrage comme vous allez le découvrir sur les images ci-dessous et surtout sur l’animation qui se trouve à la fin du billet, est entièrement piloté par l’informatique de production.
Point besoin désormais d’ouvrir des robinets d’encriers à la main pour faire monter le cyan ou la magenta sur telle ou telle zone du papier. C’est sous un éclairage équilibré à 5200°K, lumière du jour que l’on regarde et mesure au densitomètre la puissance des couleurs et que l’on «monte» ou «baisse» le débit de l’encrage. Les réglages sont automatiquement mémorisés de sorte que vous pouvez ré-imprimer six mois après, les données de l’impression seront stockées en mémoire. Juste aussi pour signaler qu’il s’agit là d’un des rares imprimeurs ayant obtenu en France le label vert d’imprimerie «durable», ne rejetant plus aucun déchet non-recyclable et dangereux pour l’environnement.
La plaquette est également disponible au format PDF. L’adresse se situe en fin de billet.
_
Table de travail du conducteur offset d’où il va contrôler tout le process de l’impression.
Le compte fil toujours présent sur la table, indispensable pour déceler les points de trame, le moirage etc.
Sur l’écran de contrôle on voit distinctement les «groupes d’impression», ici au nombre de cinq, ce qui autoriserait une impression quadri avec une couleur d’accompagnement supplémentaire ainsi qu’un groupe pour le vernis acrylique.
Une barre verticale correspond à un groupe d’impression pour une des couleurs primaires (cyan, jaune, magenta ou noir). Contrairement au web et au monde de l’écran ici l’univers colorimétrique se décline à partir de la surimpression de quatre couleurs primaires, qui tramées traduisent «presque» toutes les couleurs du spectre… sauf celles «non-imprimables» dans l’espace RVB que vous pouvez déceler directement sur Photoshop par exemple qui vous signale les zones d’impressions qui ne supporteront pas le passage à la séparation quadri.
Le papier est attrapé par des ventouses à air comprimé, il est de même aéré pour n’en laisser passer qu’une feuille à la fois.
Groupe de séchage du vernis.
L’encre est déposé automatiquement sur les rouleaux encreurs (cf l’animation ci-dessous).
Les spatules, pour manipuler les encres, et aussi pour les mélanger lorsqu’il s’agit de couleurs d’accompagnement (Pantone).
Juste pour le «fun historique», il s’agit de l’ancien logo d’Heidelberg présent encore sur les vieilles «platines» Heidelberg (c’est ainsi qu’on nommait les machines typo… GTO et autres). Peu d’entre vous connaissent cette société allemande. Je vous en parlerai prochainement. Sachez pour la toute petite histoire, qu’ils étaient voici encore deux ans propriétaires de la firme Linotype… qu’ils ont revendu l’année dernière à… Monotype.
Cette animation vous montre très précisément comment se déplacent les réservoirs d’encre pour «distribuer» celle-ci le long des rouleaux encreurs.
Et pour ceux qui seraient intéressés par le fichier PDF de cette plaquette en voici l’adresse:
Un expert en blog disait un jour dans un de ces posts, qu’il ne fallait surtout pas dépasser 1500 signes pour une contribution au risque que personne ne la lise… Faux, je vous le dit tout net… vous êtes plus de 1522 à avoir déjà lu «les courbes de Pierre Bézier ont redessiné le monde» , en à peine trois jours de publication, record absolu sur design et typo. Est-ce à dire que cet expert avait tort… sans doute pas tout à fait. Mais lorsqu’on ne peut faire court sur un sujet, parce qu’il en va de la valeur d’un texte, de son contenu ainsi que de son style… que voulez-vous…? il faut se rendre à l’évidence, les visiteurs de D&T «aiment qu’on les emmerde avec des textes chiants» (genre de phrase qu’on a prêté à tort à Hubert Beuve-Méry, fondateur du Monde). Je vous promets de ne pas recommencer de sitôt ;-)
Le contexte historique entourant l’invention de Pierre Bézier
Il y a eu Picasso, le cubisme, et les tranchées de 14-18, les poilus des deux côtés de l’Europe, puis le silence des armes et les millions de morts que les mères ont pleurés.
Il y a eu les années folles, et le jeudi noir de Wall Street en 1929, le télégraphe, et le téléphone, les millions de déshérités arpentant les campagne américaines, la pauvreté, et la désolation, «des souris et des hommes» de Steinbeck. La prohibition et les gangs aux Etats Unis, et la montée du Nazional Socialisme en Allemagne. La nuit des longs couteaux puis l’Europe sombrait dans l’horreur de la deuxième guerre.
Encore des millions de morts anonymes ou pas, une guerre de plus en plus technologique, précédé par les bombardements de Guernica et les essais d’armement sous l’Espagne de Franco.
Il y a eu le 6 juin 44 mais aussi Hiroshima et Nagasaki, le plan Marshall, et la reconstruction. Staline à l’est envoyait des millions d’innocents dans l’Archipel du Goulag que Soljénitsyne fit découvrir au reste du monde. L’Amérique à l’ouest se battait contre la Corée, puis prenant la place des Français, envahissait le Vietnam ravageant une région de culture ancestrale.
Il y a eu les guerres, utiles et surtout inutiles, la paix froide que l’on appela guerre froide pour ne pas s’y tromper, la décolonisation tragique de l’Afrique, l’apartheid et les combats pour les Droits de l’Homme .
Il y eut la succession des révolutions technologiques, la cybernétique inventée par Norbert Wiener et le bleu de Klein, la télévision noir et blanc, puis couleur, l’industrie qui s’affranchissait de la main de l’homme en créant les machines outils programmables. Il y a eu l’aviation civile équipée de moteurs à réaction, les chemins de fers électrifiés, les records de vitesse de la BB 9003-9004 , les fusées de Von Braun inventeur des V2, la guerre du Vietnam toujours, et la marche d’Amstrong sur le sol lunaire.
Berkeley et la révolte des étudiants de Stanford, mai 68 et la liquidation de l’héritage des idéologies marxistes. La paix mais aussi la guerre industrielle entre les continents américains et européens, puis chinois et japonais. Le pourrissement de la guerre entre Israël et les Palestiniens, le terrorisme faisant des centaines de victimes, aveuglément. Sans aucun discernement.
La paix toujours mais des tensions économiques de plus en plus fréquentes entre les pays occidentaux et ceux qu’on appelait sans complexe le Tiers Monde… aujourd’hui les pays émergents. Euphémisme politiquement correct, aujourd’hui le Nord et le Sud s’affrontent sur la question essentielle de la gestion des matières premières, zinc, cuivre, minerais, pétrole, sucre, café, céréales, et l’eau, et l’eau. Autant de questions vitales dont débattent les organisations internationales pour tenter, qui de garder la main qui de la reprendre.
Il y a eu la première guerre de l’Irak, la création du réseau 3W et l’interconnexion de la planète, et l’attaque des Twin Towers puis, la deuxième guerre de l’Irak, les morts, le terrorisme toujours aveugle, et une guerre technologique de plus en plus privatisée.
L’invention de Pierre Bézier (1955-1960) est à replacer dans cette perspective de choc de la modernité qu’elle a pour partie engendré dans les années 80-90.
Tout au commencement des travaux de Bézier, le souci de l’ingénieur sorti de SupElec était, comme l’indique cette lettre publiée ci-dessous*, de répondre à un besoin de productivité et d’exacte calcul des formes et des surfaces industrielles dans le monde de l’automobile.
Il a fallu tout de même attendre 35 ans après son invention pour que la conjonction de plusieurs innovations provoquent le plus grand choc de civilisation qu’on ait connu depuis l’invention de Gutenberg (1492)
La séparation des mondes du hardware et du software
Je n’apprendrai qu’aux plus jeunes d’entre vous qu’avant cette séparation les fabricants d’ordinateurs éditaient leur propre logiciels. IBM, Bull (Honneywell) Burroughs, Olivetti, Siemens se spécialisaient dans ce qui fondait l’invention de l’informatique moderne, les machines de gestion. Stocks, comptabilité, actions, échanges financiers etc. Les banques étaient déjà à la fin des années 60 les plus gros consommateurs d’informatique. Venaient juste derrière eux les industries qui fabriquèrent des machines-outils et des contrôleurs de production. Les PME du secteur tertiaire n’ont découvert l’informatique que relativement tard, vers les années 70. Mais de cette époque on peut retenir une constante, chaque ordinateur vendue par un fabricant ne pouvait fonctionner qu’avec les logiciels dudit fabricant… et bien souvent écrits sur mesure pour le client.
Dans le secteur de la composition typographique, Moiroud et Higonnet inventèrent les premières machines automatisés dès 1949. L’industrie de la photocomposition était née. Elle devint si prospère qu’on compta jusqu’à plusieurs dizaines de fabricants sérieux de machines à photocomposer qui vendaient à travers le monde, leurs appareils, mais aussi leurs logiciels et surtout leurs polices de caractères qui étaient usinées pour fonctionner exclusivement sur leurs machines. Ainsi lorsqu’un atelier achetait des machines Bobst Graphic, ou Linotype, ou encore Compugraphic, il ne pouvait se servir que des fontes fabriquées par ledit fournisseur.
Nous vivions encore dans un monde divisé et donc protégé. Les deux Pierre, Schaeffer et Henry à l’Ircam faisaient de même. Ils utilisaient des instruments électro-acoustiques dédiés pour écrire et jouer de la musique contemporaine expérimentale, et les ingénieurs de Dassault dessinaient des circuits imprimés avec des ordis et des logiciels vendus par le même fabricant spécialiste de DAO ou CAO. La liste est longue, pour n’en citer encore qu’un, celui des compagnies d’aviation et de chemins de fer qui pour leurs usages respectifs utilisaient des parcs de matériel informatique ultra-sophistiqués mais complètement dédiés à leur métier.
L’invention de Pierre Bézier n’a en soi rien bouleversé dans notre économie moderne pour la bonne raison que ce sont les deux autres facteurs d’innovation (miniaturisation et séparation entre hardware et software) qui furent déterminants à l’explosion technologique que nous connaissons aujourd’hui.
Linotype et Adobe s’associèrent pour mettre au point une photocomposeuse-flasheuse (une traceuse dirions-nous aujourd’hui) qui était non plus pilotée par un ordinateur dédié mais par un Macintosh acheté dans la boutique du coin. Ce Macintosh était vide. Vendu sans autre logiciel que MacPaint ou MacWriter, les plus fortunés s’achetaient déjà Word de Microsoft qui entre-temps avaient développé leur propre OS ne fonctionnant que sur des plateformes PC. Ça changera.
Adobe à l’époque ne commercialisait que quelques logiciels comme Illustrator par exemple et on trouvait un autre fabricant qui se mettait sur la ligne de départ, Quark, qui fournit le logiciel de composition bien connu. Le premier X-Press, ne permettait même pas de faire chevaucher plusieurs blocs de textes ou d’images. On était dedans ou dehors. La société Aldus lançait le très grand Page Maker ainsi que Free Hand le concurrent d’Illustrator, et quelques autres fabricants se spécialisaient dans la mise en page de formulaires, FrameWork etc. Un survivant que beaucoup avaient apprécié ne cesse de revivre de ses cendres, je veux dire RagTime… etc.
J’oublie volontairement les nombreux softwares, open source ou expérimentaux qui viennent chevaucher ces logiciels phares du grand marché. Mais ils existent.
Tout ceci ne pouvait pourtant pas fonctionner sans l’apport de deux autres inventions majeures où l’on va retrouver enfin notre ingénieur français.
Les polices de caractère vectorielles et le langage Postscript
Les polices de caractère vectorielles et un langage de description de page, une sorte d’html sans hypertexte et uniquement 2D, le PostScript. Inventeur? John Warnock président d’Adobe. Celui-ci eut le génie d’intégrer les courbes de Pierre Bézier dans son langage de description de page et de ce fait fabriquait les premières fontes vectorielles postscripts de Type III. Nous sommes en 1988, à la veille de la révolution évoquée ci-dessus.
Quelques mois plus tard, nous sommes en septembre 1989, Adobe décide de rendre publique son invention (en renoncant principalement à son brevet), le langage Postscript, ainsi que les sources logicielles des polices de Type I qui pour la première fois dans l’histoire de l’informatique permettait grâce à un petit utilitaire Adobe Type Manager, de lisser les compositions à l’écran (wysiwyg).
Voilà. La Révolution est alors en marche (d’autant que Microsoft modernisait son système d’exploitation Dos pour créer l’équivalent de celui d’Apple avec Windows) et nous sommes, typographes du monde entier, aux premières loges pour constater les effets ravageurs de l’évènement, témoins impuissants d’une formidable désagrégation du tissu industriel et social initié par ces inventions. Nombre d’entre nous se souviennent que durant quelques mois, l’on crut dans le petit monde de la communication s’être simplement débarrassé des ateliers de la composition typographique qui réalisaient livres, journaux, campagnes de publicité etc. On déchanta.
En à peine quelques vingt quatre mois, le monde de l’image basculait également et avec, les nombreux professionnels de la retouche, du tirage, et de la photogravure et même de l’imprimerie qui passait aux technologies du CTP (plaques offset directement insolées à partir des fichiers sans passer par l’étape du film offset).
Puis ce fut au tour du Son, qui s’affranchissait des tables de montages analogiques hors de prix, puis celui de la vidéo et du cinéma. Mais si ce n’était que tout le secteur de l’entertainment qui était touché, aucun souci.
Les mêmes agences qui triomphalement s’étaient affranchies des sociétés de typographie, voyaient leur client, les annonceurs s’équiper et faire des pré-maquettes sur Power-Point, enfermant les briefs dans un cadre de plus en plus «borné», délimité. De même que la population des graphistes s’affranchissaient des agences de comm. pour s’installer dans l’indépendance et offrir leurs services de PAO.
De fait les langages postscript et HTML ont concouru à la création d’internet et d’un coup l’informatique de masse interconnectée en réseau a renversé toutes les habitudes professionnelles et domestiques en l’espace de quinze ans. Détruisant sur son passage des millions de petits emplois devenus inutiles parce que permutables sur les consoles de travail de toutes les entreprises. Dactylos, assistant(e)s, secrétaires furent les premiers touchés, puis les techniciens spécialisés, qui virent leur travail récupéré, laminé par la formidable puissance informatique. Les standardistes, et guichetiers disparaissent bien après que le dernier poinçonneur des Lilas… ait troué le dernier billet de métro. Les voyagistes et les compagnies de transport remplacent les hygiaphones par des machines à débiter les billets, quand ce n’est pas tout simplement Internet ou les téléphones mobiles qui prennent le relai de la transaction.
Symptômes d’une destruction sociale annoncée
Vous qui lisez ce billet, si vous êtes webdesigner ou bien développeur ajax, flash ou expert des langages web, cet article ne vous parle pas forcément. Vous vous sentez sur la crête de la vague, protégé et pulsé par la révolution high tech… mais ne vous y trompez pas, la société est un tout, bien plus complexe, et la capillarité des crises qui se succèdent peuvent à leur tour vous atteindre.
L’économie des sociétés occidentales vivaient sur le concept de la trinité des secteurs économiques. Agricole, Industriel et Tertiaire… intelligemment rebaptisée le secteur des services.
Nous n’apprendrons rien en affirmant que le premier s’est modernisé, intensifié, et régulé au contact des organisations européennes et mondiales. Quotas, interventionnisme et subventions ont «ramassé» ce secteur en la vidant de la substance populaire qui le composait jusqu’au milieu des années cinquante. Sans travail ni perspective ces masses se sont engouffrées dans le deuxième secteur, industriel… les trente glorieuses, où les années de reconstruction ont illuminé l’industrie l’éclairant du phare de la modernité. La voiture, les équipements ménagers, la construction de maisons individuelles, le high tech ont tiré les classes moyennes vers le haut, dans un paysage économique en croissance à deux chiffres.
Mais la mondialisation s’installait dès les années 70. Le Made in China ou Taïwan ne date pas d’aujourd’hui mais des accords de Bretton Woods, qui élargirent le champ des échanges internationaux abaissant les barrières de protection entre états du monde entier. Dans le même temps le troisième secteur, celui des services connaissait une progression économique sans précédent.
Ce qu’aucun politicien, ni aucun parti politique en France ne vous a jamais dit clairement c’est que ce secteur des services, son dynamisme, et sa légitimité tiennent entièrement au dynamisme et aux excédents des deux premiers. Dès lors que l’industrie se désagrège et que l’agriculture voit sa part sociale diminuer drastiquement, celui des services se trouve privée d’un socle solide (sans compter que ce dernier pratique également depuis quelques années les mêmes tendances à la délocalisation [off shore] que l’on connaît avec l’industrie).
Certains pays comme l’Allemagne ou l’Angleterre ont mieux résisté pour la bonne raison qu’ils n’ont pas sacrifié leur secteur industriel. En France, depuis la mort annoncé des mines de charbon en passant par celui des industries de l’acier, les «experts» et politiques ont laissé se détruire petit à petit d’abord de grands pans des gisements industriels puis cela s’est propagé aux PME de l’industrie qui ne pouvaient pas résister à la concurrence étrangère. Le maître mot des années 80, la croissance externe, les rachats-fusions ont fini d’achever le tableau de cette désagrégation qui connaît son punctum dans l’avènement d’un capitalisme financier en lieu et place de celui d’un patronat d’entrepreneurs, capitaines d’industries motivés et parfois (pas toujours) éclairés.
La France a cru longtemps et cette croyance est loin d’être effacée, que le tourisme pouvait pallier la balance des paiements, pensant pouvoir exploiter à l’infini la manne d’une richesse naturelle, littoraux, montagnes, forêts, vieux campaniles et clochers de cocagne, cathédrales pour touristes et cars-musées-fast-food transformant le pays en un immense luna park quatre étoiles. Oui mais… ce secteur n’est pas infaillible, et il dépend beaucoup des limites de la capacité d’accueil et de la conjoncture internationale. Un cours de l’euro trop fort et ce sont les français qui rendent leurs «pièces» aux américains et non l’inverse. Une météo catastrophique comme cette année, et la récolte touristique se met en berne provoquant un trou d’air dans la balance financière.
La révolution informatique dans ses immenses bienfaits a bien créé des métiers très qualifiés, informaticiens, développeurs, spécialistes de l’écran, flasheurs-artistes etc. Mais sociologiquement il s’agit d’une population très très limitée eu égard à tout le secteur tertiaire pris dans sa globalité. Et lorsque cette même informatisation généralisée provoque l’effondrement salarial de tout le secteur des services, ce ne sont pas quelques dizaines de milliers de postes qualifiés qui pourront en sauver les emplois. D’autant qu’avec cette montée en puissance de la qualification, les niveaux de salaires ont été de même alignés vers le bas.
_
_
Quelques pistes de réflexion ?
Crise financière, industrielle et révolution technologique, concourent donc à un choc planétaire contre lequel un système aveugle basé sur le seul profit immédiat ne peut en aucun cas apporter de solutions viables. Un ami a fait récemment l’analyse de la défaite de la gauche, publié dans Marianne… le texte appelle à une refondation intellectuelle de la gauche. J’ajouterais juste à cette analyse brillante la nécessité d’une réflexion sur le rôle de l’État face à l’absence dans le système économique de régulateurs de flux sociaux-économiques où les multinationales jouent les profits à court terme se défaussant sur les États pour réparer les destructions massives de l’emploi et du tissu social. Pierre Bézier n’a sans doute jamais imaginé les retombées négatives de son invention dans une conjoncture socio-économique défavorable à l’emploi de même que Einstein n’a jamais voulu Hiroshima.
En conclusion il n’est pas question de militer, pour un retour en arrière, ni pour la confiscation de la modernité, mais pour une régulation des flux économiques qui mettent l’intérêt du collectif au premier rang des préoccupations des politiques. Les révolutions technologiques doivent servir et non asservir l’humanité, et partant si les courbes de Bézier pouvaient servir d’exemple et d’outil pour «remodeler» une philosophie de l’action publique, ce serait d’affirmer une fois de plus que la politique, c’est prévoir et non subir.
Extraits de la lettre de Pierre Bézier adressée à Christophe Rabut en novembre 1999 (année de son décès)
Monsieur et cher collègue ,
Les questions que vous m’avez posées sont nombreuses et je vais essayer de ne pas me perdre dans des méandres superflus. Madame de Sévigné, qui n’était guère mathématicienne, écrivait un jour à sa fille « pardonnez-moi ma toute bonne, mais aujourd’hui je n’ai pas eu le temps de faire court« . C’est une phrase que l’on devrait graver sur certains frontons, auprès de celles que l’on emprunte à Platon.
D’abord, je dois préciser que j’ai été formé aux Arts et Métiers Promo 1927 en vue de devenir ingénieur mécanicien -c’était une vocation héréditaire-, que j’ai passé ensuite un an à SupElec (Promo 1931) et que mon comportement en est resté imprégné. Cela peut expliquer dans une certaine mesure ma façon de raisonner et de réagir.
1. Formation au Service des Méthodes Mécaniques de Renault
En 1933, la crise de 1929 n’était pas terminée ; après mon service militaire, j’ai été embauché par Renault comme ajusteur-outilleur ; je suis ensuite passé au bureau d’études des outillages, qui faisait partie du service des méthodes.
Ce service avait à choisir, à concevoir et à mettre en oeuvre les moyens de production des pièces mécaniques ; toutes les surfaces qui nécessitaient une certaine précision étaient des plans, des cylindres ou des cônes, c`est à dire qu’il suffisait de droites et de cercles pour les définir ; seule exception : les flancs des dents des pignons, mais ils étaient taillés par des machines spécialisées qui les engendraient grâce à des combinaisons cinématiques appropriées. Les limites étaient exprimées en millièmes de mm car les tolérances étaient de l’ordre du centième, et parfois moins. Les contestations avec les contrôleurs portaient en général sur un ou deux millièmes et, dans l’argot de l’atelier, l’appareil de mesure, palmer ou comparateur, était appelé « juge de paix ». Pas besoin de commentaire.
2. Les Méthodes de la carrosserie en 1960
Au contraire, pour la carrosserie, tout baignait dans un flou artistique ; le styliste était l’arbitre ; son jugement ne pouvait être que subjectif et variait parfois avec le temps ; on ne demandait à personne d’avoir des connaissances mathématiques, exception faite des dessinateurs, qui étaient de vrais acrobates de la descriptive ; leurs instruments étaient des gabarits, des pistolets, des lattes flexibles, des compas à pointes sèches et des réglets gradués.
Les plans étaient médiocrement précis, et l`on citait le cas d’une voiture, pas plus laide qu’une autre d’ailleurs, dont les deux flancs différaient entre eux de plusieurs millimètres : pour l’esthétique et l’aérodynamisme, c’était sans importance, mais en cours de fabrication il n’en allait pas de même ; entre des pièces qui auraient dû s’assembler bord à bord il restait parfois des vides de plusieurs millimètres qu’il fallait combler avec de la soudure à l’étain, et cela coûtait cher.
Schématiquement, lorsque l’on étudiait un nouveau véhicule, le procédé classique était d’abord de charger un styliste de tracer plusieurs croquis entre lesquels on faisait un choix puis de modeler des maquettes en cire à l’échelle 1/8 au 1/10 ; ensuite, en plusieurs étapes, on en tirait un plâtre en grandeur nature qui était soumis au jugement d’un aréopage constitué par la Grande Direction , le Style, le Service Commercial et différents conseillers supposés qualifiés ; quand, au bout de plusieurs mois, et après maintes retouches et modifications, un accord était atteint, le bureau de dessin étudiait chacune des pièces intérieures de la caisse ; il fallait, pendant ce temps, tenir compte des impératifs de la fabrication : emboutissage, soudure, peinture, sellerie, fixation des organes mécaniques, assemblage général, entretien et réparation ; on construisait plus tard un maître-modèle dans un matériau assez stable, acajou ou résine organique, qui servait de référence pendant toute la production du véhicule, mais sa précision n’était pas parfaite et même, avec le temps, pouvait parfois subir une distorsion, ce qui est fâcheux pour un étalon.
3.Schéma d’un projet.
I1 y avait dans cet état de choses quelque chose de choquant pour un mécanicien habitué à une rigueur sans concession ; il me semblait qu’il faudrait parvenir à utiliser une définition indiscutable, exempte de distorsion et facile à communiquer, établie par le styliste lui-même et transmise ensuite sous forme numérique à tous les groupes, y compris les sous-traitants et les fournisseurs, intervenant dans le processus, depuis le styliste jusqu’au contrôleur opérant à la sortie de la chaîne de fabrication, et même aux ateliers d’entretien du réseau des agents et des concessionnaires.
4. Émergence de l’ordinateur et des machines à commande numérique.
L’ordinateur, apparu dans l’industrie vers 1950, travaillait naturellement en priorité pour les services administratifs ; quand il lui restait du temps, et c’était rare, il exécutait en mode différé quelques travaux à la demande des services scientifiques ou techniques.
Sa rapidité de calcul nous semblait fabuleuse ; en 1955 sont apparues aux USA les premières machines-outils à commande numérique ; au début, c’était pour effectuer de point en point des perçages, des taraudages et des alésages ; plus tard on est passé au fraisage suivant des droites, puis des arcs de cercle ; cela suffisait aux mécaniciens et l’on pouvait même placer bout à bout des arcs de cercles ou, grâce à Chaïkin, de paraboles pour imiter d’autres courbes. Bref, il n’était plus insensé de songer à s’attaquer au problème du tracé des carrosseries.
5.Tracé des courbes par déformation du référentiel.
Le tracé de courbes était la première étape à franchir, car ce sont les courbes dites « de construction » qui servent de guide pour représenter les surfaces ; les gens de métier les nomment ligne de ceinture, ligne de carre, ligne de bas de jupe, etc. ; ce sont des courbes gauches et il faut plusieurs projections pour les définir, en assurant leur compatibilité. Il n’aurait pas été bon de les constituer en mettent bout à bout beaucoup de petits arcs de cercle ou de paraboles parce que toute modification n’aurait pu être que locale alors qu’il fallait, au contraire, conserver l’allure générale de la courbe à corriger et que l’altération soit répartie progressivement sur toute sa longueur ; il était impératif de réduire au minimum le nombre des arcs à juxtaposer ; on a donc inscrit dans un cube une courbe dite « de base », de forme bien adaptée, et l’on a pensé à déformer celui-ci pour en faire un parallélépipède (PPPD) , autrement dit on lui a fait subir une transformation linéaire ; pour définir celui-ci, au lieu de donner une origine commune aux trois vecteurs-unités du PPPD , on les a mis bout à bout ; la forme du polygone ainsi constitué évoque vaguement celle que prendra la courbe de base après avoir subi la même transformation.
A première vue, il semble moins logique de déformer tout un référentiel plutôt qu’une seule ligne, mais il faut considérer que l’on a besoin, dans la suite des travaux, de modifier l’ensemble d’un tracé composé de plusieurs arcs de courbes et qu’alors il sera plus simple de le faire d’un seul coup en agissant sur leur espace commun plutôt que sur chacun séparément.
Plus tard, on a pensé aussi qu’au lieu d’effectuer seulement une transformation linéaire, on pourrait imposer au cube une distorsion générale, au pris d’un accroissement de la quantité des calculs qu’entraînerait l’usage simultané de trois paramètres.
6. Choix de la courbe de base. Fonctions f.
J’avais choisi comme courbe de base, c’était une idée de mécanicien, l’intersection de deux quarts de cylindres circulaires (Fig. 1) ; l’ordinateur aurait développé les fonctions harmoniques pour calculer les points courants ; mais les opérations se sont compliquées dés que l’on a voulu utiliser des référentiels ayant plus de trois dimensions ; l’emploi des fonctions algébriques s’est alors naturellement imposé.
En son origine (0,0,0), la courbe de la figure 1 est tangente à Ox et osculatrice au plan xOy ; en (1,1,1), sa tangente est parallèle à Oz et son plan osculateur à yOz ; si l’on imagine qu’un point la parcourt à vitesse constante, l’on conclut que les vitesses de ses projections sur les trois arêtes a1 , a2 et a3 du pppd sont représentées par les diagrammes de la Fig.2, la solution la plus simple étant constituée par trois fonctions cubiques f1, f2 et f3 , et la représentation du point courant a la forme .
Le livre de HERMES Courbes et Surfaces contient quelques détails sur les calculs correspondants, d’ailleurs bien élémentaires, ainsi que la forme générale des fonctions f pour toute valeur de i ce qui s’est vite montré nécessaire. Un exemplaire de la thèse soutenue en 1977 a été remis aux archives du CNRS ; peut-être même y en a-t-il un dans la bibliothèque de votre INSA.
I1 ne m’avait pas semblé nécessaire de donner un nom aux fonctions°f, car j’étais persuadé qu’elles avaient déjà un état-civil ; or j’avais dû, pour des raisons diplomatiques plutôt que scientifiques, adresser quelques notes explicatives à différents personnages de rang élevé de la Régie afin de les tenir par déférence au courant de mes activités, si peu qu’ils y aient pris intérêt.
7. Parrainage
Les choses prenaient un certain développement, mais les fonctions n’ayant pas à ma connaissance de patronyme officiel, j’ai cru judicieux de leur trouver au moins un parrain, ce qui leur conférerait une certaine respectabilité ; j’ai donc attribué leur invention à un professeur virtuel à qui j’ai donné pour nom Durand et pour prénom Onésime, afin d’éviter une homonymie susceptible d’engendrer une action contentieuse.
L’honorable Professeur Durand a donc été connu dés 1965 chez Renault ; ses fonctions ont été citées alors au CNAM et dans des congrès aux USA ou en Europe ; vers 1970 sur proposition de Mr Soubrier, de l’ADEPA ,le nom d’UNISURF a été adopté pour le procédé ; pas une seconde je n’aurais imaginé que mon patronyme, figurerait un jour dans des textes sérieux, pas plus que je ne songe aujourd’hui à le voir un jour gravé sur le socle d’une statue, pour le moins équestre, érigée sur la place de mon village.
Les Américains m’ont fait le grand honneur, depuis les années 1975, d’employer mon nom dans leurs communications, mais je ne saurais fournir une date plus précise. Comme, en France, cela ne se décerne guère qu’à titre posthume, beaucoup de gens ont des raisons de penser que je suis définitivement décédé. Un peu de patience !
8. Fonctions de Bernstein
Comment est-on passé des fonctions f à celles de Bernstein ? Tout simplement, mon camarade Riaux m’a fait observer que les sommets du polygone, selon qu’ils étaient l’origine ou l’extrémité d’un de ses côtés, intervenaient deux fois dans le calcul du point courant ; les différences entre deux fonctions f successives sont les fonctions de Bernstein, dont les propriétés sont bien plus utiles que celles des fonctions f ; par exemple, la forme d’une courbe est invariante par rapport aux changements d’origine, c’est à dire aux translations et aux rotations.
A titre anecdotique, je vous signale que Bernstein était un ancien élève de SupElec, où i1 m’a précédé exactement de trente ans, et qu’il a inventé ses fonctions pour établir des courbes d’espérance de vie pour une compagnie d’assurances.
9. Généralisation.
Tout ce que je vous ai écrit jusqu’ici concerne le tracé des courbes mais mon intention était, dès l’origine, d’aller bien au delà, et d’essayer de faire avancer un peu l’ensemble du problème de la conception et de la fabrication de la carrosserie sans laisser subsister la moindre part d’une méthode périmée. Ensuite, passer des courbes aux surfaces n’a été qu’un exercice d’algèbre élémentaire.
I1 n’était pas besoin d’avoir beaucoup d’imagination pour penser que les pièces mécaniques seraient justiciables de la même méthode , tout comme les coques de bateaux et les voilures d’avions, mais c’étaient alors là des idées si hétérodoxes qu’il valait mieux ne pas les révéler ; j’avais déjà, en d’autres occasions, épouvanté de hauts dirigeants par des initiatives aux principes desquelles ils ne pouvaient guère rien comprendre, et dont la réussite n’avait pas calmé la frousse rétrospective ni absous mon non-conformisme ; je suis resté à jamais à leurs yeux l’affreux jojo anar ou le mouton noir, entouré de quelques énergumènes de son espèce.
10. Doctrines
D’autres entreprises ont pensé, de façon plus raisonnable ou plus réaliste, c’est un peu la même chose, que ce serait déjà un grand progrès que de mesurer les coordonnées 3D d’une grosse quantité de points situés sur une maquette, puis de définir ensuite une surface qui les contiendrait ; cela rappelle les courbes de régression, les réseaux de Delaunay , la méthode de Bôse, etc.
Naïvement, j’ai cru au contraire qu’en mettant un moteur sur un char-à-bancs cela ne ferait jamais une automobile, mais qu’il fallait « essuyer le tableau » et repartir de zéro. Pardonnez-moi si j’emploie sans modestie la première personne du singulier, mais je crois que si j’ai apporté quelque chose de valable dans le développement de la CFAO, c’est d’abord ce simple point de vue, dont l’hétérodoxie a convaincu à l’époque tous les gens dits sérieux, et prudents jusqu’à la couardise, que j’avais complètement déraillé de la voie tracée par leurs prédécesseurs. Je passe sur certains jugements qui auraient mérité son attribution si Monsieur Nobel avait prévu de créer, parmi les autres, un Prix de la Stupidité.
11. Equipement prototype.
Dès 1965, les travaux théoriques étaient assez avancés et j’étais certain que la solution était valable mais, pour convaincre les tenants de la tradition, il aurait été indispensable de disposer d’une machine à dessiner de 8m x 2m, d’une machine à fraiser de faible puissance (0,5 kW) pour tailler des blocs de mousse de polystyrène, avec des courses de1,5m x 1,2m x 0,8m , et des avances de 2 m/min , ce qui semblait irréalisable à l’époque. De plus, pour travailler en mode conversationnel, il serait indispensable de disposer en permanence d’un ordinateur de puissance modeste, ce qui était contraire, en 1960, à la pratique admise ; il faudrait enfin bâtir un logiciel rudimentaire.
Le budget correspondant était évalué à 3MF et la Haute Direction montra les bornes de sa confiance en limitant son montant à 600 kF , à charge pour moi d’aller ailleurs tendre la sébile ; par chance, le projet inspira confiance à la DGRST qui m’accorda 1,5 MF ; le reste fut prêté par un constructeur d’ordinateurs qui prêta 900 kF, car l’idée de multiplier les ordinateurs de petites dimensions lui parut bonne à encourager.
Les problèmes devenant plus complexes, nous sommes passés à des référentiels non-linéaires qui permettent de tracer une courbe de paramètre w sur une surface définie par deux paramètres u et v , c’est à dire, par exemple, de tracer une échancrure de passage de roue dans une aile déjà déterminée, ou de modifier la totalité d’une caisse sans avoir à corriger séparément les surfaces élémentaires qui la composent.
Vous voyez, cher Monsieur, que tout cela est simple et se ramène à quelques notions banales, sans aller au delà d’un peu de calcul vectoriel et matriciel. Pourquoi, en 1960 des chercheurs de l’industrie aéronautique ne l’ont ils pas trouvé du premier coup ? Je crois qu’ils ont été intoxiqués par l’idée de reproduire un modèle plutôt que de commencer en créant directement une forme et en l’affinant peu à peu ; je suppose que le problème posé par Citroën à Jean de la Boixière (SupElec) et à Paul de Casteljau (Norm Sup), tous deux ingénieurs et mathématiciens, était aussi de traduire numériquement une maquette faite à la main.
Si l’on veut considérer tout cela d’une façon plus générale, on peut dire que vers 1960, beaucoup de mécaniciens étaient encore peu renseignés sur tout ce que l’électricité pouvait leur apporter comme moyen de mesure, de calcul, de servo-commande, de distribution de force et de puissance. Quand j’ai fait mes premières armes dans l’industrie mécanique, c’était peu après 1930, son emploi dans les machines-outils se limitait à celui des moteurs asynchrones, des relais magnétiques et des interrupteurs de fin de course pour portes d’ascenseurs ; c’est vers 1935 que l’on m’a laissé, et avec réticence, utiliser l’automatisme séquentiel pour remplacer embrayages, crabotages, encliquetages et vérins hydrauliques.
Le cahier des charges que je m’étais proposé en 1960 avait pour avantage d’être fondé sur une expérience que j’avais acquise en exerçant la plupart des métiers qui jouent un rôle dans la carrosserie : usinage, fonderie, électricité, électronique, tracé, soudure, dessin, ajustage, contrôle ; j’avais aussi conservé et développé quelques connaissances en mathématiques au delà de ce que l’on enseignait aux élèves des Arts et Métiers en 1930 ;1a curiosité n’est pas toujours un péché capital.
Quand on veut dessiner une machine-outil, ce qui fut mon métier de base, on se forme d’abord une image de ce qu’elle devrait être ; ensuite, la définition finale s’élabore par permutation entre tracés, calculs et essais ; depuis vingt cinq ans, les mécaniciens et les électriciens collaborent dés 1e début de la période de conception ; plus tard, les philosophes, les psychologues et les organisateurs professionnels ont trouvé un nom pour cette pratique : c’est l’ingénierie simultanée.
La théorie des espaces paramétriques est maintenant largement connue et enseignée ; voir l’une des épreuves de math du concours des Grandes Ecoles en 1999. La littérature est abondante ; les idées de base que j’ai essayé d’exprimer sont peut-être moins répandues, mais je crois qu’elles résisteront bien à l’érosion du temps.
Cela m’intéresserait de savoir comment mes réponses ont répondu à votre demande car dans l’exercice de mon métier, qu’il ait été civil ou militaire, j’ai toujours attaché beaucoup d’importance au rôle de la pédagogie. Ne dit-on pas que notre époque est celle de la communication ?
Bien cordialement.
P.Bézier
_
_
vous n’imaginez pas tout ce que Pierre Bézier peut faire pour vous
I. Présentation des courbes de Bézier
1. Exemple introductif avec trois points de contrôle.
Fixons trois points M0, M1 et M2 non alignés.
On nomme : A1 barycentre de M0 (1-t) et M1 (t) ;
A2 barycentre de M1 (1-t) et M2 (t) ;
M barycentre de A1 (1-t) et A2 (t) ;
a. Détermination vectorielle ou calcul barycentrique.
Nous pouvons écrire : (avec O un point du plan)
donc (1)
(1-t)²+2t(1-t)+t²=1+t²-2t+2t-2t²+t²=1
donc le point M est le barycentre de {M0 , (1-t)² ; M1 , 2t(1-t) ) ; M2 , t²}
On remarque que les coefficients des points Mi sont de la forme :
pour où est le coefficient binomial.
On pose
L’indice 2 de indique le degré du polynôme dont la courbe est donné par (1) .
On a ainsi : M barycentre de {M0 , ; M1 , ; M2 , }
concept-car Twingo (Renault), où l’on voit la précision et l’élégance des tracés qui n’ont pu être usinés qu’avec l’aide de machines outils intégrant les formules des courbes de Pierre Bézier.
Un grand merci à Christian et Marie pour la relecture. S’il subsiste des fautes, elles seront corrigées dans les jours prochains. Et aussi un grand merci à mes fidèles lecteurs pour la patience de supporter mes posts terriblement longs. Et si vous désirez commentez, n’hésitez surtout pas.
Première piste pour les commentaires… si le tableau brossé semble négatif, il existe d’autres voies de sorties de crise… La recherche… devenir un des pays les plus novateurs de la planète… mais cela nécessite un plan Marshall de la recherche et du développement… Lorsqu’on songe qu’en 1999 à l’enterrement de Pierre Bézier, tous les PDG des grandes firmes automobiles étaient présent mais point de représentant notoire de la République Française, cela en dit long sur la capacité de l’espace public de prendre en compte les priorités de la recherche. De même, Moiroud et Higonnet, les deux inventeurs de la photocomposition, ont dû à l’époque se tourner vers l’industrie américaine pour diffuser leur révolution technologique.
Découvert le nouveau site du NouvelObs relooké par Nata Rampazzo et je l’ai passé dans mon appareil à radiographier les sites web :-).
Où il apparait que la home peut-être divisé verticalement en 5 pages de scrolling (sur un écran 1600×1200). La première ci-dessus ne semble pas poser beaucoup de problèmes, mise à part le bandeau supérieur qui, avec le cartouche central (toute l’actualité en vidéo) avec ses minicartouches carrés semble franchement posé là comme un cheveu sur la soupe. Son positionnement centré ainsi que l’espace laissé au-dessus et en-dessous me semble ne pas correspondre à la rigueur graphique auquel Rampazzo nous avait habitué. Bien entendu il fallait laisser l’espace pour permettre aux onglets d’exister, mais l’approximation graphique de cet espace ainsi que le trou de chaque côté du cartouche central me semble un peu gênants.
C’est d’autant plus dommage que le cartouche se transforme en bandeau publicitaire après quelques temps et trône d’un coup au milieu de notre champ visuel de manière assez violente. Le NouveObs devra sélectionner ses pubs avec à propos, c’est certain. Le modèle économique de ce portail d’actus est entièrement basé sur la pub. D’où un vrai problème de stratégie graphique pour garder l’identité «du journal» sans tomber dans une vision surcoufienne des pages web. À se demander s’ils ne devraient pas proposer une version payante qui serait allégée d’une partie de la pub et donnerait à lire et voir un journal un peu plus proche des convictions des lecteurs —même si, et peut-être parce que, ces lecteurs sont aujourd’hui des CSP++ et pourraîent être tentés de s’enfuir d’un tel univers «au rabais».
Les vrais problèmes apparaissent en scrollant vers la deuxième page ici ci-dessus, et la troisième ci-dessous.
En effet ce que révèle cette radiographie (qui n’est pas un vrai eye tracking mais juste une méthode pour se dégager des signifiés et nous laisser apprécier la trame graphique) c’est que notre regard est véritablement agressé par ces filets horizontaux au détriment du contenu sémantique. Il y a là un vrai danger de fatigabilité pour l’utilisateur.
Les deux dernières pages de scrolling, le jeu se calme pour revenir à un équilibre des signifiants-signifiés.
Ce test est une méthode que j’ai repris des planches d’études d’eye tracking fourni par certains appareils d’analyse. Il n’indique absolument pas le déplacement et les points de fixation de nos rétines… Cependant il révèle la structure graphique sur laquelle un appareil de test va positionner ces points de fixation. En ce sens il devient évident qu’il ne remplace absolument pas un test utilisateur en grandeur réelle… Reste à voir si de tels tests ont été menés et dans quelles conditions.
Et juste pour terminer ce mini analyse, la typographie, même si je n’aime pas les guillemets verticaux :-) semble plutôt bien travaillé, à ceci près qu’il me semble qu’on se fatigera assez vite d’un Arial sur fond blanc-écran qui perce littéralement nos rétines sans aucun confort.
Publié dansTypographie et typographies|Commentaires fermés sur Radiographié le site du NouvelObs | décryptage
L’exposition Rodchenko qui se tient au MaM (Musée d’Art Moderne de la Ville de Paris se termine bientôt, il n’est que temps de le rappeler et de vous pousser à y faire un saut sans la moindre hésitation.
Rodchenko fut l’un des plus grands graphic-designers de tous les temps. Il défricha le terrain des espaces graphiques, inventa le photomontage moderne et fit œuvre photographique des plus pregnantes. Témoin privilégié d’une époque et d’une société russe en voie de recomposition après la révolution d’oktober 1917, il fut récupéré comme nombre d’artistes par le régime pour servir de levier de propagande à celui-ci. Il fut peu peu sollicité pour des travaux dont l’unique objet était de sublimer l’homme nouveau, la renaissance sociale tournée vers un monde meilleur. On est encore loin d’avoir découvert les charniers de Staline et le Goulag. Mais de fait, la Russie de tous les empereurs avait vécu. La société russe améciée se nourissait exclusivement d’espoir d’un monde idéalisée d’où pauvreté et misère seraient chassées. Les artistes étaient ainsi conviés à participer à la construction de l’homme nouveau, le pionnier, restructuré, pour ne pas dire reformaté.
Que ce soit dans la vie de tous les jours, dans l’activité industrielle ou tout simplement sportive, l’artiste se devait de créer une vision de la société débarassée des styles ampoulées de la fin du XIXe siècle pour et à la gloire de la nouvelle modernité. L’Histoire était en marche, l’Histoire dont Hegel et Marx avaient annoncé la fin avec l’avènement du communisme. L’époque se prêtait donc aisément à cette reconsidération révolutionnaire de l’espace graphique qui fit des émules jusques sur la cinqième avenue à New York après la deuxième guerre mondiale, Alexey Brodowitch en fut l’un des plus âpres promoteur. Le style constructiviste russe ne fut jamais abandonné ni oubliée. Il participe depuis 90 ans à notre espace de communication de tous les jours. Sans doute que le communisme a disparu, mais pas la vision moderne que celui-ci donna à voir de l’homme et de la société. Neville Brody dans les années 80 sut retrouver avec efficacité et un immense talent ce style pour mettre en scène pochettes de disques et magazines (The Face etc.).
Musée d’Art moderne de la Ville de Paris (jusqu’au 16 septembre 2007) • 11 avenue du Président Wilson • 75116 Paris • Tél. : 01 53 67 40 00 • Ouvert du mardi au dimanche de 10h à 18h • les vendredis et samedis jusqu’à 20h (Pas de nocturne le mercredi.)
portrait du grand poète Vladimir Mayakovsky, 1924
Vladimir Mayakovsky, 1924
Marie Chvetsova dans un jeu de miroirs, 1924
Varvara Stepanova, 1924
Mother, 1924
portrait à double exposition du peintre Alexandre Chevtchenko, 1924
Varvara Stepanova (l’épouse et collaboratrice de Rodchenko) avec un foulard, photographie peinte à la main, 1925
triple portrait, Julia Solntseva et de son mari Alexandre Dovjenko et du poète futuriste, Alexeï Krouchenikh, 1930
Regina Lemberg, 1934, élève en photographie de Rodchenko
fille au Leica, variantes, 1934
nature morte avec Leica, 1930
série d’illustrations photographiques pour le livre d’enfants de Serguei Trétiakov
Les travaux de Rodchenko qui transforment peu à peu son œuvre potographique en œuvre graphique.
Dire q’il s’agit d’une rupture. Non, d’abord peintre plasticien, décorateur, Rodchenko est venu à la photographie assez tard, et son attrait pour les portraits humanistes témoigne de son amour du prochain. Mais le graphiste, l’affichiste reprend la main pour structurer ses espaces photographiques, cherchant à utiliser lignes de fuite, structures urbaines et surtout installant pour la première fois dans l’histoire de la photographie la perspective diagonale, sans doute au départ comme jeu d’agrandissement de son champ de vision trop enfermé dans le format 24×36 de son Leica. Peu peu ces diagonales lui donneront l’idée, conjointe avec le DaDa qu’il découvrit vers 1915-1920, de structurer ses affiches et couvertures de magazines avec ces mêmes lignes de fuite et parallèles diagonales. L’esprit constructiviste russe était né.
une cruche, 1928
Couverture, 1923, jeu de montage entre avion et lettres capitales pour donner l’impression d’un survol de paysage
photomontage pour le livre Pro èto de Vladimir Maïakovski, 1923
photomontage pour le livre Pro èto de Vladimir Maïakovski, 1923
photomontage parodiant les mélorames traditionnels, publié dans le magazine Kinophot, 1922
photomontage pour le livre Pro èto de Vladimir Maïakovski, 1923
couverture magazine LEF, n°3, 1923
Affiche publicitaire pour une série de journaux filmés de Dziga Vertov, 1924
Couverture de livre pour Mess-Mend, 1924
photomontage pour le magazine Au Loin. L’Europe avant la Seconde Guerre Mondiale… caricature des citoyens qui applaudissent ou sifflent les politiques à chaque faux pas de leurs dirigeants, 1930
Voilà ma modeste participation à cette affaire de la Coupe du Monde de Rugby… Les raisons de la défaite de l’Équipe de France? pas assez faim de victoire… c’est tout. C’est le jeu, et c’est ainsi depuis la nuit des temps. Et puis si on veut être honnête… je veux dire fair play comme le monde du Rugby l’exige, il faudrait ajouter que les critiques à l’égard de l’équipe de Laporte, devraient se situer à égale distance des éloges à l’équipe d’Argentine…
The Haka des All Black: ¶ Téléchargement Libre de Droits
Catherine Zask est l’une des figures les plus énigmatiques que je connaisse dans les milieux graphiques de Paris. Solitaire, intellectuelle, sensible, philosophe, linguiste et sémanticienne de la typographie cherchant sans cesse à renouveler le méta-langage des signes elle nous a habitué tout au long de sa carrière aux expérimentations les plus surprenantes avec pour point d’orgue la recherche indicible et permanente sur le signe et le signifié.
Elle vient de réaliser pour le Prix Émile Hermès une identité visuelle interactive qui montre une fois de plus la rigueur d’une pensée toujours prête à casser les règles en en inventant de nouvelles. Vous laisse découvrir en avant-première cette identité en animation et quelques unes de ses œuvres majeures que vous pouvez retrouver sur son site ici. Le website du Prix Émile Hermès ne sera officiellement ouvert que le 15 septembre et vous en parlerai mieux lorsque le dossier de Presse sera disponible. Bon voyage en pays de typographie expérimentale. Un vrai plaisir des yeux et de l’esprit.
Le Prix Émile Hermès s’adresse aux jeunes designers européens. Il récompense la création d’objets innovants nés d’une réflexion sur le thème de «la légèreté au quotidien» appliquée aux objets du voyage et de la maison.
Quelques unes des innombrables travaux de Catherine Zask ci-dessous et sur son site .