20140522

L’invention de l’ordinateur: whisky ex machina

eniac5

Saviez-vous que le premier ordinateur a été inventé grâce à l’alcool ? Voilà une nouvelle bonne raison de boire.


John Vincent Atanasoff fut le premier à imaginer le fonctionnement d’un ordinateur électronique numérique, et à en fabriquer un. Et nous verrons que le whisky n’y est pas étranger. Mais avant de se pencher sur son penchant, revenons un peu sur les étapes qui ont précédé cette grande découverte.

DES ORIGINES À NOS JOURS

Des machines qui calculent, cela existe depuis très longtemps.  En 2700 av. JC, les tablettes d’argile sumériennes servaient déjà à calculer. Elles ressemblent un peu aux tables de multiplications qu’on avait au dos de nos cahiers de brouillon. Le plus vieux mécanisme lui, est le mécanisme d’Anticythère : il date de 100 av. JC et permettait de calculer des positions astronomiques. Ensuite de nouvelles machines sont apparues au fil du temps. Au moyen-âge par exemple, on construit les premiers automates musicaux. Il y en a même qu’on peut programmer pour qu’ils jouent différentes musiques. Pas mal !  
Dans le domaine du calcul, un grand saut est effectué lorsque le mathématicien John Napier découvre au XVIIe siècle le pouvoir sidérant des logarithmes. Vous avez peut-être entendu parler des tables de logarithmes : jusqu’à ce que la calculatrice soit largement démocratisée, c’est-à-dire il y a quelques dizaines d’années à peine, les étudiants utilisaient des tables de logarithmes. Ce sont de petits cahiers pleins de chiffres, comme des annuaires, qui permettent de faire des multiplications compliquées en les remplaçant par des additions de logarithmes. Un concept étrange, magique et très pratique, car l’addition est beaucoup plus facile que la multiplication : pour faire la multiplication de 27 343 et 145 083, pas besoin de la poser et de s’arracher les cheveux pendant une heure en écrivant plein de lignes. Vous cherchez dans votre table le logarithme de 27 343, le logarithme de 145 083, et vous faites leur somme. Il ne vous reste plus qu’à lire la table dans l’autre sens pour trouver le nombre dont le logarithme est cette somme. Tout ce que vous avez fait, c’est un peu de recherche dans la table, et une somme. Génial ! Les jeunes générations ont oublié ce super concept depuis l’existence de la calculatrice, mais depuis Napier et jusqu’à il y a peu, c’était absolument incontournable. Grâce à cette découverte, Napier permet à d’autres inventeurs de rêver à des machines à calculer : on imagine des automates qui liraient les tables tout seul pour faire tous les calculs à notre place… On a bien le droit de rêver non ? À l’époque, les savants passent parfois des semaines entières à faire des calculs que nos machines font aujourd’hui en quelques clics. Imaginez lorsqu’ils s’étaient trompés, une nuit en recopiant une ligne ! Il fallait parfois plusieurs mois pour réaliser que tous les travaux menés depuis étaient faux… Poussé par le vent de l’innovation, Blaise Pascal construit alors de ses doigts la première machine à additionner. Un ensemble de mécanismes avec des petites roues et des machins, capable de faire la somme de deux nombres tout seul. On commence à croire qu’un jour, le rêve deviendra réalité.

Le premier concept d’ordinateur, on le doit à Charles Babbage en 1837. Il décrit un système très proche du concept d’ordinateur moderne : une machine ayant une mémoire, et faisant des opérations logiques, qui peut interpréter un programme rédigé dans un langage dédié. Ada Lovelace, qui travaillait alors avec Babbage, fut la première de l’histoire à écrire un programme informatique, la première femme informaticienne donc. Cette mathématicienne de génie — enfant illégitime que l’élégant Lord Byron refusât toujours de reconnaître pour l’anecdote — n’a malheureusement jamais pu voir son programme exécuté car la machine de Babbage ne fut jamais construite. Mais un des langages informatiques qui fut créé sur nos ordinateurs modernes porte son nom en hommage : l’Ada est beaucoup utilisé dans l’industrie, encore aujourd’hui.

turing

Pour finir l’histoire en bref, le mathématicien Alan Turing utilise en 1936 tous les progrès des mathématiques et de la logique pour théoriser entièrement ce qu’avait commencé Babbage : il prouve mathématiquement que n’importe quel calcul peut effectivement être effectué par un algorithme sur une machine, si tant est qu’elle a assez de mémoire et qu’on lui laisse assez de temps. On a donc la preuve que le rêve d’une machine qui puisse faire tous nos calculs peut devenir réalité. Il n’y a en tout cas aucune limitation théorique ! Ensuite l’architecture moderne de nos ordinateurs est inventée par John Von Neumann en 1950 et ne sera pas modifiée jusqu’à aujourd’hui : son modèle est constitué de trois parties, le processeur de calcul (nos processeurs actuels), l’unité arithmétique logique (notre disque dur) et la mémoire (notre mémoire vive). Les données sont stockées sur l’unité arithmétique, et les calculs sont effectués dans le processeur, en s’aidant de la mémoire vive pour stocker temporairement des résultats de calculs. Maintenant que l’ordinateur existe sur le papier, il reste à le construire…

L’ENIAC, LE PREMIER ORDINATEUR NUMÉRIQUE ÉLECTRONIQUE ?

Jusque-là nous n’avons pas encore parlé de la différence entre analogique et numérique. C’est pourtant un développement essentiel pour arriver à nos ordinateurs modernes. Quelque chose d’analogique est quelque chose qui s’appuie sur une réalité physique, la propriété d’un objet : il fonctionne par analogie. Par exemple l’heure que vous lisez sur une montre à aiguilles est analogique. C’est la position de l’aiguille, un véritable objet physique ayant la propriété d’avoir un certain angle dans le cadran, qui vous renseigne sur l’heure qu’il est. Le numérique en revanche, est une représentation d’un nombre avec un nombre fixe de décimale. La précision est donc limitée, mais contrôlée. Sur une montre numérique, vous voyez qu’il est 14:32. Cela a été calculé et transcris en nombre. C’est numérique. Évidemment cela s’appuie sur quelque chose d’analogique derrière, mais on a transformé l’analogique en numérique à un moment donné.
On peut faire des machines et des automates indifféremment analogiques ou numériques. Vous pouvez mettre un ressort d’une taille variable et continue, ou des roues dentées qui elles sont discrètes et peuvent représenter les décimales d’un nombre. Ça n’est malheureusement pas très facile d’enchaîner les mécanismes et de faire de gros automates de calculs avec des roues et des ressorts. Pour miniaturiser tout cela, on préfère utiliser les signaux électriques par exemple. Au début du siècle on essaie donc d’utiliser le courant, et tous les composants électroniques pour faire des calculateurs. Malheureusement on n’a pas de roues dentées dans le monde électrique pour passer de l’analogique au numérique. On se trimballe une valeur de tension, une valeur de courant, qui est continue et complètement analogique. Le problème c’est que l’analogique est lent et peu précis : sa vitesse et sa précision sont complètement dépendantes de celle de ses composants. Faire des calculs d’addition et de soustraction avec les aiguilles d’une montre par exemple, vous sentez que ce sera assez compliqué : il faudra les déplacer, puis lire la nouvelle indication, avec plus ou moins de précision. Pour augmenter la précision il faudra zoomer sur le cadran. Si en revanche on avait d’abord transformé l’heure en numérique, on aurait pu faire l’addition très rapidement. Et si on voulait plus de précision, il suffisait de mettre plus de décimale lors du passage en numérique initial. Les premiers ordinateurs ont vu leur naissance retardée par ce terrible problème : comment faire du numérique électronique ?

eniac5

On dit souvent que le premier ordinateur numérique est l’ENIAC. Mauchly et Eckert, en 1946, dévoilent leur ordinateur ENIAC (Electronic Numerical Integrator and Computer) payé par l’armée. Il est entièrement programmable. Au départ conçu pour construire des tables d’artillerie (du genre où retombent mes obus si je tire avec tel angle) il servira aussi à faire une étude de faisabilité de la bombe H. Le monde entier est émerveillé par ce bijou de technologie, et les gouvernements du monde entier veulent le même. Très vite, de nombreux projets voient le jour, et l’ordinateur se démocratise petit à petit.
ENIAC, le premier ordinateur numérique ? Moi je dis foutaise, je dis trahison, je dis colère. l’ENIAC c’est du plagiat, et, tout comme Orson Wells, je n’aime pas trop les voleurs et les fils de pute. Ensemble nous allons rétablir la vérité.

LA VÉRITÉ VRAIE

John Atanasoff est né en 1903 à New-York. Son père était ingénieur et sa mère professeur de mathématiques. John n’avait donc pas trop le choix de l’orientation, et sa carrière de danseuse étoile fut vite étouffée dans l’œuf. À la place, sa mère lui lisait des livres de mathématiques pour s’endormir, ce qui lui permit d’être très en avance sur ses petits camarades. Le type obtint son diplôme de l’université de l’Iowa avec 20 de moyenne (c’est-à-dire « straight A’s » en langage heumèricane). Évidemment il enchaîna sur une thèse dans le Wisconsin sur la constante diélectrique de l’hélium. Et comme ce n’est pas le sujet et que je n’ai aucune envie de vous expliquer ce que c’est (déjà parce que je ne sais pas, ce qui me parait une raison suffisante) nous ne développerons pas les conclusions de sa thèse. Que je trouve pourtant assez gonflées (allez voir par vous-même l’audace terrible de son dernier paragraphe et faites-m’en un résumé merci). Il revient ensuite à l’université de l’Iowa pour être professeur de physique et mathématiques. Et puis voilà notre petit bonhomme qui repense aux calculateurs. Pendant sa thèse, il n’avait pas trop apprécié la lenteur et le manque de précision des calculateurs analogiques Monroe, pourtant les meilleurs de l’époque : plusieurs heures pour effectuer divers calculs assez basiques. Il commence à vouloir les améliorer, et invente lui-même un outil analogique pour analyser les surfaces géométriques, en 1936. Alors hop, il joue avec des tubes à vide, des signaux radio, et plein de trucs qu’on sait pas du tout ce que c’est. Il commence à classer tous les outils qu’il peut fabriquer en deux catégories : les analogiques et les numériques. Le problème de l’analogique constate-t-il, c’est que ces calculateurs sont lents et que leur précision dépend de la précision de chacun des composants. Il commence sérieusement à envisager le numérique. Mais il patine. En 1937 il en est toujours au même point.

Pendant l’hiver 1937-1938, John n’en peut plus. Une journée de plus à bricoler des fils dans un labo, à regarder des petits points lumineux sur un écran, couplé à des condensateurs, des bobines, des trucs magnétiques et des machins qui font des étincelles quand on oublie de couper le courant avant de mettre sa fourchette dedans pendant la pause déjeuner. Mais un calculateur numérique, il a beau en rêver il n’en voit pas la queue d’un, et il n’a aucune idée de comment le fabriquer. Von Neumann n’a pas encore proposé son architecture si pratique. La théorie de Turing est bien trop abstraite pour être facilement extrapolée. John veut fabriquer un calculateur rapide, il veut choisir le nombre de décimales des nombres qu’il manipule, et il veut le faire électroniquement. Nom de Dieu ! Est-ce trop demander ? Flute, pendant qu’il s’énerve sur l’adaptateur de courant en blasphémant dans sa tête, il a monté le bazar à fond et crée une surchauffe dans le circuit. Le rideau du labo est en train de cramer doucement dans une épaisse fumée noire. Atanasoff jette un peu d’eau dessus, bourrine à coup de pompe pour éteindre les dernières braises en grommelant puis sort en claquant la porte. Sous le coup de la colère, de la folie ou de son syndrome maniaco-dépressif, il prend sa voiture et décide de partir tout droit. Sans but. Pendant plusieurs heures. Après plus de trois cents kilomètres (rien que ça !), se sentant légèrement calmé mais pas tout à fait, il arrive à retirer son pied crispé de l’accélérateur. Et à rentrer dans le premier bar venu pour commander un bourbon. Apparemment le seul intérêt de cette lointaine balade. Là je dis respect au type qui claque la porte de son labo et qui répond à son assistant :
« Professeur , et votre cours de 14h30 ?  
M’en fous je vais m’arsouiller un bourbon à trois cents bornes de là.
Comme vous êtes libre Professeur. Et beau. Et rebelle. Et grand ».

SOUDAIN, LA LUMIÈRE S’ALLUME GRÂCE À L’INTERRUPTEUR

Les vapeurs de l’alcool dissipant celles de son esprit fumeux, voilà John qui commence à battre la campagne sans bouger de son tabouret. Et tandis qu’il se détend, il sent l’inspiration venir lui titiller le lobe frontal. Ni une ni deux, notre Newton du Jameson commande une bouteille pour se détendre au maximum et ouvrir ses chakras. Dans les lueurs de la nuit étoilée qui parsème maintenant le bar, John Atanasoff voit clignoter des feux follets tapageurs. Tout en clignant des yeux pour essayer de suivre leur rythme, une fulgurance remonte le long de son cervelet. Se dressant alors sur son tabouret, le doigt levé pour signifier l’avènement d’une idée brillante, il se casse la gueule de tout son long car le tabouret est trop haut. Mais qu’importe, l’éclair de génie a frappé à nouveau, avec autant de force et de vigueur que la pomme sur le coin de la tronche de Sir Newton : pour faire du numérique, il faut passer en binaire. Ne faire que des 0 et des 1. Avec des interrupteurs qui font ON et OFF. Très simple à faire avec du courant. Et Atanasoff commence alors sa danse de la victoire debout sur le bar, devant une foule médusée à la vue de son slip éléphant tellement en avance sur son temps.
De retour dans son labo, (l’histoire ne dit pas comment il est rentré), il devra attendre 1939 pour que l’Université lui donne une bourse pour développer son projet. Il engage alors Clifford Berry, un autre petit génie, et ensemble il fabrique l’ABC, le Atanasoff-Berry-Computer, entre 1939 et 1941.

Clifford, son iPod à la main

Clifford, son iPod à la main

Cet ordinateur servait à résoudre numériquement un système de 29 équations linéaires. Il n’avait pas de processeur central, contrairement à ce qui sera fait ensuite suivant l’architecture de Von Neumann, mais il était le précurseur sur au moins trois points : l’utilisation du binaire pour représenter les nombres, l’utilisation de l’électronique plutôt que la mécanique, et une organisation séparée entre la mémoire et l’unité de calcul. Un autre procédé, purement pratique celui-ci, fut également implémenté pour la première fois dans cet ordinateur : comme les capacités (des objets chargés en electricité) ont tendance à se décharger, et qu’elles sont utilisées pour stocker la mémoire, Atanasoff invente un regénérateur de mémoire qui envoie des impulsions electriques régulières pour recharger ces capacités et éviter qu’elles ne se vident. C’est un procédé encore utilisé aujourd’hui dans les Dynamic Random Access Memory (DRAM). Et si vous ne savez pas ce que c’est, vous devriez au moins savoir que Random Access Memory est le nom du quatrième album des Daft Punk.

JE SUIS COLÈRE PARCE QUE JE SUIS TRAHISON

Après cette invention, les USA entrent en guerre et Atanasoff est réquisitionné pour d’autres projets (disons qu’il était à la chasse aux champignons si vous voyez ce que je veux dire…). Il n’aura pas le temps de déposer de brevet pour l’ABC. Mais pendant la guerre il discute régulièrement avec Mauchly, de l’université de Pensylvanie, d’ordinateurs, et lui montre même son prototype ABC. Ils discuteront ensemble des possibilités d’améliorations, des limitations techniques, etc. Et pendant que John sirote son bourbon, Mauchly sourit machiavéliquement dans sa tête. Il se rêve dans un grand fauteuil en cuir avec un chat sur les genoux qu’il caresse lentement en riant comme un débile. Car ce que John ne sait pas, c’est que Mauchly travaille lui aussi sur un prototype de calculateur électronique numérique. John raconte pour la énième fois l’histoire de son éclair de génie :
« Comme tout le monde me fixait bizarrement dans le bar j’ai voulu leur expliquer ma découverte en m’appuyant sur la porte des toilettes comme point d’ancrage dans le concret de ces bouseux : j’ai ouvert la porte et j’ai dit 1 c’est ouvert, puis je l’ai fermé et j’ai dit 0 c’est fermé. Et j’ai recommencé le mouvement : et 1, et 0, et 1, et 0. Puis après j’ai commencé à déconner un peu en faisant des nombres premiers en binaire avec la porte. Genre 101, puis après 1101 et j’ai voulu les additionner en utilisant la porte des toilettes des femmes. Mais il y avait quelqu’un alors je ne pouvais pas l’ouvrir, donc je me suis énervé dessus parce que ça plantait complètement tout le concept. J’ai crié ouvrez cette porte que le bit puisse passer. Et je crois que c’est là qu’ils m’ont viré. En tout cas je crois qu’ils n’ont rien compris ».
Mauchly note tout, et va tout répéter à son complice Eckert.

Puis Mauchly et Eckert dévoilent leur ordinateur ENIAC quelques années plus tard, en 1946. Ils déposent un brevet, et leur génie est acclamé. Pendant longtemps, on les créditera de l’invention du premier ordinateur numérique électronique. il y aura procès : en 1973, le brevet de Mauchly et Eckert est annulé. L’ABC est reconnu comme étant le premier ordinateur électronique numérique. Et l’ENIAC, sans brevet, tombe alors dans le domaine public. Il faut reconnaître à l’ENIAC le fait d’être le premier ordinateur électronique numérique entièrement programmable, en gros le premier truc ressemblant entièrement à ce que vous utilisez encore aujourd’hui. Mais ce n’est qu’une amélioration du concept d’Atanasoff, qui lui est le premier à avoir proposé un calculateur électronique numérique qui marche. C’est lui le pionnier, l’inventeur, le génie. Alors rendons à César ce qui est à César : vive l’ABC et vive le Bourbon.

Comme quoi, si vous êtes un jour en panne d’inspiration, allez donc boire un verre dans un troquet à l’autre bout du pays. On ne sait jamais. Petite astuce en plus pour bien vivre votre éclair de génie: vérifiez la hauteur du tabouret.