Pourquoi l’informatique, c’est que des zéros et des uns ?

Bases

0  ​commentaires

Hier, mon fils m’a demandé : « Papa, pourquoi l’informatique, c’est que des zéros et des uns ? ». Et là, même si la réponse semble évidente pour un informaticien, elle ne l’est pas tant que cela ! Alors je me suis dit, pourquoi ne pas essayer d’écrire sur le sujet. Parce qu’en informatique, on parle toujours de binaire, mais c’est quoi ce truc ?

Un peu d’histoire…

Le binaire, mais qu’est-ce que c’est ?

D’habitude, quand on compte, on utilise les dix chiffres que l’on connaît bien : 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. On parle alors de système décimal.

En binaire, on utilise que 2 chiffres : Le 0 et le 1 !

Mais alors, on ne peut pas compter à plus de 1 ? Et bien si, comme avec le système décimal, on a un principe de retenue (souviens-toi, les additions de ton enfance :)). L’exemple ci-dessous montre comment se passe l’addition binaire 11+1. En fait, c’est comme avec les nombres décimaux que l’on utilise tous les jours (n’oublies pas la retenue !).

Calcul binaire de 1 1 + 1

Pour comprendre comment on compte, le plus simple c’est d’imaginer un compteur kilométrique de voiture, à part qu’il n’y aurait que des 0 et des 1 ! Dans ta voiture, quand tu vas passer de 249 km à 250 km, le chiffre de droite passe à 0 (9+1=10, soit 0 et je retiens 1), et le chiffre juste après passe à 5 (car on lui ajoute la retenue). Eh bien en binaire, c’est pareil, à part qu’il n’y a que des 0 et des 1. Quand tu passes de 1001 au nombre d’après, tu ajoutes 1 au chiffre de droite et tu ajoutes la retenue au chiffre juste après. Tu obtiens donc 1010. Facile, non ?

D’ailleurs, les nombres décimaux s’écrivent en binaire comme une suite de 1 et de 0. Ce sont les fameux bits dont on entend souvent parler. On parle alors d’encodage en binaire. Par exemple, une voiture qui coûte 19990 € s’écrit 0100 1110 0001 0110 € en binaire. Si le binaire est pratique pour les ordinateurs, ce que nous verrons plus loin, heureusement, nous avons gardé le système décimal pour la vie de tous les jours ! Pour comprendre un peu plus le binaire, regardes la vidéo ci-dessous.

Et ça vient d’où ?

Première surprise lors de mes recherches. Comme tout le monde, je pensais que le système binaire était « récent ». Et là je m’aperçois qu’en fait, les Egyptiens[1] l’utilisaient déjà pour faire leur multiplication plus de 1500 ans avant J-C. Certes, ils n’étaient pas vraiment conscients qu’ils utilisaient déjà le système binaire. Plus tard, vers 700 avant J-C, ce sont les chinois qui s’en servent pour faire des prédictions dans le Yi Jing[2], le livre des transformations.

Cercle des 64 hexagrammes
Le cercle des 64 hexagrammes

Ensuite, ce sont les savants qui s’en sont préoccupés. Thomas Harriot, Francis Bacon, Neper, Leibniz sont quelques-uns de ceux qui ont buchés sur le sujet.

Les travaux de George Boole sur la logique (Algèbre de Boole[3]) sont encore très largement utilisés de nos jours dans les ordinateurs.

Jusqu’à Emile Baudot[4] vers 1870, qui a inventé le premier système de codage servant au télégraphe. Chaque lettre était représentée par une suite de 5 zéros et uns. Sa machine a permis d’envoyer des messages de Marseille à Alger avec des impulsions électriques.

L’idée du siècle

Du binaire à l’ordinateur

Au début du XXème siècle, les scientifiques utilisaient des systèmes mécaniques pour effectuer leurs opérations mathématiques. La plus connue est la calculatrice de Monroe. Si tu cherches un peu, tu peux même en trouver sur e-bay J. Même si cela leur faisait gagner beaucoup de temps, les scientifiques passaient tout de même des heures à faire tous leurs calculs.

https://images.computerhistory.org/revonline/images/500002003p-03-01.jpg?w=600
Atanasoff-Berry Computer (ABC)

Puis il y eut John Atanasoff[5], un professeur de mathématiques et physiques. Il avait beaucoup de calculs à effectuer pour ses expériences. Alors il fit le point sur tout ce qu’il avait à sa disposition. D’un côté, il avait les systèmes analogiques, qui étaient lents et pas toujours très précis. De l’autre, les systèmes digitaux, mais au final juste un peu plus rapide car limité par le côté mécanique.

Comme il travaillait beaucoup avec des composants électroniques, avec l’un de ses étudiants, vers 1940, ils ont construit l’ABC (Atanasoff-Berry Computer). Comme ils voulaient éviter les imperfections de l’analogique, ils ont eu l’idée de faire fonctionner leur machine en binaire. En binaire, c’est tout ou rien, il n’y a pas de « entre les deux ». Du coup, d’un point de vue électrique, c’est allumé ou éteint. Bon OK, leur machine ne pouvait faire qu’une seule chose, tout était « codé en dur » comme on dit. Et elle pesait plus de 300 kg…Mais elle pouvait quand même faire 30 additions par secondes. Ce qui est déjà bien plus rapide qu’à la main, même avec une calculatrice !

La révolution numérique

Leur machine utilisait des tubes électroniques. Ce sont des sortes d’interrupteurs que l’on actionne avec un signal électrique. Là, tu me dis, OK génial, et ? Eh bien, en combinant ces tubes entre eux, on peut faire des portes logiques (Tu sais, l’algèbre de Boole). Et en combinant ces portes logiques, on peut faire des circuits complexes capables de faire des calculs.

Et là, l’informatique a commencé. Entre 1943 et 1945, des chercheurs de l’université de Pennsylvanie, aux Etats-Unis, ont construit l’ENIAC[6]. C’est le premier ordinateur. Il contenait 17468 tubes électroniques et pesait environ 30 tonnes…et il était capable de faire 100 000 additions par secondes ! Et point de vue consommation électrique, je ne te raconte pas ! La fiabilité non plus n’était pas au rendez-vous. Vu le nombre de tubes, la probabilité d’une panne était grande. D’ailleurs, ils n’ont jamais réussi à le faire fonctionner plus de 60 heures d’affilée.

Vers la micro-informatique

Silicium & Co

Alors, en 1947, est né le transistor[7]. Pas le vieux poste de radio de ta grand-mère ! Mais un composant électronique qui remplace les tubes à vide en plus léger, plus robuste, plus petit et qui consomme beaucoup moins ! Puis en 1958, Jack Kilby de chez Texas Instruments©, a inventé le circuit intégré[8] qui permet de mettre plusieurs transistors dans un même circuit (tu te souviens, pour faire des portes logiques). Dans les années 1970, c’est Intel© qui sort le premier microprocesseur (le fameux CPU), avec encore plus de transistor à l’intérieur. C’est le Intel 4004, avec 2300 transistors. Il est capable de faire 60 000 opérations par secondes.

Et de nos jours ? Le microprocesseur[9] de l’iPhone (ou Android !) qui est dans ta poche contient environ 4 milliards de transistors et peut faire environ 8 000 000 d’opérations par seconde…

En 1965, Gordon Moore[10] a énoncé une loi disant que tous les 18 mois, la puissance des processeurs double, avec toujours le même coût. Il a eu raison pendant près de 50 ans, mais maintenant, les vitesses de ces puces sont tellement grandes que cela est devenu plus difficile.

L’ère du tout numérique

Tout ça, c’est bien gentil. On sait calculer rapidement avec des 0 et des 1. Mais comment on arrive à voir des photos, écouter de la musique, voir des vidéos et plein d’autres choses sur son ordinateur ?

https://upload.wikimedia.org/wikipedia/commons/1/1a/Information_binaire.png

Eh bien, on numérise. C’est à dire que l’on transforme tout ça en suite de 0 et de 1. Une photo par exemple, on la transforme en une suite de point (on parle de pixel). Chaque point à une couleur, qui est représenté par un nombre. Et ce nombre, on peut l’encoder en binaire en une suite de 0 et de 1. Donc une photo, c’est une très grande suite de 1 et 0. C’est pareil pour les vidéos, la musique et tous les fichiers qui sont sur ton ordinateur. On peut même envoyer tout cela sur internet…mais ça, on le verra dans d’autres articles !


[1] http://www.univ-irem.fr/spip.php?article1305
[2] http://cercle-yijing.net/wp/quest-ce-que-le-yi-jing/
[3] https://www.maxicours.com/se/cours/algebre-de-boole/
[4] https://www.arts-et-metiers.net/musee/telegraphe-imprimeur-systeme-baudot
[5] http://www.columbia.edu/~td2177/JVAtanasoff/JVAtanasoff.html
[6] https://www.smithsonianmag.com/history/the-brief-history-of-the-eniac-computer-3889120/
[7] https://fr.wikipedia.org/wiki/Transistor
[8] https://fr.wikipedia.org/wiki/Circuit_int%C3%A9gr%C3%A9
[9] Comparer les CPU entre eux sur https://www.cpu-monkey.com/fr/
[10] https://www.intel.fr/content/www/fr/fr/silicon-innovations/moores-law-technology.html



​Tu aimeras aussi...

Confiné, mais efficace ! Les 10 erreurs à éviter quand on travaille chez soi.

Comment protéger ses échanges sur Internet ?

Qu’est-ce qu’il y a dans un ordinateur ?

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
>