Quelques ordres de grandeur techniques

La loi de Moore

La miniaturisation des composants électroniques a conduit à l’essor des machines numériques, en réduisant de nombreux inconvénients comme : le poids, le volume occupé, la quantité de matière ou encore le prix. Ces gains en praticité se conjuguent à un couplage de fonctions. L’exemple du smartphone est frappant : d’un objet de contact vocal à distance, nous pouvons maintenant écouter de la musique, regarder des vidéos ou encore gérer des itinéraires en temps réel. Cependant, cela ne constitue pas la seule amélioration technique qu’ils aient subi. En parallèle de leur miniaturisation, leur capacité à accomplir une tâche précise a drastiquement évolué en l’espace de quelques décennies. La caractérisation de cette évolution est bien retranscrite au début des années 1970, par la fameuse « loi de Moore [1] » . Co-fondateur et employé chez Intel (firme qui commercialisa le premier microprocesseur en 1971), Gordon Moore propose une loi empirique en 1965, à partir de ses observations sur l’évolution des capacités des circuits intégrés, qu’il rectifie en 1975, avec l’avènement des microprocesseurs :


(Traduction de l’auteur) : « La nouvelle tendance (de croissance) devrait approximativement doubler tous les deux ans, plutôt que tous les ans, et ce avant la fin de cette décennie. »

Cette loi stipule que le nombre de transistors sur un microprocesseur doublera tous les 24 mois, ce qui se vérifie encore aujourd’hui, même si des limites techniques commencent à apparaître [2] (voir Note 1). Si l’on regarde les données de constructeurs, nous nous apercevons de l’évolution exponentielle continue du nombre de transistors par microprocesseur.

L’évolution est tellement importante que l’échelle des ordonnées doit être logarithmique : à chaque graduation, on augmente d’un facteur 10. Ce phénomène se déroule sur un temps très court, en presque 50 ans. Le nombre de transistors dans un microprocesseur passe de 2300 en 1971, pour atteindre 18 milliards en 2017 [3], soit un facteur environ 107 en 50 ans. Cela correspond à une délirante croissance de 41% par an.

Pour un rendu visuel plus percutant, un des premiers microprocesseurs commercialisés (1971) comparé à un des plus récents (2018) : à gauche, le 4004 contient 2300 transistors ; à droite, le Qualcomm Centriq 2400 qui en contient 18 milliards. A taille constante, le Centriq 2400 contient 10 millions de fois plus de transistors que le 4004.


Idem pour les disques durs

Bien que ne traduisant pas forcément une augmentation de la puissance de calcul per se, cette augmentation du nombre de transistors nous donne un ordre de grandeur sur l’évolution des capacités de calcul des ordinateurs les utilisant. Dans la même veine, les capacités de stockage ont connu une évolution considérable sur une échelle de temps quasi-similaire.

Dans les années 1950, le périphérique de stockage IBM 350 (ici à gauche) compte 5 Mo d’espace disponible, fait la taille d’un frigo, pèse une tonne et coûte environ 50 000 dollars (≈ 450 000 dollars actuels)[4]. En comparaison, un disque dur quelconque de 2017 (à droite) compte un espace disponible de 10 To, pèse 500g, fait la taille d’un livre pour une centaine de dollars.

Ainsi, sans tenir compte des facteurs taille, poids, fiabilité du matériel et autres, ni du fait qu’il s’agit ici d’un appareil grand public et non le plus puissant disponible, le gain en terme de capacité de stockage est d’un facteur 106 en l’espace de 60 ans. Cela correspond à une croissance annuelle de 27%.


Un peu plus compliqué pour les transmissions

Malheureusement, suivre la même procédure pour les modes de transmission est beaucoup plus ardu et complexe. Au contraire de la construction d’appareils de calcul ou de stockage, l’installation des infrastructures de transmission est soumise à de nombreuses contraintes physiques, économiques, mais aussi politiques [5][6]. Construire un disque dur demande une entreprise, des matériaux et de l’innovation; construire un réseau de transmission demande de créer des centres intermédiaires dits «HUB», d’installer les câbles entre deux centres, sur des distances considérables. De plus, ces câbles doivent soit être enterrés, soit reposent sur les fonds marins, actions qui demandent capitaux et autorisations de procéder.


De l’électron au photon

Chaque amélioration du matériel suivra peu ou prou les mêmes démarches longues et coûteuses, ralentissant la propagation de la technologie au grand public. De surcroît, l’exemple de la France nous montre que l’aspect économique et politique peut encore ajouter une couche de lenteur (cf. le Minitel ou l’exception française[6]). Cependant, nous pouvons déterminer un ordre de grandeur des capacités techniques de transmission, en comparant les débits d’envoi et de réception à Internet à son ouverture au public, aux offres d’aujourd’hui. En 1997, la commercialisation des modems 56K place la vitesse de transmission théorique à 56kbits/s, sur les lignes cuivre[7]. De nos jours en 2017, l’offre publique disponible propose une vitesse théorique de 100Mbits/s, pour la fibre optique[8]. En ne considérant que les offres disponibles au public, ainsi que les débits maximum théoriques (et non moyens [9]), nous pouvons estimer une hausse d’un facteur environ 2000 en 20ans (soit une croissance annuelle de 37%, chiffre non représentatif puisque les améliorations ne sont pas continues dans le temps)


Nouvelles applications

Parallèlement à cette évolution du matériel électronique, nous pouvons constater l’apparition de nouvelles applications et de nouvelles idées de conception utilisant l’outil numérique. Les cas les plus frappants sont directement issus de ces évolutions. Certains d’entre eux existent depuis les débuts de l’ordinateur, mais tendent à gagner en puissance avec la constante et fulgurante évolution du matériel.


Instruisons les ordinateurs

Avec le développement des capacités de calcul des appareils électroniques, mais également l’avancée de l’informatique, nous voyons émerger un champ d’application aujourd’hui incontournable qu’est l’apprentissage automatique comme le deep learning [10]. Bien que théorisé dans les années 1980, il n’avait pu être utilisé par manque de capacités techniques, mais également par des coûts trop importants (achat de matériels très coûteux, résultats potentiellement faibles, temps de calcul longs). Les scientifiques de l’époque se sont alors rabattus sur des techniques efficaces à l’époque, jusqu’à un regain d’intérêt au début des années 2000. Ces stratégies d’apprentissage sont maintenant utilisées pour apprendre aux robots et autres intelligences artificielles, afin de reconnaître objets, visages ou encore des sons. Notons quelques questionnements éthiques sur l’utilisation de ces technologies, ainsi qu’une certaine incompréhension des processus utilisés par la machine pour apprendre (voir Note 2).


Dans les nuages ?

Avec les avancées dans le stockage, en parallèle des transmissions, nous voyons le développement du stockage en ligne, et même d’acteurs uniquement dédiés à cette activité que l’on nomme «Cloud computing». C’est une activité qui existe depuis les années 50, mais qui constitue un segment économique majeur de nos jours. Il devient alors tout aussi rapide et pratique de stocker mes données, de profiter d’une machine virtuelle ou d’un logiciel situés sur un serveur dédié n’importe où dans le monde, plutôt que sur le disque dur de mon ordinateur [11].


Les « grosses données »

Finalement, dans le secteur des transmissions, nous voyons apparaître durant l’année 1997 [12] le terme de «Big data» [13]. Ce terme se réfère aux quantités phénoménales de données «produites», stockées et transmises par les ordinateurs, les utilisateurs ou même les phénomènes environnants (voir Note 3). Non pas que ces «data» n’existaient pas avant, elles étaient juste non exploitées et non atteignables d’un point de vue commercial (voir Note 3). Elles permettent à un algorithme de tirer des tendances globales, en analysant d’immenses quantités de données, et de générer des scénarios prédictifs. Elles restent néanmoins au cœur de nombreuses interrogations éthiques, notamment sur les questions de qui accède à mes données et pour quels usages.


Un résumé des ordres de grandeur

Un petit tableau récapitulatif de cet article contenant pour les trois domaines d’intérêt : les dates bornes, une application majeure de ce domaine, ainsi que le taux de croissance moyen des capacités technique de ce domaine.


Une définition plus claire du numérique

Au cours de ces quelques articles, nous avons éclairci la notion de numérique. Nous avons vu les aspects techniques, sémantiques, historiques (ici, ici et ), technologiques et enfin quelques applications à fort potentiel économique (mais pas uniquement). Le numérique désigne ainsi l’outil technologique qui permet de manipuler ou transformer des signaux quantifiés. Son support naturel est l’électronique, puis l’informatique. Ces domaines avancent et évoluent ensemble nous permettant de créer de nouveaux modes de contrôle et d’action sur notre monde, notre environnement. Nous pouvons également observer des substitutions, entre des pratiques ou technologies anciennes avec leur remplaçant numérique d’aujourd’hui. Dans les deux cas, les répercussions sur les modèles sociaux et économiques humains sont considérables, et nous constatons que l’usage du terme numérique peut aussi s’employer pour des comportements utilisant ou découlant de l’usage de cet outil. Dans le cadre de ce travail, nous n’aborderons pas les questions sociales, éthiques, environnementales, mais nous concentrerons uniquement sur l’aspect économique du numérique. Ce qui est déjà un gigantesque travail, tant cet outil est maintenant présent dans tous les domaines d’activité humaine.

Mon prochain article donnera une vision plus large des innombrables disciplines concernées par l’outil numérique, je tenterai de vous expliquer pourquoi le numérique n’est qu’un outil, et comment cet outil s’insère dans un contexte bien plus large : la théorie de l’information de Claude Shannon.


Sources

[1] G. E. Moore, “Progress in Digital Integrated Electronics.” © 1975 IEEE.

[2] https://www.usinenouvelle.com/article/la-loi-de-moore-devrait-se-terminer-en-2030.N521364

Note 1 : Dans leur course à la miniaturisation, les constructeurs de semi-conducteurs doivent composer avec des effets physiques microscopiques ou même quantiques difficiles à appréhender. Cela modifie profondément les contraintes et les processus de fabrication, qui doivent être adaptés ou réinventés à chaque nouvelle génération de matériel. En outre, nous approchons d’une limite physique, puisque nous approchons de la taille atomique. Un transistor de la taille d’un atome sera difficilement miniaturisable (du moins à notre état de connaissance actuel). Certaines stratégies permettent encore de prolonger la loi de Moore, mais il se pourrait qu’elle connaisse un fin dans les années qui viennent, voir source [2].

[3] https://www.intel.fr/content/www/fr/fr/history/historic-timeline.html ; https://www.qualcomm.com/news/releases/2017/11/08/qualcomm-datacenter-technologies-announces-commercial-shipment-qualcomm

[4] https://www-03.ibm.com/ibm/history/exhibits/storage/storage_350.html

[5] https://www.nngroup.com/articles/law-of-bandwidth/

[6] https://www.usinenouvelle.com/article/informatiquepasser-du-minitel-a-internet-pas-si-facile-lionel-jospin-prone-une-migration-du-minitel-vers-internet-cette-transition-risque-d-etre-plus-difficile-qu-il-n-y-parait-tant-du-point-du-vue-ec.N83899

[7] Greenstein, S. & Rysman, M. (2007). Coordination Costs and Standard Setting: Lessons from 56K Modems. In S. Greenstein & V. Stango (Eds.), Standards and Public Policy. Cambridge University Press.

[8] http://www.ariase.com/fr/vitesse/observatoire-debits.html

[9] https://www.akamai.com/fr/fr/multimedia/documents/state-of-the-internet/q1-2017-state-of-the-internet-connectivity-report.pdf

[10] LeCun et al., (2015). Deep learning. Nature, 521(7553), 436.

Note 2 : La notion de black box (boite noire) fait référence, dans le domaine des machines, à un processus pour lequel nous connaissons les entrées et les sorties, mais pour lequel nous avons une connaissance limitée voire nulle. Certains processus d’apprentissage automatique restent incompris dans leur fonctionnement. Cela soulève des problèmes techniques car on ne peut alors pas reproduire un résultat, ni disséquer son cheminement pour le comprendre ; mais cela génère et alimente aussi des craintes sur des dérives dans la robotique ou l’intelligence artificielle, et la possibilité que ces systèmes agissent de façon imprédictible (ou non conforme à des attentes humaines). Ces craintes sont fondées mais sont assez souvent amplifiées par une méconnaissance de la technologie, ou un imaginaire artistique influent (symbolisé par les Lois d’Asimov sur le comportement des robots, ou encore le film « Terminator » et l’entité Skynet).

[11] https://www.ibm.com/blogs/cloud-computing/2014/03/a-brief-history-of-cloud-computing-3/

[12] La première mention du terme Big data semble être faite dans un article de la NASA : https://www.evl.uic.edu/cavern/rg/20040525_renambot/Viz/parallel_volviz/paging_outofcore_viz97.pdf

[13] https://www.lebigdata.fr/definition-big-data

Note 3 : Je mets les termes « data » et « produites » entre parenthèses, car leurs sens et leurs usages peuvent être incorrects. Le terme de donnée est difficilement hiérarchisable par rapport au terme d’information ; les données ne sont pas produites mais sont transformées. Nous aborderons ces points sous peu, dans la partie sur la théorie de l’information.

Tous crédits images : wikipédia.org

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.