Logo Le Polyscope
De toute façon, on est les meilleurs depuis 1967.

Just’une chronique : numérique asymptotique ou dynamique ?

Épisode 0b11

Nous l’avons vu lors des trois précédentes de cette série, le numérique a fortement modifié nos façons de faire au quotidien. D’aucuns prétendront que la démocratisation de l’informatique a été une troisième révolution industrielle que l’Humanité a traversé. On est en droit de se demander si cet élan ne va pas s’arrêter de lui-même un jour, essoufflé dans sa propre dynamique vertigineuse. Les jours de ce souffle nouveau sont-ils comptés ou avons-nous peu ou prou de perspectives d’évolution de l’ogre binaire?

Des ordinateurs quantiques avant l’heure?

Allons, pourfendons le dogme! Disons, en bons scientifiques qu’il existe des limites insurmontables en cassant du sucre sur le dos de nos amis économistes. Connaissez-vous la loi de Moore? Hé bien sachez qu’elle est fausse sous certaines hypothèses. Cette loi, qui est l’éponyme d’un créateur de la compagnie d’Intel, prône que la puissance du meilleur microprocesseur du marché doublera tous les dix-huit mois. Ce fut dans certains cas vrai.

Hélas, de nos jours, cette loi est contestée car nous arrivons à un certain seuil de saturation indépassable avec les technologies actuelles. Je m’explique : l’évolution de la puissance des microprocesseurs est en fonction de la taille des transistors, briques élémentaires ou «neurones», se trouvant au centre du «cerveau» de nos ordinateurs. En effet, moins ils prennent de place, plus on peut en caser dans un même volume et de ce fait, plus votre processeur dispose de ces éléments, plus il est puissant.

Imaginez-vous qu’aujourd’hui, la distance qui sépare les transistors dans un processeur est de l’ordre de la quarantaine de nanomètre. Bientôt, les limitations physiques deviendront critiques à des distances aussi infimes. En effet, les effets quantiques vont se faire sentir, des électrons pourraient traverser les isolants entre deux «pattes» des transistors et fausser les données gérées par le transistor. Nous avons de la marge, certes, mais au vu de la croissance du domaine, il nous faut émettre des réserves…

Le paradigme parallèle

Vous l’aurez compris, cela ne sert presque plus à rien de comprimer nos puces, enfin du moins la rentabilité de ce dogme manufacturier du siècle précédent s’effondre. Est-ce que nous pouvons jouer sur la cadence d’exécution, c’est à dire sur l’horlogerie interne de nos machines? Peut-on pousser nos calculs à être répétés à une fréquence vertigineuse? Et surtout, question industrielle numéro un, est-ce rentable? La société scientifique n’en est pas convaincue, car là aussi nous sommes quelque peu à la limite du physiquement raisonnable.

Oui, car l’heure du Gigahertz a sonné, ce qui est proche des fréquences de réactions de matériaux semi-conducteurs composant nos chers neurones, les transistors. De plus, plus la fréquence est effrénée dans le traitement de données, plus les effets énergétiques s’en font ressentir : on dissipe plus d’énergie inutilement. À l’aube de l’ère de l’économie d’énergie, cette idée ne séduit ni les gouvernements, ni les compagnies assujetties aux lois que promulguent les premiers.

Que faire pour croire à nouveau à l’avenir alors? Regarder dans le passé, plus précisément à la fin du XIXe siècle, et penser au Taylorisme, une des théories d’organisation scientifique du travail au fondement de la deuxième révolution industrielle. En premier lieu, regardons ce que nous avons : des opérations répétées, un espace congestionné et une cadence effrénée d’exécution. Cela rappelle les tâches non-optimisées lors de la révolution industrielle. Essayons de comprendre où nous nous en allons : là où des tâches sont produites en série, il arrive de scinder ces tâches en sous-tâches afin de pouvoir en paralléliser une partie.

Remarquons que ceci se fait déjà dans nos ordinateurs, beaucoup d’entre vous ont sans doute déjà remarqué les processeurs multicœurs se trouvant au centre de la machine. Et souvent, les industriels raffolent d’applications aux calculs parallélisables autant que les algorithmiciens développent des méthodes permettant ceci. Dans un cas purement théorique, une parallélisation idéale des calculs reviendrait à multiplier la puissance de calcul de l’ordinateur par le nombre d’unités de calcul mises en parallèle. Cependant, là encore des limitations font décroître sensiblement ce gain, et notamment le problème de synchronisation des tâches. Ne pas mettre la charrue avant les bœufs est sans doute un des adages à respecter avant toute tentative de parallélisation, sinon les résultats seront justes abracadabrantesques !

Optimisons ce que nous avons

La forte croissance du milieu durant les années précédentes a souvent éclipsé les problématiques d’optimisation. Aujourd’hui, avec le débit de données ingérable par nos calculateurs, toute optimisation semble risible de prime abord à l’industriel en quête de profit. En 1971, lorsque le premier microprocesseur Intel 4004 vit le jour, sa puissance d’exécution de 90 000 opérations par seconde obligeait à prendre certaines précautions.

D’aucuns diront qu’elle est faible face aux dizaines de milliards d’opérations endossables par un Intel Core i7 contemporain. C’est pour cela que l’optimisation des programmes informatiques en termes d’opérations était le dogme à l’époque. Cela avait ses avantages en termes de rapidité d’exécution mais ses inconvénients en termes de syntaxe. Pour accélérer la machine, il faut la contrôler selon son architecture et non selon la logique du programmeur. En effet, l’être humain préférera des langages de plus «haut niveau», loin de la machine mais près de son langage naturel.

On peut aussi constater ceci lorsque vous allumez votre ordinateur : combien de programmes coûteux se lancent juste pour vous fournir une esthétique désespérante face aux ralentissement qu’elle occasionne? Les professionnels du métier vous le diront : de l’effort reste à fournir dans la conception de systèmes informatisés en termes d’optimisation. Cet art ancien va être remis sur le devant de la scène lorsque des limitations physiques contraindront la rapidité d’exécution à stagner.

Le champ applicatif en quête d’idées

Ainsi, la technologie numérique a encore une belle perspective d’évolution devant elle. Aujourd’hui, le champ des possibilités qu’elle ouvre est souvent méconnu du grand public, partiellement à cause de la quantité astronomique de fonctionnalités qu’elle offre. Que ce soit dans les systèmes embarqués comme les drones, les voitures connectées ou votre cellulaire ou encore dans les systèmes de réseautique, les applications possibles se retrouvent en grand nombre. Depuis le début des années quatre-vingts et la démocratisation des micro-ordinateurs, la technologie numérique n’a cessé d’élargir son spectre et de se retrouver encore plus près des usagers «lambda».

Mais les champs applicatifs n’ont eux-mêmes pas fini de nous surprendre. Pour citer un exemple bien connu et magnifique à mon sens : les champs applicatifs biomédicaux. Aujourd’hui, on parle de commande collaborative qui permet une entente entre un fauteuil roulant bourré d’électronique et un patient hémiplégique: on rend la dignité au malade tout en traitant de manière personnalisée l’ordre, malheureusement altéré, qu’il envoie au fauteuil. On parle également de cœurs artificiels, et ce grâce à des outils de conception assistés par ordinateur, à grand renfort d’impressions 3D, de microprocesseurs et d’effecteurs à coûts énergétiques réduits. On parle de bras artificiels, de logiciels de diagnostics, de datamining (forage des données) des pathologies, de traitements hyper-spectraux pour des détails que l’œil du praticien ne voit pas. Supposons que je n’aie pas de contestation de la direction du journal sur l’essor de ce champ là.

Le mot de la fin?

D’autres champs applicatifs vivent également aujourd’hui un grand essor tels que la domotique, l’aide à la consommation énergétique à moindre coûts, la sécurité, l’éducation, et j’en passe. Rien ne semble arrêter cette manne économique, provoquée par des puces faites d’obscurs transistors en silicium et génératrice de services. Des idées nouvelles émergent chaque jour puisque nul ne connaît toutes les possibles mises en œuvre du numérique, gageons que ce soit à nous de les trouver. Pour mettre un point d’interrogation final à cette chronique, posons une question innocente : aider les humains, n’est-ce pas l’essence même de la technologie?

 




*Les auteurs ont l’entière responsabilité de leurs articles et n’engagent d’aucune façon l’équipe du Polyscope ou de l’AEP, sauf lorsque la signature en fait mention. Nous laissons au lecteur la jugeote de déceler le sarcasme saupoudré sur nos pages.