Les ordinateurs font d’énormes erreurs parce qu’ils ne peuvent pas comprendre le chaos, préviennent les scientifiques


Il n’y a pas assez de chaos.

ordinateurs-chaos-imprévisible

Dans une nouvelle étude, les scientifiques ont découvert que les calculs complexes effectués par les ordinateurs peuvent être décalés de 15 %, en raison d’une incapacité pathologique à saisir la véritable complexité mathématique des systèmes dynamiques chaotiques.

“Nos travaux montrent que le comportement des systèmes dynamiques chaotiques est plus riche que ce que n’importe quel ordinateur numérique peut capturer”, déclare Peter Coveney, informaticien à l’UCL au Royaume-Uni.

“Le chaos est plus courant qu’on ne le pense et même pour des systèmes chaotiques très simples, les chiffres utilisés par les ordinateurs numériques peuvent conduire à des erreurs qui ne sont pas évidentes mais qui peuvent avoir un grand impact.”

Pendant des siècles, les théoriciens ont contemplé comment de très petits effets peuvent faire boule de neige en de très grands effets en aval.

Dans la théorie du chaos, le phénomène est connu sous le nom d’effet papillon : métaphoriquement, l’idée hypothétique que le battement infinitésimal des ailes d’un papillon à un endroit pourrait aider à générer une tornade ultérieure à un autre endroit.

C’est un concept poétique, mais même s’il peut sembler capricieux, la modélisation mathématique suggère que la notion est fondée sur des termes très mesurables.

L’effet papillon est principalement attribué au mathématicien et météorologue américain Edward Norton Lorenz qui, dans les années 1960, tout en répétant une simulation météorologique, a pris un raccourci historique : il a utilisé des nombres légèrement simplifiés pour la deuxième expérience (0,506 au lieu de 0,506127).

“Je suis allé prendre une tasse de café dans le couloir et je suis revenu au bout d’une heure environ, pendant laquelle l’ordinateur avait simulé environ deux mois de temps”, se souviendra Lorenz plus tard.

“Les numéros imprimés n’avaient rien à voir avec les anciens.”

Les résultats de l’arrondi fatidique de Lorenz ont montré comment de minuscules changements dans les conditions initiales peuvent produire de grands changements au fil du temps dans des systèmes complexes et chaotiques où de nombreuses variables s’affectent et s’influencent mutuellement.

Les prévisions météorologiques en sont un exemple, mais le même phénomène d’erreur de boule de neige a depuis été démontré dans tous les domaines, de la modélisation des trajectoires orbitales à la turbulence et à la dynamique moléculaire.

En fait, même si l’effet papillon est connu depuis des décennies, c’est toujours un problème fondamental dans la façon dont les ordinateurs effectuent les calculs.

“La sensibilité extrême aux conditions initiales est une caractéristique déterminante des systèmes dynamiques chaotiques”, expliquent Coveney et son équipe dans leur nouvel article.

“Depuis la première utilisation des ordinateurs numériques pour la science computationnelle, on sait que la perte de précision due à l’approximation discrète des nombres réels peut modifier considérablement la dynamique des systèmes chaotiques après une courte période de simulation.”

Cette perte de précision n’apparaît pas dans les simples calculs. L’application de calculatrice sur votre smartphone est probablement parfaitement suffisante pour tout ce dont vous avez besoin dans la vie quotidienne.

Mais dans les grands calculs avec beaucoup de variables et de conditions de départ, de petites erreurs d’arrondi au départ peuvent conduire à d’énormes erreurs de calcul à la fin d’une simulation donnée.

Au cœur du problème, disent les chercheurs, se trouve ce qu’on appelle l’arithmétique à virgule flottante : la façon normalisée dont les nombres réels sont compris par les ordinateurs qui utilisent un code binaire, qui utilise des approximations et des conversions pour représenter les nombres.

Dans les grands systèmes complexes, ces approximations peuvent introduire des erreurs importantes – un problème aggravé par la façon dont les nombres à virgule flottante sont répartis entre les nombres réels, même dans un format 64 bits plus nouveau et plus complexe appelé double précision à virgule flottante.

“On croit depuis longtemps que les erreurs d’arrondi ne sont pas problématiques, surtout si nous utilisons des nombres à virgule flottante de double précision – des nombres binaires utilisant 64 bits, au lieu de 32”, a dit le mathématicien Bruce Boghosian de Tufts University.

“Mais dans notre étude, nous avons démontré un problème qui est dû à la distribution inégale des fractions représentées par les nombres à virgule flottante, et qui n’est pas susceptible de disparaître simplement en augmentant le nombre de bits.”

Dans la recherche, l’équipe a comparé un système chaotique simple connu, appelé le décalage de Bernoulli, avec un calcul numérique du même système, et a découvert ce qu’ils disent être des “distorsions systématiques” et une “pathologie nouvelle” dans la simulation des systèmes dynamiques chaotiques.

En effet, alors que Lorenz découvrait son effet papillon en laissant des chiffres entiers hors d’un calcul, les chercheurs ont trouvé leur propre équivalent beaucoup plus subtil en demandant simplement à un ordinateur d’effectuer un calcul mathématique à tous.

“Pour Lorenz, c’est un tout petit changement dans les dernières décimales des nombres utilisés pour commencer une simulation qui a causé ses résultats divergents”, a déclaré Coveney sur le blog du Musée des sciences.

“Ce que ni lui ni les autres n’ont compris, et qui est souligné dans notre nouveau travail, c’est qu’une telle condition initiale finie (rationnelle) décrit un comportement qui peut être statistiquement très peu représentatif.”

Bien que les chercheurs reconnaissent que le décalage de Bernoulli est un système chaotique simple qui n’est pas nécessairement représentatif de modèles dynamiques plus complexes, ils préviennent que la nature insidieuse de leur papillon à virgule flottante signifie qu’aucun scientifique ne devrait baisser sa garde devant les ordinateurs.

“Nous ne croyons pas que les praticiens devraient tirer un quelconque réconfort du fait que leurs modèles sont plus complexes que celui-ci”, écrivent les auteurs.

“Nous suggérons que si un système aussi simple présente des pathologies aussi graves, un système plus complexe en présentera probablement des plus diaboliques.”

Ce n’est pas tous les jours que l’on découvre que la modélisation informatique peut être fondamentalement défectueuse. Jusqu’à ce que nous trouvions un moyen de régler ce problème, l’équipe affirme que les chercheurs du monde entier doivent porter une attention particulière aux chiffres que crachent leurs ordinateurs.

Les résultats sont présentés dans Advanced Theory and Simulations.

Lire aussi : La théorie déroutante du “darwinisme quantique” passe des tests expérimentaux

Source : ScienceAlert – Traduit par Anguille sous roche

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *