Suite aléatoire — Wikipédia

Cette suite est-elle aléatoire ?

En mathématiques, une suite aléatoire, ou suite infinie aléatoire, est une suite de symboles d'un alphabet ne possédant aucune structure, régularité, ou règle de prédiction identifiable. Une telle suite correspond à la notion intuitive de nombres tirés au hasard. La caractérisation mathématique de cette notion est extrêmement difficile, et a fait l'objet d'études et de débats tout au long du XXe siècle. Une première tentative de définition mathématique (insatisfaisante) a été réalisée en 1919 par Richard von Mises. Ce fut l'avènement de la théorie de la calculabilité, dans les années 1930, et de la théorie algorithmique de l'information qui permit d'aboutir dans les années 1970 — au terme d'une succession de travaux menés notamment par Andreï Kolmogorov, Gregory Chaitin, et Per Martin-Löf — à des définitions faisant aujourd'hui consensus (bien que toujours non tout à fait unanime).

Les définitions actuellement acceptées (démontrées équivalentes) du caractère aléatoire d'une suite sont les suivantes[1] :

  • une suite aléatoire ne doit posséder aucune régularité « exceptionnelle et effectivement testable » (Martin-Löf 1966[2]) ;
  • une suite aléatoire doit posséder un « contenu informationnel incompressible » (Levin 1974[3], Chaitin 1975[4]) ;
  • une suite aléatoire doit être imprévisible, c'est-à-dire qu'aucune « stratégie effective » ne peut mener à un « gain infini » si l'on « parie » sur les termes de la suite (Claus-Peter Schnorr 1971[5]).

Chacun des termes employés dans les définitions ci-dessus possède une définition mathématique rigoureuse.

L'ensemble des suites aléatoires sur un alphabet quelconque peut être représenté par celles n'utilisant que les chiffres « 0 » ou « 1 » qui peuvent elles-mêmes être mises en relation bijective avec l'ensemble des nombres réels dont le développement numérique écrit en notation binaire est constitué de chiffres « aléatoires ». De fait, la quasi-totalité des études et définitions mathématiques concernant les suites aléatoires sont effectuées en utilisant la traduction de la suite en un nombre réel, compris entre 0 et 1, écrit en binaire, donnant ainsi une simple suite de 0 et de 1.

Bien que très fructueuses sur le plan théorique, et menant à d'intéressants corollaires et propriétés, ces définitions sont en fait peu applicables en pratique pour tester le caractère aléatoire d'une véritable suite. Malgré tout, ces définitions commencent à trouver des applications théoriques dans les domaines de la physique[6], de la biologie[7] ou de la philosophie.

Problématique et historique

[modifier | modifier le code]

L'histoire de la formalisation mathématique de cette notion permet de comprendre les problèmes et les subtilités qui interviennent quand il s'agit de définir la notion d'aléatoire.

Tout d'abord, une définition d'une suite aléatoire ne doit pas être trop stricte (aboutissant à une notion vide), ou au contraire trop laxiste, intégrant des suites qui ne sont pas — à l'évidence — aléatoires. Ensuite, la définition doit être précise et ne laisser aucune notion non rigoureusement définie intervenir (même indirectement) dans la définition.

La première tentative de définition, en 1919 par Richard von Mises, péchait sur les deux points. Selon von Mises, une suite constituée de 0 et de 1 est aléatoire si et seulement si toute sous-suite extraite « selon des moyens raisonnables » (ce qu'il appelait des « collectifs ») présente autant de 0 que de 1. Von Mises ne réussit jamais à mathématiser rigoureusement la notion de « moyen raisonnable » pour extraire une sous-suite. De plus, en 1939, Jean Ville démontra qu'aucune suite ne répond à la définition de von Mises (notion vide)[8].

Karl Popper, en 1935, essaya de partir sur une idée semblable à celle de von Mises, mais plus précisément définie. L'idée est d'extraire une sous-suite d'une suite donnée à partir une autre suite quelconque . On extrait de la suite le symbole suivant le premier de la suite, puis le symbole suivant le suivant, etc. Une suite est dite aléatoire si quelle que soit la suite , les fréquences de 0 et de 1 sont égales dans les sous-suites extraites. A l'inverse de la définition de von Mises, cette définition fut prouvée trop faible, toujours par Jean Ville, qui fournit des contre-exemples de suites visiblement non aléatoires répondant à cette définition.

En 1940, le mathématicien Alonzo Church mit à profit la théorie de la calculabilité (dont il est un des pères) pour préciser la définition de von Mises. Il définit la notion de « moyen raisonnable » par « peut être extraite par une fonction récursive ». Cette définition échoua également, car il s'avère que les sous-suites définies ainsi sont dénombrables. Or, Jean Ville a démontré, toujours en 1939, que si l'ensemble des sous-suites dans une définition de type von Mises est dénombrable, alors il existe des suites qui répondent à la définition, mais qui comportent plus de 1 que de 0 dans tout début de suite.

À ce point, la communauté des mathématiciens, Jean Ville et Émile Borel en tête, doutait qu'il fût jamais possible de trouver une définition satisfaisante à la notion de suite aléatoire (voir Paradoxe du hasard indéfinissable).

En 1965, Kolmogorov proposa une définition fondée sur la notion de complexité qui allait s'avérer fructueuse, mais encore insuffisante en l'état : est aléatoire tout suite infinie dont la complexité de Kolmogorov est maximale. Il manquait seulement la notion de programme auto-délimité (voir la définition de Levin-Chaitin) pour aboutir à une définition correcte. En l'état, cette définition menait de nouveau à une notion vide.

C'est à partir de 1966, avec la proposition de Per Martin-Löf, et avec le raffinement de la proposition de Kolmogorov par Gregory Chaitin et Leonid Levin, que des définitions solides commencent à apparaître.

Paradoxe du hasard indéfinissable

[modifier | modifier le code]

Au moment, avant la Seconde Guerre mondiale, où la communauté scientifique ne croyait plus en la possibilité d'une définition formelle d'une suite aléatoire, Émile Borel a proposé un paradoxe selon lequel la définition du hasard est par nature impossible.

En effet, si l'on conçoit intuitivement une suite aléatoire comme une suite ne possédant absolument aucune caractéristique particulière, alors le simple fait de définir une suite aléatoire donne une caractéristique aux suites répondant à la définition, qui est le fait d'être « aléatoire ». Donc le simple fait de définir l'aléatoire est paradoxal par rapport à sa définition intuitive.

Borel exhibe donc une sorte de hiérarchie nécessaire, et infinie, de définition de l'aléatoire. Si l'on propose une définition D0 de l'aléatoire, alors une autre définition D1 devient nécessaire, excluant les suites définies comme aléatoires par D0 et ainsi de suite[9].

Les définitions formelles actuelles du concept de suite aléatoire "résolvent" ce paradoxe de Borel en s'arrêtant volontairement à un certain niveau dans la hiérarchie, sur lequel les mathématiciens se sont accordés pour dire qu'il correspond à une définition raisonnable de ce concept, même si le paradoxe de Borel reste valable dans l'absolu.[réf. souhaitée]

Définitions mathématiques

[modifier | modifier le code]

Définition au sens de Martin-Löf

[modifier | modifier le code]

Une suite est aléatoire au sens de Martin-Löf si elle ne possède aucune propriété « exceptionnelle et effectivement vérifiable », c'est-à-dire une propriété pouvant être vérifiée par une fonction récursive, au sens de la théorie de la calculabilité (autrement dit un algorithme).

La définition de Martin-Löf utilise la bijection suite ↔ réel. Par conséquent, un ensemble de suites correspond à un ensemble de points sur le segment réel [0, 1]. De plus, les ensembles de suites contenant des séquences de bits définies (pattern) correspondent à des réunions d'intervalles sur ce segment. Ces intervalles sont tous de la forme [i, j] avec i et j de la forme , p et q étant des entiers naturels. Par exemple, l'ensemble des suites commençant par '1' ('1XXXXXX...') est l'intervalle . L'ensemble des suites dont le premier bit indéfini, les deux bits suivants '01', et le reste indéfini ('X01XXXXXX...') est la réunion des intervalles et , etc.

Le principe de la définition est de construire (récursivement) une liste infinie d'ensembles de suites (donc chaque correspond à une réunion d'intervalles), qui vont définir une (ou plusieurs) « propriété exceptionnelle ». La mesure de doit être majorée par , et doit être un sous-ensemble de . La suite des ensembles doit être récursivement énumérable. On dit qu'une suite possède une propriété exceptionnelle et effectivement vérifiable, définie par pour un niveau m, si la suite appartient à l'ensemble .

Par définition, la mesure de tend vers 0 quand m tend vers l'infini, ce qui justifie le terme « exceptionnel » pour cette propriété. Le terme « effectivement vérifiable » provient de la définition récursive de qui assure que l'appartenance à est « effectivement » testable par une machine de Turing, en un temps fini pour m fini (m est généralement fonction du nombre d'éléments à tester dans la suite).

Par définition, une suite qui n'appartient à aucun ensemble constructible selon le procédé ci-dessus, et donc qui ne possède aucune « propriété exceptionnelle et effectivement vérifiable », est une suite aléatoire au sens de Martin-Löf (dite parfois ML-aléatoire).

On démontre qu'il existe une liste récursive d'ensembles particulière qui teste à elle seule l'ensemble de toutes les propriétés exceptionnelles définissables au sens de Martin-Löf. Il s'agit d'un test universel d'aléatoirité.

Définition au sens de Levin/Chaitin

[modifier | modifier le code]

La théorie algorithmique de l'information, développée par Ray Solomonoff et Andreï Kolmogorov dans les années 1960, a rendu possible de définir, de manière absolue, la notion de contenu en information d'une suite : il s'agit de la complexité de Kolmogorov. Cette mesure est définie comme étant la longueur du plus petit programme nécessaire pour engendrer la suite. Il est démontré que cette mesure ne dépend pas fondamentalement de la machine utilisée pour coder et exécuter le programme, à une constante additive près, ce qui justifie son caractère absolu[10].

« Sur la base de ces considérations, il peut apparaître naturel de définir une suite sans régularité, ou suite finie aléatoire, comme une suite qui pour être calculée demande en gros un programme aussi long qu'elle même[11]. »

En effet, la suite '01010101...', qui est visiblement non aléatoire est descriptible en peu de mots : « répéter 01 à l'infini » (ce qui est l'équivalent d'un programme), alors que la suite '0110100101111001...' n'est descriptible qu'avec le programme : « écrire '0110100101111001...' » qui est un programme au moins aussi long que la suite elle-même.

La complexité de Kolmogorov n'était toutefois pas tout à fait suffisante pour définir rigoureusement une suite aléatoire. Le problème est que la complexité de Kolmogorov est fondée sur des programmes non auto-délimités (c'est-à-dire que la fin du programme n'est pas provoquée par une instruction du programme). Dans ce cas, il est possible par exemple de concaténer deux programmes, ce qui rend le poids d'un programme non univoque.

La définition de Chaitin-Levin utilise la complexité de Kolmogorov où il est spécifié que les programmes doivent être auto-délimités. Cette complexité est nommée complexité de Chaitin-Levin.

Une suite est aléatoire au sens de Chaitin-Levin si et seulement si la suite est minorée ( désigne les n premiers symboles d'une suite s, et la complexité de Chaitin-Levin)[12]. Chaitin a démontré récemment que cette définition est équivalente à : .

Définition au sens de Schnorr

[modifier | modifier le code]

La définition est fondée sur la théorie des martingales. L'idée est de définir une suite aléatoire comme une suite sur laquelle aucune martingale ne peut être gagnante.

Cette idée avait déjà été exploitée par Jean Ville en 1939, mais il n'utilisait pas la notion de calculabilité pour définir une martingale. Sans précautions sur la calculabilité de la martingale, cette définition mène à exclure toutes les suites possibles et aboutit à une notion vide.

Le mathématicien allemand Claus-Peter Schnorr (en) reprit cette idée en 1971 en posant des conditions précises sur la calculabilité de la martingale. En fonction de ces conditions, on aboutit à des définitions plus ou moins fortes (mais non vides) de la notion de suite aléatoire. Parmi ces possibilités, l'une produit exactement à la même classe de suites aléatoires que la définition de Martin-Löf, ou de Levin-Chaitin.

Justifications et doutes résiduels concernant ces définitions

[modifier | modifier le code]

Le fait que chacune des trois définitions soit fondée sur des idées intuitivement en rapport avec la notion de suite aléatoire, et surtout qu'elles se soient révélées mathématiquement équivalentes alors qu'elles sont fondées sur des idées différentes, et imaginées indépendamment les unes des autres, mène à penser que ces définitions touchent à quelque chose de « fondamental » concernant cette notion.

De plus, ces définitions possèdent une certaine « robustesse » (elles restent valables et équivalentes même si l'on modifie certains éléments non fondamentaux de leur définition), une fécondité mathématique, et une pérennité dans le temps que l'on attend de définitions fondamentalement justes[1].

Toutefois, comparativement à d'autres thèses fondamentales du même domaine (ex. : la thèse de Church), et sur ces mêmes critères, les définitions d'une suite aléatoire apparaissent moins bien fondées[1].

Certains mathématiciens, comme Schnorr lui-même, pensent que les définitions de type Martin-Löf sont trop strictes et imposent trop de conditions aux suites aléatoires. Selon Schnorr[13], seules les propriétés « qui peuvent être testées à l'aide d'expériences statistiques réelles », qui ont « un sens physique », devraient être prises en compte. Cela revient à remplacer, dans la définition de Martin-Löf, la condition que la suite des soit récursivement énumérable, par la condition que les ensembles soient des ensembles récursifs. Avec cette définition, certaines suites qui sont non aléatoires au sens de Martin-Löf sont définies comme aléatoires, car on ne pourra jamais mettre en évidence en pratique leur caractère calculable, même si elles sont calculables en théorie.

Aléatoire et incompressibilité

[modifier | modifier le code]

La définition de Levin/Chaitin est totalement équivalente à dire qu'une suite aléatoire est une suite incompressible (au sens de compression de données informatiques), ce qui se peut comprendre au sens intuitif qu'aucun terme n'est déductible des précédents et n'est redondant.

Pour une suite finie, l'incompressibilité s'exprime informellement par l'égalité de taille (en octets par exemple) de la suite et du plus petit algorithme permettant de l'engendrer. Pour une suite infinie comme le sont les décimales d'un nombre réel, l'aspect aléatoire/incompressible s'exprimera plus rigoureusement par : Il existe une constante C, telle que pour tout entier n, la taille du plus petit programme engendrant les n premiers octets de la suite est supérieure ou égale à n – C octets, C étant une constante mathématique dépendant du langage informatique (Fortran, C, Java, etc.) ou logique (codage particulier des machines de Turing, etc.) considéré.

Ces critères sont une traduction directe de la complexité de Levin/Chaitin.

Propriétés des suites aléatoires

[modifier | modifier le code]

Les suites aléatoires, telles que définies ci-dessus, possèdent un certain nombre de propriétés démontrées (attention : la réciproque des propriétés ci-dessous est souvent fausse) :

  • un nombre réel au développement numérique aléatoire est normal en toute base et transcendant ;
  • une suite aléatoire ne peut être décrite ou générée par un algorithme (elle n'est pas récursive) ;
  • une suite aléatoire satisfait les critères de Von Mises et Popper (voir section "historique"), c'est-à-dire que toute sous-suite extraite de manière effective possède la propriété de convergence des fréquences ;
  • les nombres réels dont le développement numérique est non aléatoire forment eux aussi un ensemble non dénombrable et dense dans , mais de mesure nulle.

En pratique : caractère aléatoire d'une suite de symboles

[modifier | modifier le code]

Beaucoup de suites comportent des symboles[14] (nombres, mais aussi lettres, mots, pixels, résultats d'un tirage au sort, etc.) ayant des probabilités et des contraintes d'apparition, tout en s’écartant de l’idéal des définitions vues précédemment.

Ainsi, une suite où il n’y aurait pas équiprobabilités entre ses symboles peut être vue comme défectueuse en cryptanalyse[15]. Les codes de César ou de Vigenère sont déchiffrables grâce à cette caractéristique qui dévoile une faille. Dans un autre domaine, une telle suite serait vue comme « compressible », par exemple « zippable » avec un taux de compression appréciable. Une source avec contraintes[14] voit les probabilités de ses symboles changer au fur et à mesure que ses contraintes sont connues : son entropie (et donc le caractère aléatoire) de cette source diminue et ainsi s’écarte notablement d’un hasard complet.

Une source de symboles binaires pseudo aléatoires n’a rien d’aléatoire, au moins pour le concepteur, car le comportement de celle-ci est prédéterminé dans un câblage électronique. Paradoxalement, surtout si la longueur de la séquence pseudo aléatoire est longue, la source est suffisamment ergodique (dans le sens particulier où chaque sous-suite possible de longueur a une probabilité d’apparition voisine de [14]) et est considérée comme utile pour son emploi lors de tests.

Le caractère peu ou très aléatoire d’une suite de symboles dépend du contexte (cryptographie, compression de données, tests et autres) et explique la multiplicité des approches pour définir un hasard parfait.

Les suites aléatoire de nombres utilisées couramment dans les simulations sur ordinateur (méthode de Monte Carlo) ne satisfont qu'approximativement ces propriétés ; ce sont des suites pseudo-aléatoires, générées par des algorithmes déterministes.

Notes et références

[modifier | modifier le code]
  1. a b et c Jean-Paul Delahaye, Information, Complexité et Hasard, Hermes Science Publishing, (ISBN 2-7462-0026-0).Voir et modifier les données sur Wikidata.
  2. (en) P. Martin-Löf, « The definition of random sequences », Information and Control, vol. 9,‎ , p. 602-619 (DOI 10.1016/S0019-9958(66)80018-9).
  3. (en) L. Levin, « On the notion of a random sequence », Soviet Mathematics Doklady, vol. 14,‎ , p. 1413-1416.
  4. (en) G.Chaitin, « Randomness and Mathematical Proof », Scientific American, vol. 232, no. 5,‎ , pp. 47–53 (www.jstor.org/stable/24949798)
  5. (en) C. P. Schnorr, « A unified approach to the definition of a random sequence », Mathematical Systems Theory, vol. 5, no 3,‎ , p. 246-258 (DOI 10.1007/BF01694181).
  6. (en) Karl Svozil, Randomness & Undecidability in Physics, World Scientific, 1993 [1].
  7. (en) G. Chaitin, « Toward a Mathematical Definition of Life », dans R. D. Levine et M. Tribus, The Maximum Entropy Formalism, MIT Press, (lire en ligne), p. 477-498.
  8. J. Ville, Étude critique de la notion de collectif, Paris, Gauthier-Villars, .
  9. Cité dans G. Chaitin, Hasard et complexité en mathématiques, Flammarion, 2009.
  10. Il s'agit du théorème d'invariance.
  11. (en) G. J. Chaitin, « On the length of programs for computing finite binary sequence », J.A.C.M., vol. 13,‎ , p. 547-569 (lire en ligne).
  12. Ce qui n'est pas nécessairement vrai avec la complexité de Kolmogorov K(s), car on peut montrer que pour toute suite il existe une infinité de n tels que .
  13. (en) C. P. Schnorr, « A survey of the Theory of Random Sequence », dans Basic Problems in Methodology and Linguistics, Butts Hintikka, .
  14. a b et c Alexandru Spataru, « Fondements de la théorie de la transmission de l’information », Presses Polytechniques Romandes, , p. 13-14.
  15. Ce critère est loin d'être unique, aussi la réciproque est fausse : l'équiprobabilité est nécessaire mais insuffisante dans de nombreux cas. .

Article connexe

[modifier | modifier le code]

Générateur de nombres aléatoires