COMPLEXITÉ, mathématique
La complexité algorithmique
Les difficultés mathématiques rencontrées sont peut-être liées aux résultats logiques d'incomplétude (démontrés par Gödel en 1930) et dont la compréhension n'a cessé de s'approfondir, en particulier grâce à la théorie de la complexité d'Andreï Kolmogorov (1903-1987), formulée simultanément en 1965 par Kolmogorov et Gregory Chaitin. Cette théorie dite de la complexité algorithmique développe mathématiquement l'idée qu'est complexe ce qui ne peut pas s'exprimer brièvement. Plus précisément, la complexité de Kolmogorov K(s) de la suite de caractères s est la taille du plus petit programme P qui engendre s. Cette théorie a connu des développements remarquables, conduisant en particulier à l'élucidation du problème de la définition mathématique des suites aléatoires, posé au début du xxe siècle. Cette solution formalise l'idée qu'est aléatoire ce qui est incompressible, c'est-à-dire ce qui ne peut se définir par une séquence de caractères plus courte que l'objet lui-même (une suite répétant mille fois les caractères 01 n'est pas aléatoire car on peut la définir par une séquence de caractères de longueur bien plus petite qu'elle-même, la séquence « mille fois 01 »). Un autre résultat de cette théorie est la découverte de la famille des nombres oméga de Chaitin. Ces nombres de complexité maximale concentrent en eux des propriétés étonnantes : ils sont transcendants, aléatoires et non calculables.
Autre succès de la théorie de la complexité de Kolmogorov : elle a établi des liens profonds avec la physique et pourrait bien être une clé de la thermodynamique statistique, comme Charles Bennett et Wojciech Zurek l'ont suggéré. Non seulement la compréhension du problème du coût énergétique minimum du calcul et des calculs réversibles s'appuie sur la théorie algorithmique de l'information, mais celle-ci joue un rôle clé dans une révolution dont tout laisse prévoir qu'elle occupera une place considérable dans l'avenir : l'introduction de la mécanique quantique en informatique.
L'idée est de considérer sérieusement que la meilleure théorie de notre monde physique est la mécanique quantique et non pas la mécanique classique. Sur cette nouvelle base, on s'intéresse alors à la physique du calcul et à la notion de calcul complexe. Auparavant, l'hypothèse implicite de toute l'informatique théorique était celle d'un monde newtonien. Cette hypothèse est moins bénigne qu'on ne le croyait et il a fallu admettre que de nombreux problèmes fondamentaux doivent être reformulés dans un monde quantique.
Citons deux résultats importants obtenus dans cette direction et qui ont bousculé nos connaissances sur la complexité. Le premier concerne la cryptographie, où l'intrusion de la mécanique quantique a permis de définir des protocoles d'échanges de clés secrètes dont la sûreté repose non plus sur des conjectures mathématiques non démontrées, mais simplement sur l'hypothèse de la validité des lois quantiques. Ces protocoles, qui utilisent des photons polarisés, ont été concrètement mis en œuvre ces dernières années et sont même commercialisés aujourd'hui. Le second résultat, obtenu en 1994 par Peter Shor, est la preuve qu'un ordinateur quantique peut réaliser la factorisation des entiers en temps polynomial (ce que, comme nous l'indiquions plus haut, un ordinateur classique ne peut vraisemblablement pas faire). Cette preuve a deux conséquences. D'abord, elle montre que l'introduction des modèles quantiques de calcul change profondément la situation en rendant possibles des traitements qui ne le sont pas dans le monde classique : dit brièvement, la notion de calcul complexe n'est pas la même dans un monde classique et dans un monde quantique. De nouvelles[...]
La suite de cet article est accessible aux abonnés
- Des contenus variés, complets et fiables
- Accessible sur tous les écrans
- Pas de publicité
Déjà abonné ? Se connecter
Écrit par
- Jean-Paul DELAHAYE : professeur à l'université des sciences et technologies de Lille
Classification
Autres références
-
ALGORITHMIQUE
- Écrit par Philippe COLLARD et Philippe FLAJOLET
- 6 652 mots
- 3 médias
La classification des diverses solutions algorithmiques à un problème donné s'effectue ainsisur la base de leur complexité mesurée en nombre d'opérations élémentaires nécessaires à leur exécution. Pour les trois algorithmes précédents, une analyse montre par exemple que le nombre d'itérations nécessaires... -
CALCUL, mathématique
- Écrit par Philippe FLAJOLET
- 1 785 mots
...de base qu'il met en jeu pour parvenir à ses fins, reflété par le nombre d'instructions effectuées par l'ordinateur, lequel dicte le temps d'exécution. La manière dont cette quantité varie avec la taille des données s'appelle fonction de complexité. Pour une tâche déterminée, un algorithme sera... -
KHOT SUBHASH (1978- )
- Écrit par Bernard PIRE
- 651 mots
Le mathématicien indien Subhash Khot est un théoricien de l’informatique, spécialiste des problèmes d’optimisation dans ce qu’il est convenu d’appeler la théorie de la complexité. Né le 10 juin 1978 à Ichalkaranji, ville moyenne de l’État du Maharashtra dans l’ouest de l’Inde, Khot est le fils de...
-
KOLMOGOROV THÉORIE DE LA COMPLEXITÉ DE
- Écrit par Jean-Paul DELAHAYE
- 563 mots
La théorie de la complexité de Kolmogorov d'une suite numérique S est définie comme la taille, K(S), du plus court programme P qui, confié à une machine universelle (tout ordinateur contemporain en est une), produit la suite S. Cette notion est séduisante car elle synthétise en un seul nombre plusieurs...