Théorème d'accélération linéaire

Le théorème d'accélération linéaire ou de speedup linéaire est un théorème de théorie de la complexité, un domaine de l'informatique théorique. On peut en fait distinguer deux théorèmes, l'un concernant les classes de complexité en espace et l'autre les classes de complexité en temps. Tous deux ont pour conséquence de regrouper les mesures de complexité qui ne diffèrent que d'une constante, et justifie donc la notation grand O utilisée dans le domaine.

Le théorème de d'accélération en temps est dû à Juris Hartmanis et Richard Stearns[1].

Énoncés

Théorème d'accélération en temps

Pour toute machine de Turing , calculant une fonction en temps (où est la taille de l'entrée) et toute constante , il existe une machine de Turing calculant en temps [2].

Théorème d'accélération en espace

Pour toute machine de Turing , calculant une fonction en espace (où est la taille de l'entrée) et toute constante , il existe une machine de Turing calculant en espace .

Idée de la démonstration

L'idée principale de la preuve est de coder plusieurs lettres en une seule : en faisant des groupes de lettres on peut utiliser moins de place (puisque seul compte le nombre de cases utilisées et pas la taille des lettres) et « sauter » de groupe de lettres en groupe de lettres, ce qui prend moins de temps.En faisant des groupes de 1/c lettres on obtient les résultats annoncés.

L'idée est simplement que plusieurs calculs peuvent être faits en une étape de calcul. Ceci est comparable au changement de taille des registres de processeur de 32 à 64 bits[3].

Conséquences

En théorie de la complexité, les constantes multiplicatives ne sont pas prises en compte.

Notes et références