Abonnez-vous à Universalis pour 1 euro

FONCTIONS REPRÉSENTATION & APPROXIMATION DES

Article modifié le

Interpolation et discrétisation

Position du problème

Ce sont les problèmes de tabulation numérique des fonctions transcendantes élémentaires (lignes trigonométriques, logarithmes) et, à partir du xviie siècle, le calcul approché des intégrales et des dérivées qui ont été à l'origine du développement des méthodes interpolatoires. D'autre part, dans de nombreux phénomènes continus intervenant en sciences physiques, décrits par exemple à l'aide d'une fonction, on ne connaît les valeurs de cette fonction qu'en un certain nombre de points qui correspondent aux mesures effectuées. Les problèmes issus de l'astronomie, en particulier la détermination de la trajectoire des planètes, ont aussi joué un rôle moteur, comme en témoignent notamment les travaux d'Euler, Lagrange, Legendre, Laplace et Gauss.

Dans tous les cas, le phénomène continu est remplacé par un phénomène discret. Plus précisément, supposons que le phénomène continu est décrit par une fonction numérique f d'une variable réelle. On se donne une subdivision S de l'intervalle [α, β], c'està-dire une suite croissante (α0, α1, ..., αn) de points de [α, β] ; le module de la subdivision S est le nombre :

Abonnez-vous à Universalis pour 1 euro

Lorsque α0 = α, αn = β et, pour tout j, αj+1 − αj = (β − α)/n, on dit que la subdivision  est  à  pas  constant,  et Δ(S) = (β − α)/n s'appelle le pas de S.

Dans ces conditions, on associe à S la suite finie (f 0), ..., f n)). Nous dirons qu'il s'agit d'une discrétisation de f (cf. analyse numérique). Le problème est alors de savoir dans quelle mesure on peut reconstituer f à partir des phénomènes discrétisés associés. À cet effet, on interpole la suite précédente par une fonction simple, par exemple une fonction polynomiale que nous noterons PS(f ), de degré ≤ n, prenant aux points αj les mêmes valeurs que f. Dans le cas où S est à pas constant, cette méthode a été élaborée dès le xviie siècle, notamment par Newton et Gregory, dans le cadre du calcul des différences finies (cf. infra). L'étude du cas général a été ébauchée par Newton et reprise par Lagrange, Cauchy et Hermite.

Il s'agit alors d'estimer la différence f − PS(f ), par exemple en majorant N(f − PS(f )), et d'étudier l'influence de la taille de l'intervalle [α, β], du choix de S et de la régularité de f sur la qualité de l'approximation. Il arrive souvent qu'on ne s'intéresse pas directement à f mais à la valeur d'une forme linéaire sur f. Pour ce type de problème, d'autres normes s'imposent : norme N1 pour les intégrales, normes f ↦ N(f ) + N(Df ) pour les dérivées. Dans les phénomènes physiques, les normes N2 interviennent souvent au titre de l'énergie.

Abonnez-vous à Universalis pour 1 euro

On peut aussi se demander s'il est possible de reconstituer f comme limite de fonctions PS(f ) en raffinant les subdivisions, c'est-àdire en faisant tendre le module Δ(S) vers 0. Mais cette question présente des difficultés (cf. infra, Interpolation polynomiale). C'est pourquoi on a recours à un procédé plus élaboré : on se donne f sur un intervalle[a, b], on découpe cet intervalle en p intervalles de longueur (b − a)/p et, sur chacun de ces intervalles notés [α, β], on approche f par PS(f ). Le problème est alors de savoir comment on peut jouer sur les entiers n et p pour obtenir des approximations efficaces. Dans ce schéma plus élaboré, f est approchée sur[a, b]par une fonction ϕ continue et polynomiale par morceaux. On peut imposer en outre à ϕ des conditions de régularité plus fortes aux p − 1 points de subdivision de[a, b], ce qui conduit par exemple à la théorie des fonctions spline (cf. infra, Interpolation polynomiale par morceaux). Les méthodes de discrétisation s'appliquent aussi à la recherche de solutions approchées d'équations différentielles, grâce à l'emploi d'équations aux différences finies (cf. équations différentielles, chap. 7) ; plus récemment, le développement des calculs sur ordinateurs a permis de les appliquer avec succès aux équations aux dérivées partielles (cf. équations aux dérivées partielles - Analyse numérique, chap. 1).

Nous commencerons par décrire les principales méthodes d'interpolation polynomiale et nous aborderons ensuite l'interpolation par les fonctions polynomiales par morceaux.

Interpolation polynomiale

Interpolation de Lagrange

Étant donné un élément b = (β0, ..., βn) ∈ Cn+1, on veut étudier les polynômes P à coefficients complexes tels que, pour tout j,

À cet effet, on introduit l'application linéaire u : C[X] → Cn+1 qui à tout polynôme P associe (P(α0), ..., P(αn)). Les équations (1) s'écrivent alors sous la forme :

Abonnez-vous à Universalis pour 1 euro

Le noyau de u est constitué des polynômes P qui s'annulent en tout point αj, c'est-à-dire qui sont divisibles par :

Ce polynôme N, dont la donnée équivaut à celle du système S, joue un rôle fondamental dans la théorie de l'interpolation ; on l'appelle le noyau interpolateur associé à S. Le théorème de division euclidienne des polynômes montre que C[X] = Keru ⊕ En, où En est l'espace vectoriel des polynômes de degré ≤ n.

L'application linéaire u induit un isomorphisme de En sur Cn+1. Ainsi, il existe un polynôme Pb de degré ≤ n et un seul tel que, pour tout j, on ait Pbj) = βj. Les solutions de (1) sont alors les polynômes P de la forme P = Pb + QN, où Q ∈ C[X].

Abonnez-vous à Universalis pour 1 euro

En particulier, pour tout i, il existe un polynôme Li de En et un seul tel que :

à savoir le polynôme :

Dans ces conditions, on a :

Interpolations linéaire et parabolique - crédits : Encyclopædia Universalis France

Interpolations linéaire et parabolique

Soit maintenant f une fonction continue à valeurs complexes sur [α, β], et b = (f 0), ..., f n)) ; le polynôme Pb s'appelle le polynôme d'interpolation de Lagrange de f associé à S et se note LS(f ). Ainsi, LS(f ) est l'unique polynôme de degré inférieur à n tel que, pour tout j,

et :

En outre, l'application uS : f ↦ LS(f ) est un projecteur de C([a, b]) sur le sous-espace vectoriel En.

Abonnez-vous à Universalis pour 1 euro

On peut estimer la précision de l'approximation de f par LS(f ), grâce au théorème de division des fonctions différentiables (cf. supra) ; on démontre que, si f est de classe Cn+1 sur [α, β], alors, pour tout t ∈ [α, β], on a la majoration :

et, en particulier :

Ces majorations ne peuvent pas être améliorées, car (8) et (9) sont des égalités lorsque f est le noyau interpolateur N.

Supposons maintenant que f est de classe C∞ ; donnons-nous une suite (Sn) de subdivisions telle que Δ(Sn) → 0 et notons plus simplement Ln(f ) le polynôme interpolateur de f associé à Sn. Dans ces conditions :

où Nn+1 est le noyau interpolateur associé à Sn, qui est de degré n + 1.

Interpolation de fonctions - crédits : Encyclopædia Universalis France

Interpolation de fonctions

Pour étudier la convergence de Ln(f ) vers f, on observe que :

mais Mn+1(f ) peut croître très vite, si bien que la majoration (9′) ne permet de prouver la convergence que si f est holomorphe dans un disque ouvert contenant l'intervalle [α, β]. D'ailleurs, dans le cas des subdivisions à pas constant (β − α)/n, il peut arriver, contrairement à toute attente, que f soit analytique sur R mais que Ln(f ) ne converge pas vers f sur [α, β]. C'est le cas par exemple si [α, β] = [− 1, + 1], f (t ) = 1/(1 + a2t2) et a assez grand, par exemple a ≥ 2. On observera qu'ici i/a et − i/a sont des pôles de f (z) = 1/(1 + a2z2), si bien que la condition d'holomorphie évoquée ci-dessus n'est pas réalisée. Ce type de phénomène a été découvert par Runge et Borel.

Polynôme de Tchebychev - crédits : Encyclopædia Universalis France

Polynôme de Tchebychev

Pour remédier à ce défaut, on peut essayer de choisir les subdivisions Sn de telle sorte que ∥Nn+1 soit minimale, ce qui a lieu lorsque Nn est le n-ième polynôme Tn de Tchebychev. Pour [α, β] = [− 1, + 1], on a :

auquel cas :
et les points αj sont :
. Ainsi, les points αj sont les projections sur [− 1, + 1] des sommets du polygone régulier à 2 n côtés. Ces points s'accumulent donc aux deux extrémités de l'intervalle [− 1, + 1]. Nous verrons au chapitre 7, en utilisant une estimation beaucoup plus fine que (9′), que la convergence de Ln(f ) vers f est alors assurée sous des conditions très larges, par exemple si f est de classe C1.

Abonnez-vous à Universalis pour 1 euro

Cependant, cette convergence n'a pas lieu pour toutes les fonctions continues. En effet, d'après un théorème de Faber, quelle que soit la suite (Sn), il existe une fonction continue f telle que ∥Ln(f )∥ tende vers + ∞. Ce résultat est un des exemples cités par Banach et Steinhaus comme étant à l'origine du théorème qui porte leur nom (cf. espaces vectoriels normés, chap. 4).

Interpolation de Hermite

Il s'agit du cas plus général où l'on impose au polynôme interpolateur des contacts d'ordre donné avec la fonction f aux points αj. On se donne cette fois une suite (α0, ..., αr) de points de [α, β], et une suite (n0, ..., nr) d'entiers strictement positifs. On pose :

et :

Lorsque f est de classe Cn+1 sur [α, β], il existe un polynôme LS(f ) de degré ≤ n et un seul tel que, pour tout j, 0 ≤ j ≤ r, et tout k, 0 ≤ k ≤ nj − 1, on ait :

Abonnez-vous à Universalis pour 1 euro

En outre, pour tout t ∈ [α, β],

Le polynôme LS(f ) est le polynôme d'interpolation de Hermite associé à S. Le cas de Lagrange correspond à nj = 1, tandis que la formule de Taylor correspond à r = 1 et n0 = n + 1, c'est-à-dire :

et :
(cf. supra, chap. 3).

Dans le cas où nj = 2, c'est-à-dire :

on impose à LS(f ) d'avoir un contact à l'ordre 1 en chaque point interpolateur αj. Ce cas intervient notamment dans les méthodes d'optimisation pour le calcul approché des intégrales (cf. analyse numérique, chap. 2). La positivité du noyau N joue un rôle essentiel dans ce genre de question.

Différences divisées

L'expression du polynôme interpolatoire de Lagrange (formule (7)) a l'avantage de faire intervenir de manière symétrique les points de subdivision, mais elle est mal adaptée au calcul numérique, d'autant plus que l'adjonction de points interpolateurs supplémentaires oblige à recommencer entièrement les calculs. Newton avait procédé en utilisant une autre base de l'espace vectoriel des polynômes de degré ≤ n, à savoir D0 = 1, D1 = X − α0, D2 = (X − α0)(X − α1), ..., Dn = (X − α0) ... (X − αn-1) ; ici la matrice de passage de la base canonique 1, X, ..., Xn à cette base est beaucoup plus simple que dans le cas de Lagrange car elle est triangulaire.

Pour obtenir la décomposition dans cette base du polynôme interpolateur LS(f ), on introduit les différences divisées de f relatives à S, définies par les relations de récurrence :

Abonnez-vous à Universalis pour 1 euro

Dans ces conditions, on a la formule :

En outre, le reste est donné par la relation :

L'adjonction à S d'un point supplémentaire ne modifie pas les différences divisées précédentes. En outre, la différence divisée Fj est une fonction symétrique de α0, ..., αj, car :

Subdivisions à pas constant

Lorsque S est une subdivision de [α, β] à pas constant h = (β − α)/n, il est commode d'étudier d'abord le cas où h = 1 et α = 0, et donc β = n − 1 ; le noyau interpolateur s'écrit alors :

Pour calculer le polynôme interpolateur LS(g), où g est définie sur [0, n − 1], on introduit l'opérateur de Bernoulli Δ, à savoir l'endomorphisme de C[X] défini par la relation :

Abonnez-vous à Universalis pour 1 euro

L'étude de cet endomorphisme conduit à introduire une base de C[X] adaptée à Δ, définie par les relations de récurrence :

Ces polynômes sont donnés par les relations :

Les polynômes Np s'appellent polynômes de Newton ; on remarquera que Np = (1/p !) Dp. Dans ces conditions, tout polynome P se décompose sous la forme :

c'est la formule de Newton-Gregory, analogue à la formule de Taylor qui est, elle, relative à l'opérateur de dérivation D, la base adaptée étant alors 1, X, ..., 1/(p !) Xp.

Abonnez-vous à Universalis pour 1 euro

Appliquant la relation (19) à LS(g), on obtient :

Le calcul des différences successives dites non diviséespg)(0) est très facile. Le cas d'une fonction f définie sur [α, β] se ramène au cas précédent par changement de variable affine, en introduisant g(u) = f (α + (β − α)u).

On peut développer une théorie entièrement analogue en introduisant à côté de l'opérateur de Bernoulli progressif Δ, l'opérateur régressif ∇ défini par :

et l'opérateur symétrique :

Abonnez-vous à Universalis pour 1 euro

Les opérateurs Δ, ∇ et δ peuvent s'exprimer à l'aide des opérateurs de translation :

par les formules
on peut alors développer un calcul symbolique sur ces opérateurs et l'opérateur de dérivation D. Ainsi, la formule de Taylor traduit la formule symbolique Th = exphD. Ce calcul, ébauché par Leibniz, a été systématisé par Lagrange et Laplace ; à la fin du xixe siècle, il a été repris dans le cadre général de la théorie des opérateurs de convolution, c'est-à-dire des opérateurs qui commutent aux translations.

Généralisations

Le problème de l'interpolation se pose aussi pour les fonctions périodiques, auquel cas les fonctions polynomiales sont remplacées par des polynômes trigonométriques. Ces deux exemples se placent dans la théorie générale des systèmes de Tchebychev : on se donne un sous-espace En de dimension n + 1 de l'espace C([α, β]) qui est régulier, c'est-à-dire tel que tout élément de En qui s'annule en au moins n + 1 points est nul. Étant donné une base ϕ0, ϕ1, ..., ϕn de En, on interpole f par une combinaison linéaire de ces fonctions. On peut montrer, en particulier, que l'espace vectoriel des solutions d'une équation différentielle linéaire sans second membre d'ordre n + 1 est régulier.

Interpolation polynomiale par morceaux

Théorie classique

On considère cette fois une fonction f continue sur un intervalle[a, b], que l'on découpe en p intervalles[tj, tj+1]de longueur (b − a)/p et, sur chacun de ces intervalles, on effectue une interpolation de Lagrange ou de Hermite de f, par des polynômes de degré ≤ n. En pratique, n est fixé et assez petit pour éviter les phénomènes du type de Runge. Il s'agit alors d'étudier la convergence de la suite (ϕp) des fonctions polynomiales par morceaux ainsi obtenues vers la fonction f et la rapidité de convergence en fonction de la régularité de f.

Voici les deux exemples les plus importants.

Abonnez-vous à Universalis pour 1 euro

1. Fonctions en escalier. Sur chaque intervalle[tj, tj+1], on approche f par une constante, par exemple f (tj) ; ici n = 0. Grâce à la continuité uniforme de f sur[a, b], on montre aussitôt que les fonctions en escalier ainsi obtenues convergent uniformément vers f sur[a, b].

En outre, si f est lipschitzienne sur[a, b], alors :

où λ(f ) désigne le rapport de Lipschitz de f, l'égalité étant atteinte si f est affine.

2. Fonctions affines par morceaux. Sur chaque intervalle[tj, tj+1], on effectue une interpolation linéaire de f. On montre encore que les fonctions affines par morceaux ϕp ainsi obtenues convergent uniformément vers f sur[a, b]. En outre, si f est lipschitzienne de rapport k sur[a, b], on a :

l'égalité étant atteinte par exemple pour[a, b] = [− 1, 1] et f (x) = |x|.

Abonnez-vous à Universalis pour 1 euro

Mais, cette fois, si f est de classe C1, la rapidité de convergence est meilleure. Par exemple, si f ′ est lipschitzienne,

l'égalité étant atteinte par exemple si[a, b] = [− 1, 1] et f (x) = x2.

Dans certains problèmes, comme le calcul approché des intégrales (cf. analyse numérique, chap. 2), on est amené à interpoler f par des fonctions polynomiales par morceaux de degré n plus élevé. Lorsque f est de classe Cn+1, on a alors :

On constate ainsi que la rapidité de convergence est gouvernée par la régularité de f.

Fonctions spline

Lorsque n ≥ 2, le procédé précédent présente de nombreux inconvénients, car on approche des fonctions régulières f par des fonctions qui ne sont même pas de classe C1. Il est donc intéressant d'approcher f par des fonctions ϕ satisfaisant aux deux conditions suivantes :

a) Sur chaque intervalle[tj, tj+1], la fonction ϕ est polynomiale de degré ≤ n ;

Abonnez-vous à Universalis pour 1 euro

b) Sur[a, b], la fonction ϕ est de classe Cn-1 (conditions de recollement aux points tj).

De telles fonctions sont appelées spline (tringle souple). L'espace vectoriel Sn([a, b]) de ces fonctions est de dimension n + p. Si on impose maintenant les p + 1 conditions interpolatoires relatives à la fonction f :

c) Pour tout j, 0 ≤ j ≤ p, on a l'égalité ϕ(tj) = f (tj), il reste n − 1 paramètres encore libres.

Abonnez-vous à Universalis pour 1 euro

Le cas n = 2 (fonctions paraboliques par morceaux) ne conduit pas à une théorie intéressante car il ne reste qu'un seul paramètre, ce qui ne permet pas d'imposer une condition de contact aux deux extrémités de l'intervalle[a, b]. Au contraire, le cas n = 3 (fonctions spline cubiques) convient bien car il permet d'imposer la condition :

d) ϕ′(a) = f ′(a) et ϕ′(b) = f ′(b).

Les fonctions spline cubiques conviennent aussi pour l'interpolation des fonctions périodiques. Dans ce cas, on impose à ϕ de se prolonger en une fonction périodique de classe C2 sur R, ce qui conduit à remplacer la condition (d) par :

Abonnez-vous à Universalis pour 1 euro

d′) D+ϕ(a) = D-ϕ(b) et D2+ϕ(a) = D2-ϕ(b), en désignant par D+ et D- les opérateurs de dérivation à droite et à gauche.

On démontre que les conditions a, b, c, d ou (d′), déterminent ϕ de manière unique. Cette fonction se note Sp(f ) et s'appelle fonction spline cubique interpolant f à l'ordre p. Il faut cependant remarquer que le calcul explicite de ϕ nécessite la résolution d'un système d'équations linéaires assez compliqué. En revanche, la qualité de l'approximation est excellente :

– si f est de classe C1, on a :

Abonnez-vous à Universalis pour 1 euro

– si f est de classe C2 :

et, en outre :
ce qui signifie qu'il y a aussi convergence uniforme pour la dérivée ;

– si f est de classe C3, alors, pour k ≤ 2 :

– enfin, si f est de classe C4, alors, pour k ≤ 3 :

Abonnez-vous à Universalis pour 1 euro

Cependant, si f est de classe C∞, ou même polynomiale de degré ≥ 4, on ne peut pas améliorer la dernière estimation.

Un autre pôle d'intérêt des fonctions spline est relatif à leurs propriétés pour la norme quadratique. Plus précisément, si f est de classe C2, pour tout élément ϕ de S2,p([a, b]), on a :

en particulier, parmi toutes les fonctions spline cubiques ϕ, c'est Sp(f ) qui approche le mieux f pour la norme de l'énergie. Cette propriété est à l'origine de la dénomination spline, car on peut montrer, grâce au principe de moindre action, que Sp(f ) réalise la position d'équilibre d'une tringle souple passant par les points interpolateurs et tangente à des droites données aux extrémités de l'intervalle. Ce procédé est depuis longtemps utilisé en dessin industriel. Les fonctions spline se sont révélées très utiles dans les problèmes de conception assistée par ordinateur.

La théorie des fonctions spline peut se généraliser aux spline d'ordre impair quelconque. Les propriétés d'approximation sont alors meilleures mais les calculs sont encore plus complexes que pour n = 3, si bien qu'elles sont peu utilisées en analyse numérique.

Accédez à l'intégralité de nos articles

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrez nos offres

Déjà abonné ? Se connecter

Écrit par

  • : agrégé de l'Université, ancien élève de l'École normale supérieure, professeur de mathématiques spéciales
  • : maître de conférences honoraire à l'université de Paris-VII

Classification

Médias

Graphe de f pour <RM>N</RM><INF>x</INF>(f)petit - crédits : Encyclopædia Universalis France

Graphe de f pour Nx(f)petit

Graphe de f pour <RM>N</RM><INF>1</INF>(f) petit - crédits : Encyclopædia Universalis France

Graphe de f pour N1(f) petit

Fonction à oscillation rapide - crédits : Encyclopædia Universalis France

Fonction à oscillation rapide

Autres références

  • DARBOUX GASTON (1842-1917)

    • Écrit par
    • 320 mots

    Mathématicien français, né à Nîmes et mort à Paris. Après des études à l'École normale supérieure, Darboux fut l'assistant de J. Bertrand à la chaire de physique mathématique au Collège de France (1866-1867), puis enseigna au lycée Louis-le-Grand (1867-1872) et à l'École normale...

  • DÉRIVÉES PARTIELLES (ÉQUATIONS AUX) - Analyse numérique

    • Écrit par et
    • 5 850 mots
    • 7 médias
    Du point de vue mathématique, les méthodes d'éléments finis sont une sous-famille des méthodes de Ritz-Galerkin. Pour les problèmes variationnels, ces méthodes consistent à remplacer l'espace V des fonctions admissibles par un de ses sous-espaces VN dit « espace d' approximation ».
  • DIFFÉRENTIELLES ÉQUATIONS

    • Écrit par , et
    • 11 637 mots
    ..., ..., yn), suite finie de n + 1 nombres réels telle que :
    où :
    ce problème Pn est obtenu en divisant I = [x0, x0 + a]en n parties égales avec un pas égal à h = a/n et en cherchant une approximation yi de y(xi) où y est la solution (lorsqu'elle est unique) de P1.
  • GELFOND ALEXANDRE OSSIPOVITCH (1906-1968)

    • Écrit par
    • 165 mots

    Alexandre Ossipovitch Gelfond est un mathématicien russe, né à Saint-Pétersbourg en 1906 et mort à Moscou en 1968. Le nom de Gelfond reste attaché à l'étude des nombres transcendants ; on lui doit aussi d'importants résultats sur l'interpolation et l'approximation des fonctions de variable complexe....

  • Afficher les 14 références

Voir aussi