PRINCIPES DE LA PRÉVISION NUMÉRIQUE DU TEMPS
Les méthodes qui allaient permettre au début des années 1950 la prévision numérique du temps et du climat sont énoncées en 1922. À cette époque, les prévisions météorologiques étaient principalement déduites du déplacement des phénomènes existants ou de la comparaison avec les situations passées, des méthodes atteignant très rapidement leurs limites dans un système aussi complexe et chaotique que l’atmosphère. Fondées sur les équations de Navier-Stokes qui gouvernent la mécanique des fluides et sur celles de la thermodynamique, les principales lois qui gouvernent la physique de l’atmosphère étaient connues. Il s’agissait cependant d’un système d’équations complexe pour lequel il n’existait pas de solution directe, dite solution analytique.
Lewis Fry Richardson (Newcastle-upon-Tyne, Angleterre, 1881 – Kilmun, Argyll, Écosse, 1953), mathématicien et météorologue anglais diplômé de Cambridge, a été le premier à rechercher une méthode de calcul applicable à la prévision du temps. En 1922, dans WeatherPrediction by Numerical Process, il rapporte que, pour contourner le problème, il faut chercher à en obtenir une solution approchée à partir de méthodes numériques. Il imagina alors de calculer l’évolution des paramètres météorologiques sur de petits pas de temps (toutes les trois heures), après avoir représenté l’atmosphère sous forme d’un ensemble de parcelles uniformément réparties selon une gigantesque grille d’environ 200 kilomètres de maille et couvrant cinq couches de l’atmosphère, donc constituant autant de colonnes. Installés dans une immense « usine », des opérateurs pourraient ainsi calculer, chacun de son côté, l’évolution d’un paramètre dans la parcelle qui lui aurait été attribuée, avant de transmettre ses résultats aux opérateurs des parcelles voisines et de récupérer les leurs pour poursuivre ses opérations. Richardson estimait alors que 64 000 personnes seraient nécessaires pour faire avancer le calcul à la même vitesse que les changements survenant dans l’atmosphère, ce qui préfigurait bien avant l’heure la nécessité de l’utilisation de puissants moyens de calcul.
Après de fastidieux travaux pour appliquer son précepte à l’évolution de la pression et des vents en deux points d’Europe centrale, Richardson obtint des résultats totalement irréalistes. La méthode fut alors éreintée par la critique et plus ou moins abandonnée face aux difficultés logistiques et financières que ces opérations exigeaient. Richardson n’en avait pas moins démontré la faisabilité de la prévision calculée du temps. La donne changea au début des années 1950 avec l’avènement de machines électroniques comme l’ENIAC, capables de calculer plus rapidement que des dizaines de milliers d’opérateurs et avec une meilleure prise en compte des instabilités qui avaient perturbé les précédents essais. Les premiers programmes de prévisions numériques opérationnelles furent ainsi mis en place dès le début des années 1960.
Au début du xxie siècle, avec la disponibilité de supercalculateurs capables d’effectuer plusieurs millions de milliards d’opérations par seconde et l’utilisation de grilles comportant des mailles beaucoup plus petites et donc bien plus nombreuses, la méthode permet d’obtenir des prévisions du temps, de la circulation océanique ou du climat de plus en plus détaillées et précises. À titre d’exemple, le modèle Arpège, utilisé par Météo-France pour la prévision du temps jusqu'à 3 jours d'échéance, couvre l'Europe avec une maille de 5 kilomètres et le reste du globe avec des mailles variant de 5 à 24 kilomètres, alors que le modèle Arome, utilisé pour la prévision des phénomènes locaux jusqu'à un jour d'échéance, couvre la France métropolitaine et les pays voisins avec une résolution de 1,3 kilomètre.[...]
La suite de cet article est accessible aux abonnés
- Des contenus variés, complets et fiables
- Accessible sur tous les écrans
- Pas de publicité
Déjà abonné ? Se connecter
Écrit par
- Jean-Pierre CHALON : ingénieur général des ponts, des eaux et des forêts honoraire
Classification
Média