La prévision d’ensemble expliquée – Version imprimable

Retourner au haut du site

Table des matières

1.0 Introduction
1.1 Pourquoi des ensembles?
1.2 Chaos et modèles de PMN
1.2.1 PMN et conditions initiales
1.2.2 Le chaos et les conditions atmosphériques
1.2.2 En profondeur : La théorie du chaos


2.0 Génération
2.1 Sources de perturbations
2.1.1 Incertitude sur les conditions initiales dans les ensembles
2.1.2 Incertitude sur la formulation du modèle
2.1.3 « Perturber » le modèle de prévision
2.1.4 Incertitude sur les valeurs aux limites
2.2 Implémentations
2.2.1 CEPMMT : Calcul de vecteurs singuliers
2.2.2 NCEP : Calcul de perturbations à l’aide d’un « cycle de culture »
2.2.3 CMC : Observations perturbées sur plusieurs cycles d'analyse


3.0 Notions de statistique
3.1 Distributions de probabilité
3.1.1 Distributions de probabilité théoriques
3.1.2 La fonction de distribution de probabilité (FDP)
3.1.2 En profondeur : Autres distributions
3.1.3 Probabilité conjointe
3.1.3Q Probabilité conjointe
3.2 Tendance centrale
3.2Q Tendance centrale
3.3 Dispersion
3.3Q Dispersion
3.4 Forme
3.4 En profondeur : Étalement et aplatissement
3.4Q Forme
3.5 Utilisation des fonctions de distribution de probabilité
3.5.1 Utilisation des FDP dans le processus de prévision : Arriver à la probabilité d’un évènement météorologique
3.5.2 Méthodes fondées sur une prévision de PMN simple
3.5.3 Méthodes fondées sur des prévisions d’ensemble
3.6 Application des données
3.6.1 Application des statistiques à un échantillon de données d’ensemble
3.6.2 Distribution des données de l’ensemble
3.6.3 Statistiques de tendance centrale
3.7 Exercices
3.7.1 Tendance centrale
3.7.2 Probabilité conjointe


4.0 Réduction des données
4.1 Introduction
4.1.1 Méthodes de réduction des données d’ensemble
4.1.2 Produits de moyenne et de dispersion
4.1.2Q Moyenne et dispersion
4.1.3 Avantages de la prévision de moyenne et de dispersion d’ensemble
4.1.3Q Moyenne et dispersion normalisées
4.1.4 Schémas spaghetti
4.1.4Q Schémas spaghetti
4.1.5 Cartes de l’évènement le plus probable
4.1.6 Probabilité de dépassement
4.1.6Q Probabilité de dépassement
4.1.7 Graphiques de points
4.1.7Q Diagrammes à lignes brisées
4.1.8 Diagrammes en boîtes à moustaches
4.1.8Q Diagrammes en boîtes à moustaches
4.1.9 Sondages d’ensemble
4.1.10 Ajustement de biais
4.1.11 Mesure de prévisibilité relative (MPR)
4.1.12 Application du principe de la MPR
4.1.12Q Mesure de prévisibilité rélative (MPR)
4.1.13 Autres prévisions d’ensemble étalonnées
4.2 Interprétation des produits
4.2.1 Interprétation de la moyenne et de la dispersion à l’aide des produits spaghetti
4.2.2 Interprétation de la moyenne et de la dispersion dans les produits de précipitations à l’aide des produits spaghetti
4.2.3 Échelle des caractéristiques dans les prévisions d’ensemble
4.2.4 Autres points à garder à l’esprit
4.3 Exercices
4.3.1 Interprétation des hauteurs de 500 hPa à l’aide de la carte de moyenne et de dispersion et du schéma spaghetti de l’ensemble
4.3.2 Prévisibilité des régimes d’écoulement atmosphérique
4.3.3 Limites des ensembles à moyen terme


5.0 Vérification
5.1 Notions fondamentales
5.1.1 Deux types de produits de prévisions d’ensemble
5.1.2 Vérification des prévisions catégoriques de SPE
5.1.3 Vérification des prévisions probabilistes de SPE
5.2 Outils
5.2.1 Outil statistiques
5.2.2 Le score de Brier (BS) et le score d’habileté de Brier (BSS)
5.2.3 Diagramme de fiabilité
5.2.4 Le diagramme ROC (Relative Operating Characteristics)
5.2.5 Le score de probabilité ordonnée et d’habileté de probabilité ordonnée (RPS et RPSS)
5.2.6 Le diagramme de Talagrand ou l’histogramme de rangs d’analyse
5.2.6 En profondeur : Que l’acheteur prenne garde!
5.3 Applications
5.3.1 Application au SPE des NCEP
5.3.2 Comparaison de la performance de SPE d’autres centres météorologiques
5.3.3 Données de vérification de l’été 2002
5.4 Exercices
5.4.1 Interprétation des diagrammes de Talagrand
5.4.2 Interprétation des diagrammes de fiabilité
5.4.3 Interprétation des diagrammes ROC


6.0 Applications à des cas

Haut de la page

1.0 Introduction

Les prévisionnistes ont toujours compris l’importance d’examiner plusieurs prévisions météorologiques numériques pour en arriver à une prévision publique plus fiable. L’une des façons par lesquelles ils y sont arrivés est de comparer plusieurs prévisions de modèles de PMN différents. Ils ont pu comparer des prévisions de modèles régionaux à des prévisions de modèles globaux ou comparer des prévisions de modèles utilisés dans différents centres de PMN (GFS, NOGAPS, GEM et CPEMMT, par exemple). Une autre façon a pu être de comparer différentes passes d’un même modèle pour voir comment les nouvelles observations changeaient la prévision avec le temps. Les prévisions d’ensemble sont un outil assez nouveau en prévision opérationnelle qui permet des comparaisons plus rapides et scientifiquement fondées de plusieurs modèles de prévision.

Schéma spaghetti d’ensemble pour les précipitations de 24 h dépassant 0,5 po, 0000 UTC, 19 nov. 2001. Prévision valide à 1200 UTC le 22 nov. 2001

Les produits d’ensemble, comme le schéma spaghetti ci-dessus, utilisent des méthodes statistiques et graphiques pour combiner différentes passes d’un modèle, chacune étant basée sur des conditions initiales légèrement différentes ou utilisant des configurations et/ou des paramétrisations du modèle légèrement différentes. De cette façon, ils peuvent fournir de l’information sur le degré d’incertitude, les résultats de prévision les plus vraisemblables et la probabilité de ces résultats. Avec les produits de prévisions d’ensemble dans leur boîte d’outils de PMN, les prévisionnistes disposent maintenant d’un autre genre d’information qui les aidera à faire une utilisation intelligente des guides de PMN dans leur processus de prévision.

Objectifs du module

Our objectives for this module are that you wil be able to:

  1. Expliquer le principe de base des prévisions d’ensemble en PMN et ce que signifie l’expression : l’atmosphère est chaotique (c’est-à-dire sensible aux conditions initiales).
  2. Décrire la variété de méthodes utilisées pour produire les membres de l’ensemble d’un système de prévisions d’ensemble, y compris la perturbation des conditions initiales, des conditions aux limites et des configurations du modèle. .
  3. Comprendre les notions et les méthodes statistiques de base utilisées pour la mise au point des produits d’ensemble, y compris les distributions de probabilité et leurs caractéristiques de tendance centrale, de dispersion et de forme.
  4. Reconnaître et interpréter une variété de produits de prévisions d’ensemble, y compris des diagrammes de prévisions spatiales et ponctuelles de même que les produits qui rendent compte des régimes d’écoulement (MPR) et qui révèlent les biais et les erreurs des modèles de PMN.
  5. Interpréter les produits de vérification d’ensemble et les appliquer lors de l’utilisation de prévisions d’ensemble.

Préalables

Pour bien assimiler le contenu de ce module, vous devriez connaître les notions et processus décrits dans la série de modules qui forment le Cours en ligne sur la PMN (anglais). En particulier, ce module suppose que vous avez une connaissance générale des processus d’assimilation des données (Comprendre l’assimilation des données : comment les modèles créent leurs conditions initiales) et que vous comprenez les concepts de la paramétrisation des modèles, des conditions aux limites ainsi que de la structure et de la dynamique des modèles.

Séquence du module

Même si nous nous sommes efforcés d’inclure dans le contenu de ce module les connaissances essentielles dont vous aurez besoin en tant que prévisionniste, les sujets qui y sont présentés sont nouveaux et parfois complexes. Il vous faudra sans doute trois heures ou plus pour en faire le tour. C’est pourquoi nous vous suggérons d’organiser votre étude en une série de sessions, chacune couvrant une section du module.

À plusieurs endroits dans le module, vous trouverez des liens En profondeur vers une information plus détaillée portant sur les concepts et processus des prévisions d'ensemble. Consultez ces pages selon vos besoins, le temps dont vous disposez et vos intérêts.

Haut de la page

1.1 Pourquoi des ensembles?

Pourquoi nous orientons-nous vers les prévisions d’ensemble?

Selon le plan de 5 ans « VISION 2005 » du National Weather Service, le NWS devrait fournir, vers 2005, des prévisions météorologiques, d’eau et climatiques en termes probabilistes. Les prévisions probabilistes devraient refléter, même pour le court terme, ce que nous savons et ce que nous ne savons pas à propos du comportement de l’atmosphère et notre capacité à le modéliser correctement pour les besoins des prévisions météorologiques. Les prévisions d’ensemble sont conçues pour capturer la probabilité des évènements météorologiques et la zone d’incertitude inhérente à chaque situation prévue, de façon à ce que le prévisionniste sache quelle information passer au public.

Remarque : Le présent module n’aborde pas la façon de passer l’information probabiliste prévue au public. Il reste toutefois que ce sujet est extrêmement important puisque les prévisions seront éventuellement exprimées en termes probabilistes.

Avantages des systèmes de prévisions d’ensemble sur les prévisions simples de PMN

Le tableau suivant résume les avantages d’un système d’ensemble de prévisions déterministes par rapport à une prévision déterministe simple. Veuillez garder à l’esprit que cette liste n’est pas exhaustive.

Caractéristique Prévision simple Système de prévisions d’ensemble

Incertitude sur les conditions initiales

Le système d’assimilation des données est conçu pour réduire au minimum les erreurs dans les conditions initiales en utilisant différentes formes de données. L’incertitude est implicitement (mais de façon incomplète) prise en compte par une pondération relative de chaque élément de données d’observation et du champ d’essai du modèle de prévision.

Il est possible d’estimer les erreurs dans les conditions initiales à l’aide des satellites et autres observations mais cela ne permet pas d’estimer leurs répercussions sur les prévisions numériques.

L’incertitude sur les conditions initiales peut être prise en compte en déterminant les erreurs possibles les plus importantes (c. à d. qui grossissent rapidement) pour la prévision subséquente du modèle et en les réduisant à une perturbation raisonnable des conditions initiales.

(Les méthodes de détermination des perturbations sont présentées à la section Génération.)

Prévisibilité de l’atmosphère

Ne peut pas être estimée à partir d’une prévision déterministe simple. Peut être déduite de façon incomplète d’après la cohérence de passes consécutives du modèle de prévision.

Peut être estimée par le taux de croissance de la dispersion des prévisions membres de l’ensemble. La taille de l’ensemble et le choix des perturbations des conditions initiales sont des facteurs importants pour étudier la dispersion de l’ensemble et obtenir une mesure de prévisibilité.

Incertitude liée au modèle :
dynamique

On ne peut utiliser qu’une seule méthode numérique; par exemple, décomposer l’écoulement en une série de sinus et de cosinus (méthode spectrale).

On peut utiliser plusieurs méthodes numériques; par exemple, méthodes spectrales, à grille, à grille avec différentes configurations de variables sur la grille.

Incertitude liée au modèle :
physique

On ne peut utiliser qu’un seul ensemble de paramétrisations physiques (par exemple, un schéma de précipitations convectives).

On peut utiliser plusieurs combinaisons de paramétrisations physiques (par exemple, on peut utiliser deux types de paramétrisation de la convection pour combiner les points forts de chacun).

Haut de la page

1.2 Chaos et modèles de PMN

1.2.1 PMN et conditions initiales

Voir l'animation

Examinez ci-dessus le graphique animé des hauteurs de 500 hPa prévues par le système d’ensemble global des NCEP lancé à 1200 UTC le 22 novembre 2001 pour 84 heures de prévision. L’animation montre des prévisions à intervalles de 12 heures. Les isohypses noires représentent la prévision de contrôle basée sur les conditions initiales de la passe régulière du modèle opérationnel. Les isohypses blanches représentent une prévision dans laquelle les conditions initiales ont été perturbées, c’est-à-dire légèrement modifiées de manière à refléter un doute raisonnable concernant les conditions initiales réelles. Les couleurs représentent la différence entre la prévision de contrôle et la prévision perturbée. Remarquez que les perturbations initiales (montrées dans le premier cadre) sont plutôt petites, de l’ordre de 10 à 20 mètres à la plupart des endroits (jaune, jaune-vert et orange). À mesure que l’animation progresse dans le temps, les différences entre la passe de contrôle et la passe perturbée grossissent pour plusieurs caractéristiques présentes dans l’état initial, notamment pour le creux qui laisse le littoral atlantique de l’Amérique du Nord et un autre qui se déplace vers le sud à partir de l’Arctique dans le nord-ouest du Canada. De nouvelles caractéristiques sont aussi apparues et ont grossi, par exemple une crête d’onde longue dans l’est du Pacifique.

Haut de la page

1.2.2 Le chaos et les conditions atmosphériques

Si Edward Lorenz, l’un des pères de la théorie du chaos, regardait cette animation (la même qu’à la page précédente), il attribuerait les différences qu’on y voit apparaître à la nature chaotique de l’atmosphère. Dans ses mots, l’atmosphère a une « sensibilité aux conditions initiales », c’est-à-dire que de petites différences dans l’état initial de l’atmosphère entraînent finalement de grandes différences dans la prévision. Mais, comme Lorenz l’a découvert, il est possible de mesurer la sensibilité des prévisions à l’incertitude sur les conditions atmosphériques initiales en perturbant les conditions initiales dans un modèle de PMN.

Utiliser les modèles de PMN pour prévoir l’incertitude du futur : Les systèmes de prévisions d’ensemble

Un autre indice de la nature chaotique de l’atmosphère est fourni par les résultats variables que l’on obtient lorsqu’on exécute des modèles numériques avec des conditions initiales identiques mais avec des dynamiques et des paramétrisations différentes. Les prévisions du modèle peuvent être sensibles à la conception du modèle autant qu’aux conditions initiales. Chaque configuration de modèle inclut des approximations différentes du comportement réel de l’atmosphère réel, et cela introduit une source d’incertitude dans la prévision. Nous ne serons jamais capables de construire un modèle de PMN qui décrit tous les détails du comportement de l’atmosphère avec une résolution infinie. Mais même si nous arrivions à créer un tel modèle « parfait », ses prévisions finiraient par s’écarter de la réalité à cause des erreurs dans les conditions initiales, bien que cela pourrait se produire plus tard. La sensibilité de l’atmosphère aux conditions initiales signifie que les conditions initiales du modèle devraient aussi être « parfaite » pour avoir une chance de faire une prévision parfaite. Évidemment, nos systèmes d’observation et d’assimilation des données ne nous fourniront jamais des conditions initiales parfaites. Nous pouvons, toutefois, appliquer notre connaissance du caractère chaotique de l’atmosphère, c’est-à-dire de sa grande sensibilité aux conditions initiales, au processus de prévision.

Par une utilisation stratégique des conditions initiales imparfaites et des modèles de PMN imparfaits dans un système de prévisions d’ensemble (SPE), nous pouvons

La plupart des centres de prévision utilisent une version ou une autre d’un SPE. Ces SPE opérationnels utilisent généralement l’incertitude inhérente aux conditions initiales comme base pour leurs multiples prévisions et, de plus, certains utilisent aussi l’incertitude liée au modèle (structure et dynamique imparfaites) et l’incertitude liée aux conditions aux limites. Toutes ces méthodes utilisant l’incertitude font l’objet de la section Génération de ce module.

Les hypothèses faites pour construire les SPE et l’utilisation intelligente de leur sortie sont les thèmes principaux de ce module. Pour vous permettre de mieux comprendre la sortie des SPE, nous allons aussi passer en revue certaines notions de base sur les statistiques, les probabilités et les prévisions probabilistes.

Haut de la page

1.2.2 (En profondeur) Théorie du chaos

Bien que les prévisions d’ensemble soient assez nouvelles, elles sont basées sur une science (la théorie du chaos) connue depuis des décennies. L’un des pères de la théorie du chaos, le météorologiste Edward Lorenz, a découvert que le degré de précision numérique dans les conditions initiales fournies à un modèle de prévision météorologique numérique (PMN) avait une influence marquée sur la prévision résultante après un temps de prévision de seulement quelques jours (Lorenz, 1963). Cependant, il fallait davantage de puissance informatique pour permettre d’étudier les applications possibles de la théorie du chaos dans le domaine de la prévision opérationnelle. Ce sont les travaux de Tracton et Kalnay 1993, Toth et Kalnay 1993 et d’autres qui ont finalement permis la mise au point de la technique de prévision d’ensemble. Cette technique utilise la nature chaotique de l’atmosphère et les grands environnements informatiques massivement parallèles aujourd’hui disponibles pour produire des prévisions de modèles de PMN qui estiment la certitude relative de résultats météorologiques particuliers, tant dans le court terme (60 heures ou moins) que dans le moyen terme (3-15 jours).

Découverte des systèmes chaotiques

Au début des années 1960, Edward Lorenz travaillait sur un ensemble d’équations différentielles très simplifié décrivant les processus convectifs dans l’atmosphère au Massachusetts Institute of Technology (MIT). Les prévisions de l’ordinateur qu’il utilisait à l’époque donnaient des résultats d’un réalisme encourageant. Un jour, il voulut étendre une passe particulièrement intéressante et plutôt que de perdre du temps en recommençant la passe, il entra les données manuellement pour un point intermédiaire. À sa grande surprise, il constata que peu de temps après que l’exécution ait été reprise à partir de ce point intermédiaire, la prévision s’est mise à diverger du premier résultat jusqu’à ne plus être reconnaissable, malgré qu’il l’avait relancée avec les mêmes conditions... ou était-ce le cas?

On trouva par la suite que les données de sortie utilisées pour relancer ce modèle atmosphérique simple avaient été arrondies à 3 chiffres significatifs, alors que les calculs se faisaient avec 6 chiffres significatifs, une erreur d’environ 1 % que Lorenz avait jugée négligeable. Ainsi, cette expérience accidentelle et ces résultats inattendus montrent que de petites erreurs dans ce système particulier (et d’autres du même genre) ont fait une grande différence. À partir de cette découverte initiale, Lorenz montra que l’atmosphère peut exhiber ce qui semble être un comportement chaotique, notamment une sensibilité élevée aux conditions initiales à partir desquelles une prévision débute. Néanmoins, après examen, on a trouvé que les prévisions exécutées avec des conditions initiales différentes peuvent en fait favoriser certaines configurations, régions ou régimes.

Le système de Lorenz

On peut facilement voir les conséquences de la sensibilité aux conditions initiales dans le système de trois équations de Lorenz décrivant la viscosité atmosphérique, la rotation de la Terre et les gradients thermiques horizontaux et verticaux (bien que pour les besoins de la démonstration, nous pourrions utiliser plusieurs combinaisons de variables). Un graphique de deux intégrations dans le temps de cet ensemble d’équations avec des conditions initiales légèrement différentes est montré ci-dessous. (Notre illustration est basée sur la sortie réelle d’un système de Lorenz.) L’animation montre les intégrations à trois moments également espacés, T+2, T+4 et T+6, représentant un total d’environ 1200 pas de temps. Les résultats d’une prévision de contrôle sont en rouge et les résultats d’une prévision perturbée sont en bleu.

Bien que les valeurs de X, Y et Z représentent habituellement des coordonnées spatiales, dans le système de Lorenz, ces coordonnées représentent l’état du système. Ici, X, Y et Z sont l’intensité du mouvement convectif, la différence de température entre les courants ascendants et descendants et l’écart du profile vertical de température par rapport à la linéarité, respectivement. Si X et Y ont le même signe, le fluide chaud s’élève et le fluide froid descend et si Z est positif, les plus forts gradients thermiques se trouvent près des frontières du domaine.

Remarquez que les points de départ des deux prévisions (les petits carrés rouge et bleu dans l’image à T+2) peuvent difficilement être distingués l’un de l’autre. En fait, la valeur initiale de Z diffère d’environ 0,1 %, une valeur représentative de l’erreur instrumentale qu’on retrouve typiquement dans les mesures atmosphériques. À T+2, les deux prévisions sont encore presque identiques (astérisques rouge et bleue). Cependant, à T+4, pendant que les prévisions suivent toujours à peu près la même trajectoire et que deux régimes communs commencent à émerger (représentés par les deux boucles), la prévision de contrôle est en retard et commence à s’écarter de la prévision perturbée. À T+6, les deux prévisions ont considérablement divergé et sont maintenant dans des régimes différents.

 


Il y a, dans ce système, des aspects intéressants à souligner :

Le système de Lorenz est un système ne possédant que trois degrés de liberté et est encore non prévisible dans le temps. D’autre part, l’atmosphère réelle, étant un système chaotique, a plusieurs degrés de liberté. Tout n’est pas perdu, cependant. Le seul fait qu’un système soit chaotique ne signifie pas qu’il soit aléatoire. Par exemple, nous pouvons voir dans le graphique que le système de Lorenz a deux régimes distincts (ou « attracteurs » dans le jargon de la théorie du chaos). Les trajectoires prévues ne quittent pas ces régimes. De plus, à l’intérieur des régimes mêmes, la trajectoire est relativement prévisible jusqu’à ce qu’elle entre dans la région de sensibilité à la limite des deux régimes.

D’après les observations générales, nous pouvons voir que plusieurs aspects de l’atmosphère sont semblables au système simplifié de Lorenz. Nous savons que :

Haut de la page

2.0 Génération

Plusieurs méthodes permettent de créer des ensembles de PMN, chacune impliquant des éléments d’incertitude, soit dans les données ou dans le modèle de PMN même. Chacune des prévisions dans un ensemble (appelée « membre » de l’ensemble) utilise un ou plusieurs aspects de cette incertitude. Les méthodes possibles pour capturer l’incertitude inhérente dans la prévision incluent :

Nous discuterons de chacune de ces méthodes à la section suivante. Cliquez sur Sources de perturbations dans le menu à gauche pour continuer.

Haut de la page

2.1 Sources de perturbations

2.1.1 Incertitude sur les conditions initiales dans les ensembles

Bien évidemment, l’état de l’atmosphère à un moment donné n’est pas parfaitement connu; les erreurs inhérentes aux instruments utilisés dans le réseau de collecte des données en sont une cause suffisante. D’autres contributions à l’incertitude sur les conditions initiales sont :

Donc, la prévision produite à partir des conditions atmosphériques initiales doit comporter des erreurs et certaines de ces erreurs grossissent avec le temps jusqu’à devenir prédominantes dans la prévision.

L’analyse d’un modèle de PMN de l’état initial de l’atmosphère peut adopter un nombre infini de valeurs dans l’intervalle d’incertitude, ce qui permet en théorie une infinité d’évolutions possibles de la prévision! Depuis 2004, nous ne pouvons pas exécuter plus d’une douzaine de simulations de l’atmosphère par cycle de prévision avec le système informatique des NCEP; même le Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ne produit que 50 simulations une fois par jour.

É tant donné les limites des ressources informatiques disponibles, le problème devient :

Intervalle d’incertitude

L’intervalle d’incertitude dans les conditions initiales dépend du système d’assimilation des données. Chaque système d’assimilation des données subit l’influence des erreurs caractéristiques des observations incorporées dans le système et des erreurs dans la prévision à court terme utilisée comme « champ d’essai » devant être ajusté par les nouvelles observations. (Voir le module Comprendre l’assimilation des données pour plus de précisions sur le fonctionnement des systèmes d’assimilation des données.) La prévision à court terme et les observations sont combinées pour réduire au minimum l’erreur dans les conditions initiales à l’intérieur du domaine de prévision. Ce procédé réduit, mais n’élimine pas, l’incertitude sur les conditions initiales. Les différences dans les conditions initiales utilisées pour chacune des prévisions d’un SPE, prises comme un tout, devraient couvrir tout l’intervalle d’incertitude sur les conditions initiales (l’erreur réduite) qui reste.

Chaque prévision formant le système d’ensemble est appelée membre de l’ensemble. Dans le cas des SPE utilisant l’incertitude sur les conditions initiales pour créer une prévision, la passe membre de l’ensemble produite à partir de l’analyse inchangée (interpolée en fonction de la résolution du système d’ensemble) est appelée la passe de contrôle de l’ensemble. Les passes membres de l’ensemble produites à partir d’analyses qui ont été modifiées pour refléter l’incertitude sur les conditions initiales sont appelées perturbations de l’ensemble.

La figure ci-dessous montre un exemple (du SPE des NCEP) de la différence entre les conditions initiales du membre de contrôle et de l’un des membres perturbés de l’ensemble dans le champ de hauteur de 500 hPa dans l’hémisphère Nord. Les isohypses noires représentent la prévision de contrôle de l’ensemble, les isohypses blanches sont celles de la prévision perturbée et les couleurs décrivent les différences entre les deux, en mètres.

Haut de la page

2.1.2 Incertitude sur la formulation du modèle

Une autre source d’incertitude dans les prévisions est la formulation imparfaite du modèle, notamment en ce qui a trait à :

Les imprécisions dans la formulation du modèle contribuent aussi aux biais et erreurs systématiques que l’on voit dans tous les modèles opérationnels. Par exemple, le biais froid généralement observé dans les prévisions pour la basse troposphère du GFS en hiver dans les États-Unis continentaux résulte vraisemblablement d’une imprécision dans la formulation du modèle GFS opérationnel. Les répercussions des biais et erreurs systématiques sur une prévision particulière dépendent du régime d’écoulement et des particularités des conditions aux limites, parmi d’autres facteurs.

L’incertitude inhérente aux modèles de PMN est depuis longtemps connue des prévisionnistes et ceux-ci préfèrent parfois choisir un « modèle pour la journée », c’est-à-dire le modèle de PMN qui, selon eux, peut le mieux traiter la situation atmosphérique courante. Cependant, le choix d’un « modèle pour la journée » demeure subjectif et peut ne pas refléter une compréhension de ce qui, dans le modèle sélectionné, fait qu’on estime que sa prévision sera meilleure, surtout si la performance moyenne des modèles est considérée équivalente.

Haut de la page

2.1.3 « Perturber » le modèle de prévision

Une façon de prendre en considération l’incertitude inhérente à la formulation du modèle est de « perturber » le modèle lui-même. Ce genre de perturbation peut porter sur des aspects de la formulation dynamique (p. ex., un changement dans le type de coordonnées verticales, de sigma à êta), des calculs numériques (p. ex., une représentation sur grille versus spectrale, la simulation d’erreurs numériques aléatoires résultant de la troncature spectrale ou en points de grille) ou des paramétrisations physiques (p. ex., la paramétrisation de la convection de Kain-Fritsch versus celle de Betts-Miller-Janjic, la simulation de perturbations du forçage résultant des processus d’échelle inférieure à la maille).

La figure ci-dessous montre un exemple de l’effet de la perturbation d’une paramétrisation physique sur une prévision de précipitations de 24 h du modèle Eta (de 12 à 36 heures dans la prévision). Les modèles de prévision ne différaient que par les paramétrisations de la convection. À gauche, la prévision avec le schéma de BMJ opérationnel et à droite, le schéma de KF. Prenez note aussi que ce cas est survenu en saison froide (mars 2000).

Précipitations – accumulations de 24 h valide 1200 UTC 17 mars 2000

Remarquez les ressemblances et les différences entre les deux prévisions :

Les différents schémas de convection n’influencent pas seulement les quantités de précipitations mais aussi l’évolution dynamique parce que les schémas ont des déclencheurs et des profils thermiques verticaux différents auxquels la dynamique réagit. Ci-dessous, un sondage pour chaque schéma pour un endroit dans le nord-ouest de la Floride, près duquel il y a une grande différence dans les précipitations prévues.

Schéma de BMJ et de Kain-Fritsch, hauteurs de 500 hPa, valide 1200 UTC 22 nov. 2001

Remarquez la différence dans les profils de vent, de température et d’humidité, surtout entre 500 hPa et la tropopause (approximativement 250 hPa). Les vents à 400 - 300 hPa sont de 30 à 40 nœuds plus forts dans la passe de BMJ que dans la passe de KF. La passe de BMJ est aussi plus chaude et plus sèche de la troposphère moyenne à la haute troposphère. De telles réponses dynamiques peuvent occasionner des différences dans la cyclogénèse et la frontogénèse ainsi que dans la position et la vitesse de déplacement de systèmes synoptiques.

Haut de la page

2.1.4 Incertitude sur les valeurs aux limites

Une troisième catégorie générale de génération d’ensembles fondée sur l’estimation d’un degré d’incertitude utilise les valeurs assignées à certaines variables au fond et le long des limites latérales du domaine. Les variables du fond du domaine pouvant être perturbées incluent :

Les perturbations de la TSM et de l’humidité du sol sont parfois utilisées pour les ensembles climatiques. Par exemple, le Climate Prediction Center (CPC) se sert d’un groupe de prévisions de TSM pour forcer une version climatique du GFS des NCEP sur plusieurs mois. La prévision d’ensemble résultante est ensuite analysée pour être utilisée dans les prévisions saisonnières du CPC. À ce jour, les ensembles du modèle global opérationnel des NCEP n’utilisent pas de conditions aux limites perturbées de ce genre pour générer les membres de l’ensemble.

Il n’est possible de perturber les limites latérales que dans les modèles régionaux, qui ont comme entrées aux limites latérales les valeurs d’un modèle à grille ou spectral de plus faible résolution. Une configuration possible pour un système régional de prévisions d’ensemble pourrait inclure des conditions aux limites latérales fournies par un ensemble de prévisions globales. Par exemple, les ensembles des prévisions d’ensemble à court terme (SREF) des NCEP utilisent les ensembles globaux pour perturber leurs limites latérales en plus de perturbations produites à l’échelle régionale.

Haut de la page

2.2 Implémentations

2.2.1 CEPMMT : Calcul de vecteurs singuliers

La méthode des vecteurs singuliers pour perturber les conditions initiales est utilisée au Centre européen pour la prévision météorologique à moyen terme (CEPMMT). Des méthodes statistiques sont appliquées à une version à court terme (48 h) simplifiée du modèle de prévision du CEPMMT pour calculer les directions, ou « vecteurs », dans lesquelles les différences dans les prévisions vont croître le plus rapidement. À partir de ces vecteurs de plus forte croissance, le SPE « travaille vers l’arrière » pour remonter jusqu’au moment initial afin d’obtenir la structure de l’incertitude sur les conditions initiales directement liée aux vecteurs de plus forte croissance. La taille de ces vecteurs, ou perturbations, est ensuite ajustée en fonction des erreurs attendues dans les observations et dans le champ d’essai du système d’assimilation des données du modèle. Finalement, les sont ajoutés aux conditions initiales d’une version à plus faible résolution du modèle de PMN opérationnel du CEPMMT. On trouvera dans l’article Chaos and weather prediction, January 2000, que l’on peut consulter sur le site Web du CEPMMT, plus de précisions sur la façon dont le CEPMMT utilise la méthode des vecteurs singuliers pour déterminer les erreurs les plus importantes dans les conditions initiales ayant un effet sur l’évolution de sa prévision à moyen terme.

Haut de la page

2.2.2 NCEP : Calcul de perturbations à l'aide d'un « cycle de culture »

Le terme « cycle de culture » désigne la méthode qui consiste à faire croître, ou à « cultuver » les perturbations des conditions initiales qui produisent les meilleures prévisions d’ensemble. Pour commencer un cycle de culture, on ajoute des perturbations aléatoires aux conditions initiales de l’analyse du modèle. On exécute ensuite une prévision de contrôle et une prévision perturbée pour un court temps de prévision (habituellement 24 à 48 h). Puis, la prévision de contrôle et la prévision perturbée sont comparées pour en extraire une perturbation tridimensionnelle. Finalement, cette perturbation est réduite à une taille qui reflète l’incertitude sur les observations et les valeurs du champ d’essai utilisées dans le système d’assimilation des données. Ces nouvelles perturbations sont alors appliquées à une nouvelle analyse pour la nouvelle heure de prévision, et le cycle de culture est répété. Après avoir répété le cycle pour quelques jours, les différences entre la prévision de contrôle et la prévision perturbée se stabilisent; la perturbation dont la croissance est la plus rapide est ainsi correctement cultivée. Après ajustement, la perturbation est ajoutée à la prévision de contrôle et en est soustraite pour créer une « paire de cultures » de perturbations des conditions initiales. Les paires cultivées sont utilisées pour centrer les conditions initiales sur les conditions initiales de contrôle, que l’on considère comme la meilleure analyse possible. Le graphique ci-dessous montre comment une perturbation simple est déterminée dans le cycle de culture.

Comment « cultive-t-on » les perturbations?

 

Dans un SPE, le nombre de paires de cultures dépend de la puissance de calcul disponible pour la prévision d’ensemble. Notez que les hypothèses de base lorsqu’on utilise des cycles de culture pour générer les perturbations des conditions initiales pour les ensembles sont :

Configuration du SPE à moyen terme des NCEP; comparaison avec la méthode du CEPMMT

En septembre 2004, la configuration du SPE à moyen terme des NCEP utilisait cinq cycles de culture pour générer 10 passes de perturbation (5 positives et 5 négatives). Les cycles ont été faits à intervalles de 6 heures, avec les différences entre la prévision de contrôle et les prévisions perturbées calculées à 24 heures de prévision et réajustées en fonction de la taille de l’erreur de l’analyse.

Il ressort que la méthode des vecteurs singuliers et celle des cycles de culture produisent des résultats à peu près équivalents. La méthode des cycles de culture présente l’avantage d’être peu coûteuse à exécuter et à maintenir et de prendre en compte les processus non linéaires du modèle dans la détermination des perturbations.

Formulation du modèle

Aux NCEP, en mars 2004, le système de prévisions d’ensemble à moyen terme (MREF) n’utilise pas de modèles perturbés pour produire des prévisions d’ensemble, alors que le système de prévisions d’ensemble à court terme (SREF) utilise deux modèles dont l’un est exécuté avec deux paramétrisations de la convection différentes.

Haut de la page

2.2.3 CMC : Observations perturbées sur plusieurs cycles d’analyse

Au Service météorologique du Canada (SMC), le système de prévisions d’ensemble se sert d’un ensemble de cycles d’assimilation des données réalisant des analyses indépendantes. Chaque cycle d’assimilation des données utilise des observations perturbées différemment et un champ d’essai perturbé différemment. Les perturbations des observations et du champ d’essai sont déterminées au hasard dans l’intervalle de l’erreur attendue dans les observations et le modèle, respectivement, en employant la méthode de Monte Carlo. Nous nous attendons à ce que là où beaucoup d’observations de bonne qualité sont disponibles, l’ensemble des analyses aura une dispersion assez faible. D’autre part, là où il n’y a que peu d’observations précises et quand l’atmosphère est dynamiquement instable, l’ensemble d’analyses aura une plus grande dispersion. L’ensemble des analyses fournit ainsi les conditions initiales pour les membres de l’ensemble du SPE.

On peut utiliser un filtre de Kalman d’ensemble (EnKF) pour fournir à la fois au système d’assimilation des données et au SPE la structure tridimensionnelle des « erreurs de la journée » dans les champs d’essai et d’analyse. L’EnKF permet aux structures d’erreurs de l’analyse et du champ d’essai de varier, selon le régime d’écoulement courant. Utiliser l’EnKF a pour effet de lier directement le système d’assimilation des données et le SPE.

Dans la première version du SPE du SMC, implémentée en février 1998, le système d’assimilation des données n’utilisait pas un EnKF pour fournir l’information concernant l’incertitude sur le champ d’essai. Cependant, des essais en parallèle avec un SPE qui obtient son ensemble de conditions initiales d’un EnKF ont commencé en août 2004 et son implémentation opérationnelle est prévue pour l’automne 2004.

Haut de la page

3.0 Notions de statistique

Cette section passe brièvement en revue plusieurs notions de base en statistique avec lesquelles vous devez être familier pour pouvoir comprendre et utiliser les produits des SPE, y compris les mesures statistiques et leur application dans les SPE. Toutes ces notions sont utilisées par les systèmes d’ensemble pour générer des produits utiles pour les prévisionnistes et pour l’évaluation et l’amélioration des systèmes d’ensemble. Par exemple, examinez les produits ci-dessous.

Hauteurs moyennes de 500 hPa de l’ensemble, écart-type de l’ensemble. Prévision de 0000 UTC le 19 nov. 2001, valide à 1200 UTC le 22 nov. 2001

Diagramme en boîtes à moustaches pour la prévision d’ensemble de 0000 UTC le 19 nov. 2001

Pour mieux utiliser ces produits, vous devrez avoir une bonne compréhension de notions comme la moyenne statistique, l’écart-type, les quartiles et la médiane. Il importe aussi de comprendre ces notions de statistique et d’autres encore pour interpréter les produits de vérification des systèmes de prévisions d’ensemble (ou tout modèle de PMN, en fait). Si plusieurs de ces notions vous sont familières pour les avoir étudiées lors de cours de statistique préalables, vous pourriez parcourir rapidement la première partie de cette section. Cependant, les trois sous-sections finales (Utilisation des FDP, Application des données et Exercices) expliquent l’application de ces notions aux prévisions d’ensemble et devraient être utiles à tous.

Haut de la page

3.1 Distributions de probabilité

3.1.1 Distributions de probabilité théoriques

Pour générer l’information statistique, nous travaillons généralement avec un échantillon de données fini provenant d’un ensemble de données plus grand (ou même infini), pour lequel il est difficile ou impossible d’obtenir toutes les données. Par exemple, le National Climatic Data Center (NCDC) utilise les données des trois décennies les plus récentes pour calculer les statistiques considérées représentatives du climat à long terme.

Une distribution de probabilité décrit la fréquence d’occurrence de valeurs ou d’intervalles de valeurs particuliers dans un certain échantillon de données. Si l’échantillon est représentatif et suffisamment grand, on peut se servir de la distribution de probabilité pour estimer les caractéristiques de l’ensemble complet des données. Par exemple, la figure ci-dessous montre une distribution de probabilité hypothétique pour les températures maximales prévues d’un SPE. Le graphique présente le pourcentage des prévisions qui ont été faites pour chaque valeur de température (possiblement un nombre de points de grille dans une région particulière, auquel cas l’échantillon serait assez grand). La question est de savoir dans quelle mesure cette distribution est représentative de tous les résultats possibles, dans l’hypothèse où les conditions initiales sont les mêmes. Pouvons-nous considérer qu’il y a une probabilité supérieure à 87 % que la température maximale soit d’au moins 90 °F, comme l’indiquent cette prévision d’ensemble?

Distribution de probabilité de la température maximale

Une distribution de probabilité peut exhiber plusieurs formes générales correspondant à des distributions dites théoriques. Celle qu’on voit ci-dessus, avec un maximum de fréquence au centre et des « queues » dans lesquelles les fréquences sont beaucoup moins élevées, est une approximation d’une distribution « normale » (dont on discute à la page suivante). Quand on travaille avec des distributions de probabilité, même avec des distributions de forme beaucoup moins reconnaissable, et qu’on leur applique des méthodes statistiques, on pose des hypothèses pour déterminer la distribution théorique la plus représentative. Le choix de la distribution théorique est habituellement basé sur les caractéristiques des processus physiques mesurés par les données. De plus, on peut tester les données de l’échantillon pour voir si elles correspondent bien à la distribution théorique supposée.

Généralement, plus l’échantillon de données est grand, plus on peut être certain que la distribution de probabilité présumée correspond bien à l’échantillon et que la distribution de probabilité de l’échantillon est une bonne estimation du plus grand ensemble de données. Bien sûr, si l’hypothèse voulant que l’échantillon de données soit représentatif du plus grand ensemble de données duquel il est tiré est FAUSSE, les statistiques calculées à partir de l’échantillon ne seront pas représentative du plus grand ensemble de données.

Considérons maintenant les SPE de PMN. Comme dans le graphique ci-dessus, exécuter un SPE nous donne un échantillon de prévisions possibles parmi une population beaucoup plus grande de prévisions possibles. À partir de cet échantillon, nous pouvons alors faire des inférences à propos de la tendance centrale, de la dispersion et de la forme de la distribution pour la population de tous les résultats de prévision possibles (voir les sections qui suivent pour une discussion de chacune de ces caractéristiques). Cependant, la mise en garde faite auparavant continue de s’appliquer; il est possible que les données de prévision de l’ensemble (c. à d. l’échantillon de données) ne soit pas représentatif de tous les résultats de prévision possibles. Nous reviendrons périodiquement sur cette question dans le module, en particulier dans les sections sur les Produits et la Vérification.

Haut de la page

3.1.2 La fonction de distribution de probabilité (FDP)

(Remarque : Dans la suite de ce module, nous utiliserons les termes distribution de probabilité et fonction de distribution de probabilité indifféremment.)

Pour décrire succinctement la distribution de probabilité d’un échantillon de données extrait d’un plus vaste ensemble de données, on emploie ce que l’on appelle une fonction de distribution de probabilité (ou fonction de densité de probabilité — FDP), avec les valeurs possibles des données sur l’axe des x et la probabilité pour qu’une telle valeur se produise d’après l’échantillon sur l’axe des y (voir l’exemple ci-dessous). La fonction de distribution de probabilité exhibe une forme caractéristique, une position caractéristique de son « milieu » et une variabilité ou une dispersion caractéristique des valeurs qu’elle prend.

Certaines données peuvent ne prendre que des valeurs discrètes, comme l’occurrence ou la non-occurrence de précipitations mesurables dans un intervalle de temps. Les distributions théoriques de probabilité discrète incluent les distributions binomiales, géométriques et de Poisson. D’autre part, certaines données peuvent prendre n’importe quelle valeur réelle dans un intervalle fini ou infini; elles sont décrites au moyen de distributions théoriques de probabilité continue. La distribution gaussienne ou « normale », la distribution bêta, la distribution gamma et la distribution des valeurs extrêmes en sont des exemples.

Dans le reste de cette sous-section, nous allons décrire la distribution théorique normale. Des précisions sur d’autres distributions théoriques courantes sont donnés dans la section En profondeur ci-dessous. Dans les trois sous-sections suivantes, nous allons examiner certains paramètres utilisés pour décrire les distributions de probabilité.

La distribution normale (gaussienne)

La distribution normale, ou gaussienne, est la forme la plus communément supposée pour faire une description statistique des données. Dans cette distribution, les valeurs proches de la moyenne sont les valeurs les plus fréquemment observées tandis que les valeurs extrêmes sont plus rares (ce que représente la courbe familière en forme de cloche). Deux paramètres statistiques, la moyenne et l’écart-type (une mesure de la distance par rapport à la moyenne, dont on discute plus loin) décrivent complètement des données dont la distribution est normale. Un autre avantage de la distribution normale est que même si un échantillon de données n’a pas une distribution normale, les moyennes de tous les échantillons de données tirés de la population auront une distribution normale. La figure suivante montre une distribution normale avec une moyenne de 0,0 et un écart-type de 1,0. (Remarquez que la valeur intégrée sous la courbe normale (de l’infini à + l’infini) doit être égale à 1. En d’autres mots, la somme de toutes les probabilités de résultats doit être de 100 %.

Distribution normale avec moyenne de 0,0 et écart-type de 1,0

La distribution normale s’applique aux grands échantillons de données météorologiques sans limites supérieure ou inférieure proches et qui tendent vers une valeur centrale, comme la température ou la hauteur d’une surface isobare. La figure ci-dessous (un histogramme) montre les fréquences des hauteurs de 500 hPa, par intervalles de 50 mètres, de la réanalyse des NCEP à 125° de longitude ouest et 42,5° de latitude nord pour tous les jours de novembre, de 1979 à 1995, en comparaison avec une distribution théorique normale ayant la même moyenne et le même écart-type. Remarquez l’étroite correspondance des deux courbes.

Histogramme des hauteurs de 500 hPa, réanalyse des NCEP 125W 42,5N

Les statistiques pour les prévisions d’ensemble supposent généralement une distribution normale. Il arrive, cependant, que les données des prévisions d’ensemble n’aient pas une distribution normale; par exemple, lorsque deux régimes différents ou plus sont prévus et qu’il y a donc deux prévisions ou plus de fréquence plus élevée. Dans un tel cas, les statistiques déduites des données de l’ensemble peuvent ne pas être représentatives de la population de prévisions et peuvent en fait induire le prévisionniste en erreur. Nous en reparlerons à la section Application des données.

Pour ce module, il suffit de comprendre les propriétés d’une distribution normale. Cependant, plusieurs autres distributions sont possibles. Pour des renseignements détaillés sur les distributions de probabilité théoriques, nous suggérons l’ouvrage de Wilks (1995), mentionné dans la bibliographie.

Haut de la page

3.1.2 En profondeur : Autres distributions

Distributions de probabilité selon la probabilité d’un évènement par essai pour 100 essais

 

Distributions géométriques pour différentes probabilités de « succès »

Distribution de poisson pour le nombre de « jours de zéro » à Minneapolis, MN

 

Distribution bêta avec différents paramètres

Haut de la page

3.1.3 Probabilité conjointe

Souvent, les prévisionnistes veulent connaître la probabilité que plusieurs évènements se produisent simultanément. Un bon exemple pour la saison froide est le type de précipitations; un prévisionniste est certainement intéressé à connaître la probabilité que la température soit égale ou inférieure au point de congélation et qu’il pleuve.

De telles probabilités sont appelées probabilités conjointes. D’un point de vue géométrique, si nous avions à représenter les probabilités de deux évènements comme des portions d’une aire unitaire, la probabilité conjointe que les deux évènements se produisent ensemble serait représentée par l’intersection des deux aires de probabilité, comme on le voit ci-dessous.

Toutes les probabilités (P = 100 %)

L’intersection de ces aires de probabilité équivaut à compter le pourcentage de fois que les deux évènements se produisent ensemble. Notez que la notion de probabilité conjointe peut aussi être étendue à trois évènements ou plus.

Dans les prévisions d’ensemble, les membres de l’ensemble dans lesquels les deux évènements se produisent en même temps dans une maille sont comptés. Diviser ce résultat par le nombre total de membres dans le SPE donne la probabilité conjointe d’occurrence pour ces deux évènements.

Tableau de probabilité conjointe

Supposons que nous ayons une prévision d’ensemble à court terme de 36 heures avec 15 membres. Le tableau suivant montre les deux évènements d’intérêt (température ? 32 °F et pluie) dans des rangées distinctes. Les membres de l’ensemble dans lesquels ces évènements se produisent sont marqués 1 et les autres, 0. Nous avons aussi ajouté, en bas, une rangée pour indiquer les membres dans lesquels se produisent à la fois de la pluie et une température égale ou inférieure au point de congélation.

 

Évènement\Membre
de l’ensemble
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Total
Pluie
1
0
1
1
1
0
0
0
1
1
1
1
0
0
1
9

Température
< 32°F

1
0
0
0
1
0
1
1
1
0
0
0
0
1
1
7
Pluie et température < 32°F
1
0
0
0
1
0
0
0
1
0
0
0
0
0
1
4

Il y a de la pluie dans 9 des 15 membres (fréquence de 0,6) et une température égale ou inférieure à 32 dans 7 des 15 membres (fréquence de 0,467). Parmi les 15 membres, seulement 4 incluent les deux évènements, une fréquence de 0,267. Trois prévisions membres n’ont ni pluie ni température de gel.

Remarquez qu’on ne peut pas déterminer la probabilité conjointe de deux évènements se produisant ensemble seulement d’après la fréquence de chacun. C’est ce que montre le tableau de probabilité conjointe ci-dessous. Les évènements sont placés dans des colonnes et des rangées. Les cellules intérieures donnent la fréquence des évènements se produisant ensemble alors que les cellules « marginales » donnent la probabilité totale des évènements. Dans la cellule du coin inférieur droit, la somme doit être 1,000, la somme nécessaire des fréquences des évènements oui et non combinés. Donc, la probabilité de la pluie (0,6) et d’absence de pluie (0,4) de même que de température de gel (0,467) et de température au-dessus de 32 (0,533) sont placées dans les rangées et les colonnes appropriées.

Évènements
Température
> 32°F
Température
≤ 32°F
Total marginal
Pluie
?
?
0,600
Pas de pluie
?
?
0,400
Marginal Total
0,533
0,467
1,000

La somme des probabilités marginales doit être 1.000 et la somme de chaque rangée et de chaque colonne de cellules intérieures doit être égale à la fréquence marginale. Vous remarquez qu’aucune des valeurs intérieures ne peut être déterminée à moins de connaître l’une des quatre probabilités conjointes possibles. En plaçant la probabilité conjointe (0,267) de pluie et d’une température ≤ 32 °F dans la troisième colonne/deuxième rangée du tableau, on peut calculer les trois autres cellules.

Évènements
Température
> 32°F
Température
≤ 32°F
Total marginal
Pluie

0,600 – 0,267 = 0,333

0,267
0,600
Pas de pluie
0,533 – 0,333 = 0,.200
0,467 – 0,267 = 0.200
0,400
Total marginal
0,533
0,467
1,000

Haut de la page

3.1.3Q Question : Probabilité conjointe

Les cartes qu’on obtient habituellement du système de prévisions d’ensemble pour le type et la quantité de précipitations montrent la probabilité d’occurrence ou la probabilité de dépassement d’un seuil, respectivement, d’après le nombre de membres satisfaisant aux critères applicables. Vous avez les renseignements suivants au sujet d’une certaine prévision d’ensemble :

Que pouvons-nous dire au sujet de la probabilité conjointe de neige et de précipitations de 12 h de 0,5 po ou plus? Choisissez la meilleure réponse.

a) Sa valeur est 21 %

b) Sa valeur est 92 %

c) Sa valeur est 8 %

d) Sa valeur ne peut pas être déterminée

DISCUSSION

Nous ne pouvons pas déterminer la probabilité conjointe d’occurrence de neige et d’une quantité de précipitations de 12 h de 0,5 po ou plus seulement à partir de la probabilité de chaque évènement indépendamment. Cependant, si nous connaissions l’une des valeurs de probabilité conjointe, nous pourrions calculer le reste. Par exemple, si la probabilité que la quantité de précipitations de 12 h soit de 0,5 po ou plus et que le type soit de la neige était de 0,25, nous pourrions insérer cette valeur dans le tableau ci-dessous et calculer les autres probabilités conjointes :

Évènement
Précip.
< 0,5"
Précip.
≥ 0,5"
Probabilité marginale
Neige
0,17
0,25
0,42
Pluie
0,33
0,25
0,58
Probabilité marginale
0,50
0,50
1,00

Puisque nous avons la probabilité conjointe pour des précipitations de 0,5 po ou plus et de la neige (0,25) et la probabilité marginale de neige (0,42), nous pouvons calculer la probabilité conjointe d’avoir des précipitations de moins de 0,5 po et de la neige (0,42 - 0,25 = 0,17). Ensuite, nous pouvons trouver la probabilité de pluie et de 0,5 po ou plus de précipitations (0,50 - 0,25 = 0,25) et, finalement, la probabilité de pluie et de moins de 0,5 po de précipitations (0,58 - 0,25 = 0,33).

On notera que pour accepter telles quelles ces probabilités déterminées à partir d’un ensemble, il faut supposer que le modèle est parfait et que toute l’incertitude est liée aux conditions initiales. Comme aucun modèle n’est parfait, le prévisionniste se devra d’ajuster la sortie de l’ensemble en fonction des erreurs et des biais du modèle. Ici, par exemple, le terrain du modèle est considérablement lissé par rapport au terrain réel et des ajustements à la probabilité de neige pourraient être faits en conséquence, en se basant sur les niveaux de congélation prévus pour faire des prévisions qui tiennent compte de l’élévation. Nous discuterons des ajustements qu’il est possible de faire par le biais du post-traitement des prévisions d’ensemble à la section Vérification de ce module.

Haut de la page

3.2 Tendance centrale

Introduction

Plusieurs mesures statistiques permettent de décrite une distribution théorique de données en fonction de la position de son « milieu », ou tendance centrale, de sa dispersion et de sa forme générale. La présente section discute des statistiques utilisées pour décrire la tendance centrale; les deux prochaines sections porteront sur les statistiques de variance et de forme d’une distribution.

Où est le milieu des données? Un certain nombre de mesures statistiques cherchent à décrire où se trouve le milieu d’un échantillon de données, mais comme chacune utilise sa propre définition de ce qu’est le « milieu », elles peuvent prendre des valeurs très différentes quand les données n’ont pas une distribution normale en forme de cloche. Les sections suivantes présentent trois types de mesures de la tendance centrale.

Moyenne arithmétique

La moyenne arithmétique (ou moyenne) d’un échantillon de données est simplement la somme des valeurs divisée par le nombre total de valeurs, ou

La moyenne arithmétique

où x est la variable considérée, la barre de surlignement indique qu’il s’agit d’une quantité moyenne et n est le nombre de valeurs.

Médiane

Si l’on classe un ensemble de données de la plus basse à la plus élevée, on peut trouver le point où 50 % des données sont plus basses et 50 % sont plus élevées. La valeur à cette position est la médiane de l’échantillon de données. Remarquez que l’emploi de la médiane réduit l’influence des valeurs extrêmement élevées ou extrêmement basses (observations aberrantes) dans l’échantillon de données, qui peuvent rendre la moyenne moins représentative du vrai milieu. De plus, s’il y a un nombre pair de données, la médiale est définie comme la valeur moyenne des données occupant les rangs N/2 et N/2 + 1 dans la suite.

Mode

Le mode d’un échantillon de données est la valeur ou l’intervalle le plus fréquemment observé dans l’échantillon. Dans le cas du mode, aucune valeur autre que celles de la catégorie la plus fréquemment observée n’a d’influence sur la statistique.

Vous pouvez accéder ici aux données d’ensemble du 16 août 2004 pour voir un exemple de chacune de ces mesures de tendance centrale. Cet ensemble de données sera utilisé dans les pages qui suivent pour continuer à illustrer l’utilisation des mesures statistiques présentées.

Avantages et désavantages des mesures de tendance centrale

Le tableau suivant énumère les avantages et les désavantages des mesures de tendance centrale présentées ci-dessus.

Statistique
Avantages
Désavantages
Moyenne
  • Tient compte de tout l’échantillon de données
  • Pour les distributions normales, c’est la mesure de tendance centrale la plus stable quand on se sert de l’échantillon pour déduire la tendance centrale de la population entière
  • N’est pas représentative de la tendance centrale quand l’échantillon de données est asymétrique (voir la section sur la Forme)
  • Peut être fortement influencée par les valeurs extrêmes, surtout quand l’échantillon est petit
Médiane
  • Ne subit pas l’influence des valeurs extrêmes
  • Bonne pour les distributions asymétriques
  • Il faut trier les données
  • N’utilise pas toutes les valeurs des données
Mode
  • Ne subit pas l’influence des valeurs extrêmes
  • Peut être utilisé avec des données non numériques (p. ex., type de précipitations)
  • Peut masquer des maximums multiples (s’ils sont en nombres égaux)
  • N’utilise pas toutes les données
  • Peut déprendre des intervalles de données choisis

Haut de la page

3.2Q Tendance centrale

Si vous voulez tenir compte de toute l’étendue des données d’un ensemble de données pour décrire le milieu des données, quelle mesure de tendance centrale allez-vous utiliser? Choisissez la meilleure réponse.

a) Médiane

b) Moyenne

c) Mode

d) Soit la médiane, soit le mode

Discussion

La bonne réponse est (b), la moyenne, dont le calcul fait intervenir toutes les données. La médiane est la valeur au milieu des données lorsqu’elles sont rangées de la plus basse à la plus élevée, alors que le mode est la valeur qui a la fréquence la plus élevée; ces deux mesures statistiques ne font donc pas intervenir les autres données. Par conséquent, les réponses (a), (c) et (d) sont incorrectes.

Haut de la page

3.3 Dispersion

Mesures de dispersion

Maintenant que nous avons vu les estimations de tendance centrale de notre ensemble de données, examinons les mesures permettant de décrire la dispersion des données dans l’ensemble. De bonnes mesures de dispersion utilisent toutes les données et augmentent en même temps qu’augmente la dispersion des données dans l’échantillon ou la population.

Écart-type

La première de ces mesures, l'écart-type, suppose que les données ont une distribution normale. L’écart-type est la racine carrée de la variance, laquelle est la moyenne des carrés des différences entre chaque donnée et la moyenne de l’échantillon de données. La formule donnant l’écart-type est :

l'écart-type

N est la taille de l’échantillon de données, x est la variable considérée et s est l’écart-type de l’échantillon. Dans la formule, N est réduit à N-1 parce qu’on peut démontrer qu’utiliser N au dénominateur sous-estime la vraie variance (pour la population).

L’écart-type est une mesure de distance par rapport à la moyenne. Comme on peut le voir sur le graphique ci-dessous, dans une distribution normale, environ 68 % des données se trouvent en deçà de ±1 écart-type de la moyenne, environ 95 % des données se trouvent en deçà de ±2 écarts-types de la moyenne et environ 99,8 % des données se trouvent en deçà de ±3 écarts-types de la moyenne.

Distribution normale avec une moyenne de 0,0 et un écart-type de 1,0

Vous pouvez voir ici un exemple de calcul de l’écart-type dans l’échantillon de données d’ensemble de températures à 2 m extraites des passes d’ensemble du 16 août 2004.

Rang centile des données

Une autre façon de décrire les données d’ensemble est de les classer de façon à pouvoir décrire la position relative d’un membre donné dans tout l’ensemble. Le centile est une mesure qui exprime cette position comme un pourcentage. Le centile d’une valeur indique le pourcentage des données de l’échantillon qui sont sous cette valeur. La médiane, par définition, a le 50e rang centile.

Rangs centiles couramment utilisés

Les quartiles servent à décrire les données en les répartissant en 4 parts égales et sont définis par le 25e, le 50e (la médiane) et le 75e rang centile. Conséquemment, le 25e centile, la médiane et le 75e centile sont les limites entre le plus bas et le deuxième quartile, le deuxième et le troisième quartile et le troisième et le plus haut quartile, respectivement, pour un groupe de données. Les déciles divisent les données en 10 parties de 10 % chacune et les bornes se trouvent au 10e centile, au 20e centile et ainsi de suite jusqu’au 90e centile.

Si un centile tombe entre deux éléments classés, le point de démarcation centile est déterminé par interpolation entre les éléments classés. Par exemple, le tableau ci-dessous comprend 13 données classées divisées en quartiles. La première rangée donne le rang des données, de la plus basse à la plus élevée, en plus du rang des limites des quartiles. La deuxième rangée contient les données et la troisième montre les quartiles et les valeurs de démarcation interpolées.

Rang des données

1

2

3

3,25

4

5

6

6.5

7

8

9

9,75

10

11

12

13

Données

14

18

22

 

25

30

36

 

39

42

47

 

48

55

58

60

Quartiles

1er quartile

22,75

2e quartile

37.5

3e quarter

47,75

4e quarter

Chaque quartile contiendrait 3,25 éléments classés et donc les démarcations des quartiles sont à 3,25, 6,5 et 9,75. Notez que les valeurs dans la troisième rangée sont interpolées entre les données classées au-dessous et au-dessus.

Voir un exemple de calcul du rang quartile pour notre groupe de données d’ensemble.

Haut de la page

3.3Q Dispersion

Laquelle des mesures statistiques de dispersion n’est strictement valide que lorsque les données ont une distribution normale? Choisissez la meilleure réponse.

a) Déciles

b) Quartiles

c) Écart-type

d) Aucune de ces réponses

Discussion

La bonne réponse est (c), l’écart-type. L’écart type est directement dérivé de la distribution normale. Les déciles et les quartiles sont des cas particuliers de rang centile et n’impliquent aucune hypothèse particulière sur la distribution des données. Donc, les réponses (a), (b) et (d) sont incorrectes.

Haut de la page

3.4 Forme

Mesures de la forme

Les prévisionnistes expérimentés n’ont aucun mal à comprendre que plusieurs processus atmosphériques ne sont pas normaux (ou n’ont pas une distribution normale, pour être plus précis)! Au contraire, le comportement chaotique de l’atmosphère et les limites physiques inhérentes aux variables donnent souvent lieu à des fonctions de distribution de probabilité asymétriques. Les processus et les grandeurs physiques qui occasionnent des distributions asymétriques incluent notamment les évènements de pluie distincts, la nébulosité et l’humidité relative. Comment peut-on mesurer cette asymétrie?

Étalement

L’étalement mesure la position de la moyenne par rapport à la distribution totale. Une distribution normale aura un étalement de 0,0, tout comme d’autres distributions parfaitement symétriques. Une fonction de distribution de probabilité ayant un étalement positif — c’est-à-dire « étalée à droite » — aura sa fréquence maximale (son mode) à gauche de la médiane et sa moyenne arithmétique plus loin à droite, dans la longue queue. Une distribution ayant un étalement négatif — « étalée à gauche » — aura sa fréquence maximale à droite de la médiane et de sa moyenne arithmétique et aura une longue queue à gauche. La figure qui suit donne un exemple hypothétique de chaque cas.

 

Exemples d’étalements positif et négatif

 

Fonctions de distribution de probabilité multimodales

Il arrive que la distribution de probabilité des prévisions d’un SPE ne corresponde à aucune des distributions théoriques que nous avons vues jusqu’ici. Une distribution assez commune est celle où il y a plus d’un maximum. On les appelle aussi les distributions multimodales. La figure ci-dessous montre un exemple de distribution bimodale. On peut y voir les probabilités des valeurs de hauteur de 500 hPa des passes de deux ensembles (dans des intervalles de 5 dm, pour un total de 21 membres d’ensemble) pour le 23 novembre 2001. Dans un cas, la probabilité maximale est à 547,4 dm et dans l’autre, à 567,5 dm. Même s’il n’y a qu’un vrai mode pour la distribution, la présence de valeurs de pointe similaires mais distinctes fait que cette mesure statistique (et les autres) de tendance centrale est moins utile. Par exemple, jusqu’à quel point la moyenne et la médiane sont-elles représentatives du milieu de la distribution ci-dessous, surtout si l’on tient compte que leurs valeurs tombent entre deux intervalles qui ne contiennent que deux membres d’ensemble, entourés d’intervalles de probabilité beaucoup plus élevée?


Histogramme des hauteurs de 500 hPa des ensembles

Une fonction de distribution de probabilité avec plusieurs maximums de probabilité peut indiquer que

Nous reviendrons sur les distributions multimodales dans la section Réduction des données, quand nous examinerons les limites des produits de moyenne et de dispersion des ensembles.

Haut de la page

3.4 En profondeur : Étalement et aplatissement

Étalement

On peut chercher à savoir jusqu’où les données sont « étalées » d’un côté par rapport à la distribution normale symétrique. Les distributions étalées caractérisent des grandeurs physiques dont les propriétés impliquent des limites, comme la quantité quotidienne de précipitations (limite inférieure de 0,00 po et limite physique pour le maximum possible) et vitesse du vent (limite inférieure de 0 et limite physique pour le maximum possible, selon le gradient de pression, la viscosité, le frottement).

La formule donnant le paramètre d’étalement est :

La formule donnant le paramètre d’étalement

 

Aplatissement

L’aplatissement (ou kurtosis) mesure la taille des queues dans la distribution d’un échantillon comparativement à la distribution théorique normale. Un aplatissement positif indique une distribution avec une crête prononcée alors qu’un aplatissement négatif indique une distribution plus aplatie (c’est-à-dire une queue plus petite ou plus grande que pour une distribution normale, respectivement).

 

Distribution normale et distributions plus ou moins aplaties

Comme la distribution normale a un aplatissement de 3,0, la formule pour trouver l’excès d’aplatissement (ou kurtosis normalisé) est :

Comme la distribution normale a un aplatissement de 3,0, la formule pour trouver l’excès d’aplatissement (ou kurtosis normalisé)

Haut de la page

3.4Q Forme

Vous calculez l’étalement d’une série de données de précipitations et vous trouvez que la valeur résultante est plus grande que zéro. Lesquels des énoncés suivants sont vrais? Cliquez sur tous les choix qui s’appliquent.

a) La moyenne est plus grande que la médiane.

b) La médiane est plus grande que la moyenne.

c) Le mode est plus grand que la moyenne et la médiane.

d) Les données de précipitations ont un étalement positif.

Discussion

Quand la valeur de l’étalement plus grande que zéro, on dit que les données ont un étalement positif. Avec de telles données, la plupart des valeurs sont groupées du côté des petites valeurs, avec une longue queue vers les valeurs élevées. Dans une distribution de ce genre, la moyenne est plus grande que la médiane à cause de l’influence des valeurs élevées dans la queue de la distribution. Donc, les réponses (a) et (d) sont correctes et les réponses (b) et (c) sont incorrectes.

Haut de la page

3.5 Utilisation des fonctions de distribution de probabilité

3.5.1 Utilisation des FDP dans le processus de prévision : Arriver à la probabilité d’un évènement météorologique

Les distributions de probabilité sont utilisées implicitement dans la plupart, sinon la totalité, des aspects du processus de prévision. La présente section traite des méthodes utilisées par les prévisionnistes pour déterminer la probabilité d’un évènement météorologique particulier.

Méthodes non basées sur les modèles de PMN

Longtemps avant d’avoir des modèles de PMN, les prévisionnistes météorologiques utilisaient des distributions de probabilité établies d’après les observations. Dans ces méthodes, on prenait en considération :

Certaines de ces méthodes ont encore leur place aujourd’hui dans le processus de prévision, ne serait-ce que pour confirmer ce que les modèles de PMN nous disent.

À titre d’exemple, la distribution de probabilité de la moyenne quotidienne des hauteurs de 500 hPa observées pour la maille de 2,5° x 2,5° à 42,5°N, 125°W (selon la réanalyse du NCAR/NCEP de janvier 1979 à décembre 1995, interpolée au 28 novembre) est affichée ci-dessous en bleu. Un échantillon de données ayant une distribution normale avec la même moyenne et le même écart-type est aussi affiché en rouge à titre comparatif. Dans notre exemple, la distribution climatologique correspond d’assez près à une distribution gaussienne.

Histogramme des hauteurs de 500 hPa, Réanalyse des NCEP, 125W, 42,5N

(Remarque sur le graphique : Comme les données théoriques ont été groupées dans des intervalles de 50 mètres qui ne sont pas centrés sur la moyenne, la description de la distribution normale est légèrement asymétrique.)

D’après les données climatologiques ci-dessus, si un modèle de PMN prévoyait une valeur déjà moyennée de 520 dm pour la hauteur de 500 hPa dans la maille considérée le 28 novembre, le prévisionniste aurait automatiquement une raison de scruter davantage cette prévision (ou aurait un argument pour la rejeter). Nous reviendrons sur cette climatologie quand nous examinerons les données d’ensemble valide le 22 novembre 2001 dans la prochaine section.

Haut de la page

3.5.2 Méthodes fondées sur une prévision de PMN simple

Les prévisionnistes utilisent implicitement les distributions de probabilité dans le processus de prévision chaque jour, en se référant aux situations de prévision semblables qu’ils ont vues dans le passé. Par exemple, un prévisionniste pourrait estimer la vraisemblance d’atteindre le niveau-critère d’avis de chaleur en partie d’après les prévisions numériques de la température à 850 hPa et de l’humidité relative dans la couche limite. Ce faisant, le prévisionniste place en quelque sorte ces variables du modèle dans une distribution de probabilité subjective d’atteindre les niveaux-critères.

Les prévisionnistes peuvent aussi utiliser des méthodes objectives quand ils se basent sur une prévision de PMN simple. Par exemple, des données statistiques sur les biais dans les modèles opérationnels de PMN sont disponibles pour les 5 ou 10 derniers jours sur le site Web du Hydrological Prediction Center (HPC). On peut aussi trouver d’autres renseignements du même genre sur certaines des pages de diagnostic des modèles au Environmental Modeling Center (EMC).

Comment les statistiques d’erreurs des modèles pourraient-elles être utilisées dans la pratique? Supposons que pour un endroit hypothétique sur le territoire continental des États-Unis, nous disposions d’un échantillon de 1000 prévisions du modèle Eta (en rouge) et analyses de vérifications (en bleu) pour les températures à 850 hPa en juillet qui, lorsque placées dans une distribution de probabilité, donnent la figure ci-dessous :

 

Histogramme hypothétique des températures à 850 hPa en juillet : Prévision Eta de 24 h versus analyses

Dans cet exemple, la moyenne de l’échantillon d’analyses est de 14,6 °C et l’écart-type, de 2,9 °C. Les prévisions de 24 h, cependant, ont une moyenne de 15,1 °C et (pour plus de simplicité) le même écart-type. Le graphique ci-dessous donne la distribution des erreurs pour la même prévision de 24 h.

Histogramme des erreurs de température à 850 hPa dans les prévisions de 24 h

L’erreur moyenne (0,5 °C) est égale à la différence entre les moyennes des prévisions et des analyses, tel qu’attendu; l’erreur possède aussi une distribution normale. L’erreur moyenne correspond au biais dans la prévision de 24 heures pour cet échantillon. L’écart-type de l’erreur est de 0,8 °C. Pour toute prévision de 24 heures de la température à 850 hPa, nous pouvons utiliser le biais de l’échantillon conjointement avec la prévision de 24 heures pour estimer la valeur la plus probable de la température à 850 hPa à ce moment. La dispersion des données d’erreurs nous donne une mesure de l’incertitude pour la prévision de température à 850 hPa.

Donc, en utilisant cette méthode, si le modèle Eta prévoit dans 24 heures une température à 850 hPa de 15,5 °C, la valeur attendue sera 15,0 °C et il y a 67 % des chances (±1 écart-type) que la température soit dans l’intervalle de 14,2 °C à 15,8 °C.

Cependant, les données desquelles les statistiques ont été tirées incluent plusieurs prévisions différentes sous plusieurs régimes différents. L’erreur dans la température à 850 hPa dépend peut-être du régime, par exemple parce que, dans des conditions pluvieuses, la température prévue a tendance à être trop élevée à cause du trop grand flux de chaleur sensible à partir de la surface du modèle, alors que par temps sec, la température prévue est trop basse pour des raisons analogues. Ce genre d’information n’est pas disponible dans l’échantillon.

De plus, nous avons besoin de l’information d’un modèle « gelé » pour savoir si les statistiques d’erreurs du modèle sont stables. (Les modifications apportées à un modèle changent souvent les erreurs caractéristiques dans ce modèle.) Si le biais chaud mentionné ci-dessus est éliminé, réduit ou même remplacé par un biais de température négatif à cause de modifications dans le modèle, notre intervalle (±1 écart-type) et notre valeur attendue de température à 850 hPa seront basés sur des données incorrectes.

Haut de la page

3.5.3 Méthodes fondées sur des prévisions d’ensemble

L’utilisation de fonctions de distribution de probabilité établies à partir de relations entre les observations et les variables d’un modèle, comme le montraient les exemples précédents, peut être utile dans le processus de prévision. Mais cela présente aussi certains désavantages. Par exemple, les relations entre les prévisions du modèle et les vérifications subséquentes sont souvent influencées par le régime d’écoulement, ce qui signifie que l’application de ces relations, au moins dans certains cas, ne sera pas valide. Nous n’avons pas non plus d’intuition quantitative nous indiquant dans quelle mesure le régime d’écoulement est prévisible.

Un procédé objectif permettant d’éviter ces problèmes consiste à utiliser des prévisions d’ensemble pour dégager une fonction de distribution de probabilité des résultats de prévision possibles. Les prévisions d’ensemble ont de nets avantages sur les prévisions déterministes simples, parce qu’elles prennent en compte les facteurs suivants :

En outre, lorsqu’ils sont correctement étalonnés, les ensembles peuvent corriger des imperfections dans les modèles de PMN et dans leur performance récente d’une façon systématique et objective. Nous en reparlerons dans les sections Produits et Vérification.

Le nombre de prévisions qu’il peut y avoir dans une passe d’ensemble dépend évidemment des ressources informatiques disponibles pour créer les différents membres de l’ensemble, et cette contrainte fait qu’il est important de construire soigneusement notre système de prévisions d’ensemble (SPE). Nous allons examiner une distribution de probabilité à partir d’une paire de passes d’ensemble consécutives des NCEP dans la prochaine section, Application des données.

Haut de la page

3.5.3Q Utilisation des distributions de probabilité

Quels sont les avantages d’utiliser des prévisions d’ensemble pour déterminer la probabilité d’un évènement par rapport aux autres méthodes de détermination de cette probabilité, comme la climatologie? Cochez tous les choix pertinents.

 

a) L’incertitude sur les conditions initiales courantes et la prévisibilité de l’atmosphère sont prises en considération.

b) Les effets du régime d’écoulement courant sur la prévisibilité du modèle de PMN sont pris en considération.

c) Les biais et erreurs du modèle sur lequel est basé le système de prévisions d’ensemble sont automatiquement retranchés par la perturbation des conditions initiales.

d) Lorsqu’ils sont correctement étalonnés, les ensembles peuvent corriger les imperfections des modèles de PMN et la performance récente des modèles d’une façon systématique et objective.

Discussion

Étant donné la façon dont sont crées les perturbations des conditions initiales dans les systèmes de prévisions d’ensemble, la prévisibilité courante et l’incertitude sur les conditions initiales sont automatiquement prises en considération dans les prévisions d’ensemble. Ces perturbations sont crées en temps réel, en tenant compte de l’incertitude sur les conditions initiales auxquelles le régime d’écoulement courant est le plus sensible. Donc, les réponses (a) et (b) sont correctes. Cependant, les biais et les erreurs systématiques du modèle ne sont pas éliminés par la perturbation des conditions initiales. L’étalonnage basé sur les statistiques de performance passée, toutefois, peut améliorer les prévisions d’ensemble. Par conséquent, la réponse (c) est incorrecte et la réponse (d) est correcte.

Haut de la page

3.6 Application des données

3.6.1 Application des statistiques à un échantillon de données d’ensemble

Pour vous aider à mieux comprendre la sortie d’un SPE, nous allons voir comment les notions de statistique sont appliquées à un cas réel vérifié le 28 novembre 2001. Nous allons examiner les passes des 22 et 23 novembre 2001 du SPE construit à partir du Global Forecast System (GFS, aussi appelé AVN/MRF) des NCEP. Ce système utilisait alors des perturbations des conditions initiales pour créer 23 différentes passes d’ensemble, ou « membres », par jour. Les membres de l’ensemble étaient exécutés avec T62 (nombre d’ondes) et 28 niveaux, en même temps qu’une passe de contrôle à haute résolution avec T170 et 42 niveaux. Il y a 12 membres à 0000 UTC, y compris la passe opérationnelle de 0000 UTC et une passe de contrôle de l’ensemble à basse résolution de 0000 UTC, et 11 membres à 1200 UTC, y compris l’extension AVN de 1200 UTC utilisée à l’époque.

La figure ci-dessous montre un « schéma spaghetti » (on trouvera plus d’information sur les schémas spaghetti dans la section Réduction des données) de l’isohypse de 5520 m à 500 hPa pour chaque membre de l’ensemble pour les prévisions valides à 1200 UTC le 28 novembre 2001 (jour 6). Au bas du schéma se trouve une clé du code de couleurs des isohypses. Les membres de l’ensemble issus de perturbations sont les lignes jaunes et vertes, les modèles opérationnels sont en noir et bleu et la passe de contrôle de l’ensemble est en orange. Vous remarquerez qu’il semble y avoir passablement d’incertitude sur la position prévue de l’isohypse de 5520 m dans l’est du Pacifique et l’ouest de l’Amérique du Nord d’après le SPE, alors que les passes opérationnelles affichent une meilleure correspondance mutuelle. Le « X » dans le schéma (à environ 125°W et 42,5°N, près de la côte centrale de l’Oregon) est l’endroit approximatif auquel correspondent les données de 500 hPa que nous utiliserons pour l’analyse statistique de la sortie de l’ensemble.

Isohypses de 5520 m à 500 hPa

Haut de la page

3.6.2 Distribution des données de l’ensemble

D’abord, examinons la distribution des données brutes de hauteur de 500 hPa à 125°W, 42,5°N dans les passes des ensembles à 1200 UTC le 22 novembre et à 0000 UTC le 23 novembre 2001. Les données figurent dans les tableaux ci-dessous.

1200 UTC  22 nov. 01

membre de l’ensemble
ext. AVN p1 p2 p3 p4 p5
hauteur de 500 hPa
5553,5 5452,4 5646,7 5320,9 5709,4 5483,1
    n1 n2 n3 n4 n5
    5652,6 5555,1 5696,5 5452,6 5620,5

 

0000 UTC  23 nov. 01

membre de l’ensemble MRF opér. Ens ctl p1 p2 p3 p4 p5
hauteur de 500 hPa 5620,6 5602,5 5474,7 5505,7 5435,6 5409,9 5659,6
      n1 n2 n3 n4 n5
      5549,9 5499,0 5654,6 5670,6 5452,4

Pour représenter ces données sur un graphique, nous allons d’abord définir des intervalles de hauteurs et ensuite déterminer le pourcentage des membres des ensembles qui tombent dans chacun de ces intervalles. Puis, nous créerons un graphique à barres, ou histogramme, de ces pourcentages de hauteurs prévues de 500 hPa au point considéré. Le code de couleurs des barres est indiqué dans la légende. Les valeurs ont été rangées dans des intervalles de 5 décamètres (5 dm), de 530 dm à 575 dm. Nous avons aussi indiqué des valeurs particulières sur l’histogramme pour la prévision du modèle AVN extension à 1200 UTC le 22 novembre et les prévisions de contrôle de l’ensemble et du modèle MRF opérationnel à 0000 UTC le 23 novembre 2001 au moyen de points de couleur. Notez que les valeurs de hauteur fournies par ces prévisions sont incluses dans les comptes de l’histogramme.

Histogramme des hauteurs de 500 hPa dans les ensembles

Nous pouvons voir qu’il y a une distribution plus large pour les membres de l’ensemble de 1200 UTC le 22 novembre que pour la passe d’ensemble suivante à 0000 UTC le 23 novembre.

Haut de la page

3.6.3 Statistiques de tendance centrale

La figure ci-dessous montre le même graphique que précédemment mais avec les trois mesures de tendance centrale calculées pour l’échantillon de données avec lequel nous avons travaillé.

Histogramme de l’échantillon de données de hauteurs de 500 hPa des ensembles

On peut voir dans le graphique que la valeur moyenne est 5551,5 m, à peu près au milieu de la distribution. Comme la moyenne se situe presque exactement au milieu des données, elle est très proche de la médiane. Cependant, le mode se trouve dans l’intervalle de 50 m qui va de 5450 à 5500 m. Remarquez que cette valeur diffère nettement des autres mesures de tendance centrale dans ce cas; remarquez aussi qu’il y a un deuxième maximum dans l’intervalle de 5650 à 5700 m, à propos duquel le mode statistique ne donne aucune information.

Dans les situations où il y a plus d’un regroupement des données, les mesures statistiques de tendance centrale, qui, par définition, ne peuvent véhiculer qu’une valeur, ne représenteront pas la solution la plus probable. Ceci s’oppose à l’interprétation habituelle dans laquelle, par exemple, la moyenne de l’ensemble représente la valeur la plus probable.

Haut de la page

3.7 Exercices

3.7.1 Tendance centrale

D’après l’aspect de la fonction de distribution de probabilité de cet échantillon de données d’ensemble pour les hauteurs de 500 hPa à 125°W, 42,5°N, laquelle des mesures statistiques de tendance centrale serait la plus utile dans le processus de prévision?

Histogramme de l’échantillon de données de hauteurs de 500 hPa des ensembles

Cochez tous les choix qui s’appliquent, puis cliquez sur Terminé. (Pour désélectionner un choix, cliquez dessus à nouveau.)

a) Moyenne de l’ensemble

b) Médiane de l’ensemble

c) Mode de l’ensemble

d) Aucune de ces réponses

Discussion

La bonne réponse est Aucune de ces réponses. Pour que la moyenne et la médiane soient représentatives de « la valeur prévue la plus probable », il faut que les données aient tendance à tomber près d’une valeur centrale. Ici, les valeurs se retrouvent plutôt dans une région haute et une région basse. Le mode quant à lui est trompeur car il ne renseigne que sur l’une des régions de probabilité élevée.

Pour donner une meilleure idée de la façon dont les données se comparent à la distribution gaussienne traditionnelle, en fonction de laquelle on interprète habituellement les mesures statistiques de la moyenne et de l’écart-type, nous avons construit un histogramme théorique gaussien pour les données des 23 membres, avec la moyenne climatologique et l’écart-type présentés précédemment pour le 28 novembre, en regard des données de l’échantillon réel des membres des ensembles de 1200 UTC le 22 novembre et de 0000 UTC le 23 novembre 2001. L’histogramme ci-dessous présente les résultats.

 

Histogramme réel vs théorique normal de l’échantillon de données de hauteur de 500 hPa des ensembles

La distribution théorique normale est en rouge et la distribution des données de l’échantillon (pour les passes des deux ensembles) est en bleu. On ne peut manifestement pas assimiler les données de l’échantillon à une distribution traditionnelle en forme de cloche (gaussienne). En fait, les données ont tendance à se retrouver dans deux groupes d’intervalles distincts. Ce type de distribution en deux groupes ou plus n’est pas inhabituel.

Avec une distribution comme celle que l’on voit ci-dessus, ni la mesure gaussienne de tendance centrale (la moyenne arithmétique) ni la mesure gaussienne de dispersion (l’écart-type de l’échantillon) ne permettent de décrire adéquatement les données de l’échantillon. Si l’état de l’atmosphère est tel qu’une distribution normale des résultats de prévision possibles n’est pas valide, comme dans le cas du modèle simple de Lorenz avec deux solutions préférées, les statistiques gaussiennes pourront être trompeuses! Dans de tels cas, la FDP elle-même fournit une meilleure information que les mesures traditionnelles de moyenne, de médiane, de mode et d’écart-type.

Il est possible d’évaluer la correspondance entre la distribution d’un échantillon de données et une distribution théorique particulière. Habituellement, un examen visuel de la FDP de l’échantillon suffit pour la plupart des applications de prévision d’ensemble.

Statistiques de dispersions et de forme

Pour décrire quantitativement la correspondance de la distribution d’un échantillon avec une distribution théorique, on peut calculer les paramètres de dispersion et de forme de l’échantillon. Par exemple, pour notre échantillon de données de hauteur de 500 hPa, on trouve un écart-type de 105,62 m, un étalement de 0,25433 et un aplatissement de 0,98297. Ceci nous dit que si l’échantillon ici est représentatif de la population de toutes les prévisions possibles, alors :

Haut de la page

3.7.2 Probabilité conjointe

Les cartes que nous obtenons habituellement du système de prévisions d’ensemble pour le type et la quantité de précipitations montrent les probabilités d’occurrence et la probabilité de dépassement de seuil, respectivement. Les trois figures ci-dessous montrent ces probabilités pour le nord-ouest des États-Unis d’après la prévision d’ensemble du MREF de 0000 UTC le 20 novembre 2001 valide à 1200 UTC le 21 novembre 2001. La probabilité d’occurrence en pourcentage ou de dépassement dans les trois figures est indiquée par des isolignes à intervalles de 10 %. Nous allons nous concentrer sur la maille de 1° x 1° couvrant les Cascades dans l’Oregon, centrée à 44°N, 122°W (la boîte rouge dans chaque figure). Les probabilités en pourcentage pour la maille en question sont aussi indiquées en rouge.

Probabilité de précipitations de
12 h de plus de 0,5 po

Probabilité de quantité mesurable
de pluie

Prob. de précipitations > 0,5 po pendant les 12 h se terminant à 1200 UTC le 21 nov. 2001 Prob. de pluie mesurable pendant les 12 h se terminant à 1200 UTC le 21 nov. 2001

Probabilité de quantité mesurable de neige

Prob. de neige mesurable pendant les 12 h se terminant à 1200 UTC le 21 nov. 2001

Examinons maintenant l’information que nous avons ci-dessus. Nous pourrions vraiment utiliser plus que les probabilités indiquées dans ces figures. Pour les probabilités de tempête hivernale, il nous faut des probabilités conjointes combinant la vraisemblance du type de précipitations et de la quantité. (Bien que ce ne soit pas montré, notez que tous les membres de l’ensemble avaient au moins 0,01 po de précipitations dans la maille en question.)

Évènement

Précip. mesurable < 0,5 po

Precip.
≥ 0,5 po

Total

Pluie

?

?

0,58

Neige

?

?

0,42

Total

0,50

0,50

1,00

Nous ne pouvons pas remplir les cellules intérieures de la table de contingence parce que nous n’avons pas les probabilités conjointes pour l’occurrence d’un type de précipitations (pluie ou neige) avec la probabilité conjointe d’une quantité de précipitations de 12 heures dépassant 0,5 po. Cependant, si nous avons les données de chaque membre de l’ensemble sur le type et la quantité de précipitations, nous pouvons calculer la probabilité conjointe en comptant les membres dans lesquels le type de précipitations qui nous intéresse se produit ET la valeur-seuil est dépassée, puis en divisant ce compte par le nombre total de membres dans l’ensemble. Par exemple, la figure ci-dessous décrit la probabilité d’avoir des précipitations de 0,5 po ou plus en 12 heures et que le type de précipitations soit de la neige. La probabilité en pourcentage pour la maille en question apparaît encore ici en rouge.

Probabilité de précipitations de 0,5 po ou plus, sous forme de neige

Si l’on insère cette valeur dans la table, on obtient :

Table de contingence

Évènement

Précip. mesurable < 0,5 po

Précip. ≥ 0,5 po

Total

Pluie

?

?

0,58

Neige

?

0,25

0,42

Total

0,50

0,50

1,00

Avons-nous maintenant suffisamment d’information dans la table de contingence pour déterminer les autres probabilités? Complétez la table de contingence en faisant glisser les réponses qui se trouvent dans la boîte des choix sous la table.

Discussion

Pour résoudre ce problème, il suffit de se rappeler que les probabilités marginales sont la somme de toutes les probabilités dans les rangées et les colonnes respectives.

Puisque nous connaissons la probabilité conjointe d’avoir ≥ 0,5 po de précipitations et de la neige (0,25) et la probabilité marginale de la neige (0,42), nous pouvons calculer la probabilité conjointe d’avoir < 0,5 po de précipitations et de la neige (0,42 - 0,25 = 0,17). Ensuite, nous pouvons calculer la probabilité de pluie et de ? 0,5 po de précipitations (0,50 - 0,25 = 0,25) et, finalement, la probabilité de pluie et de < 0,5 po de précipitations (0,58 - 0,25 = 0,33). Dans l’hypothèse où le seuil d’avis de conditions hivernales serait de 5 po de neige en 12 heures (et en supposant un rapport neige/équivalent en eau de 10/1), il y aurait une probabilité de 25 % d’une chute de neige satisfaisant aux critères d’avis durant la période de 0000 à 1200 UTC le 21 novembre 2001.

Pour accepter telles quelles ces probabilités déterminées à partir d’un ensemble, il faut supposer que le modèle est parfait et que toute l’incertitude est liée aux conditions initiales. Comme aucun modèle n’est parfait, le prévisionniste se devra d’ajuster la sortie de l’ensemble en fonction des erreurs et des biais du modèle. Ici, par exemple, le terrain du modèle est considérablement lissé par rapport au terrain réel et des ajustements à la probabilité de neige pourraient être faits en conséquence, en se basant sur les niveaux de congélation prévus pour faire des prévisions qui tiennent compte de l’élévation. Nous discuterons des ajustements qu’il est possible de faire par le biais du post-traitement des prévisions d’ensemble à la section Vérification de ce module.

Haut de la page

4.0 Réduction des données

Introduction

Aucun prévisionniste opérationnel, surtout dans des situations météorologiques extrêmes, n’aurait le temps d’examiner les détails de 10 membres (ou plus) d’une passe de la prévision du SPE à moyen terme des NCEP (MREF) ou les détails de 15 membres (ou plus) d’une passe de la prévision du SPE à court terme des NCEP (SREF). L’un des problèmes courants quand on utilise les données d’un SPE est le volume rébarbatif des données. Un prévisionniste bien intentionné peut facilement se décourager en pensant à l’énorme quantité de données brutes qu’il pourrait avoir à prendre en considération. Par exemple, regardez la carte des hauteurs de 500 hPa (à intervalles de 100 m) pour les 11 membres d’une prévision d’ensemble de 84 heures à 0000 UTC le 19 novembre 2001, valide à 1200 UTC le 22 novembre 2001, ci-dessous.

Hauteurs de 500 hPa, valide à 1200 UTC le 22 novembre 2001

Même en attribuant à chacun des 11 membres de l’ensemble une couleur distinctive et en étiquetant les isohypses, cette carte n’est pas très utile!

Alors, pour aider le prévisionniste à interpréter les prévisions d’un SPE, le très grand nombre de renseignements contenus dans les prévisions est résumé dans un nombre beaucoup plus petit de produits statistiques et graphiques. Cet aspect des prévisions d’ensemble, la génération de produits d’ensemble, évolue encore à mesure que nous trouvons de nouvelles applications aux prévisions d’ensemble en météorologie opérationnelle, par exemple pour la prévision du temps violent.

Puisque les systèmes de prévisions d’ensemble fournissent de l’information sur l’incertitude, sur le (les) résultat de prévision le (les) plus probable et sur la distribution de probabilité des résultats de prévisions, les produits opérationnels issus des systèmes de prévisions d’ensemble mesurent ce qui suit :

Cette section présente les types de produits couramment disponibles (et d’autres en développement) issus des SPE, leur interprétation et les pièges possibles liés à leur utilisation.

Haut de la page

4.1.1 Méthodes de réduction des données d’ensemble

Les données d’ensemble peuvent être présentées dans des cartes horizontales (par exemple, dans un domaine spatial comme l’Amérique du Nord ou les États-Unis, comme dans le premier produit ci-dessous) ou des diagrammes à points (par exemple, pour un endroit particulier, y compris les sondages verticaux, comme dans le deuxième produit).

Carte de probabilité d’ensemble de dépassement pour les précipitations de 24 h avec un seuil de 0,5 po; prévision de 0000 UTC le 19 nov. 2001 valide à 1200 UTC le 22 nov. 2001
 
Portion du skew T à 40N, 75W, prévision d’ensemble de T de 36 h, valide à 1200 UTC le 20 nov. 2001

Les produits d’ensemble dans ces catégories peuvent aussi être post-traités pour prendre en considération les idiosyncrasies du modèle qui fournit l’information. De tels produits, dits étalonnés, tiennent compte des biais et des erreurs du modèle au cours d’une période déterminée dans le passé récent. Les pages qui suivent décrivent des produits d’ensemble typiques. Vers la fin de la section, nous allons aussi montrer comment l’étalonnage peut améliorer ces produits.

Haut de la page

4.1.2 Produits de moyenne et de dispersion

La façon la plus concise d’exprimer l’information contenue dans un ensemble de prévision de PMN est l’écart-type ou la moyenne et la dispersion présentés sur une carte de prévision horizontale ou donnant une vue en plan. On se rappellera que l’information concernant la dispersion sur ces cartes suppose une distribution normale, ou en forme de cloche, pour les données d’ensemble ou au moins pour la population de prévisions possibles dont les prévisions d’ensemble sont considérées représentatives. Plusieurs variables météorologiques se prêtent à ce genre de représentation, y compris, mais sans s’y limiter :

Hauteurs moyennes de 500 hPa pour l'ensemble, écart-type pour l'ensemble Prévision de 0000 UTC le 19 nov.  2001 valide à 1200 UTC le 22 nov. 200

Haut de la page

4.1.2Q Moyenne et dispersion

La figure ci-dessous montre les hauteurs de 500 hPa du GFS opérationnel dans l’hémisphère Nord et la dispersion de l’ensemble MREF (Medium Range Ensemble Forecast) pour la passe des NCEP de 1200 UTC le 20 mai 2004, valide à 1200 UTC le 25 mai 2004 (prévision de 120 heures), obtenue du site Web des prévisions MREF des NCEP. La moyenne de l’ensemble est analysée par des isohypses et la dispersion par des couleurs selon l’échelle apparaissant à droite.

Hauteurs de 500 hPa du GFS et dispersion de l’ensemble (mètres); prévisions du GFS et MREF de 1200 UTC le 20 mai 2004, valide à 1200 UTC le 25 mai 2004

Compte tenu de la dispersion prévue des hauteurs de 500 hPa représentées, lesquels des énoncés suivants au sujet de la prévision du GFS opérationnel sont vrais? Cochez tous les choix qui s’appliquent.

a) L’incertitude sur les hauteurs de 500 hPa dans le sud-est des États-Unis est petite.

b) L’incertitude sur l’intensité du creux à 500 hPa dans l’ouest des États-Unis est grande.

c) L’incertitude sur la position de la dépression coupée à l’est du Labrador est petite.

d) L’incertitude sur l’intensité de la dépression coupée au-dessus de la Scandinavie est petite.

Discussion

Plus la dispersion est grande, plus grande est l’incertitude dans la prévision d’ensemble. Par conséquent, les couleurs orange et rouge indiquent une grande incertitude alors que le bleu et le vert indiquent une faible incertitude. La réponse (a) est donc exacte. Comme la zone en amont du creux dans l’ouest des É. U. ainsi que le creux même affichent la dispersion élevée, la réponse (b) est exacte. La dépression coupée sur la Scandinavie n’a que des couleurs bleu et bleu-vert près de son centre; par conséquent, (d) est exact. Cependant, pour la dépression coupée à l’est du Labrador, il y a une forte dispersion au nord et au sud de la caractéristique, ce qui révèle une incertitude sur sa position latitudinale. Donc, (c) est inexact.

Haut de la page

4.1.3 Avantages de la prévision de la moyenne et de la dispersion d’un ensemble

Comme nous l’avons vu à la page précédente, le graphique de moyenne et de dispersion d’un ensemble est une bonne façon de représenter l’information livrée par l’ensemble de façon concise. Étant donné que les caractéristiques de petite échelle, plus difficile à prévoir, sont lissées dans la prévision par moyennage, la moyenne prévue de l’ensemble s’avère meilleure que n’importe quel membre de l’ensemble pris séparément (ou que la prévision opérationnelle après environ le jour 3) et ne présente que les champs à grande échelle mieux prévus. Ainsi, la moyenne de l’ensemble fournit une bonne information sur l’évolution la plus probable de l’atmosphère aux échelles prévisibles. En outre, moins il y a de dispersion dans la prévision, plus il y a de chances que la moyenne de l’ensemble se vérifie (Toth et coll. 2001). Donc, une incertitude élevée dans la prévision indique aussi une prévisibilité plus faible.

Nous pouvons aussi prendre en compte les régimes d’écoulement récents dans le calcul de la dispersion par un ajustement ou une « normalisation » de la dispersion des prévisions basé sur sa valeur moyenne durant une période de prévision récente. Ces dispersion normalisées donnent l’incertitude dans la prévision à chaque point, par rapport à sa valeur observée récente. Les valeurs plus grandes que 1 indiquent que la dispersion est plus grande qu’à l’habitude au cours de la période, ce qui implique une incertitude plus grande que la « normale ». Les valeurs plus petites que 1 indiquent une incertitude moindre qu’à l’habitude.

La figure ci-dessous donne un exemple de carte de moyenne et de dispersion normalisée d’ensemble, tirée de la page Web du SPE des NCEP, pour la prévision d’ensemble de 1200 UTC le 22 novembre 2002, valide à 1200 UTC le 5 décembre 2002. Pour cette carte, les 30 derniers jours ont été utilisés pour la normalisation, en donnant davantage de poids aux données les plus récentes.

Prévision d'ensemble des NCEP des hauteurs moyennes de 500 hPa (isohypses, mètres) et de dispersion (couleurs) normalisée des hauteurs Temps de validité : 312 h

Toutes les valeurs plus grandes que 1 indiquent une incertitude plus grande qu’au cours de la période de 30 jours alors que celles inférieures à 1 indiquent une incertitude moindre.

Limites de la moyenne et de dispersion d’ensemble.

Les calculs de moyenne et d’écart-type supposent que les membres de l’ensemble ont une distribution normale et que la moyenne de l’ensemble est la valeur la plus susceptible de se produire. Cependant, la théorie du chaos nous dit qu’un regroupement autour de deux solutions de prévisions possibles ou plus se produit souvent avec les systèmes physiques sensibles aux conditions initiales, comme l’atmosphère. Il s’ensuit que :

Haut de la page

4.1.3Q Moyenne et dispersion normalisée

La figure ci-dessous est une carte de prévision d’ensemble de la moyenne et de la dispersion normalisée des hauteurs de 500 hPa pour l’hémisphère Nord faite à 1200 UTC le 20 mai 2004, valide à 1200 UTC le 25 mai 2004 (prévision de 120 heures), tirée du site Web du MREF des NCEP. La moyenne est analysée par des isohypses et la dispersion normalisée par des couleurs selon l’échelle apparaissant à droite. Pour répondre à la question qui suit, vous devrez consulter aussi la carte des hauteurs du GFS opérationnel et de la dispersion brute de l’ensemble en cliquant ici.

Moyenne d’ensemble de 500 hPa (mètres) et dispersion de l’ensemble (sans dimension); prévision MREF de 1200 UTC le 20 mai 2004, valide à 1200 UTC le 25 mai 2004

Compte tenu de la moyenne et de la dispersion prévues des prévisions d’ensemble des hauteurs de 500 hPa apparaissant ici et d’après la dispersion brute montrée dans la carte précédente, lesquels des énoncés suivants sont vrais? Cochez tous les choix qui s’appliquent.

a) La dispersion de 100-170 mètres près du creux dans l’ouest des É. U. dépasse la moyenne pour cette région au cours des 30 derniers jours par un facteur 2 ou plus.

b) La dispersion de 25-45 mètres au large de la côte atlantique au sud de la Nouvelle-Angleterre est associée à une dispersion plus faible que la moyenne.

c) La dispersion de 30-35 mètres dans le nord de l’Afrique est associée à une dispersion plus forte que la moyenne.

d) Il y a une dispersion de 30-50 mètres dans l’est du Canada, ce qui est moins que la dispersion moyenne au cours des 30 derniers jours.

Discussion

La dispersion normalisée montre la taille relative de la dispersion de l’ensemble par rapport à la dispersion moyenne au cours des 30 derniers jours. Sur la carte, les couleurs orange et rouge indiquent un facteur 2 ou plus et on les observe près du creux dans l’ouest des É. U. La réponse (a) est donc correcte. Même s’il y a une dispersion relativement faible au large de la côte atlantique au sud de la Nouvelle-Angleterre, la dispersion normalisée est supérieure à 1, et (b) est incorrect. Dans le nord de l’Afrique, même si la dispersion n’est que de 30-35 mètres, la dispersion normalisée est de 1 1,5; par conséquent, (c) est correct. Finalement, la dispersion brute au Québec, bien qu’approximativement de la même taille que celle des choix (b) et (c), est dans une région de dispersion moyenne plus forte au cours des 30 derniers jours, ce qui donne une dispersion normalisée dans l’intervalle 0,6 0,8. Donc, (d) est correct.

Haut de la page

4.1.4 Schémas spaghetti

Le prévisionniste peut examiner tous les membres d’un ensemble à l’aide de produits que l’on appelle « schémas spaghetti ». Il s’agit d’une vue en plan d’une ou de seulement quelques valeurs d’isolignes pour une variable d’intérêt, ce qui simplifie la présentation tout en permettant au prévisionniste d’évaluer qualitativement la distribution des résultats de prévision dans les régions où ces isolignes sont tracées.

On peut voir que l’isohypse de hauteur de 500 hPa de 5640 mètres traverse trois régions d’incertitude dans la partie continentale des États-Unis. Le schéma spaghetti pour cette isohypse apparaît ci-dessous. Chaque membre de l’ensemble est représenté par une ligne mince d’une couleur particulière et la moyenne de l’ensemble est une ligne noire plus épaisse.

Lignes représentant la moyenne et les membres de l’ensemble pour les hauteurs de 500 hPa de 564 dm, prévision à 0000 UTC le 19 nov 2001 valide à 1200 UTC le 22 nov. 2001

Comment savons-nous quelles valeurs d’isolignes donnent le plus d’information? Nous pouvons utiliser les cartes de moyenne et de dispersion prévues pour en extraire des indices utiles. Comme nous nous intéressons à la probabilité d’une variable pronostique dans des régions de grande incertitude, il paraît logique d’examiner, dans les schémas spaghetti, les isolignes qui traversent les régions d’incertitude maximale! On peut voir ci-dessous la carte de moyenne et de dispersion pour la même passe d’ensemble avec la même heure de validité.

Carte de moyenne et de dispersion pour les hauteurs de 500 hPa de l’ensemble; prévision à 0000 UTC le 19 nov. 2001 valide à 1200 UTC le 22 nov. 2001

Notez que dans le schéma spaghetti (répété ci-dessous) :

Lignes représentant la moyenne et les membres de l’ensemble pour les hauteurs de 500 hPa de 564 dm, prévision à 0000 UTC le 19 nov 2001 valide à 1200 UTC le 22 nov. 2001

Avantages et limites des schémas spaghetti

Avantages :

Désavantages :

Haut de la page

4.1.4Q Schémas spaghetti

On peut voir ci-dessous le schéma spaghetti des hauteurs de 500 hPa (pour 522 et 564 dm) dans l’hémisphère Nord pour la prévision MREF des NCEP à 1200 UTC le 20 mai 2004, valide à 1200 UTC le 25 mai 2004 (prévision de 120 heures), tirée du site Web des prévisions MREF des NCEP. La moyenne de l’ensemble est tracée comme une ligne noire épaisse, la prévision du GFS opérationnel est en gris et les membres de l’ensemble sont les lignes fines en couleur. Il pourrait être utile d’examiner aussi les hauteurs du GFS opérationnel et la carte de dispersion brute de l’ensemble en cliquant ici.

Schéma spaghetti des hauteurs de 500 hPa pour les isohypses de 522 et 564 dm; prévision MREF à 1200 UTC le 20 mai 2004 valide à 1200 UTC le 25 mai 2004

D’après le schéma spaghetti ci-dessus, lesquels des énoncés suivants sont vrais? Cochez tous les choix qui s’appliquent.

a) Les hauteurs de 500 hPa dans le creux du côté l’ouest des É. U. ont une distribution normale.

b) Les hauteurs 500 hPa dans l’ouest des É. U. se regroupent autour de deux solutions.

c) La prévision moyenne de l’ensemble reflète précisément l’évolution la plus vraisemblable de l’atmosphère à 500 hPa dans l’ouest des É. U.

d) La dispersion est grande dans la région de l’isohypse de 564 dm dans l’ouest des É. U.

Discussion

Les schémas spaghetti montrent une ou quelques isolignes d’un champ d’intérêt pour faire voir la distribution de probabilité de cette variable dans des régions d’intérêt. Les choix se concentrent sur l’isohypses de 564 dm dans l’ouest des États-Unis. Les isohypses sont dans deux regroupements principaux; un premier pour un creux plus profond et progressant plus lentement que la moyenne et un deuxième pour un creux plus rapide et plus faible nettement plus à l’est. Un membre en orange semble être un cas aberrant. La moyenne de l’ensemble se situe entre ces deux regroupements qui représentent deux résultats de prévision de plus grande vraisemblance. Le regroupement en deux solutions indique à la fois que la moyenne de l’ensemble ne représente pas le résultat de prévision le plus vraisemblable et que les membres de l’ensemble ont une distribution bimodale plutôt que normale. C’est pourquoi (b) est vrai et (a) et (c) sont faux.

Nous pouvons utiliser les cartes de moyenne et dispersion pour déterminer les régions et les valeurs d’isohypses qu’il serait utile d’examiner. Si l’on se reporte aux cartes précédentes, l’isohypse de 564 dm passe là où la dispersion est grande (tant en terme absolu que normalisé) au large de la côte ouest des É. U. et dans la région montagneuse de l’ouest. Donc, (d) est vrai.

Haut de la page

4.1.5 Cartes de l’évènement le plus probable

Une autre représentation de type « vue en plan » de l’information contenue dans un ensemble montre le résultat de prévision le plus probable. Un choix de variable naturel pour cette représentation est le type de précipitations. La carte ci-dessous, tirée du site Web des SREF (prévisions d’ensemble à court terme) des NCEP, en est un exemple. Elle montre le type prédominant de précipitations (défini comme le type se produisant le plus fréquemment dans les membres de l’ensemble) dans la prévision de 1200 UTC le 12 novembre 2002 valide à 0000 UTC le 15 novembre. Le type de précipitations dans la prévision SREF est déterminée à l’aide de l’algorithme de Baldwin-Schictel. Si aucun membre ne prévoit de précipitations, le point de grille n’est pas coloré. S’il y a égalité pour la prédominance du type, un mélange de types est prévu.

Type de précipitations prédominant pour l’ensemble combiné Eta-BMJ, Eta-KF et RSM : heure de vérification 0000 UTC le 15 nov. 2002

Avantages et limites des cartes d’évènement le plus probable

Avantages :

Désavantages :

Haut de la page

4.1.6 Probabilité de dépassement

L’objectif premier des prévisionnistes est de prévoir les évènements météorologiques extrêmes. Les produits d’ensemble indiquant la probabilité de dépassement d’une valeur-seuil sont utiles à cet égard. La probabilité de dépassement est calculée en comptant le nombre de membres de l’ensemble qui dépassent le seuil choisi et en le divisant par le nombre total de membres dans l’ensemble.

Par exemple, la carte ci-dessous à droite, établie à 0000 UTC le 19 novembre 2001, montre la probabilité que la quantité de précipitations en 24 heures dépasse 0,5 po durant la période se terminant à 1200 UTC le 22 novembre 2001. Le schéma spaghetti correspondant pour les précipitations de 24 heures dépassant 0,5 po pour chaque membre de l’ensemble apparaît à gauche.

Schéma spaghetti d’ensemble pour les précipitations de 24 h dépassant 0,5 po; prévision à 0000 UTC le 19 nov. 2001 valide à 1200 UTC le 22 nov. 2001
Carte de la probabilité de dépassement d’ensemble pour les précipitations de 24 heures dépassant 0,5 po; prévision à 0000 UTC le 19 nov. 2001 valide à 1200 UTC le 22 nov. 2001

Seuils des variables pour les probabilités de dépassement

Parfois, le seuil à considérer dépend des conditions courantes. Par exemple, la quantité de précipitations qui occasionnera une crue éclair dépend en partie de l’état courant du sol. La figure ci-dessous montre un exemple d’un produit d’ensemble expérimental du Hydrological Prediction Center (HPC) des NCEP donnant la probabilité de crue éclair. Ce produit est créé à partir de la prévision SREF.

Probabilité (%) d’ensemble de précipitations de 6 h > seuil de crue éclair de 1200 UTC le 12 janvier 2002 à 1800 UTC le 12 janvier 2002

L’échelle de couleurs, dans le haut, indique la probabilité (déterminée d’après l’ensemble) que les précipitations de 6 h durant la période se terminant à 1800 UTC le 12 janvier 2002 dépassent le seuil de crue éclair local.

D’autres cartes de probabilité peuvent montrer les endroits où la valeur prévue d’ensemble pour une variable dépasse un seuil de probabilité fixé; par exemple, la quantité de précipitations avec une probabilité d’occurrence d’ensemble de 60 %..

Advantages and Limitations of Probability of Exceedance Graphics

Avantages :

Désavantages :

Haut de la page

4.1.6Q Probabilité de dépassement

Vous pouvez voir, ci-dessous, la carte de probabilité de dépassement pour un indice de température-humidité (ITH) supérieur à 80 °F d’après la prévision SREF des NCEP établie à 0900 UTC le 21 mai 2004, valide à 2100 UTC le 22 mai 2004. Les probabilités sont en déciles et les valeurs sont indiquées par la barre de couleurs en bas de la carte.

Probabilité d’un ITH >= 80, prévision SREF de 0900 UTC 21 mai 2004, valide à 2100 UTC le 22 mai 2004

En supposant qu’un avis de chaleur doit être émis dans l’éventualité d’un ITH vraisemblablement (probabilité de 60 % ou plus) égal ou supérieur à 80 °F, lesquels des énoncés suivants sont vrais? Cochez tous les choix qui s’appliquent.

a) Les États de l’Alabama et du Mississippi requièrent des avis de chaleur pour le 22 mai 2004.

b) La région du piedmont et les plaines côtières du sud-est des É. U. requièrent un avis de chaleur pour le 22 mai 2004.

c) Le sud du Texas le long du Rio Grande requiert un avis de chaleur pour le 22 mai 2004.

d) Aucune région du sud et du centre des Grandes Plaines ne satisfait au critère d’avis de chaleur le 22 mai 2004.

Discussion

Les cartes de probabilité de dépassement aident le prévisionniste à évaluer les évènements extrêmes. Ici, nous nous intéressions la chaleur extrême. Si le critère d’émission d’un avis de chaleur excessive est une probabilité de 60 % de dépassement d’un ITH de 80 °F, alors les régions de la carte qui sont en rouge (> 90 %) ou en jaune (> 70 %) et la moitié supérieure de celles en vert (> 50 %) requièrent des avis. Selon la carte, donc, les États de AL et MS ne satisfont pas au critère mais la majeure partie de la côte est au sud des Appalaches, le sud et le centre-nord du TX, le centre-ouest de l’OK et le nord-est du KS satisfont au critère d’avis. Par conséquent, les réponses (a) et (d) sont mauvaises et les réponses (b) et (c) sont bonnes.

Haut de la page

4.1.7 Graphiques de points

Pour représenter les prévisions d’ensemble pour un point ou, plus précisément, pour une maille, les données sont généralement tracées sous forme de série temporelle. Il y a deux genres de diagrammes :

Les sondages d’un ensemble, qui montrent la structure verticale moyenne de température et d’humidité à partir de chaque membre de l’ensemble dans une maille, peuvent aussi être représentés mais, par souci de simplicité, ne sont habituellement montrés qu’à des heures particulières.

Diagrammes à lignes brisées

Voici un exemple de diagramme à lignes brisées pour la passe d’ensemble de 0000 UTC le 19 novembre 2001. Nous avons choisi un point à 40°N et 75°W pour illustrer le produit. Dans ce diagramme, nous montrons chaque prévision membre de l’ensemble pour la température à 2 mètres, à intervalles de 12 heures, jusqu’à 1200 UTC le 22 novembre.

Diagramme à lignes brisées des membres de l’ensemble de 0000 UTC le 19 nov. 2001 pour 40N, 75W

Notez que la différence entre la température la plus élevée et la plus basse parmi les membres de l’ensemble augmente avec le temps initialement, jusqu’à 5 °C à 36 heures (1200 UTC le 20 novembre). Notez aussi qu’il peut y avoir des valeurs aberrantes et des regroupements, comme dans les schémas spaghetti. Ce diagramme peut être utilisé de pair avec des cartes de type « vue en plan » de l’ensemble pour associer les séries temporelles dans le diagramme à lignes brisées à différentes situations d’échelle synoptique dans la prévision d’ensemble. Par exemple, le cas marginal chaud (en pourpre) dans le diagramme à lignes brisées ci-dessus provient d’un membre de l’ensemble dans lequel la progression d’un front froid vers le point d’intérêt est beaucoup trop lente. D’autre part, le cas marginal froid (en bleu pâle) correspond au membre dans lequel la progression du même front est la plus rapide et est le résultat d’une plus grande advection froide et d’un refroidissement radiatif plus important occasionné par des ciels plus dégagés que dans les autres membres de l’ensemble.

Haut de la page

4.1.7Q Diagrammes à lignes brisées

Le diagramme à lignes brisées ci-dessous est pour la maille la plus proche de Washington D.C. pour la température à 2 mètres dans les prévisions d’ensemble à moyen terme de 1200 UTC le 24 mai 2004 pour les jours 1 à 8. Les données sont à intervalles de 6 heures (0000, 0600, 1200 et 1800 UTC). La moyenne de l’ensemble est la ligne noire épaisse et les autres membres sont les lignes en couleur. Les échelons de l’axe du temps représentent l’heure 0000 UTC de la date indiquée.

Diagramme à lignes brisées pour la température à 2 m à 39°N, 77°W Prévisions d'ensemble de 1200 UTC le 24 mai 2004

D’après ce diagramme à lignes brisées, lequel des énoncés suivants est correct? Indiquez le choix le meilleur.

a) La moyenne des 11 membres de l’ensemble représente le mieux la température à deux mètres la plus probable le 31 mai 2004.

b) Les données exhibent un regroupement autour de deux solutions à 1200 UTC le 27 mai 2004.

c) Une tendance au refroidissement est très probable après le 28 mai 2004.

d) Une tendance au réchauffement est très probable entre les 24 et 27 mai 2004.

Discussion

L’interprétation d’un diagramme à lignes brisées est analogue à celle d’un schéma spaghetti. Les données peuvent se regrouper en plusieurs résultats de prévisions de plus forte probabilité, la distribution de probabilité peut se voir dans la position des différents membres de l’ensemble et la moyenne de l’ensemble peut ou non être représentative de la solution la plus probable, tout dépendant de la nature de la distribution des données (normale, bimodale ou multimodale). Dans le présent cas, il y a une forte tendance des températures à deux mètres à se regrouper autour de certaines solutions, en particulier les 27 et 28 mai et les 30 et 31 mai. Il y a un regroupement minoritaire de membres chauds les 27 et 28 mai et de membres froids les 30 et 31 mai. À cause de ces regroupements, (b) est correct et (a) est incorrect. À cause de la distribution, on peut voir que la température à 2 mètres la plus probable le 31 mai sera plus élevée que celle indiquée par la moyenne de l’ensemble.

On peut aussi voir la tendance dans le diagramme à lignes brisées. Il y a manifestement une tendance moyenne au refroidissement du 24 au 28 mai suivi d’un réchauffement. Donc, (c) et (d) sont incorrects.

Haut de la page

4.1.8 Diagrammes en boîtes à moustaches

On peut voir ci-dessous le diagramme en boîtes à moustaches correspondant aux données de la page précédente. Les moustaches supérieures et inférieures s’étendent jusqu’aux valeurs extrêmes des membres de l’ensemble, alors que le haut et le bas de la boîte correspondent au haut et au bas des deux quartiles du milieu (l’intervalle des données rangées allant de 25 % à 75 %). La température médiane est indiquée par un cercle rouge.

Diagramme en boîtes à moustaches pour la prévision d’ensemble de 0000 UTC le 19 nov. 2001

Remarquez que la médiane n’est pas toujours au milieu de la boîte. Un point de médiane qui ne coïncide pas avec le milieu de la boîte indique que les membres de l’ensemble n’ont pas une distribution symétrique (ils pourraient, par exemple, être étalés). À 1200 UTC le 20 novembre 2001, par exemple, on voit que la médiane a à peu près la même valeur que le centile 75, avec un certain nombre de membres plus bas. Ceci correspond bien avec le diagramme à lignes brisées précédent, dans lequel sept membres regroupés de l’ensemble sont chauds (dont trois ayant la même température) alors que quatre sont considérablement plus froids, mais étalés plus loin que le regroupement chaud.

Notez également que le diagramme en boîtes à moustaches ne dit pas grand-chose à propos de la moyenne de l’ensemble. Il ne décrit directement que la médiane et les quartiles, qui dépendent du rang des données et non de la moyenne.

Haut de la page

4.1.8Q Diagrammes en boîtes à moustaches

Le diagramme en boîtes à moustaches ci-dessous concerne la maille la plus proche de Washington D.C. et a été produit à partir de la prévision d’ensemble à moyen terme de 1200 UTC le 24 mai 2004 des températures à 2 mètres pour les jours 1 à 8. Les données représentées sont les mêmes que celles de la question pour le diagramme à lignes brisées et sont indiquées à intervalles de 6 heures (0000, 0600, 1200 et 1800 UTC). Les boîtes représentent les deux quartiles du milieu, les extrémités des moustaches représentent les valeurs extrêmes et les lignes horizontales sont les moyennes. Les échelons de l’axe du temps représentent l’heure 0000 UTC de la date indiquée.

Diagramme en boîtes à moustaches pour les températures à 2 m à 39N, 77W, selon la prévision MREF de 1200 UTC le 24 mai 2004

Choisissez la meilleure réponse.

a) L’intervalle couvert par les températures à 2 m des membres de l’ensemble à 0000 UTC le 1er juin est d’environ 3 °F.

b) La médiane à 0000 UTC le 25 mai 2004 va de 75 à 80 °F, environ.

c) La valeur minimale parmi les membres de l’ensemble à 0000 UTC le 28 mai 2004 est 64 °F.

d) Les deux quartiles du milieu constituent un intervalle allant de 58 à 69 °F environ à 1200 UTC le 27 mai 2004.

Discussion

Le diagramme en boîtes à moustaches montre l’étendue des quartiles, les médianes et les valeurs extrêmes. Les boîtes représentent les deux quartiles du milieu séparés par la médiane, alors que l’extrémité des lignes verticales, ou moustaches, indiquent les valeurs extrêmes. Pour le choix (a), l’intervalle de 3 °F dont il est question est celui des deux quartiles du milieu, pas celui de toute la distribution. Par conséquent, ce choix est incorrect. Une médiane est une valeur simple, pas un intervalle; donc, (b) est incorrect. La valeur 64 °F dans le choix (c) est celle du bas du deuxième quartile, pas la valeur minimale; alors, le choix (c) est incorrect. La boîte à 1200 UTC le 27 mai 2004 montre un intervalle allant d’environ 58 à 69 °F. Comme la boîte représente les deux quartiles centraux de l’ensemble des données à ce moment, le choix (d) est correct.

Haut de la page

4.1.9 Sondages d’ensemble

Pour évaluer le degré d’incertitude sur la structure verticale de la température et/ou de l’humidité dans une colonne particulière d’un modèle, on peut se servir de sondages de l’ensemble. Nous allons ici prendre l’exemple de la colonne centrée à 40°N et 75°W (le même endroit que dans les diagrammes précédents). Un graphique des prévisions de température des membres de l’ensemble de 1000 à 600 hPa, valide à 1200 UTC le 20 novembre 2001, apparaît ci-dessous. Chaque membre de l’ensemble a sa couleur, selon la même convention que pour le diagramme à lignes brisées montré à la page 7.

Partie du skew-T à 40N, 75W, prévision d’ensemble de 36 h de T, valide à 1200 UTC 20 nov. 2001

Remarquez que la valeur marginale de basse température à 2 m dans le diagramme à lignes brisées vu précédemment apparaît aussi comme une valeur marginale relativement froide dans la structure thermique verticale de la basse et de la moyenne troposphère.

Haut de la page

4.1.10 Ajustement de biais

Le post-traitement de la sortie de prévision d’ensemble permet habituellement d’ajuster les statistiques d’ensemble en fonction des biais et erreurs systématiques sur une période « d’entraînement ». (L’erreur aléatoire n’est pas enlevée par ce procédé; l’erreur aléatoire est précisément ce que les techniques de prévisions d’ensemble fondées sur l’incertitude cherchent à réduire.) La période d’entraînement des données varie en longueur selon la nature de l’ajustement. Pour les courtes périodes (de l’ordre d’un mois), le régime le plus récent sera pris en considération, ce qui se reflétera sur la taille et l’endroit des biais du modèle. Pour des périodes d’entraînement plus longues (une saison complète ou plusieurs saisons de différentes années, par exemple), les biais et erreurs du modèle seront plus indépendants d’un régime particulier.

Dans les pages qui suivent, nous allons discuter de deux produits de correction de biais de la Global Climate and Weather Modeling Branch des NCEP, le premier appliqué aux champs de masse (hauteurs) et le second, à une paramétrisation physique (précipitations). Ensuite, nous verrons comment la correction du biais est appliquée à un produit utilisé par le Climate Prediction Center des NCEP dans ses prévisions de 6 jours, 10 jours et 2 semaines.

Haut de la page

4.1.11 Mesure de prévisibilité relative

Comment peut-on chiffrer l’information que renferment les ensembles au sujet de la prévisibilité d’un régime d’écoulement particulier ou prendre en considération la variabilité de la prévisibilité à différents moments de l’année? La mesure de prévisibilité relative (MPR) est un outil qui cherche à quantifier cette information.

Principe de la MPR

Considérez le graphique ci-dessous, qui montre les distributions de probabilité pour des passes hypothétiques d’ensembles de basse et de haute incertitude à un point de grille d’un modèle, de pair avec la distribution de probabilité climatologique pour ce point de grille indiquée par les échelons en noir définissant des intervalles de fréquence relative de 10 %. La ligne tiretée horizontale marque la probabilité climatologique (10 %) qu’un membre de l’ensemble soit dans un intervalle, alors que les bandes verticales rouges et bleues indiquent le pourcentage des membres de l’ensemble, parmi les ensembles de faible et de forte incertitude, respectivement, tombant dans chaque intervalle climatologique. La moyenne d’ensemble pour chaque distribution hypothétique est aussi représentée par une ligne épaisse en couleur.

La moyenne d’ensemble pour chaque distribution hypothétique

Des études ont montré que lorsque plusieurs membres d’ensemble tombent dans le même intervalle climatologique, l’atmosphère est plus prévisible que lorsque qu’ils sont répartis dans de nombreux intervalles. On peut utiliser ce résultat pour chiffrer la « prévisibilité relative » de l’atmosphère à chaque point de grille dans la prévision d’ensemble, en comparant la distribution courante de la passe d’ensemble d’une variable pronostique, comme la hauteur de 500 hPa, aux distributions obtenues durant une période passée.

Haut de la page

4.1.12 Application du principe de la MPR

Dans le système de prévisions d’ensemble des NCEP, on utilise la plus récente période de 30 jours de prévisions d’ensembles; le nombre de membres d’ensembles tombant dans le même intervalle climatologique que la prévision moyenne de l’ensemble courant est traité comme une mesure de prévisibilité. Dans le produit de MPR, on donne un poids plus fort aux prévisions d’ensemble les plus récentes. De cette façon, on donne plus d’importance à la performance du modèle après tout changement récent du régime d’écoulement.

Pour voir comment on utilise la mesure de prévisibilité relative, examinez la carte ci-dessous montrant la MPR (couleurs) et les prévisions moyennes d’ensemble des hauteurs de 500 hPa (isohypses) de 0000 UTC le 11 octobre 2001, valide à 0000 UTC le 17 octobre 2001 (une prévision de 144 h) :

Mesure de prévisibilité relative (couleurs) pour les prévisions moyennes d’ensemble des hauteurs de 500 hPa (isohypses)

La MPR est exprimée par intervalles de 10 %, comme l’indiquent les nombres en noir sous la barre de couleurs en bas du graphique. (Notez que le 10 % ici n’est pas lié aux 10 intervalles climatologiques d’égale probabilité.) La couleur correspondant à 90 % indique qu’au cours des 30 derniers jours, l’atmosphère en ce point était moins prévisible 90 % du temps que dans cette prévision. Autrement dit, 90 % du temps, moins de membres d’ensemble tombaient dans le même intervalle que la moyenne de l’ensemble. Donc, dans ce cas, la partie du creux qui est en orange dans l’est des É. U. est prévisible à 90 % par rapport aux prévisions d’ensemble durant la période de 30 jours.

Les nombres en bleu au-dessus de chaque segment représentent le pourcentage du temps au cours des 30 derniers jours où la prévision moyenne de l’ensemble s’est vérifiée quand la prévision avait le degré de prévisibilité indiqué par la couleur. Ici, le nombre au-dessus de la case de prévisibilité de 90 % indique que seulement 55 % des prévisions ayant une prévisibilité relative de 90 % à 144 heures se sont vérifiées. Notez qu’en général, on peut s’attendre à ce que la probabilité de vérification diminue...

Haut de la page

4.1.12Q Mesure de prévisibilité relative

Vous pouvez voir ci-dessous un exemple de diagramme de MPR opérationnel des NCEP représentant les prévisions de hauteur de 500 hPa de 144 heures dans l’hémisphère Nord pour la prévision MREF des NCEP (0000 UTC le 20 mai 2004, valide à 0000 UTC le 26 mai 2004). Les moyennes de l’ensemble sont tracées et la MPR est en couleur; dans la barre de couleurs, les valeurs de prévisibilité sont en noir et la probabilité de vérification en bleu. Pour répondre à la question ci-dessous, vous devrez peut-être consulter aussi les hauteurs du GFS opérationnel et la carte de la dispersion brute de l’ensemble ainsi que la carte de la moyenne et de la dispersion normalisée de l’ensemble pour la prévision d’ensemble de 1200 UTC le 20 mai 2004 valide à 1200 UTC le 25 mai 2004. (Remarque : Les MPR ne sont représentées que dans les cycles de 0000 UTC, mais peuvent être appliqués aux passes d’ensemble rapprochées dans le temps.)

Mesure de prévisibilité relative dans la passe du MREF de 0000 UTC le 20 mai 2004, valide à 0000 UTC le 26 mai 2004.

D’après la carte de MPR ci-dessus et les graphiques qui s’y rapportent, lesquels des énoncés ci-dessous sont corrects?

a) La prévisibilité et la dispersion sont en général négativement corrélées (les zones de faible dispersion ont une prévisibilité élevée, et vice versa).

b) La probabilité que le creux moyen de l’ensemble dans l’ouest des É. U. se vérifie est de 20 % ou moins.

c) La crête dans le Pacifique Est extratropical a une probabilité de se vérifier de plus de 63 %.

d) La circulation en aval dans le Midwest des É. U. est hautement prévisible.

Discussion

La carte de MPR montre la prévisibilité et la probabilité de vérification pour la prévision moyenne de l’ensemble de même que les isohypses moyennes de l’ensemble, par rapport à la performance du système d’ensemble au cours des 30 derniers jours. Sur la carte, la couleur rouge indique une prévisibilité de 90 % mais une probabilité de vérification de 63 %. Les teintes bleues décrivent une prévisibilité de moins de 50 % avec une probabilité de vérification de moins de 16 %. Les choix (b) et (c) sont donc corrects et le choix (d) est incorrect.

D’après les autres cartes montrant la dispersion de l’ensemble, la dispersion est grande dans l’ouest des É. U. et faible (au sens relatif) dans l’est du Pacifique. Ces dispersions sont négativement corrélées avec la prévisibilité dans la carte ci-dessus. La réponse (a) est donc juste.

Haut de la page

4.1.13 Autres prévisions d’ensemble étalonnées

La moyenne de l’ensemble, la dispersion de l’ensemble et les seuils de probabilité peuvent tous être étalonnés en fonction de la performance récente du système d’ensemble. La figure ci-dessous montre un exemple pour les précipitations de 24 heures, pris du site Web de vérification des NCEP. On y voit les probabilités non étalonnées (à gauche) et étalonnées (à droite) que les précipitations de 24 heures au jour 5 d’une prévision d’ensemble de 0000 UTC le 01 novembre 2002 dépassent 0,5 po. La barre de couleurs dans le bas de la figure montre l’échelle de couleurs des probabilités. Les isolignes noires sont tracées à intervalles de 30 % en commençant avec la probabilité 5 %. Pour faire l’étalonnage, on tient compte du biais au cours des 30 derniers jours dans la probabilité de distribution pour les précipitations dans chaque maille, en donnant plus de poids aux données les plus récentes, comme pour la pondération de la MPR décrite à la page précédente.

Probabilité d'accumulation de précipitations en 24 h au jour 5 dépassant 0,5 po; Prévision d'ensemble de 0000 UTC le 1er nov.  2002, Heure de vérification 1200 UTC le 6 nov.  2002

Les différences sont minimes mais notables dans le sud-est des É. U., où la zone de forte probabilité de précipitations de plus de 0,5 po en 24 h est très légèrement plus grande dans la version étalonnée.

Le Climate Prediction Center (CPC) des NCEP conserve aussi des données sur la performance du système de prévisions d’ensemble et des prévisions du GFS pour diverses variables pronostiques utilisées dans les prévisions pour 6 jours, 10 jours et 2 semaines. Un exemple tiré de la prévision pour les jours 6 à 10 du GFS pour la température à 850 hPa figure ci-dessous (prévision faite à 00 UTC le 15 novembre 2002). Les corrections de la prévision pour la température des jours 6 à 10 d’après les biais des périodes précédentes de 7 et de 30 jours sont aussi montrées.

Conditions initiales pour la prévision de 6 à 10 jours
de la température à 850 hPa le 15 nov. 2002

Anomalie prévue du GFS
Erreur moyenne du GFS Période de base : 8 nov. - 14 nov. 2002   Erreur moyenne du GFS Période de base : 16 oct. - 14 nov. 2002
Anomalie : Erreur moyenne sur 7 jours enlevée   Anomalie : Erreur moyenne sur 30 jours enlevée
This is the shading convention for the graphics above.

Remarquez que le biais froid aux É. U. à l’est des Rocheuses dans les deux périodes (7 et 30 jours) entraîne une réduction de l’anomalie froide prévue par le GFS dans cette région au cours de la période de prévision de 6 à 10 jours. Bien que cet étalonnage soit appliqué à la prévision à moyen terme du GFS, la même méthode d’étalonnage peut être appliquée aux prévisions moyennes d’ensemble du SPE.

Haut de la page

4.2 Interprétation des produits

4.2.1 Interprétation de la moyenne et de la dispersion à l’aide des produits spaghetti

Tuyau 1 : Une grande dispersion dans une caractéristique moyenne d’ensemble implique une incertitude sur l’amplitude de la caractéristique.

Dans la figure ci-dessous, les zones colorées montrent que l’incertitude a surtout trait à la distribution verticale des isohypses moyennes de l’ensemble, comme le montre le schéma spaghetti qu

i l’accompagne. Vous devriez considérer que l’existence du creux est vraisemblable mais ne pas tenir pour acquis que la moyenne est représentative de l’intensité probable. S’il y avait un doute quant à l’existence de la caractéristique, la moyenne de l’ensemble n’exhiberait probablement qu’une faible amplitude d’onde et une couleur foncée, ce qui pourrait indiquer que certains membres de l’ensemble ont des crêtes et d’autres, des creux.

Carte hypothétique de moyenne et de dispersion d’ensemble pour 500 hPa : isohypses pour la moyenne (m), couleurs pour l’écart-type (rouge = plus grand)

Schéma spaghetti hypothétique d’ensemble pour 500 hPa : membres en couleurs, moyenne en noir

Tuyau 2 : Une grande dispersion en amont et en aval d’une caractéristique moyenne d’ensemble implique une incertitude sur la position de la caractéristique.

Si deux régions d’incertitude se trouvent de part et d’autre d’une caractéristique de la moyenne d’ensemble, comme dans la figure ci-dessous, c’est qu’il y a un doute sur la vitesse de déplacement et la position de la caractéristique. Une fois encore, l’existence de la caractéristique est fort probable. Notez que, dans le diagramme spaghetti, la dispersion la plus forte s’observe dans les isohypses en amont et en aval de la prévision moyenne d’ensemble de l’axe du creux à 500 hPa.

Carte hypothétique de moyenne et de la dispersion d’ensemble pour 500 hPa : isohypses pour la moyenne (m), couleurs pour l’écart-type (rouge = plus grand)

Schéma spaghetti hypothétique d’ensemble pour 500 hPa : membres en couleurs, moyenne en noir

Tuyau 3 : Une grande dispersion asymétrique par rapport à une caractéristique moyenne d’ensemble signifie qu’il y a un regroupement minoritaire de solutions de prévision possibles différent de la moyenne.

On peut voir une telle configuration dans la figure ci-dessous. Le schéma spaghetti correspondant pour quelques isohypses de hauteurs de 500 hPa pourrait ressembler à celui de la figure de droite. Remarquez le groupe de prévisions (lignes en couleur) avec le profond creux d’onde courte en aval de l’axe de creux moyen de l’ensemble, qui semble être une caractéristique particulière à ces membres de l’ensemble.

Carte hypothétique de moyenne et de dispersion d’ensemble pour 500 hPa : isohypses pour la moyenne (m), couleurs pour l’écart-type (rouge = plus grand)

Schéma spaghetti hypothétique d’ensemble pour 500 hPa : membres en couleurs, moyenne en noir

Tuyau 4 : Comme le montre chacun des exemples ci-dessus, il est souvent utile d’examiner les schémas spaghetti pour mieux comprendre les cartes de moyenne et de dispersion.

Haut de la page

4.2.2 Interprétation de la moyenne et de la dispersion dans les produits de précipitations à l’aide des produits spaghetti

Souvent, les quantités de précipitations accumulées durant des périodes typiques des prévisions à court ou à moyen terme n’ont pas une distribution normale! Ceci rend l’interprétation des produits de moyenne et de dispersion des précipitations un peu plus compliquée que pour les autres variables. Cependant, les tuyaux et exercices ci-dessous suggèrent des stratégies pour en tirer profit.

Tuyau 1 : Une grande dispersion dans les quantités de précipitations, même avec une moyenne d’ensemble assez petite, peut signaler la possibilité d’un évènement de précipitations extrêmes.

Examinez la figure ci-dessous montrant la moyenne et la dipersion des précipitations de 12 h pour une région de prévision hypothétique, selon une prévision d’ensemble de 11 membres. Les précipitations moyennes de l’ensemble sont indiquées par des isohyètes (0,01, 0,1, 0,25 et 0,5 po) alors que les couleurs analysent la dispersion, selon la barre de couleurs au bas de l’image.

É tant donné la moyenne et la dispersion pour le champ de précipitations et en supposant une même valeur-seuil de crue éclair (1,5 po en 12 heures) dans toute la région représentée, où la possibilité de crue éclair serait-elle la plus préoccupante?


Moyenne et dispersion de l’ensemble pour les précipitations de 12 h

a) Dans la région du centre-nord.

b) Dans la région du centre.

c) Dans les régions du centre et du centre-sud.

d) Dans les régions du centre-nord et du centre-sud.

Discussion

La meilleure réponse est (c), dans les régions du centre et du centre-sud, et ce même si les précipitations moyennes de l’ensemble sont plus abondantes dans la région du centre-nord! Il s’agit ici d’interpréter la dispersion des précipitations au lieu de se fier uniquement à la moyenne de l’ensemble.

Une dispersion plus grande que la moyenne de l’ensemble sur une carte de moyenne et de dispersion des précipitations d’ensemble nous dit que la plupart des membres de l’ensemble ont moins de précipitations que la moyenne mais que certains membres en ont beaucoup plus. Ceci revient à dire qu’il y a une possibilité d’évènement de précipitations extrêmes. Ce type de configuration de moyenne et de dispersion est typique des prévisions de précipitations d’ensemble de la saison chaude quand les précipitations convectives sont prédominantes, tant dans la nature que dans les formulations du modèle de PMN.

Dans l’exemple ci-dessus, il y a deux régions distinctes où les précipitations moyennes de l’ensemble sont entre 0,25 et 0,50 po, mais la dispersion dépasse 1 po seulement dans les régions du centre et du centre-sud, ce qui rend ces régions plus susceptibles de subir une crue éclair. Si l’on tient compte en même temps de la difficulté de déterminer le moment et la position du déclenchement de la convection et les quantités de précipitations dans les modèles de PMN, l’interprétation n’en est que plus compliquée. Cette complication supplémentaire est illustrée ci-dessous pour le même cas hypothétique, au moyen du schéma spaghetti pour les chutes de pluie de 12 h critiques aux fins des guides de crues éclairs (1,5 po). Chaque prévision membre de l’ensemble est montrée avec une couleur distincte.

  Schéma spaghetti pour les précipitations de 12 h : seuil de 1,5 po

Ceci nous mène au...

Tuyau 2 : Les schémas spaghetti pour les valeurs seuils de précipitations peuvent être utiles pour l’interprétation des produits de moyenne et de dispersion de précipitations. On peut voir que sept des onze membres de l’ensemble dépassent la valeur-seuil de précipitations dans les régions du centre et du centre-sud et qu’aucun membre ne satisfait au critère de crue éclair dans la région du centre-nord, là où les précipitations moyennes de l’ensemble étaient pourtant les plus élevées. Ce résultat est plausible parce que :

Une interprétation possible est qu’il y a un risque de 63 % de dépassement du seuil de crue éclair dans les régions concernées. Dans ce cas, la quantité de précipitations moyenne de l’ensemble seule peut induire le prévisionniste en erreur s’il ne tient pas compte de la dispersion des prévisions de précipitations.

Haut de la page

4.2.3 Échelle des caractéristiques dans les prévisions d’ensemble

Les systèmes de prévisions d’ensemble (SPE) sont exécutés avec une résolution plus grossière que celle des modèles opérationnels valides au même moment. L’échelle des caractéristiques dans les prévisions d’ensemble à moyen terme (3-7 jours) variera avec la prévisibilité du régime. De façon générale, on peut s’en remettre aux règles suivantes relativement à l’échelle des caractéristiques dans les prévisions à moyen terme :

Premièrement, notez la crête à l’ouest de l’Amérique du Nord et le creux à l’est de l’Amérique du Nord, qui sont typiques durant les El Niño modérés. Deuxièmement, remarquez que les détails apparaissant dans la prévision de 24 heures, comme le creux d’onde courte dans le centre du Canada, ne sont pas visibles dans la prévision de 144 heures, ce qui met en évidence de caractère lissé de la moyenne de l’ensemble pour les intervalles de temps plus longs.es.

L’échelle des caractéristiques dans les prévisions à plus court terme (12 h à 3 jours) variera aussi selon la prévisibilité du régime. Les règles générales suivantes s’appliquent ici :

Haut de la page

4.2.4 Autres points à garder à l’esprit

La prévision d’ensemble est faite en considérant que le modèle de PMN utilisé est « parfait » et que les perturbations initiales reflètent adéquatement l’incertitude sur les conditions initiales. Cependant...

Fait : Le modèle de PMN n’est pas parfait.

  • Les prévisions d’ensemble présentent les mêmes biais et les mêmes erreurs que le modèle de PMN utilisé pour créer les différents membres de l’ensemble. Cependant, les prévisions étalonnées se basent sur la performance de l’ensemble au cours d’une certaine période (habituellement, 30 jours) pour corriger ces biais et erreurs systématiques du modèle. On devrait utiliser les prévisions étalonnées quand elles sont disponibles, en gardant à l’esprit la période utilisée pour établir l’étalonnage et le caractère de l’écoulement durant cette période

  • Si l’on ne peut pas se servir de prévisions étalonnées, on devrait prendre en considération les biais et erreurs connus du modèle de PMN et ajuster la prévision en conséquence

Fait : L’incertitude sur les conditions initiales n’est pas toujours adéquatement prise en compte dans les systèmes de prévisions d’ensemble.

  • Comme pour les prévisions déterministes, il est important d’évaluer les conditions initiales. Le prévisionniste devrait déterminer si l’incertitude inhérente aux membres de l’ensemble reflète adéquatement l’incertitude sur les conditions initiales, inhérentes aux observations (c’est-à-dire les données des satellites, des radiosondages, ACARS, de surface, etc.)

  • Reportez-vous à la section des Applications à un cas de ce module pour voir un exemple où des problèmes sont survenus dans la prévision d’un évènement de neige en janvier 2002 dans le nord-est des É. U.

Fait : Les données d’un ensemble sont à une résolution horizontale et verticale plus faible que les données de la prévision opérationnelle du même modèle.

Fait : Les données moyennes d’un ensemble éliminent les caractéristiques incertaines présentes dans les différents membres de l’ensemble.

  • La moyenne de l’ensemble montre généralement des caractéristiques dont l’amplitude est moindre que dans les différents membres

  • Les caractéristiques moyennes d’un ensemble dont la position est incertaine mais qui ont une amplitude semblable dans les membres apparaîtront moins prononcées qu’elles peuvent l’être en réalité

  • On peut se servir de la dispersion de l’ensemble pour interpréter la moyenne en fonction de la distribution des différents membres de l’ensemble

Pour faire une bonne interprétation des prévisions d’ensemble, il est nécessaire de tenir compte, en autres choses, de la position des régions de forte dispersion associées aux caractéristiques moyennes de l’ensemble. Nous allons d’abord explorer certaines configurations idéalisées de moyenne/dispersion et spaghetti pour ensuite examiner une situation réelle. Rappelez-vous que les cartes de moyenne et de dispersion et les schémas spaghetti sont rarement aussi facile à interpréter dans la vraie vie que dans les situations idéalisées des deux premiers exercices.

Haut de la page

4.3 Exercices

4.3.1 Interprétation des hauteurs de 500 hPa à l’aide de la carte de moyenne et de dispersion et du schéma spaghetti d’un ensemble

D’après la carte idéalisée de moyenne et de dispersion ci-dessous, quelle serait votre meilleure interprétation du creux moyen de l’ensemble?

Carte hypothétique de moyenne et de dispersion d’ensemble pour 500 hPa : isohypses pour la moyenne (m), couleurs pour l’écart-type (rouge = plus grand)

a) Il y a une incertitude sur la position du creux

b) Il y a une incertitude sur l’intensité du creux

c) Il y a une incertitude sur l’existence du creux

d) Aucune de ces réponses

Discussion

La meilleure réponse est (b). L’incertitude sur l’amplitude d’une caractéristique moyenne d’ensemble correspond à une grande dispersion à l’intérieur de la caractéristique. Le schéma spaghetti correspondant pourrait avoir l’air de ceci :

Schéma spaghetti hypothétique d’ensemble pour 500 hPa : membres en couleurs, moyenne en noir

Haut de la page

4.3.2 Prévisibilité des régimes d’écoulement atmosphérique

Les prévisionnistes du NWS font maintenant des prévisions pour jusqu’au jour 7. En gardant ceci à l’esprit, examinez la carte de mesure de prévisibilité relative ci-dessous. Elle montre la hauteur moyenne de 500 hPa et la MPR pour la prévision d’ensemble de 144 h de 0000 UTC le 17 novembre 2002, valide à 0000 UTC le 23 novembre 2002, durant un El Niño modéré dans le Pacifique équatorial centre. Les épisodes El Niño sont généralement associés à une crête dans le nord-ouest de l’Amérique du Nord et un creux dans le sud-est des É. U.

Moyenne et MPR (%) des hauteurs de 500 hPa de l'ensemble, prévision MREF de 0000 UTC le 17 novembre 2002, valide à 0000 UTC le 23 novembre 2002

Que pouvez-vous dire au sujet de la prévision moyenne d’ensemble d’une crête à 500 hPa dans la partie nord-ouest de l’Amérique du Nord? Cochez tous les choix qui s’appliquent. (Dans les énoncés suivants, « se vérifier » implique que l’analyse de vérification des NCEP tombera dans le même intervalle climatologique de 10 % que la prévision moyenne d’ensemble.)

a) Elle est plus prévisible dans cette prévision d’ensemble que dans au moins 90 % des passes d’ensemble des 30 jours précédents.

b) La probabilité que la crête se vérifie est d’au moins 90 %.

c) La probabilité que la crête se vérifie est d’au moins 69%.

d) La prévision de cette crête est corroborée par la configuration à grande échelle connue associée au El Niño.

Discussion

On se rappellera que la mesure de prévisibilité relative (MPR) suppose que plus il y a de membres dans l’ensemble qui s’accordent avec la prévision moyenne de l’ensemble, plus le régime d’écoulement est prévisible. Les couleurs représentent la MPR pour chaque maille de la prévision d’ensemble courante, calculée comme une moyenne pondérée de la fréquence à laquelle les membres des ensembles au cours de la précédente période de 30 jours sont tombés dans le même intervalle climatologique que la prévision moyenne d’ensemble courante. La couleur rouge-orange indique une prévisibilité de 90 % et on la retrouve dans la caractéristique d’intérêt. Par conséquent, (a) est correct.

Cependant, 90 % de prévisibilité ne signifie pas 90 % de chances de se vérifier. Durant la même période de 30 jours, lorsque les prévisions avaient une prévisibilité de 90 %, elles ne se sont vérifiées que 69 % du temps. Donc, (b) est incorrect et (c) est correct.

Finalement, les épisodes El Niño modérés ont tendance à favoriser la phase positive de la téléconnexion du Pacifique–Amérique du Nord. Une téléconnexion positive implique des hauteurs au-dessus de la normale dans le nord-ouest de l’Amérique du Nord et en dessous de la normale dans le sud-est. Ainsi, l’existence du El Niño augmente la confiance dans la prévision de hauteur de 144 h; (d) est correct.

Haut de la page

4.3.3 Limites des ensembles à moyen terme

Examinons maintenant la carte de MPR pour la moyenne d’ensemble de 500 hPa selon la passe d’ensemble de 0000 UTC le 22 novembre 2002 aussi valide à 0000 UTC le 23 novembre 2002. Comparez-la à la prévision de 144 h de l’exercice précédent, valide à la même heure. Il peut aussi être utile d’examiner les différentes prévisions membres de 144 h des hauteurs de 500 hPa pour voir la position et l’amplitude des caractéristiques prévues par chaque membre de l’ensemble. (Cliquer sur le lien fera ouvrir de nouvelles fenêtres pour faciliter la comparaison des cartes.)

Moyenne et MPR (%) des hauteurs de 500 hPa de l'ensemble, prévision MREF de 0000 UTC le 22 novembre 2002, valide à 0000 UTC le 23 novembre 2002

Pour l’instant, considérez la prévision moyenne d’ensemble de 24 heures comme une « vérification ». En comparant ce que donnent les deux prévisions à 0000 UTC le 23 novembre 2002, lesquels des énoncés suivants sont vrais? Cochez tous les choix qui s’appliquent.

a) La position des caractéristiques à grande échelle avec une forte prévisibilité dans la prévision de 144 h s’est avérée bien prévue (crête dans le nord-ouest de l’Amérique du Nord, creux dans l’est de l’Amérique du Nord).

b) L’amplitude des caractéristiques à grande échelle avec une forte prévisibilité dans la prévision de 144 h a été bien prévue, comme leur position.

c) La position de l’axe du creux d’onde courte dans le centre du Canada avait la même prévisibilité à 24 heures qu’à 144 heures.

d) Les caractéristiques à plus petite échelle apparaissant dans la prévision de 24 heures sont éliminées dans la prévision moyenne d’ensemble de 144 heures.

Discussion

Les caractéristiques de la prévision de 144 heures dont le degré de prévisibilité est élevé apparaissent à peu près au bon endroit dans la vérification. C’est parce que les prévisions d’ensemble à moyen terme parviennent habituellement à bien prévoir la position des caractéristiques à grande échelle ou de grande longueur d’onde, plus facile à prévoir. Donc, (a) est correct. Il faut noter, toutefois, que dans certains cas, les caractéristiques à plus petite échelle peuvent aussi être bien prévues.

Cependant, l’amplitude des caractéristiques à grande échelle, de grande longueur d’onde, dépendra de l’amplitude des caractéristiques de plus petite échelle, ou de courte longueur d’onde, qui s’adonneront à passer là où se trouvent la crête et le creux à grande échelle. On remarque ci-dessus que l’amplitude de la crête à l’ouest a été bien capturée mais que l’amplitude du creux à l’est a été sous-prévue par la moyenne de l’ensemble par 100 ou 120 mètres. Donc, la réponse (b) est incorrecte.

D’après la carte ci-dessus, le degré de prévisibilité de la position de l’axe du creux dans le centre du Canada varie de 60 à 90 %. À 144 heures, cependant, la prévisibilité de l’axe du creux (qui est beaucoup plus faible dans la moyenne de l’ensemble) n’est qu’entre 30 et 70 %. Donc, (c) est incorrect.

En examinant les différentes prévisions membres de 144 heures des hauteurs de 500 hPa, on peut voir les différentes positions et amplitudes du creux d’onde courte. (La même information serait aussi fournie par un schéma spaghetti pour une hauteur adéquatement choisie.) Si l’on compare ceci à la MPR moyenne d’ensemble à 144 heures, on voit que les différences entre les prévisions membres à 144 heures sont quelque peu lissées par le moyennage des prévisions membres requis pour déterminer la moyenne de l’ensemble, ce qui fait que la caractéristique est plus faible. Donc, (d) est correct. Notez que les creux d’onde courte au large de la côte ouest des É. U. et dans le centre du Canada apparaissent dans les différents membres de l’ensemble pour la prévision de 144 heures, mais avec des amplitudes et à des endroits différents. Il convient de remarquer qu’il peut y avoir une information utile dans la constance de l’existence d’une caractéristique de plus petite échelle même si sa position et son amplitude ne sont pas prévues avec constance.

Haut de la page

5.0 Vérification

Introduction

Toutes les prévisions numériques doivent être vérifiées pour que le prévisionniste puisse s’y fier et les utiliser avantageusement. Pour les prévisions simples, on emploie généralement les outils statistiques simples de biais (froid ou chaud, humide ou sec, haut ou bas, etc.) et d’erreur-type (une mesure de la « distance » entre la prévision et la vérification). Ceci peut se faire à des points uniques ou à plusieurs points dans une région d’intérêt. Pour les prévisions d’ensemble, on peut aussi appliquer ces méthodes et d’autres outils statistiques courants à la valeur moyenne pour une variable météorologique ou à une valeur d’un membre en particulier.

Avec les prévisions d’ensemble, toutefois, nous voulons évaluer davantage que la précision d’une prévision membre donnée ou de la prévision moyenne de l’ensemble. Le but des prévisions d’ensemble est de donner au prévisionniste une image précise de la distribution de probabilité d’évènements possibles, et c’est pourquoi nous voulons vérifier cette distribution et ses qualités statistiques. On cherche donc, entre autres choses, à :

Cette section a pour but d’aider les prévisionnistes opérationnels à comprendre les aspects clés de la vérification des prévisions d’ensemble, afin qu’ils puissent

Haut de la page

5.1 Notions fondamentales

5.1.1 Deux types de produits de prévision d’ensemble

Les prévisions catégoriques disent « catégoriquement » qu’un certain évènement parmi un groupe d’évènements se produira ou ne se produira pas. Elles sont de nature « binaire » et donc la probabilité d’un évènement est de 0 % ou de 100 %. Un exemple de catégories multiples pourrait être un groupe de températures entières entre 87 et 95 °F. Les prévisions catégoriques avec seulement deux résultats possibles sont dites dichotomiques; par exemple, la température dépassera-t-elle 90 °F ou non aujourd’hui? La vérification des prévisions catégoriques fait appel à des concepts comme les « taux de succès » et les « taux de fausse alarme », dont on discute à la page 2 de cette section.

Les prévisions probabilistes décrivent la vraisemblance d’un ou de plusieurs évènements et ainsi expriment le degré d’incertitude. La variable prévue peut avoir des valeurs discrètes ou continues. Les variables continues, cependant, doivent être réorganisées en valeurs discrètes ou en sous-intervalles (p. ex., les températures entières entre 87 et 95 °F) pour que les probabilités puissent être calculées. La probabilité des évènements est toujours entre 0 et 100 %.

Le premier graphique ci-dessous montre une prévision probabiliste hypothétique de la température maximale. Le deuxième graphique montre les mêmes données prévues avec seulement deux intervalles — températures inférieures à 90 °F et températures égales ou supérieures à 90 °F. (Notez que dans le premier graphique, les marques de graduation sont tracées tous les 5 % alors que dans le second, elles le sont tous les 20 %.)

Distribution de probabilité pour la température maximale

Distribution de probabilité pour la température maximale

Les incréments utilisés pour analyser la distribution de probabilité, c’est-à-dire la taille des « classes » (ou catégories, ou intervalles) sur l’axe horizontal, ont une valeur arbitraire et peuvent être choisis en fonction des besoins de l’utilisateur. La vérification des distributions de probabilité repose sur la correspondance entre les probabilités prévues et les fréquences de vérification et fait appel aux notions de fiabilité et de résolution, dont nous discuterons à la page 3.

Haut de la page

5.1.2 Vérification des prévisions catégoriques de SPE

On utilise les termes « succès » et « fausse alarme » pour les catégories des prévisions « oui/non ». Un succès est un évènement ou un non-évènement correctement prévu (les cellules « oui/oui » et « non/non » dans une table de contingence). D’autre part, une fausse alarme désigne un évènement qui a été prévu mais qui n’est pas observé (la cellule « oui/non »). Le taux de succès peut être défini de deux façons :

alors que le taux de fausse alarme désigne le rapport des fausses alarmes au nombre de fois qu’un évènement a été prévu. On peut représenter ceci au moyen d’une table de contingence des évènements prévus en fonction des évènements observés, comme ci-dessous :

Table de contingence pour les prévisions catégoriques

De bonnes prévisions auront évidemment un taux de succès meilleur que leur taux de fausse alarme. Le taux de succès pour les données ci-dessus est soit la somme des rapports des prévisions correctes, ou 0,35 + 0,40 = 0,75 (les cellules « oui/oui » + « non/non »), soit, alternativement, 0,35/0,45 (« oui/oui » divisé par « oui/oui » + « oui/non »), ou environ 0,78. Le taux de fausse alarme est 0,10/(0,10 + 0,35) = 0,22 (la cellule oui/non divisée par les cellules oui/oui + oui/non).

Le diagramme ROC (Relative Operating Characteristics) montre la relation entre les taux de succès et de fausse alarme dans un intervalle complet de probabilité, ce dont on discute dans la prochaine section sur les outils de vérification.

Le concept d’habileté

L’habileté est une mesure d’exactitude fondée sur une comparaison : habile par rapport à quoi? Habituellement, l’habileté d’une prévision est calculée par comparaison avec des prévisions considérées non habiles, comme la climatologie ou la persistance (c. à d. que la prévision aujourd’hui est semblable à la vérification d’hier). Bien sûr, les prévisions non habiles ne sont pas nécessairement mauvaises, mais elles peuvent être produites sans habileté et donc n’ont pas de valeur ajoutée, et c’est précisément ce que nous cherchons à mesurer. Un score d’habileté est donc une mesure objective de l’exactitude d’une prévision (comme le taux de succès) par comparaison à l’exactitude de cette référence. Le score d’habileté se calcule ainsi :

Le score d’habileté se calcule ainsi

où « exactitude parfaite » (toujours 1,00 ou 100 %) une vérification correcte à 100 %. Un score d’habileté positif (numérateur plus grand que zéro) indique une prévision plus habile que la prévision de référence. Un score nul ou négatif indique une absence d’habileté. Par exemple, si une prévision, au cours d’une certaine période, se vérifie 60 % du temps et que la climatologie se vérifie 30 % du temps, le score d’habileté pour cette période serait :

(60-30)÷(100-30) = 30÷70 ~ 0.428 ou 42.8%

On utilise les scores d’habileté pour mesurer la fiabilité et la résolution des prévisions catégoriques ou probabilistes. Dans la section suivante, nous allons discuter de différents outils permettant d’évaluer la résolution et la fiabilité des prévisions d’ensemble.

Haut de la page

5.1.3 Vérification des prévisions probabilistes des SPE

La vérification du SPE est basée sur la comparaison des prévisions de probabilité d’ensemble à la fréquence des observations dans le temps. Une bonne vérification requiert un grand nombre de prévisions d’ensemble pour que le système de prévisions d’ensemble obtienne des résultats stables.

Fiabilité et résolution

On utilise deux mesures statistiques pour évaluer le degré de concordance entre les prévisions et les observations. Il faut tenir compte de ces deux mesures pour bien évaluer le SPE.

Fiabilité : Comparaison de la distribution des prévisions à celle des vérifications

L’évaluation de la fiabilité est aussi appelée l’étalonnage, parce que nous pouvons utiliser les résultats pour « étalonner » une distribution de prévisions d’ensemble de façon à retrancher le biais et l’erreur systématiques des prévisions du SPE.

Cas d’une bonne résolution : Les prévisions reflètent les distributions d’observations divergentes

Cependant, des distributions de prévisions d’ensemble d’aspect très différent associées à des vérifications qui se ressemblent indiquent une faible résolution. C’est ce que montre la figure ci-dessous. Les prévisions froides et chaudes (A et B, respectivement) sont associées à des observations dont les distributions sont rapprochées l’une de l’autre et proches de la climatologie.

Cas d’une faible résolution : Les distributions divergentes des prévisions ne sont pas vérifiées par les observations

Ajustements permettant d’améliorer la fiabilité et la résolution

On peut améliorer une faible fiabilité en ajustant la distribution des prévisions à l’aide de la relation passée connue entre les distributions observée et prévue (et en supposant que cette relation ne changera pas de façon importante). On discute de « l’étalonnage » des prévisions à la section Réduction des données/Produits. Mais l’étalonnage ne peut pas améliorer une prévision qui n’a pas une bonne résolution; il faut considérer les deux aspects pour bien évaluer un SPE.

On ne peut pas améliorer des prévisions de faible résolution à l’aide de procédés statistiques. Par exemple, si l’on voulait étalonner les prévisions d’ensemble dans la figure ci-dessus pour traiter leur biais chaud et froid apparents, on obtiendrait systématiquement des distributions dans le futur qui correspondraient à la climatologie. On pourrait aussi bien ne pas exécuter le SPE du tout! Pour des situations comme celle-là, la seule façon d’améliorer la prévision serait d’améliorer le modèle même, de façon à ce que les prévisions du SPE puissent refléter, par exemple, les vérifications chaudes et froides ou humides et sèches.

Haut de la page

5.2 Outils

5.2.1 Outils statistiques

Des outils statistiques conçus pour des données probabilistes sont disponibles pour évaluer la fiabilité et/ou la résolution des distributions de probabilité des prévisions d’un SPE. Un prévisionniste peut se servir de ces outils, par exemple, pour savoir :

Le tableau ci-dessous énumère certains de ces outils de même que les caractéristiques qu’ils évaluent. Les pages indiquées contiennent une explication se rapportant à l’outil en question.

Caractéristique de la distribution de probabilité évaluée

Outils utilisés pour l’évaluation

Fiabilité et résolution

Score de Brier (BS) (p. 2)
Score d’habileté de Brier (BSS) (p. 2)
Diagramme de fiabilité (p. 3)
Score d’habileté de probabilité ordonnée (Ranked Probability Skill Score — RPSS) (p. 5)

Fiabilité

Diagramme de Talagrand (histogramme de rangs d’analyse (p. 6)

Résolution

Résolution Les courbes ROC (Relative Operating Characteristics) (p. 4)

Haut de la page

5.2.2 Le score de Brier (BS) et le score d’habileté de Brier (BSS)

Les notions de fiabilité et de résolution sont résumées de façon concise dans une mesure statistique appelée score de Brier (BS = Brier Score). Le score de Brier apparie des prévisions catégoriques et les observations. Pour chaque évènement prévu, une valeur de 1 est assignée aux prévisions et aux vérifications qui tombent dans une catégorie particulière et une valeur de 0 est assignée à celles qui tombent dans les autres catégories. Les paires de valeurs prévision-observation sont soustraites et mises au carré (le résultat est 0 ou 1), additionnées puis divisées par le nombre de paires, ce qui donne un nombre entre 0 et 1. Plus le score de Brier est proche de zéro, meilleure est la prévision.

Le score d’habileté de Brier (BSS) compare le score de Brier d’une prévision à une valeur de référence, habituellement la climatologie. Ce score va de 1 (le meilleur) à 0 (le pire), ce qui est l’inverse du score de Brier.

En guise d’exemple des scores de Brier et d’habileté de Brier, examinons les données hypothétiques du tableau ci-dessous pour le jour 2 des prévisions d’ensemble de la température moyenne et des vérifications subséquentes pour 30 jours consécutifs. Nous utilisons la climatologie à long terme de l’endroit pour ranger les températures dans trois catégories équiprobables de 33 % : sous la normale, normale et au-dessus de la normale. L’ordre est prévision/vérification. Les jours avec des erreurs de prévision seulement sont en rouge. Les jours où la prévision s’est vérifiée mais non la climatologie (au-dessus ou au-dessous la normale) sont en bleu. Les jours où ni la prévision ni la climatologie ne se sont vérifiées sont en pourpre.

Sous la normale

1/1
1/0
0/0
0/0
0/0
1/0
0/0
0/0
1/1
1/1
0/0
0/0
0/0
0/1
0/0

Près de la normale

0/0
0/1
0/0
1/1
1/1
0/0
1/1
1/1
0/0
0/0
1/1
1/1
1/1
0/0
0/0

Au-dessus de la normale

0/0
0/0
1/1
0/0
0/0
0/1
0/0
0/0
0/0
0/0
0/0
0/0
0/0
1/0
1/1

 

                             

Sous la normale

0/0
0/0
1/1
1/1
1/0
0/0
0/0
0/0
0/0
1/1
1/1
1/1
0/0
0/0
0/0

Près de la normale

1/1
1/1
0/0
0/0
0/1
1/1
1/1
1/1
1/1
0/0
0/0
0/0
1/1
1/1
1/1

Au-dessus de la normale

0/0
0/0
0/0
0/0
0/0
0/0
0/0
0/0
0/0
0/0
0/0
0/0
0/0
0/0
0/0

Le score de Brier, dans ce cas, pour la prévision de ces catégories de température (avec 3 jours mauvais sur 30) est :

BS = 3 x (1/30) = 0,1

La prévision de la climatologie (près de la normale) chaque jour durant cette période donne un score de Brier de 12 x 1/30 (c'est-à-dire 12 jours mauvais sur 30) ou 0,4. Si on utilise la climatologie comme valeur de référence pour le score d'habileté de Brier, on obtient, selon la formule du score d'habileté :

BSS = (0,1 – 0,4) ÷ (0 – 0,4) =       0,75

Exemple de produits de score de Brier

On peut voir comment le NWS utilise le score de Brier dans le graphique ci-dessous, tiré du site Web du Hydrological Prediction Center (HPC). Le graphique montre le score de Brier des probabilités de précipitations (PdP) du jour 3 au jour 7 pour les prévisions humaines de précipitations du HPC pour la période de juillet 2003 à juillet 2004. Remarquez que le score de Brier augmente (indication d’une habileté moindre) avec la durée de la prévision de même qu’en été par rapport à l’hiver.

Scores de Brier des PdP à moyen terme du HPC

Haut de la page

5.2.2 En profondeur : Fiabilité, Résolution et BS/BSS

Composantes de BS et de BSS

Le score de Brier peut être décomposé par manipulations algébriques en trois composantes (voir, par exemple, Wilks 1995, 261-263) :

BS = fiabilité – résolution + incertitude

La contribution de chaque terme au score de Brier est la suivante :

Comme un score de Brier parfait vaut zéro, on peut réécrire le score d’habileté de Brier comme suit :

BSS = (BSprév – BSclim)     / (0 – BSclim ) = 1 – (BSprév /     BSclim)

 

Détermination de la zone « sans habileté » dans le diagramme de fiabilité

On peut montrer que BSclim est exactement l’incertitude, ce qui fait que le score d’habileté de Brier devient :

BSS = (résolution – fiabilité) /     incertitude

On voit, d’après cette formule, que :

En d’autres mots, là où la fiabilité est inférieure ou égale à la résolution, la prévision n’a pas d’habileté. À partir de ce résultat, on peut tracer la ligne « sans habileté » dans un diagramme de fiabilité (voir la page 3 de cette section).

Haut de la page

5.2.3 Diagramme de fiabilité

On peut visualiser la résolution et la fiabilité d’un SPE en traçant la fréquence des probabilités prévues en fonction de la fréquence des vérifications associées. Le résultat est un diagramme de fiabilité (ou diagramme d’attributs) qui compare la ligne tracée à :

Diagramme de fiabilité

Pour créer le diagramme de fiabilité ci-dessus, les données de chaque prévision d’ensemble faite sur une période de 20 jours ont été classées dans chacun des 10 intervalles climatologiques équiprobables pour la hauteur de 500 hPa (les mêmes intervalles que pour l’exemple de produit d’ensemble de MPR utilisé dans la section précédente). Pour chaque passe, le pourcentage des membres d’ensembles qui concordent (c. à d. qui tombent dans le même intervalle) est la probabilité prévue pour que ce résultat se produise. La position 0 % dans le diagramme ci-dessus représente les cas pour lesquels aucune prévision ne tombe dans un intervalle et la position 100 % représente les cas où toutes les prévisions tombent dans le même intervalle. Le diagramme montre comment ces probabilités correspondent à la fréquence à laquelle les observations subséquentes tombent dans les mêmes intervalles.

Haut de la page

5.2.4 Le diagramme ROC (Relative Operating Characteristics)

La technique ROC détermine la qualité des prévisions catégoriques en mettant en rapport les taux de succès et les taux de fausse alarme pour des évènements ou des valeurs-seuils prévus et en traçant ces rapports sur un diagramme ROC. On peut aussi utiliser la technique ROC avec les prévisions probabilistes, lorsque des seuils de probabilité sont utilisés pour déterminer si une prévision est un succès, un échec ou une fausse alarme. Par définition, les taux de succès et de fausse alarme peuvent aller de 0,0 à 1,0 et la courbe ROC doit commencer à l’origine (0,0, 0,0) et se terminer à (1,0, 1,0) pour pouvoir calculer le score ROC.

Pour expliquer le diagramme ROC, on a utilisé les données d’un SPE de 14 membres des NCEP à une résolution spectrale de T62 (une résolution de grille d’environ 225 km) pour établir des prévisions de probabilité de 5 jours pour les hauteurs de 500 hPa d’avril à juin 1999. Les probabilités prévues ont été définies comme les pourcentages des membres d’ensemble dans chaque prévision tombant dans 10 intervalles climatologiques équiprobables (les mêmes que ceux utilisés pour le diagramme de fiabilité de la page précédente et la MPR), à chaque point de grille dans l’hémisphère Nord. Pour les besoins des scores, les prévisions de probabilité 0 % ont été ignorées. Les probabilités prévues autres que zéro (1/14, 2/14, etc. jusqu’à 14/14 ou 1,0) ont ensuite été utilisées comme seuils pour déterminer les succès et les fausses alarmes. Ici, on a compté un succès si la fréquence de vérification était égale ou dépassait la fréquence prévue. Réciproquement, si la fréquence des vérifications était moindre que la prévision, c’était une fausse alarme.

Chaque paire de taux de succès et de fausse alarme résultante a été tracée sur le diagramme ROC ci-dessous pour produire la courbe ROC (en rouge). Après avoir tracé des points de données, nous avons complété la courbe en reliant les points de données le plus élevé et le plus bas aux points (1,0, 1,0) et (0,0, 0,0), respectivement. La ligne tiretée bleue montre les taux de succès et de fausse alarme de la prévision opérationnelle, à titre comparatif. Quand les succès et les fausses alarmes dans une prévision sont égaux, on considère que la prévision n’a pas d’habileté. Ce seuil de non-habileté est représenté par la diagonale noire.

Diagramme ROC

On calcule un score ROC en mesurant l’aire sous la courbe ROC. Différentes méthodes permettent de faire ce calcul (méthode des trapèzes, par exemple); il importe toutefois de toujours l’appliquer de la même façon. Un score est considéré élevé s’il est proche de 1 (tout le carré) et bas s’il est de 0,5 ou moins (l’aire sous la ligne de non-habileté). Dans le graphique ci-dessous, le score est estimé à 0,68 (en utilisant la méthode des trapèzes pour mesurer l’aire), ce qui indique que les prévisions catégoriques de 5 jours de la hauteur de 500 hPa telles que définies auparavant ont une certaine habileté. Notez que certains centres météorologiques soustraient 0,5 (l’aire sous la ligne de non-habileté) de l’aire sous la courbe ROC pour déterminer le score d’habileté. Détail intéressant, à 5 jours, l’ensemble à basse résolution a plus d’habileté que la prévision opérationnelle à haute résolution.

Les scores ROC (aire sous la courbe) pour différents termes de prévision d’ensemble sont souvent utilisés pour évaluer la durée de l’habileté dans les prévisions. On en voit un exemple ci-dessous (du site Web des NCEP/EMC) pour la prévision d’ensemble à moyen terme des NCEP (ROC-ENS), la prévision de contrôle de l’ensemble (ROC-CTL) et la prévision du GFS opérationnel à plus haute résolution (ROC-MRF). La période couverte est février 2004 et inclut les scores ROC des prévisions pour les jours 1 à 15 (avec 0,5 soustrait). Remarquez que l’ensemble possède de loin le meilleur score; le GFS et la prévision de contrôle sont loin derrière.

Hauteur de 500 hPa dans l'hémisphère Nord Moyenne pour 20040201 - 20040228

Haut de la page

5.2.5 Score de probabilité ordonnée et score d’habileté de probabilité ordonnée (RPS et RPSS)

Le score de probabilité ordonnée (RPS) est analogue au score de Brier (BS) mais s’applique à des catégories multiples (valeurs prévues discrètes) et est une mesure de « distance » entre les distributions de probabilité cumulative des prévisions et des vérifications. Pour calculer le score de probabilité ordonnée, on ordonne les catégories et leurs probabilités associées de la plus basse à la plus élevée. Les différences entre les paires de probabilités cumulatives prévision-vérification sont calculées, mises au carré et additionnées. Un score parfait est zéro, comme pour le BS.

Pour un exemple de ce calcul, considérons la prévision hypothétique suivante de probabilités de précipitations accumulées de 24 à 36 heures réparties en trois classes et comparant la performance des prévisions de deux SPE durant un mois.

Précipitations en 12 heures (po) pour 24-36 heures

Ensemble 1

Ensemble 2

Observation

Prob.

Prob. cumulative

Prob.

Prob. cumulative

Prob.

Prob. cumulative

< 0,1

0,2

0,2

0,1

0,1

0

0

0,1 - 0,5

0,6

0,8

0,6

0,7

1

1

> 0,5

0,2

1,0

0,3

1,0

0

1

Supposez que la vérification était dans l’intervalle 0,1-0,5 po et que, conséquemment, cette catégorie reçoit la probabilité 1 dans la colonne de probabilité d’observation.

Le score de probabilité ordonnée se calcule en mettant au carré les différences dans la probabilité cumulative entre la prévision et l’observation.

RPSens1 = (0,2-0,0)2+(0,8-1)2+(1-1)2 = 0,08

RPSens2 = (0,1-0,0)2+(0,7-1)2+(1-1)2 = 0,10

L’ensemble 2 a donné moins de poids à la catégorie de précipitations faibles et davantage à la catégorie plus forte, et donc son score est un peu moins bon que l’ensemble 1. En supposant que la vérification était > 0,5 po, les scores deviennent 0,68 pour l’ensemble 1 et 0,50 pour l’ensemble 2. L’ensemble 2 fait mieux dans ce scénario, en raison du poids accru donné à cette catégorie plus élevée.

RPSensb1 = (0.2-0.0)2+(0.8-0)2+(1-1)2 = 0.68

RPSensb2 = (0.1-0.0)2+(0.7-0)2+(1-1)2 = 0.50

Le score d’habileté de probabilité ordonnée (RPSS) inclut une mesure d’habileté

Si nous avions plusieurs prévisions de probabilité avec les vérifications, nous pourrions créer un score d’habileté de probabilité ordonnée (RPSS) en nous servant du RPS. L’habileté est habituellement une mesure relative à la climatologie et est déterminée par le rapport du RPS moyen des prévisions au RPS de la climatologie, soustrait de 1. Les valeurs vont de 1 (bon) à zéro (mauvais).

Haut de la page

5.2.6 Le diagramme de Talagrand ou l’histogramme de rangs d’analyse

Le diagramme de Talagrand fournit une représentation de la fiabilité d’un SPE, généralement sur une période allant d’un mois à une saison. Le diagramme de Talagrand est un type d’histogramme (diagramme à barres) dans lequel les catégories que représentent les barres sont des rangs variables plutôt que des valeurs particulières — un histogramme de rangs. En examinant la forme du diagramme de Talagrand, on peut tirer des conclusions sur le biais du système d’ensemble et sur l’adéquation de sa dispersion. Un Talagrand « plat » dans lequel toutes les barres sont égales indiquerait une fiabilité parfaite. D’autres configurations fournissent de l’information sur le type de biais et la dispersion moins que parfaite (voir la section sur l’interprétation plus loin).

Examinons les différents éléments d’un diagramme de Talagrand.

Histogramme de rangs : le diagramme de Talagrand

Dans l’exemple de diagramme de Talagrand ci-dessus, les données sont les prévisions d’ensemble de 120 heures des NCEP des hauteurs de 500 hPa à tous les points de grille dans l’hémisphère Nord extratropical, d’avril à juin 1999. Comme le SPE a 17 membres, il y a 18 intervalles. En principe, chaque intervalle devrait contenir 1/18 (= 5,56 %) des vérifications, qui ici proviennent des analyses du système de prévision globale des NCEP. La fréquence théorique est indiquée par la ligne bleue.

Dans l’exemple, on remarque que plus de vérifications qu’attendu se retrouvent sous les deux membres classés les plus bas et au-dessus des deux membres classés les plus hauts. Il y a moins de vérifications qu’attendu dans les catégories entre ces extrêmes. Comment interprétons-nous ce résultat du point de vue de la fiabilité de la prévision d’ensemble?

Interprétation des diagrammes de Talagrand

Les quatre panneaux ci-dessous représentent quatre distributions de fréquences hypothétiques pour les catégories prévues. La ligne horizontale dans chaque panneau représente la fiabilité parfaite théorique. Les interprétations sont données sous chaque diagramme. Les exemples incluent des diagrammes pour des SPE avec des dispersions trop grande ou trop petite et des biais haut ou bas.


Histogramme de rangs d’analyse : Diagramme de Talagrand

Trop grande dispersion de l’ensemble. Fréquence des observations plus faible qu’attendu aux extrêmes et plus élevée qu’attendu dans les rangs centraux des prévisions.


Histogramme de rangs d’analyse : Diagramme de Talagrand

Trop faible dispersion de l’ensemble. Fréquence des observations plus élevée qu’attendu aux extrêmes et plus faible qu’attendu dans les rangs centraux des prévisions.

 


Histogramme de rangs d’analyse : Diagramme de Talagrand

Biais bas de l’ensemble. Fréquence des observations basses plus faible qu’attendu et fréquence des observations hautes plus élevée qu’attendu.


Histogramme de rangs d’analyse : Diagramme de Talagrand

Biais haut de l’ensemble. Fréquence des observations basses plus élevée qu’attendu et fréquence des observations hautes plus faible qu’attendu.

Quelques mises en garde concernant l’interprétation des diagrammes de Talagrand :

Haut de la page

5.2.6 En profondeur : Que l’acheteur prenne garde!

Voici d’autres mises en garde concernant l’interprétation des diagrammes de Talagrand (histogramme de rangs) :

Haut de la page

5.3 Applications

5.3.1 Application au SPE des NCEP

La vérification du SPE des NCEP est disponible en temps quasi réel sur le site Global Ensemble Evaluation Page. On y trouvera aussi quelques exemples de vérification de diagrammes de Talagrand du SPE pour l’été 2002 et l’hiver 2002-2003.

Le graphique animé ci-dessous est un diagramme de Talagrand pour la période allant de 0000 UTC le 22 février à 0000 UTC le 8 avril 2003, pour les prévisions de un à sept jours des hauteurs de 500 hPa du SPE dans l’hémisphère Nord (20°N - 80°N). Chaque diagramme est une journée additionnelle dans la prévision d’ensemble. Pour un SPE de fiabilité parfaite durant cette période, la valeur attendue dans chaque classe serait d’environ 9,09 % (puisqu’il y a 11 classes, d’au-dessous à au-dessus des 10 membres de l’ensemble de 0000 UTC). Rappelez-vous les mises en garde concernant l’utilisation des diagrammes de Talagrand!

Diagrammes de Talagrand : Prévisions de 1 à 7 jours des hauteurs de 500 hPa, 22 fév. - 8 avr 2003

Diagrammes de Talagrand : Prévisions de 1 à 7 jours des hauteurs de 500 hPa, 22 fév. - 8 avr 2003

Diagrammes de Talagrand : Prévisions de 1 à 7 jours des hauteurs de 500 hPa, 22 fév. - 8 avr 2003

Voir l'animation

Remarquez qu’au jour 1, les catégories 5 à 8 dépassent la valeur attendue alors que toutes les autres sont moindres que la valeur attendue de 9,09 %. Ceci s’observe souvent tôt dans la prévision d’ensemble à moyen terme (MERF) et est généralement attribuable à une dispersion excessive dans les perturbations initiales des prévisions. Pour le MREF, on cherche à obtenir la meilleure dispersion dans les résultats de prévision dans le moyen terme, et donc les perturbations initiales sont choisies pour donner les meilleurs résultats entre le jour 4 et le jour 15. On devrait utiliser des SPE conçus pour des prévisions d’ensemble à court terme (comme la SREF) pour les jours 1 à 3.

Au jour deux, le pic de la catégorie 6 s’étale et plus de membres se retrouvent aux extrémités de la distribution. On note aussi que la catégorie du haut (c. à d. pour les vérifications plus élevées que tous les 10 membres ordonnés de l’ensemble) est déjà plus grande que la valeur attendue. Tant la dispersion de la distribution que la tendance des vérifications à tomber dans la partie du haut du rangement des membres de l’ensemble se poursuivent jusqu’au jour 7. Cependant, ce n’est que pour les prévisions du jour 7 que l’on trouve, du côté bas, des catégories dépassant la valeur attendue, et même alors, seulement pour la catégorie la plus basse (c. à d. les vérifications sous le membre de l’ensemble le plus bas).

Haut de la page

5.3.2 Comparaison de la performance de SPE d’autres centres météorologiques

Ce deuxième exemple d’application est une comparaison de la fiabilité de la performance de SPE de différents centres météorologiques. Le tableau à la page suivante montre des diagrammes de Talagrand pour l’été 2002 et l’hiver 2002-2003 dans l’hémisphère Nord (20° - 80°N) pour trois centres (de gauche à droite : le centre des NCEP, le Centre météorologique canadien {CMC} et le centre européen {ECM}). Ces vérifications sont disponibles en temps quasi réel dans les pages Web des NCEP. Chaque centre utilise différentes méthodes pour créer les membres de leurs ensembles, ont un nombre de membres différent et utilisent des modèles qui ont des résolutions, des méthodes numériques, des paramétrisations physiques et des caractéristiques d’erreur qui leur sont propres. La fréquence relative en pourcentage est sur l’axe des x; les catégories sont sur l’axe des y. Les catégories sont en groupe de 11. Pour les systèmes d’ensembles de plus de 10 membres, les membres de rangs adjacents ont été groupés de façon à créer 11 catégories égales. L’incrément des pourcentages est de 3 %. Les diagrammes sont, du haut vers le bas, pour les prévisions du jour 1, du jour 3, du jour 5, du jour 8 et du jour 10.

Les interprétations pour les diagrammes de chaque centre apparaissent dans les listes à puces sous chacun des tableaux. Les commentaires supposent que le comportement des fréquences est uniforme dans tout le domaine.

Haut de la page

5.3.3 Données de vérification de l’été 2002

Distribution de Talagrand (hauteur de 500 hPa dans l’hémisphère Nord); 0000 UTC 01 mai 2002 - 0000 UTC 31 juillet 2002

Commentaires pour l’été 2002 :

Hiver 2002-03

Distribution de Talagrand (hauteur de 500 hPa dans l’hémisphère Nord); 0000 UTC 01 déc. 2002 - 0000 UTC 28 fév. 2003

Commentaires pour l’hiver 2002-2003 :

Les caractéristiques de fiabilité différentes de chaque SPE apparaissent clairement, même à l’aide d’une seule technique de vérification. Notez comment la fiabilité est influencée par le modèle sous-jacent utilisé pour créer les membres de l’ensemble. Par exemple, le SPE des NCEP révèle clairement le biais de basses hauteurs du GFS sous-jacent.

Haut de la page

5.4 Exercices

5.4.1 Interprétation des diagrammes de Talagrand

Après avoir examiné les diagrammes de Talagrand et leur variation à mesure qu’évolue la prévision d’ensemble, comment interpréteriez-vous la tendance dans les diagrammes de Talagrand pour les prévisions de 1 à 7 jours durant la période du 22 février à 8 avril? (Cochez tous les choix que vous croyez corrects. Pour désélectionner un choix, cliquez dessus à nouveau.)

Diagrammes de Talagrand
	Prévisions de 1 à 7 jours des hauteurs de 500 hPa 22 fév. - 8 avr. 2003

Diagrammes de Talagrand
	Prévisions de 1 à 7 jours des hauteurs de 500 hPa 22 fév. - 8 avr. 2003

Diagrammes de Talagrand
	Prévisions de 1 à 7 jours des hauteurs de 500 hPa 22 fév. - 8 avr. 2003

Voir l'animation

a) Les perturbations initiales de l’ensemble croissent trop lentement

b) Le modèle utilisé dans le SPE a un biais chaud au-dessus de 500 hPa

c) Le modèle utilisé dans le SPE a un biais froid au-dessous de 500 hPa

d) Le modèle utilisé dans le SPE amortit trop fortement les ondes

Discussion

A) est correct parce que le nombre de vérifications tombant en dehors de l’étendue des valeurs de l’ensemble (c. à d. les possibilités totales dans la plus petite et la plus grande classe) devient réellement plus grand que prévu vers le jour 4. B) est incorrect parce qu’un biais bas dans les hauteurs de 500 hPa, tel celui que révèle la tendance dans les diagrammes de Talagrand, indiquerait que les températures entre 500 hPa et la surface (dans l’hypothèse d’une atmosphère en équilibre hydrostatique) sont trop basses dans le modèle. Par conséquent, c) est correct. D) est incorrect parce que la distribution n’indique rien à propos de l’amortissement des perturbations ou des ondes à 500 hPa.

Il importe de se rappeler, cependant, que si la distribution avait été uniforme dans les classes, cela n’aurait pas été une garantie de fiabilité, à moins que le comportement de la distribution ait été uniforme dans toutes les régions d’où les données proviennent.

Haut de la page

5.4.2 Interprétation des diagrammes de fiabilité

Le diagramme de fiabilité ci-dessous provient du site Web de vérification de l’indice de chaleur (HI) du Hydrological Prediction Center (HPC) des NCEP et concerne les prévisions de 4 jours pour la période du 1er mai au 30 septembre 2003 qui ont été produites par le HPC (identifié par MEDR DESK dans le produit) ou qui sont des prévisions d’ensemble à moyen terme (MREF) du GFS. Le seuil HI utilisé ici est 95 °F. L’axe des x représente le point milieu des probabilités prévues pour un HI de 95 °F ou plus (c. à d. que le point milieu 0,05 représente les probabilités entre 0 et 0,10) et l’axe des y représente les fréquences observées associées. La diagonale représente une fiabilité parfaite. Ce type de diagramme de fiabilité combine à la fois les courbes de fiabilité et les barres de fréquences sur un même graphique. En fait, les barres de couleur dans ce diagramme sont semblables à celles qui se trouvent dans la partie inférieure du diagramme de fiabilité présenté précédemment dans la section Outils, à la page 3. Dans ce cas-ci, les barres indiquent les fréquences en pourcentage pour chaque probabilité prévue, plutôt que le nombre de prévisions, de sorte qu’elles peuvent partager les mêmes axes que les courbes de fiabilité.

Diagramme de fiabilité

Selon ce diagramme de fiabilité, lesquels des énoncés suivants sont corrects? Cochez tous les choix qui s’appliquent.

a) Les prévisions du HPC sont plus fiables que les MREF du GFS

b) Les prévisions du HPC sont moins fiables que les MREF du GFS

c) Il y a un biais de sous-prévision dans les MREF du GFS pour les probabilités prévues plus grandes que 0,5 (c. à d. au-delà de l’intervalle représenté par le point centre 0,45)

d) Il y a un biais de surprévision dans les MREF du GFS pour les probabilités prévues plus grandes que 0,5 (c. à d. au-delà de l’intervalle représenté par le point centre 0,45)

Discussion

Les barres dans le diagramme montre que plus de 90 % des prévisions du HPC se retrouvent dans l’intervalle de probabilité de 0 0,1 (la barre verte la plus à gauche), alors que 60 % des prévisions MREF du GFS tombent dans l’intervalle 0,1 0,3 (les deuxième et troisième barres rouges). L’étendue de la résolution des prévisions MREF du GFS est d’environ 0,01 à 1,0 (à une probabilité prévue de 0,65, le seuil 95 °F était toujours atteint), alors que celle des prévisionnistes du HPC est d’environ 0,01 à 0,81 (à une probabilité prévue de 0,65, le seuil 95 °F avait une probabilité de 0,81 d’être atteint).

Rappelez-vous que plus une prévision est fiable, plus sa courbe de fiabilité se rapproche de la diagonale. Par conséquent, a) est correct et b) est incorrect.

La position de la courbe de fiabilité comparativement à la diagonale indique s’il y a un biais de sous-prévision (au-dessus de la diagonale, où la fréquence observée est plus grande que la probabilité prévue) ou un biais de surprévision (au-dessous de la diagonale, où la fréquence observée est plus faible que la probabilité prévue). Donc, c) est correct et d) est incorrect.

Haut de la page

5.4.3 Interprétation des diagrammes ROC

Le diagramme ROC (Relative Operating Characteristics) suivant provient des NCEP et représente une forme de vérification pour les prévisions de 5 jours des hauteurs de 500 hPa, d’avril à juin 1999, pour les prévisions MREF du GFS des NCEP et pour une passe de contrôle à plus haute résolution du GFS. Le taux de succès est défini ici comme le total des prévisions « oui » correctes sur le total des prévisions « oui ». Les fausses alarmes sont définies comme les prévisions « oui » erronées sur le total des prévisions « oui ».

Courbe ROC pour un ensemble

D’après ce diagramme ROC, lesquels des énoncés suivants sont corrects? Cochez tous les choix qui s’appliquent.

a) Les prévisions d’ensemble et les prévisions de contrôle à plus haute résolution du GFS montrent toutes une habileté de prévision.

b) Les prévisions de contrôle du GFS n’ont pas d’habileté de prévision.

c) Le taux de succès de l’ensemble de 0,76 correspond à un taux de fausse alerte d’environ 0,47.

d) Le taux de succès de l’ensemble de 0,76 correspond à un taux de fausse alerte d’environ 0,47.

Discussion

Dans le diagramme ROC ci-dessus, la diagonale est une ligne de non-habileté (où les succès et les fausses alarmes sont en nombres égaux). Toute prévision avec une courbe ROC se trouvant sur cette ligne ou au-dessous n’a pas d’habileté.

On constate donc que les deux prévisions de contrôle GFS à haute résolution ainsi que les prévisions MREF exhibent de l’habileté. Par conséquent, b) et d) sont incorrects et a) est correct. La courbe rouge représente l’ensemble MREF et si on part du taux de succès 0,76 sur cette ligne, on voit que le taux de fausse alarme est d’environ 0,47. Donc, c) est correct.

Haut de la page

6.0 Applications à des cas

Maintenant que vous avez fait le module, veuillez répondre au questionnaire du module pour une évaluation rapide de ce que vous avez appris au sujet de la prévision d’ensemble.

Questionnaire du module

Pour vous permettre d’aller plus loin et pour montrer comment on utilise les produits de SPE dans le processus de prévision, cette section propose une série de courts cas accessibles via le Web. Ces cas se trouvent sur le site Web Applications of NWP Concepts (Anglais), un groupe d’exemples de cas qui montrent comment et quand utiliser, ne pas utiliser ou modifier les produits de PMN dans le processus de prévision. Ces liens sont fournis pour vous permettre de trouver facilement des cas pouvant s’appliquer à ce module. Certains liens peuvent ne pas être encore disponibles, mais le deviendront au cours des prochains mois, à mesure que les cas seront publiés. Nous ajouterons des cas au fur et à mesure que des situations de prévision intéressantes nous seront proposées par le biais du courrier électronique, des forums de discussion du modèle ou d’autres façons de contacter l’équipe NWP PDS.

Liens vers des cas de PMN d’ensemble (en Anglais)
Cas de temps hivernal
Description
Prévision d'ensemble à court terme pour la tempête de verglas des 4 et 5 déc. 2002, NC

Ce cas de début d’hiver montre l’utilisation du système de prévisions d’ensemble à court terme (SREF) avant une tempête hivernale possible en Caroline du Nord. Le cas considère l’incertitude sur la trajectoire de la tempête, l’épaisseur et la force du barrage d’air froid ainsi que le moment des PQP et le type de précipitations.

Remarque : Ce cas contient des liens vers un contenu pédagogique sur les produits de SPE utilisés.
SREF, conditions initiales et la tempête de neige du Nord-Est les 6 et 7 janv. 2002

Ce cas discute de l’échec de la prévision d’ensemble à court terme (SREF) à capturer une chute de neige importante dans les États du moyen-Atlantique intérieur nord et de la Nouvelle-Angleterre survenue les 6 et 7 janvier 2002. Bien que ce soit un cas hivernal, les leçons tirées ici peuvent s’appliquer à l’utilisation des SREF en toute saison.

Prévision d'ensemble à court terme pour la tempête de neige des 5 et 6 déc. 2002, DC

Ce cas de début d’hiver montre l’utilisation du système de prévisions d’ensemble à court terme (SREF) avant une tempête hivernale possible dans la région de Washington DC. Le cas considère l’incertitude sur la trajectoire de la tempête, l’épaisseur et la force du barrage d’air froid ainsi que le moment des PQP et le type de précipitations.

Utilisation des prévisions d'ensemble à moyen terme pour évaluer des évènements possibles de conditions hivernales

La combinaison de la faible résolution des systèmes de prévisions d’ensemble à moyen terme (MREF) et de l’imprévisibilité des phénomènes de petite échelle sur de longues périodes limite généralement (mais pas toujours) l’utilisation des MREF à fournir une indication de la possibilité de temps significatif. Ce cas de l’est des É. U. explore l’utilisation des MREF comme moyen d’aider le prévisionniste à déterminer la vraisemblance des configurations de circulation à grande échelle propices aux tempêtes hivernales.

Un évènement de fortes précipitations dans l’ouest des É. U. (novembre 2001) Bientôt disponible!
Cas de temps violent  
Temps violent dans le sud des Plaines, avril 2002 Bientôt disponible!
Temps violent en mai 2003 dans les Plaines centrales Bientôt disponible!
Cas généraux  
Interprétation des « flip-flop » des prévisions du modèle global

Tous les prévisionnistes sont familiers avec les changements occasionnels dans la direction de la prévision d’une passe à l’autre qui se produisent dans les prévisions à moyen terme (et parfois même à court terme) avec le modèle de prévision globale (AVN/MRF). Ce cas décrit deux « flip-flop » récents du modèle dans une paire de passes du modèle MRF opérationnel à des heures adjacentes et montre comment les prévisions d’ensemble MRF nous indiquent ce qui se passe réellement dans les saisons du MRF opérationnel.

 

Haut de la page

Produit par le programme COMET®

>