Contenu

Préparation des données

Le Data Warehouse de MétéoSuisse prépare les données de mesure pour les utilisateurs et les soumet à un contrôle systématique et permanent. Il comble les lacunes des mesures, calcule des paramètres complémentaires et apporte des corrections. Le contrôle de qualité se déroule par étapes.

Pied de page

Navigation top bar

Toutes les autorités fédéralesToutes les autorités fédérales

L’ensemble des données de mesure sont rassemblées, préparées pour les utilisateurs et stockées à long terme sous une forme homogène dans la base de donnée de MétéoSuisse (DWH pour « Data Warehouse »). Le processus de préparation comprend entre autres l'agrégation et le calcul de paramètres météorologiques, le contrôle de qualité – qui consiste en un contrôle d'exhaustivité et de plausibilité - ainsi que l'homogénéisation de longues séries dans le but de mettre à disposition des utilisateurs de séries de mesures fiables.

Agrégation et calcul

Par agrégation, on entend la détermination d'une série temporelle de fréquence inférieure à celle de la série de données initiale. Pour l'agrégation, des fonctions telles que la moyenne, la somme ou la recherche des valeurs extrêmes sont utilisées. Dans le cas de l'agrégation temporelle, par exemple, les valeurs mesurées toutes les dix minutes sont agrégées en valeurs horaires, journalières, mensuelles et annuelles. Dans le cas de l'agrégation spatiale, les valeurs provenant des stations de mesure situées dans une zone définie sont intégrées en une seule valeur pour une région déterminée.

Par calcul, on entend la détermination d'une grandeur (ou paramètre) dérivée des données de départ. Pour le calcul, on utilise entre autres des fonctions de réduction de la pression, de calcul de différence, de détermination d'un rapport ou de conversion d'unités. Les grandeurs dérivées sont par exemple la pression atmosphérique réduite au niveau de la mer, l'indice de fœhn ou le vent exprimé en nœuds (kn) ou km/h

Contrôle d'exhaustivité

Lors du contrôle d’exhaustivité, les mesures manquantes sont détectées. Les lacunes temporelles courtes (jusqu'à 1 h / 6 h) à une station sont automatiquement comblées par un procédé d'interpolation sur une base de dix minutes. La longueur des intervalles admissibles dépend du paramètre mesuré. Contrairement aux précipitations, des lacunes plus longues peuvent être comblées automatiquement pour la pression atmosphérique, car celle-ci varie moins dans l'espace et dans le temps que les précipitations. Les valeurs complétées automatiquement sont marquées afin que l'on puisse comprendre plus tard comment la valeur a été obtenue.

Les lacunes plus importantes qui ne sont pas interpolées automatiquement peuvent être comblées manuellement en connaissant la situation météorologique et/ou à l'aide de stations similaires. En règle générale, les lacunes jusqu'à 24 h sont interpolées sur une base de dix minutes, les lacunes supérieures à 1 jour sur une base journalière et les lacunes supérieures à 10 jours sur une base mensuelle. Les lacunes interpolées manuellement sont également marquées en conséquence..

Contrôle de plausibilité

Lors du contrôle de plausibilité, les valeurs mesurées sont soumises à des tests basés sur des règles et sur des modèles. Les valeurs qui ne satisfont pas à un ou plusieurs tests sont marquées et classées comme non plausibles ou douteuses. Les valeurs non plausibles sont automatiquement éliminées de la série de données et, si possible, automatiquement interpolées. Les valeurs de mesure marquées comme douteuses sont évaluées le jour suivant par un spécialiste et, le cas échéant, corrigées ou confirmées manuellement.

Les tests basés sur des règles se fondent sur des règles logiques et mathématiques.

  • Les tests de « limites dures » détectent des valeurs physiquement impossibles et donc non plausibles (p. ex. vitesse du vent > 100 m/s).
  • Les tests de « limites souples » se basent sur des limites spécifiques aux stations et indiquent si une valeur est douteuse du point de vue de la climatologie (p. ex. température en février à Zurich > 25°).
  • Les tests de cohérence comprennent des comparaisons avec des mesures redondantes, des comparaisons au sein du site de mesure (p. ex. une station annonce des précipitations et en même temps du soleil) ou des comparaisons au sein de la grandeur mesurée (p. ex. vitesse moyenne du vent < rafale maximale).
  • Les tests de variabilité permettent par exemple de détecter des capteurs de vent gelés (p. ex. variabilité de la vitesse du vent pendant 6 heures < 0,1 m/s) ou des sauts extrêmes entre deux valeurs de mesure (différence d'humidité entre deux valeurs de dix minutes > 30%).
  • Les tests de valeurs records se déclenchent lorsqu'une valeur mesurée se classe parmi les cinq mesures les plus élevées ou les plus basses jamais mesurées dans une station.

Tests basés sur des modèles

Ces tests sont basés sur des modèles statistiques qui sont entraînés à l'aide des jeux de données traités manuellement et qui peuvent intégrer des données historiques et actuelles ou des grandeurs comparatives prédictives ainsi que des métadonnées (p. ex. altitude de la station).

Homogénéisation

Pour des séries de mesures spécifiques qui sont considérées comme étant très importantes, une homogénéisation est effectuée des mois, voire des années après la mesure. Lors de l'homogénéisation, les erreurs de mesure systématiques et les sauts de données qui peuvent résulter de déplacements de stations, d'erreurs d'appareils de mesure ou de changements d'appareils de mesure sont éliminés et corrigés à partir des séries de mesures. Les données homogénéisées présentent le niveau de qualité le plus élevé.  Lien vers Homogénéisation