Prévisions Météorologiques

                         SOMMAIRE

  1. Introduction………………………………………………………………………………3
  2. La "préhistoire" de la météorologie (avant 1855) ………………………………...4

 - L'Observatoire de Paris et la création des réseaux de mesures (1855-1878)…5

 - Le Bureau central météorologique de France (1878-1920)…………………….…6

 - L'Office national météorologique (1920-1945)……………………………………...7

  1. Les échéances et limites de la prévision……………………………………………8

- Au-delà de 15 jours, et pour le mois, des conditions moyennes………………...8

- Pour les mois à venir : la prévision saisonnière……………………………………9

- Quels phénomènes peut-on prévoir ?.................................................................10

  1. Les étapes d'une prévision………………………………………………………….11

- Recueillir les observations et assimiler les donnée………………………….…...11

- Simuler le comportement de l'atmosphère en trois dimension………………...11

- L'analyse des simulations par les prévisionnistes……………………….…….…13

  1. Les techniques de prévision………………………………………………….……...14

- La prévision déterministe……………………………………………………….……..14

- La prévision d'ensemble…………………………………………………….………...14

- La prévision immédiate………………………………………………………….……..15

  1. Météorologie maritime………………………………………………………….…….17

- Vielle météorologique…………………………………………………………….…….17

- Prévision………………………………………………………………….………….……18

  1. La NASA dévoile ses nouvelles technologies…………………………………….19
  2. Avec le mercure, les horloges atomiques montent en précision……………..20

 

 

 

 La prévision météorologique est une application des connaissances en météorologie et des techniques modernes de prises de données et d’informatique pour prévoir l’état de l’atmosphère à un temps ultérieur. L’histoire de la prévision du temps remonte aux temps immémoriaux avec les oracles et devins mais la science moderne date vraiment de la fin du XIX siècle et du début du XX siècle. Elle s’est cependant affirmée depuis la Deuxième Guerre mondiale alors que les moyens techniques comme le radar et les communications modernes ont rendu l’accès aux données plus rapide et plus nombreuses.

Les lois régissant le comportement de l’atmosphère sont dérivées de la mécanique des fluides. On peut grâce à des modèles mathématiques et des superordinateurs les résoudre. Malgré tout, même si la résolution de nos données a augmenté exponentiellement, la prévision reste autant un art qu’une science. En effet, l’état de l’atmosphère peut être compris dans la théorie du chaos et ne peut jamais être complètement défini ce qui laisse place au facteur humain dans la prévision.

 

 

 

La "préhistoire" de la météorologie (avant 1855)

L'histoire de la météorologie remonte à l'Antiquité. Mais la météorologie scientifique est née au XVIIe siècle avec les premiers instruments de mesure, en particulier le baromètre et le thermomètre. La démarche scientifique a peu à peu permis de définir les grandeurs physiques fondamentales de l'atmosphère et de découvrir les lois qui les régissent. Les longs cheminements de la compréhension des phénomènes atmosphériques, de la connaissance du climat et de la prévision du temps se sont appuyés sur une imbrication de progrès de la science, de la technique et de l'organisation

XVIIe siècle

L'invention du baromètre et du thermomètre fournit les moyens de mesure nécessaires à l'étude scientifique de l'atmosphère. Ainsi, en 1648, Blaise Pascal (1623-1662) organise une expérience au cours de laquelle Florin Périer vérifie que la hauteur atteinte par la colonne de mercure dans un tube de Torricelli est nettement inférieure au sommet du Puy-de-Dôme qu'à son pied.

1778-1793

La Société Royale de Médecine lance une enquête systématique sur les conditions météorologiques : pression, température, état du ciel, précipitations, vent et humidité. Les moyennes mensuelles sont publiées dans la revue Histoire et mémoires de la Société Royale de Médecine par Louis Cotte (1740-1815), secrétaire scientifique de l'enquête.

 

1804 
L'exploration verticale de l'atmosphère se développe à l'aide des montgolfières. Lors de la première ascension scientifique en ballon, organisée par l'Académie des sciences. Jean-Baptiste Biot (1774-1862) et Louis Gay-Lussac (1778-1850) effectuent des mesures de pression et de température jusqu'à 4000 m d'altitude.

 

 

L'Observatoire de Paris et la création des réseaux de mesures (1855-1878)

1855
En s'appuyant sur l'analyse de la tempête du 14 novembre 1854 qui a détruit une grande partie de la flotte franco-anglo-turque durant la guerre de Crimée, Urbain Le Verrier (1811-1877), directeur de l'Observatoire de Paris, convainc Napoléon III de créer un service météorologique destiné à avertir les marins de l'arrivée des tempêtes. Il organise un réseau de stations qui communiquent leurs mesures par le télégraphe électrique nouvellement installé en France. Ce réseau est ensuite progressivement étendu à l'Europe.

1863

L'Observatoire de Paris entreprend de diffuser régulièrement des télégrammes d'avertissement aux ports. Cette même année, débute la publication quotidienne de cartes météorologiques dans le Bulletin de l'Observatoire.

1865
Pour étudier le climat de la France, un service d'observations météorologiques est mis en place dans les Ecoles normales primaires. Ce réseau est complété par l'organisation du recueil des observations d'orages dans chaque canton.

1874
Léon Brault (1839-1885), chef du Bureau météorologique au Dépôt des cartes et plans de la Marine, commence la publication de cartes climatologiques de vents sur les océans pour les besoins de la navigation.

1876
De nouveaux procédés d'impression permettent de reproduire des documents graphiques suffisamment rapidement pour les publier dans un quotidien. Ainsi, le journal L'Opinion nationale publie chaque jour une copie de la carte météorologique établie par l'Observatoire de Paris.

 

 

 

Le Bureau central météorologique de France (1878-1920)

1878

Après la mort de Le Verrier, le service météorologique quitte l'Observatoire et devient le Bureau central météorologique (BCM), organisme rattaché au ministère de l'Instruction Publique et dirigé par Eleuthère Mascart (1837-1908).

1892
Gustave Hermite invente le ballon-sonde emportant des instruments enregistreurs qui sont récupérés après être retombés au sol.

1895

Alfred Angot (1848-1924) publie le premier catalogue des observations météorologiques faites en France depuis l'origine jusqu'en 1850, travail précurseur pour l'histoire du climat.

1896
Léon Teisserenc de Bort (1855-1913) fonde à Trappes, en région parisienne, l'Observatoire de météorologie dynamique où il organise l'observation de la structure verticale de l'atmosphère par des mesures systématiques à l'aide de cerfs-volants et des ballons sondes.

1896
Hugo Hildebrand Hildebrandsson et Léon Teisserenc de Bort publient le premier Atlas en 1902
Léon Teisserenc de Bort communique à l'Académie des sciences la découverte de l'existence d'une zone, située vers 10 km d'altitude, où la température cesse de décroître. Quelques années plus tard, il désignera par stratosphère la couche dans laquelle la température s'accroît er national des nuages, sous l'égide du Comité météorologique international.

1915-1916
Pour les besoins des opérations de la première guerre mondiale, plusieurs Services météorologiques aux armées sont créés, en particulier pour l'aviation, l'artillerie et les compagnies de gaz de combat.

 

 

 

L'Office national météorologique (1920-1945)

Le Jacques Cartier, navire école de Compagnie générale transatlantique, est transformé en station météorologique. Au cours de ses traversées de l'Atlantique, il collecte et rediffuse, par radio, les observations faites par les navires.

1920

1922

L'émetteur de la Tour Eiffel diffuse les premiers bulletins radiodiffusés de prévision m 1929
A Trappes, Robert Bureau (1892-1965) invente la radiosonde. Il s'appuie sur les travaux de Pierre Idrac (1885-1935) qui a réussi en 1927 la première transmission depuis la stratosphère à l'aide d'un petit émetteur radio emporté par un ballon météorologique pour les usagers.

1930

Les raids aériens des pionniers de l'aéronautique nécessitent une protection météorologique de grande qualité. Ainsi, avec l'assistance des prévisionnistes de l'ONM, Costes et Bellonte effectuent la première traversée aérienne Paris-New York le 31 août 1930.

1937

Les radiosondages réguliers débutent au Fort de Saint-Cyr, en région parisienne, et sur le navire météorologique français Carimaré.

 

Carte de la situation météorologique du 31 août 1930

 

Les échéances et limites de la prévision

La prévision du temps obéit à une règle simple : plus l'échéance visée est lointaine, plus elle est incertaine et donc moins elle peut être détaillée. Mais que peut-on effectivement prévoir pour l'heure, la journée, les semaines ou les mois à venir ?

L'horizon de prévisibilité augmente avec la taille des phénomènes météorologiques. La prévision de l'arrivée d'une perturbation est par exemple fiable jusqu'à quelques jours d'échéance. Les phénomènes de plus petite taille (orages, nappes de brouillard,…) peuvent être prévus de façon précise avec quelques heures d'anticipation. Au-delà, on ne peut que qualifier leur risque d'apparition (fort/moyen/faible) à l'échelle du département. Dans les meilleurs cas, il est aussi possible d'affiner le diagnostic en fonction des particularités locales (par exemple : risque d'orages plus élevé sur les reliefs).
Les prévisions du type de temps (par exemple anticyclonique hivernal, régime perturbé d'ouest…) ou de la température minimale et maximale sont de leur côté utilisables jusqu'à une quinzaine de jours, contre huit il y a vingt ans. Cet allongement des échéances est dû aux progrès de l'observation, de la modélisation et des moyens de calcul. Les efforts de recherche dans ces domaines devraient permettre de gagner encore un jour sur la prévision à l'horizon 2020.


Au-delà de 15 jours, et pour le mois, des conditions moyennes

Au-delà d'une quinzaine de jours, la variation des océans, et pour les échéances encore plus lointaines, les variations des fleuves, du manteau neigeux, des nappes phréatiques, de la végétation, des gaz et poussières ont des influences significatives sur l'atmosphère. Il faut donc en tenir compte dans les modèles qui simulent son évolution.
En utilisant des modèles couplant l'atmosphère et l'océan, il devient alors possible de prévoir des conditions moyennes de température et de précipitations au-delà de 15 jours. Le Centre Européen de Prévision Météorologique à Moyen Terme (CEPMMT) réalise ainsi deux fois par semaine une prévision numérique jusqu'à un mois d'échéance. En analysant ces résultats à l'échelle de la France, Météo-France élabore des prévisions qualitatives à plusieurs semaines d'échéance, pour l'ensemble du territoire métropolitain.

 

 

Pour les mois à venir : la prévision saisonnière

À partir de modèles couplés, des prévisions peuvent aussi être élaborées pour les mois à venir : on parle de prévision saisonnière. Il s'agit alors de prévoir la moyenne sur une période de quelques mois de paramètres météorologiques (température, précipitations), à l'échelle d'une zone comme l'Europe de l'Ouest. Les performances des prévisions saisonnières sont très variables selon le lieu, la saison et le paramètre météorologique concerné. Elles sont par exemple meilleures pour la température que pour les précipitations, et pour la température, meilleures en hiver qu'en été. Elles sont informatives dans la ceinture intertropicale, sur le pourtour du Pacifique. En revanche, la prévisibilité de la température en Europe de l'Ouest, sans être nulle, reste faible. Ceci est dû aux caractéristiques de la circulation générale de l'atmosphère au-dessus de l'océan Atlantique aux latitudes tempérées.

 

 

 

 Quels phénomènes peut-on prévoir ?

  • Quelques heures à l'avance

Des orages, des lignes de grains, des rafales, des averses, des brouillards … (taille caractéristique des phénomènes : environ 20 km) à l'échelle d'une commune.

  • 1 à 5 jours à l'avance

L'arrivée d'une tempête (taille caractéristique du phénomène : environ 2000 km) à l'échelle d'un département (1 jour à l'avance) ou d'une région (5 jours à l'avance).

  • 5 à 15 jours à l'avance

Un type de circulation atmosphérique, des indications sur le type de temps, une tendance pour la température (taille caractéristique des phénomènes : environ 7000 km).

  • 3 semaines à l'avance

Une indication sur les conditions moyennes (température, précipitations) à l'échelle de la France.
Par exemple : température moyenne probablement supérieure de 2 °C à la normale à l'échelle de la France.

  • 3 mois à l'avance

Éventuellement un signal qualitatif sur les conditions moyennes (température, précipitations), à l'échelle d'une zone comme l'Europe de l'Ouest.
Par exemple : en Europe de l'Ouest, les températures devraient être supérieures aux normales de saison pour le trimestre à venir.
Les étapes d'une prévision

La prévision météorologique est élaborée en trois étapes fondamentales : l'observation, la simulation de l'évolution de l'atmosphère à l'aide des modèles numériques et l'analyse des résultats par les prévisionnistes.

 

Recueillir les observations et assimiler les données

Pour prévoir le temps qu'il fera demain, il faut déjà connaître le temps qu'il fait aujourd'hui. Plus on veut aller loin dans le temps, plus la zone sur laquelle il faut caractériser le temps qu'il fait doit être étendue. L'observation constitue ainsi la première étape d'une prévision. 90% des données d'observation utilisées par les modèles de prévision de Météo-France proviennent des satellites météorologiques. Les 10% restants sont fournis par des stations au sol, des radiosondages, des capteurs embarqués sur des avions de ligne et des navires de commerce ou installés sur des bouées ancrées et dérivantes. Météo-France reçoit aussi des autres services météorologiques des mesures recueillies sur l'ensemble du globe.
Toutes ces observations sont ensuite traitées pour en extraire les informations "utiles" au modèle de prévision : on parle d'assimilation des données. Environ 22 millions de données d'observations sont utilisées chaque jour par les modèles à l'issue de l'étape d'assimilation. Les données issues des observations sont combinées à d'autres informations, comme des prévisions très récentes, pour établir un état initial de l'atmosphère que le modèle saura utiliser. Les observations sont également utilisées par les prévisionnistes, d'une part pour le suivi de la situation en cours, d'autre part pour la détection et la correction d'éventuelles erreurs de prévision.
Simuler le comportement de l'atmosphère en trois dimensions

A partir de cet état initial, les modèles simulent l'évolution de l'atmosphère, qu'ils découpent en une grille en trois dimensions aux mailles plus ou moins larges. La simulation s'appuie sur les lois physiques qui gouvernent l'évolution atmosphérique : principalement les lois de la mécanique des fluides, complétées par celles qui régissent les changements d'état de l'eau (condensation, évaporation, formation des précipitations), la turbulence, le rayonnement ou encore les nombreuses interactions avec la surface terrestre et même l'espace.

De l'observation à la prévision expertisée, en passant par l'assimilation des données et la modélisation : pour affiner les prévisions, les améliorations portent sur l'ensemble de la chaîne.

 

 

Pour décrire l'état de l'atmosphère et effectuer leurs calculs, les modèles numériques de prévision du temps et du climat découpent l'atmosphère en boîtes élémentaires contenant chacune une valeur de pression, de vent, de température, d'humidité... Sur l'horizontale, ce découpage est défini par la distance de maille de la grille du modèle, et sur la verticale, par le nombre de niveaux du modèle. Distance de maille et nombre de niveaux varient selon la finesse souhaitée, la puissance de calcul disponible, la vocation du modèle (prévision à courte échéance, simulation climatique, prévision saisonnière...).

Pour les phénomènes dépassant la taille de leur maille, les modèles suivent ces lois physiques en toute rigueur. En revanche, les phénomènes plus petits ne sont pas "décrits" explicitement dans le modèle. Ils sont pris en compte par le biais d'algorithmes spécifiques qui simulent leur influence moyenne à l'intérieur des mailles du modèle.

Pour effectuer les milliards de calculs nécessaires à la résolution des équations mathématiques simplifiées qui traduisent l'évolution de l'atmosphère, Météo-France utilise deux supercalculateurs depuis 2014. La puissance de calcul disponible en 2014 était de 1 Pétaflops soit 1 million de milliards d'opérations par seconde. Depuis 2016, de nouvelles évolutions ont permis de porter la puissance de calcul crête à plus de 5 Pétaflops.
 

L'analyse des simulations par les prévisionnistes

Les résultats des simulations effectuées par les modèles ne sont pas encore des prévisions météorologiques. Il s'agit de scénarios d'évolution des principaux paramètres météorologiques en tous les points de la grille qui représente l'atmosphère.
L'expertise des prévisionnistes est indispensable pour analyser ces résultats complexes et les traduire en informations concrètes. Ils choisissent parmi les différents scénarios celui qui apparaît comme le plus probable et le déclinent en « produits de prévision » adaptés aux utilisateurs, à savoir des cartes et des bulletins de prévision.
Les prévisionnistes caractérisent aussi les risques de phénomènes dangereux et prennent les décisions relatives à la vigilance. De plus, ils assurent un contact direct avec certaines catégories d'utilisateurs, comme les services en charge de la sécurité civile en France.
 

Les techniques de prévision

Il existe plusieurs techniques de prévision complémentaires. Ces techniques s'appuient sur des modèles numériques qui simulent le comportement de l'atmosphère. Elles requièrent l'expertise des prévisionnistes pour analyser les résultats des modèles et les traduire en termes compréhensibles par les utilisateurs.

La prévision déterministe

Pour les échéances allant de quelques heures à 3 ou 4 jours, on peut employer une technique appelée prévision « déterministe ». Elle repose sur l'utilisation de modèles numériques de prévision du temps, qui simulent le comportement de l'atmosphère en s'appuyant sur les équations de la physique et de la thermodynamique.
La première étape de la prévision déterministe consiste à établir à partir des observations une représentation cartographique du temps qu'il fait, c'est-à-dire un état initial de l'atmosphère. Le modèle calcule ensuite l'évolution des paramètres météorologiques (pression, température, vent) au fil du temps. En partant d'un état déterminé de l'atmosphère, le modèle élabore un seul scénario d'évolution de ces paramètres, c'est pourquoi on parle de prévision « déterministe ».
Les simulations sont ensuite analysées par un prévisionniste qui connaît les limites du modèle. Il ajuste, modifie et traduit les résultats en termes de temps « observable », comme la durée et l'intensité des précipitations, les températures minimales et maximales, l'apparition d'orages, de rafales de vent ou de brouillards.
Mais, cette approche déterministe ne permet pas d'évaluer les incertitudes qui pèsent sur l'unique scénario de prévisions retenu. Il est pourtant essentiel, pour les utilisateurs de prévisions météorologiques, d'avoir accès à ces informations. C'est ce que permet la prévision d'ensemble, qui fournit, en complément du scénario le plus probable, les incertitudes associées (degré de confiance, scénarios alternatifs,...).

La prévision d'ensemble

Chaque étape de la prévision du temps comporte des incertitudes qui peuvent peser sur la qualité de la prévision finale. Les observations sont hétérogènes dans l'espace et dans le temps, les modèles ne sont que des représentations forcément imparfaites du comportement de l'atmosphère et l'atmosphère elle-même a un comportement chaotique : deux états initiaux très proches peuvent conduire à des situations très différentes au bout de quelques jours, voire quelques heures.

Les innovations dans le domaine de la mesure et les recherches sur les processus atmosphériques permettent de réduire petit à petit les deux premières sources d'incertitude. Mais la troisième est une réalité physique qui nous échappe, une propriété de l'atmosphère.

Au lieu de s'en tenir à une approche déterministe qui produit un unique scénario d'évolution pour chaque cartographie du temps qu'il fait, les prévisionnistes utilisent donc de plus en plus une méthode qui permet de tenir compte de ces incertitudes : la prévision d'ensemble (ou probabiliste). Elle consiste à réaliser des simulations à partir de plusieurs descriptions de l'état initial de l'atmosphère différentes. Ces dernières ne sont pas choisies au hasard : elles sont représentatives des incertitudes identifiées qui pèsent sur les mesures. La prévision d'ensemble fournit ainsi plusieurs scénarios d'évolution de l'atmosphère. Leur convergence ou leurs divergences renseignent les prévisionnistes sur la probabilité d'occurrence de chaque scénario : ils peuvent ainsi choisir le plus probable et quantifier l'incertitude qui pèse sur cette prévision.

Cette quantification de l'incertitude permet notamment aux prévisionnistes d'assortir leurs prévisions au-delà de 4 jours d'un indice de confiance. Ce chiffre de 1 à 5 est fourni sur le site internet de prévisions ainsi que dans les bulletins météorologiques métropolitains accessibles par téléphone. Plus le prévisionniste estime que la prévision est fiable, plus l'indice de confiance qu'il choisira sera élevé (1 : confiance très faible, 5 : confiance très élevée).
Des informations probabilistes sont également proposées pour les phénomènes de précipitations et de gel, sous forme de pourcentages de probabilité.

 

La prévision immédiate
La prévision immédiate concerne le très court terme : de quelques minutes à quelques heures. Ces prévisions servent par exemple aux prévisionnistes à faire le suivi temporel et spatial fin des épisodes météorologiques dangereux, comme les épisodes méditerranéens, notamment lors de vigilance météorologique orange ou rouge. Dans le cadre de ses activités commerciales, Météo-France est aussi amené à surveiller le risque de pluie pendant des événements sportifs ou culturels : il s'agit alors de fournir des chronologies très précises des épisodes pluvieux pour les heures à venir. Les prévisions immédiates sont aussi utilisées dans d'autres domaines, comme l'aviation ou le transport routier.

L'élaboration de ces prévisions s'appuie sur l'utilisation des observations. En effet, le modèle numérique de prévision Arome assimile toutes les 6 heures les données issues des observations et fournit des prévisions jusqu'à 48 heures d'échéance. La méthode d'assimilation des données, suffisante pour assurer la qualité des prévisions au-delà de quelques heures, en limite la qualité pour les premières échéances. Pour prévoir le temps dans les heures qui viennent, les prévisionnistes combinent donc les informations délivrées par Arome avec des extrapolations des données d'observation, notamment des images radars et satellites.

Afin d'améliorer ses prévisions immédiates, Météo-France développe deux versions dédiées du modèle Arome : Arome PI, qui intègre les données d'observation toutes les heures et Arome Aéroport, dont la résolution atteint 500 m sur une zone de  . Arome PI devrait entrer en exploitation opérationnelle fin 2015 ; il permettra une mise à jour toutes les heures des prévisions pour les heures à venir. Arome Aéroport est actuellement testé à titre expérimental pour la prévision des conditions météorologiques à maille très fine sur aéroport (turbulences créées dans le sillage des avions, cisaillements de vent,…).

 

 

 

 

 

 

Météorologie maritime

La météorologie maritime est une spécialité de météorologie concernant le domaine marin : vents houle, températures air et eau, marées, etc. Cette spécialité constitue une composante primordiale pour le routage en navigation maritime et aérienne. Elle est divisée en deux composantes : la météorologie côtière, qui comporte des enjeux et des phénomènes particuliers, et la météorologie de la haute mer.

La météorologie maritime répond à un double impératif de sécurité et d'assistance. Son but est ainsi d'assurer la sauvegarde de la vie humaine et des biens en mer et sur la côte. Pour y arriver, les services météorologiques nationaux reçoivent des données d'un ensemble d'observation prises par les navires, les bouées et les satellites météorologiques, les avions survolant les mers, etc. Ces informations s'ajoutent à celles recueillies sur terre pour être analysées par les météorologues qui émettront des bulletins de prévision et d'avertissement pour les utilisateurs.

Vielle météorologique

La veille météorologique du temps en mer a débuté par des observations humaines. Depuis très longtemps, les capitaines de navires ont noté dans leur journal de bord les conditions météorologiques. C'est à partir de 1853 que ces observations ont fait l'objet d'un échange international à la suite d'une réunion qui se tint à Bruxelles. On y retrouvait les représentants de dix pays : Belgique, Danemark Etats-Unis, France, Grande-Bretagne, Norvège, Pays-Bas, Portugal, Russie et Suède. Le but principal était d'améliorer et de standardiser la prise des données météorologiques et océaniques visant à améliorer la sécurité maritime. Cette première collaboration mena à la formation de l’Organisation météorologique international en 1873 et à l’Organisation météorologique mondiale en 1951.

Les observations en mer sont donc depuis longtemps effectuées plus ou moins régulièrement par les marins embarqués sur des unités des marines nationales, de la marine marchande, par des pêcheurs travaillant sur des chalutiers hauturiers ou côtiers, par des scientifiques affectés sur des navires océanographiques. Ils prennent note de la force et la direction du vent, la température et l’humidité de l'air, le type et l'intensité des précipitations, le givrage par les embruns, la visibilité et l’état de la mer. Ces informations sont transmises par radio ou par satellite vers des banques de données qui sont ensuite accessibles par un système de commutation interrogation/réponse.

Avec le développement de l'électronique, des bouées fixes ou dérivantes ont été équipées d'appareil de prise de mesure automatique des mêmes paramètres. Depuis les années 1960, des satellites météorologiques ont été mis en orbite autour de la terre. Ils permettent de recueillir le même genre d'information dans des zones peu couvertes par les autres genres d'observations. Tous ces systèmes de télédétection rapportent régulièrement, souvent plus souvent que les observateurs humains.

Elles se présentent sous forme de messages numériques codés qui sont pointés sous une forme graphique plus facilement accessible à l'analyse.

Prévision

Une fois les données recueillies par les services météorologiques nationaux, elles sont transmises à travers le monde afin de servir à la prévision météorologique, entre autres à celle pour les intérêts maritimes. Les météorologues analysent la situation et émettent des prévisions pour leurs secteurs de responsabilités.

Ils utilisent ainsi leurs connaissances en plus de solutions proposées par des modèles de prévision numérique du temps. Certains modèles sont spécialisés dans les conditions atmosphériques, alors que d'autres donnent la hauteur des vagues et de la houle.

 

 

 

 

La NASA dévoile ses nouvelles technologies

La Nasa vient de choisir comme technologies d’avenir un système de communications spatiales, une voile solaire et une horloge atomique. Leurs lancements sont prévus entre 2015 et 2016. La première technologie d'avenir dévoilée par la Nasa concerne un nouveau système de communications optiques utilisant le laser, à la place des ondes radio utilisées jusqu’à présent. Ce système devrait améliorer le débit des données en étant de dix à cent fois plus performant que les systèmes actuels.

Dans le cas de Mars, le taux de transfert des données relayées vers la Terre de 6 megabits par seconde à plus de 100. Il faudra 5 minutes pour recevoir une image haute résolution acquise par la caméra Hirise de la sonde Mars Reconnaissance Orbiter contre 90 minutes aujourd’hui. La seconde démonstration concerne le déploiement dans l’'espace d’une voile solaire de 38 mètres de côté. La Nasa vise à démontrer la manœuvrabilité d’une voile concernant la stabilité et le contrôle d’altitude. À l’avenir des missions pourraient faire appel à des voiles dont le principal avantage par rapport aux autres systèmes de propulsion est l’absence de moteur. Une voile solaire est mue par la seule force des photons.

Bien que très faible, cette pression est constante et cumulative, ce qui permet au bout de quelques années d’atteindre des vitesses de plusieurs milliers de kilomètres à l’heure. Ces voiles pourraient être utilisées pour nettoyer les débris spatiaux ou comme faisant partie d’un système d’alerte avancé de la météorologie solaire. La dernière technologie sélectionnée est une horloge atomique à ions de mercure permettant un niveau de précision jamais atteint en termes de navigation et de positionnement des engins spatiaux et des opérations spatiales.

Avec le mercure, les horloges atomiques montent en précision

Du pendule à l'atome en passant par le quartz, les horlogers ont sans cesse cherché des oscillateurs plus rapides pour améliorer la mesure du temps. Le dernier candidat en date, l'ion mercure, bat un million de milliards de fois par seconde.

Aujourd'hui, c'est le césium 133 qui rythme nos vies. Cet atome a en effet pris une place prépondérante dans les 230 horloges atomiques, installées dans une cinquantaine de pays, qui dictent l'heure exacte sur la planète. Or, voilà que le césium, qui vibre plus de 9 milliards de fois chaque seconde avec une régularité exceptionnelle, est devenu trop paresseux. Pour améliorer la précision des horloges, les chercheurs se penchent sur des atomes qui, quand on leur fournit une pichenette énergétique, se trémoussent encore plus vite. Afin de cerner ces petites poussières de seconde qui peuvent avoir de grandes conséquences lorsqu'on se préoccupe du comportement de galaxies lointaines ou qu'on cherche à positionner un objet au millimètre près grâce au GPS, le système de positionnement par satellite. Ainsi, le 13 juillet dernier dans la revue Science, des chercheurs de l'Université du Colorado à Boulder et de l'Institut Max Planck à Garching, en Allemagne, ont présenté un prototype d'horloge qui est réglé à l'aide d'un unique ion de mercure qui vibre un million de milliards de fois par seconde! La précision passe donc à la femtoseconde (10-15 sec). Pierre Thomann, directeur adjoint de l'Observatoire cantonal de Neuchâtel, présente les principes de cet exploit technologique.

Construire une horloge précise, c'est trouver un objet qui oscille le plus régulièrement possible. Le balancier a longtemps rythmé, de façon bien visible, l'avance des aiguilles d'une montre. Un mécanisme freiné par l'air et les rouages, qu'il fallait remonter régulièrement pour éviter qu'il ne s'arrête définitivement. Dans les années 1930, les horlogers se tournent vers un autre oscillateur, le quartz, qui vibre un peu comme un diapason lorsqu'on lui fournit une impulsion électrique. Il suffit ensuite de compter les oscillations pour déterminer le temps qui s'écoule. C'est la révolution: comme le minéral vibre à une fréquence élevée – quelques milliers à quelques millions de fois par seconde selon la taille du cristal – l'imprécision sur la mesure du temps se restreint. Mais, à y regarder de plus près, les maniaques de l'heure juste ont remarqué que cette fréquence dépend de la température et… de l'âge du cristal. Ce qui entraîne une imprécision de l'ordre d'une milliseconde par jour.

Malgré tout satisfaits du quartz – le minéral transmet facilement ses vibrations au mouvement de l'horloge par un signal électrique – les scientifiques ont alors cherché à l'assister par un autre oscillateur, vraiment régulier celui-là, qui le contrôlerait et ajusterait la fréquence du signal qu'il génère. Ils sont allés chercher au plus profond de la matière, l'atome. Parmi plusieurs candidats, ils ont choisi le césium 133. Ils y ont trouvé un pendule aussi impalpable que fiable: un électron qui, mis dans un champ magnétique à fréquence de résonance de 9 gigahertz, oscille comme une aiguille aimantée au-dessus de son noyau. Reste à observer cette danse de l'électron, qu'on sait repérer à un millième d'oscillation près. Plus on l'observe longtemps, plus la mesure sera précise. Il est possible de l'observer sur une demi-seconde – env. 5 milliards d'oscillations – puis de mesurer le temps exact au millième d'oscillation près, ce qui donne une imprécision de l'ordre de 100 femtosecondes.

Pour améliorer cette performance, on peut augmenter quelque peu le temps d'observation. Mais, il est aussi possible de choisir un oscillateur plus rapide. C'est la voie empruntée par l'équipe de l'Américain Dave Wineland, qui a abouti à la création de l'horloge atomique optique à ion de mercure. L'oscillateur est aussi un électron, qui change de niveau d'énergie lorsqu'on lui envoie un photon à une longueur d'onde précise. Le contrôle de la longueur d'onde du photon, qui doit être réalisé avec une précision phénoménale, représentait depuis de longues années le défi technologique à surmonter pour réaliser une nouvelle génération d'horloges. Ce pas a été franchi grâce à l'invention du laser à femtoseconde, une trouvaille qui a valu à Ahmed Zewail, son inventeur, le Prix Nobel de chimie en 1999 et aux améliorations qui lui ont été apportées par l'équipe de Theodor Hänsch à Munich.

Forecasting techniques

There are several additional forecasting techniques. These techniques rely on numerical models that simulate the behavior of the atmosphere. They require the expertise of forecasters to analyse the results of the models and bring them in terms understandable by users.

The deterministic forecast

For maturities ranging from a few hours to 3 or 4 days, you can use a technique called "deterministic" forecast It is based on the use of digital weather forecasting models, which simulate the behavior of the atmosphere based on the equations of physics and thermodynamics.
The first step of the deterministic forecast is to establish from the comments a cartographic representation of the time that he made, i.e. an initial state of the atmosphere. The model then calculates the evolution of weather parameters (pressure, temperature, wind) over time. Starting from a State of the atmosphere, the model develops a single scenario of evolution of these parameters, this is why we talk of "deterministic" forecast
The simulations are then analysed by a forecaster who knows the limits of the model. He adjusts, modifies and translated the results in terms of 'observable' time, such as the duration and intensity of precipitation, maximum and minimum temperatures, the occurrence of thunderstorms and gusts of wind or fog.
But this deterministic approach does not assess the uncertainties hanging over the unique scenario forecasts. Yet, it is essential for users of weather forecasts, to have access to this information. This is what allows the ensemble prediction, which provides, in addition to the most likely scenario, the associated uncertainties (confidence, alternative scenarios,...).

The ensemble forecast

Every step of the weather forecast includes uncertainties that could affect the quality of the final forecast. Observations are heterogeneous in space and in time, the models are necessarily imperfect representations of the behaviour of the atmosphere and the atmosphere itself has a chaotic behavior: two very close initial States may lead to very different situations within a few days, or even a few hours.

Innovations in the field of measurement and research on atmospheric processes to reduce gradually the first two sources of uncertainty. But the third is a physical reality that eludes us, a property of the atmosphere.

Instead of sticking to a deterministic approach that produces a unique scenario of evolution for each mapping of the time that he made, forecasters use so more a method that takes into account these uncertainties: the forecast set (or probabilistic). It consists of simulations from several different descriptions of the initial state of the atmosphere. These are not chosen at random: they are representative of the identified uncertainties hanging over the measures. The ensemble prediction provides several scenarios of evolution of the atmosphere. Their convergence or their differences provide information to forecasters on the probability of each scenario: they can choose the most likely and quantify the uncertainty which weighs on this forecast.

This quantification of uncertainty allows forecasters to match their forecasts beyond 4 days of a confidence index. This number from 1 to 5 is provided on the Web site of forecasts as well as in metropolitan weather reports accessible by phone. More the forecaster believes that the forecast is reliable, the more confidence index it chooses (1: very low confidence, 5: very high confidence).
Probabilistic information are also available for the phenomena of precipitation and gel, as percentages of probability.

 

Nowcasting
Nowcasting for the very short term: from a few minutes to a few hours. These forecasts are used for example to the forecasters to track temporal and spatial end of dangerous weather events, such as the Mediterranean episodes, especially during weather vigilance orange or red. As part of its commercial activities, weather-France is also brought to monitor the risk of rain during sports or cultural events: it is then to provide very precise chronologies from rainy episodes for the next hours. Nowcasting are also used in other areas, such as aviation or road transport.

These forecasts is based on the use of the observations. Indeed, the numerical forecast model aroma assimilates all the 6 hours data from observations and provides forecasts up to 48 hours to deadline. The data assimilation method, sufficient to ensure the quality of forecasts beyond a few hours, limit the quality for the first deadlines. To predict the weather in the hours coming, forecasters combine so the information provided by aroma with extrapolations of observational data, including radar and satellite images.

In order to improve its nowcasting, weather-France develops two dedicated versions of the model aroma: aroma PI, which integrates hourly observational data and aroma airport, which the resolution reached 500 m on a box. Aroma PI should go into operation end of 2015; It will allow an update hourly forecasts for the next few hours. Aroma airport is currently being tested on an experimental basis for the forecast of the weather very fine mesh on airport (turbulence created in the wake of aircraft, wind shear,...).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *