Détection automatique de phénomènes présents dans une image satellitaire en composition colorée( Télécharger le fichier original )par abdelaziz ammadi faculte des sciences rabat universite mohammed 5 - master en informatique telecom imagerie 2006 |
Les principales caractéristiques du capteur SEVIRI :[T1] 2.2.1.1.1 Le canal visible :Les images visibles représentent la quantité de lumière visible rétro diffusée par les nuages ou la surface de la terre. Les nuages et la neige apparaissent en blanc et les zones sans nuages en noir. Les nuages épais sont plus brillants que les nuages fins. Il est difficile de distinguer les nuages bas des nuages élevés. Pour cela, il faut utiliser les images infrarouges. Les images visibles sont complètement noires pendant la nuit, et ne peuvent ainsi être utilisées. L'énergie de radiation (S) émise par le Soleil est très intense pour une gamme de longueur d'onde comprise entre 0,4 um et 0,7 um (C'est la lumière visible que perçoit l'oeil humain) et maximale pour une valeur de longueur d'onde de 0,5 um [B2]. A B C Fig. 2.2: A : Image de MSG-1 du canal visible 0.6, B canal visible 0.8, C canal HRV [I2] Une partie plus ou moins importante de cette énergie en provenance du soleil est absorbée par les différentes formations de la surface terrestre ou proche d'elle : il s'agit pour l'essentiel des sols, des océans et des nuages. L'autre fraction (R) est réfléchie ou diffusée en direction de l'espace. Le rapport de ces énergies S/R constitue l'albédo de cette surface (nous reviendrons plus tard sur la notion d'albédo). C'est elle que le satellite Météosat capte au moyen de son détecteur sensible aux énergies de radiation comprises entre 0,4 um et 0,9 um . 2.2.1.1.2 Le canal infrarouge :Les images infrarouges représentent une mesure du rayonnement infrarouge émis par le sol ou les nuages. Ce rayonnement dépend de la température. En mode inversé, Plus l'objet est chaud, plus il est noir et plus l'objet est froid, plus il est blanc (Fig. 2.3). Les nuages élevés apparaissent plus blancs que les nuages bas car ils sont plus froids. Dans les zones sans nuages, plus le sol est chaud, plus il est sombre. La surface terrestre après avoir absorbé une fraction de l'énergie incidente rayonne à son tour restituant ainsi une partie de l'énergie emmagasinée. A la température de la terre (moyenne 15°C), ce rayonnement se fait dans une gamme de longueurs d'ondes comprise entre 3 et 50um avec un maximum pour 10um. Ces longueurs d'onde appartiennent au domaine des infrarouges IR. Une majeure partie de ces radiations émises par la terre est absorbée par la vapeur d'eau et certains gaz (CO2, N2O, O3, O2) présents dans l'atmosphère, piègent ainsi cette énergie (effet de serre). Fig. 2.3 : Image de canal infrarouge thermique [I2] Cependant cette absorption atmosphérique est inégale selon les radiations émises par la terre. Les infrarouges de longueur d'onde comprise entre 8,5um et 13um traversent bien l'atmosphère. Ce sont eux, entre autres, que le satellite Météosat capte au moyen de son détecteur IR sensible aux énergies radiatives dans cette plage de longueurs d'onde. L'émission est fonction de la température et de la nature du corps émetteur. La couverture nuageuse, selon sa nature (glace, vapeur) et son épaisseur laissera passer plus ou moins ces rayons IR. 2.2.1.1.3 Les canaux vapeur d'eauLes images «vapeur d'eau» représentent une mesure du rayonnement infrarouge influencée par la vapeur d'eau dans l'atmosphère. Cela permet de déterminer les zones sèches et les zones humides. Les infrarouges de longueur d'onde comprise entre 5um et 7,5um sont particulièrement absorbés quand l'atmosphère est riche en vapeur d'eau. Ce sont eux que le satellite Météosat capte au moyen de son détecteur WV (Water Vapeur) sensible aux énergies radiatives comprises entre 5,5 et 7,5um. Lorsque l'atmosphère est pauvre en vapeur d'eau, ces rayons infrarouges la traversent et parviennent au capteur WV de Météosat Seconde Génération. Au contraire plus l'atmosphère est chargée de vapeur d'eau moins ils la traversent. 2.2.1.1.4 Apport du canal HRV.Il est clair que le canal Visible à Haute Résolution HRV, représente une technologie très poussée, avec un intervalle d'échantillonnage amélioré de 1 Km [B4]. En comparant les différents canaux ci-dessous Fig. 2.4 on constate une nette distinction entre la neige et les nuages. Cela pourra nous être très utile pour la détection automatique et la distinction entre les phénomènes dans une image MSG. A B C Fig. 2.4 (A Météosat Canal IR ~ 5 km , B Canal VIS ~ 2.5 km, C canal HRV ~ 1 km) [I2] 2.2.1.2 L'albédoQuand les rayons parviennent à la terre une partie de l'énergie qu'ils transportent est déviée par les différentes couches de l'atmosphère. Cependant l'autre partie arrive à la traverser. Celle-ci est alors réfléchie par les nuages ou par le sol. Ce qu'on nomme albédo est le rapport entre l'énergie réfléchie et l'énergie incidente. Ce rapport est fonction de la cible réfléchissante. Ainsi, l'albédo de la neige (0.85) n'est pas le même que celui d'une prairie (0.20). En moyenne, l'albédo de la terre est de 0.3 ce qui signifie que 70% de l'énergie que nous recevons est absorbée (30% est réfléchie) [B5]. Toute surface absorbe une partie du rayonnement incident pour n'en réfléchir qu'une partie. Elle n'absorbe que les longueurs d'onde qu'elle ne possède pas (Fig. 2.5). De plus, un rayonnement solaire se compose de plusieurs longueurs d'onde (lumière polychromatique). On peut donc émettre l'hypothèse qu'il suffit de collecter les différentes longueurs d'ondes réfléchies pour pouvoir déterminer, sur une zone donnée, la nature de l'élément réfléchissant. Fig. 2.5 méthode de reconstitution d'une image [I3] 2.2.2 La composition colorée.Dans le cas ou on associe chacune des couleurs fondamentales (rouge, vert, bleu) à un canal de la même image, il est possible de visualiser plusieurs canaux simultanément. Cette opération s'intitule: «composition colorée». L'utilisation de la couleur ne provoque pas dans ce cas une transformation des valeurs des pixels. L'interprétation des couleurs est donc possible. Le résultat de la superposition des trois canaux et donc de la combinaison des niveaux d'intensité des trois couleurs fondamentales donnera une image en « vrais » ou en « fausse » couleur, selon que la couleur fondamentale associée à chaque canal correspond, ou non, à la zone du spectre couvert par ce canal. Dans le cas d'une correspondance parfaite entre les couleurs fondamentales et les canaux correspondants, on obtient une composition colorée (Fig. 2.7) en vraie couleur, permettant de localiser chaque phénomènes avec sa couleur tel quel apparaît dans la nature (similitude avec une photo).
Fig. 2.7 les différentes RGB. [I2] 2.2.2.1 RGB 1La RGB 1 est formée par les canaux (NIR1.6, VIS0.8, VIS0.6) et utilise l'étendu dynamique de 0 à 100 % et un gamma de 1. Fig. 2.6 RGB1 (dynamique 0-100, gamma=1)[I2] Selon les travaux menés dans ce domaine Cette RGB permet détecter la végétation, la neige, la poussière, le brouillard et la fumée. [B4] 2.2.2.2 RGB 2La RGB 2 est constituée par les canaux (VIS0.8, IR3.9, IR10.8). L'étendu dynamique et la correction gamma sont résumé dans le tableau suivant:
Fig. 2.7 RGB 2 [I2] Cette RGB permet de détecter la convection, le brouillard, la neige et le feu. 2.2.2.3 RGB 3La RGB 3 est produite par les canaux (VIS0.8, NIR1.6, IR3.9r), elle permet de visualiser les nuages, la convection, la neige, la fumée, le brouillard et le feu. La dynamique et la correction gamma dépend de la saison (tableaux ci dessous).
Fig. 2.8 RGB 3 [I2] 2.2.2.4 RGB 4La RGB 4 est faite à partir des canaux (IR12.0-IR10.8, IR10.8-IR3.9r, IR10.8), elle permet de visualiser les nuages à différents niveaux, le brouillard et le feu. Selon la dynamique et la correction, la RGB 4 change de comportement :
Fig. 2.9 RGB-4 du 9 Novembre 2003, 02:45 UTC [I2] 2.2.2.5 RGB 5La RGB 5 est formée par les canaux (IR12.0-IR10.8, IR10.8-IR8.7, IR10.8), elle distingue la tempête de poussière en couleur magenta.
Fig. 2.10 RGB-5, 3 MARS 2004, 01:00 UTC [I2] 2.2.2.6 RGB 6La RGB 6 est générée par les différences de canaux (WV6.2-WV7.3, IR3.9-IR10.8, NIR1.6-VIS0.6). Cette RGB détecte les cyclones et les tempêtes convectives.
2.2.2.6 La dynamiqueLa dynamique d'une image est l'étendue de la plage de couleurs utilisable. Elle est liée à la longueur du codage de chaque couleur : · si une couleur est représentée par un seul bit, on aura deux valeurs possibles, 0 ou 1, c'est-à-dire blanc ou noir. L'image est dite de type bitmap. · si une couleur est représentée sur un octet (8 bits), on aura 28 = 256 couleurs possibles. C'est le cas des images dites en "fausses couleurs" ou "à palette" (format GIF par exemple) et des images en "niveaux de gris". · enfin, on parle de "vraies couleurs" lorsqu'on utilise un octet pour stocker chacune des composante dans l'espace de représentation des couleurs (Rouge - Vert - Bleu) on aura 28*28*28 = 16 millions de couleurs possibles, mais chaque point sera codé sur 3 octets [B6]. · La dynamique dans notre cas traduit l'étendue ou la plage de valeurs réelles parmi les 1024, qu'il faut prendre pour faire la correspondance avec celles de la couleur (ou du niveau de gris) qui est en général de 256. 2.2.2.7 le facteur gammaLe gamma, ou facteur de contraste, caractérise la pente de partie rectiligne de la courbe La correction gamma ressemble à un réglage de contraste, mais utilise un algorithme plus complexe. Les tons sombres et clairs sont très peu modifiés alors que les tons moyens le sont davantage. Cette méthode garantit un ajustement optimal en préservant les ombres et les reflets. Fig. 2.11 la correction gamma Intensité corrigée = intensité (1 / gamma) Plus le gamma est faible plus le contraste est faible; l'image perd sa saturation et devient pâle, elle n'a plus aucune dynamique car elle a perdu sa luminance. Inversement, à un gamma élevé correspond un contraste élevé et une forte dynamique; les couleurs sont vives, très saturées avec des noirs et des blancs presque purs, parfois trop lumineux. 2.2.3 ConclusionL'objectif de ce chapitre était la présentation des divers canaux de SEVIRI, ainsi que les différentes compositions RGB menées par des travaux des recherches dans ce domaine. Nous avons commencé par une description des canaux visible, infrarouge et vapeur d'eau. Par la suite nous avons présenté les 6 combinaisons RGB les plus utilisées. Il est essentiel, pour les modèles météorologiques tel que le model marocain ALBACHIR [A1], d'avoir des données très précises sur les conditions initiales prévalant dans l'atmosphère. C'est là qu'interviennent les données satellitaires - elles peuvent avoir un effet très positif sur les modèles pour la détection des phénomènes dangereuses. III Détection des hydrométéores3.1 Introduction.Le passage au nouveau millénaire s'est caractérisé par des phénomènes hydrologiques extrêmes avec des périodes de sécheresse dans les pays méditerranéens et l'inondation de vastes surfaces dans le reste de l'Europe. A elles seules, les inondations ont fait des centaines de victimes et contraint à l'évacuation de près d'un million de personnes, sans compter des dégâts matériels estimés à plus de 25 milliards d'euros. Au Maroc la sécheresse n'est pas en reste avec ses conséquences économiques et environnementales exorbitantes; en effet, elle frappe partout, que ce soit avec une intensité toujours plus forte dans les sud ou modérée au nord où l'eau a été rationnée pendant des périodes prolongées ces derniers années. L'amélioration des prévisions de crues et de sécheresse, de même que celle des dispositifs de vigilance et d'alerte devient donc une priorité pour les météorologues et bien au-delà. Les modèles hydrologiques complexes sur lesquels s'appuient les météorologues pour prévoir et évaluer les risques des phénomènes météorologiques et gérer leur impact, doivent être basés sur des prévisions très précises et des données très détaillées. Cette précision peut être améliorée de manière substantielle en recourant à des techniques d'assimilation avancées intégrant les données de diverses sources d'information telles que radars, réseaux de pluviomètres, imagerie satellitaire. Les avancées dans les technologies de télédétection par satellite et dans la qualité des données, notamment depuis l'arrivée des donnes MSG, ouvrent maintenant de nouvelles possibilités de combler les trous de couverture du réseau d'observation synoptique, en intégrant des informations spatialisées sur les précipitations, le manteau neigeux et l'humidité des sols. Ces paramètres sont d'importance capitale pour les modèles de la prévision numérique. Cette qualité se base sur la combinaison des douze canaux du satellite MSG d'Eumetsat sous forme des RGB. 3.2 La neigeLa neige est un des phénomènes important à prévoir. Elle peut devenir dangereuse dans les cas suivants : § En montagne, elle peut déclencher des avalanches. § En suspension elle réduit la visibilité. § Sur les routes, elle peut perturber le trafic, isoler et enclaver des zones et donner lieu au verglas qui peut causer des accidents. 3.2 .1 détection de la neige par RGB 1.La composition des canaux 3, 2, 1 respectivement en R, G, B permet de détecter la neige, entre autres. L'image suivante présente un exemple de cette composition avec l couleur cyan : Fig. 3.1 RGB-1, 18 Février 2003, 13:00TU [I2] 3.2 .2 détection de la neige par RGB 2.En plus de la composition précédente, dite RGB1, on peut détecter la neige par la composition RGB 2 formée par les canaux l0.8 um en Rouge, NIR 1.8um en vert, IR3.9 um en bleu. Fig. 3.2 RBB-2, 24 Février 2003, 11:00 TU détection de la neige [I2] 3.3 Détection des nuages bas.Les nuages bas présentent un impact négatif pour l'aéronautique. Le satellite ne peut pas distinguer entre le cumulus, le stratus et le stratocumulus. Ils sont tous identifiés comme des nuages bas constitués de gouttelettes d'eau. Les nuages bas peuvent réduire la visibilité jusqu'au point où un pilote ne peut pas voir les marques au sol ou les feux qui délimitent la piste ou qui balisent son axe. Statistiquement ce facteur a causé 279 accidents à l'approche et à l'atterrissage entre 1980-1996. La détection des nuages bas se fait par RGB 1, RGB2, RGB3 et RGB4. Fig. 3.3 RGB-1, 18 Février 2003, 13:00 TU. [I2] 3.4 Détection brouillard.3.4.1 DéfinitionLe brouillard est la suspension dans l'atmosphère de très petites gouttelettes d'eau réduisant la visibilité au sol à moins d'un kilomètre. Les gouttelettes d'eau sont maintenues en suspension par les mouvements turbulents de l'air, leurs charges électriques identiques, les écartent les unes des autres. Le brouillard est en fait un nuage dont la base touche le sol. 3.4.2 Les dangers du brouillardLe brouillard est un phénomène particulièrement dangereux pour tous les types de transports, routiers, aéronautiques ou maritimes. Sur la route, les accidents sont plus nombreux et plus graves par temps de brouillard : en dessous de 200 m de visibilité, le conducteur commence à perdre les repères visuels qui lui permettent d'évaluer sa vitesse. En plus de réduire la visibilité, les brouillards peuvent entraîner de faibles précipitations sous forme de bruine, voire de neige, et des phénomènes de dépôts liquides ou givrants par températures négatives. Prévoir les épisodes de brouillard. Les différents processus de formation de brouillard sont bien connus, mais leur localisation et leur intensité restent difficiles à prévoir avec les méthodes classiques. Fig. 3.4 MSG-1, 26 janvier2004, 01:00 tu RGB 10-09,09-04,09 [I2] 3.5 Détection de la convection sévère.C'est généralement à l'échelle aérologique que la convection apparaît dans une couche, lorsque le profil vertical de température Fig. 3.5, plus tendu que celui d'une atmosphère adiabatique. Cette convection est la cause des orages, de la grêle des pluies diluviennes (cas d'Ourika en 1996)
Fig. 3.5 Emagramme 731[A2] qui montre le chemin d'air convectif. [I4]
Fig. 3.6 Développement du cumulonimbus [A3] [I4] Les décharges électriques et les différences de potentiels qui se manifestent dans les cumulonimbus peuvent engendrer des effets électromagnétiques et affoler l'avionique embarquée ou endommager la VHF. Sans parler des mauvaises conditions météo. Fig3.7 RGB-2, 20 Mai 2003, 13:30 UTC [I2] Le satellite MSG permet grâce à la combinaison RGB-2 de repérer la convection sévère [A13] par la couleur moutarde.
Fig. 3.8 RGB 4, le Cb noyé dans une nappe de nuage [I2] 3.6 Détection des cyclonesChaque année, plusieurs dizaines de cyclones se forment au dessus des océans dans les zones intertropicales. Chaque annonce de cyclone laisse prévoir de nombreux dommages et souvent de nombreuses victimes. Avant la deuxième guerre mondiale, les informations sur les cyclones étaient transmises par les bateaux pris dans la tempête. Aujourd'hui, les stations météorologiques parviennent à détecter la formation d'un cyclone au dessus de l'océan. Par contre, il est plus difficile de prévoir sa direction. L'arrivée des images RGB permet actuellement de tracer le chemin d'un cyclone avec une marge d'erreurs, la solution reste de suivre le cyclone instantanément. Fig. 3.9 8 Septembre 2003, 12:00 UTC RGB 2. [I2] 3.7 Tempête de sable ou de poussière.Le terme tempête est un terme générique qui peut décrire plusieurs phénomène. Tous ceux-ci sont cependant liés à la formation d'un cyclone ou dépression. On note deux types principaux de dépressions: les cyclones tropicaux, dont l'énergie est tirée de l'instabilité de la masse d'air qui les entoure, et les cyclones extratropicaux dont le moteur est la rencontre de masses d'air de différentes températures. Une tempête de sable est un phénomène qui se manifeste par des vents violents transportant des particules de sables dans l'atmosphère et provoquant ainsi la réduction de la visibilité. Les tempêtes de sable les plus violentes peuvent transporter des milliers de tonnes de poussières à l'échelle d'un continent entier et à des altitudes élevées. Ces poussières, quand elles sont piégées dans les courants stratosphériques peuvent traverser les océans ou faire le tour du monde. C'est ainsi que des nutriments venant du Sahara enrichissent la forêt amazonienne, leur tracé étant maintenant suivi par satellite. Fig. 3.10 RGB 10-09,09-07,09 image tempête de poussière. [I2] 3.8 Les oragesFig. 3.11 RGB 05-06,04-09,03-01 détection des orages [I2] 3.9 Le couvert végétal (la verdure)La verdure n'est pas un phénomène météorologique. Par contre elle pressente un indice majeur pour l'agriculture, les autorités de lutte contre les incendies de forêt et d'autres tels que l'opération de lutte antiacridienne. Fig. 3.12 RGB (3,2,1) JUIN 2003, 15:00 TU[I2] 3.10 Détection du désertAfin de segmenter l'image convenablement il est recommandé d'identifier le désert qui représente une classe de pixel de grande importance. Le désert doit être connu par ses valeurs (RGB) afin que les opérateurs ne le confondent pas avec les autres classes de l'image. Fig. 3.13 MSG-1, 31 Octobre 2003, 11:30 TU (source) [I2] 3.11 Conclusion.Dans ce chapitre, nous avons présenté l'état de l'art des études menées sur la détection des phénomènes météorologiques. Diverses techniques de télédétection satellitaire sont utilisées pour mesurer ou détecter les hydrométéores. Par contre, très peu d'études utilisent les techniques de reconnaissance automatique de phénomènes présents sur les images satellitaires. Les compositions colorées (RGB) sont un grand atout pour réaliser cette interprétation automatique ; combinées avec des méthodes de traitement d'images nous pouvons détecter l'hydrométéore, le confirmer et en fin le présenter tout seul sur une carte. IV Segmentation et algorithmes proposés4.1 IntroductionDans la première partie de ce travail, nous avons présenté l'état de l'art dans ce domaine de détection de phénomènes Ceci nous amène alors à chercher d'autres techniques pour améliorer et continuer sur cette première solution, puisque notre objectif est la détection automatique des phénomènes météorologiques présents sur les images satellitaires de Météosat MSG Pour mener à bien cette détection, nous exploitons les techniques de traitement d'images Ces techniques s'est développée dans des domaines très divers durant ces dernières décennies Pour avoir alors une détection automatique plus performante, il est nécessaire d'intégrer les étapes suivantes Ø Prétraitement Ø Segmentation Ø Extraction 4.2 La segmentationLa segmentation en général consiste au découpage spatial de l'image en zones homogènes. Elle joue un rôle prépondérant dans le traitement et l'analyse d'image et la vision par ordinateur. En analyse d'images, on distingue les traitements de bas niveau et les traitements de haut niveau. Cette distinction est liée au contenu sémantique des entités traitées et extraites de l'image. Les traitements de bas niveau opèrent en général, sur les grandeurs calculées à partir des valeurs attachées à chaque point de l'image sans faire nécessairement la liaison avec la réalité qu'elles représentent. Par exemple, la détection des contours est un traitement de bas niveau qui est effectué «sans comprendre» l'image. Le contour détecté peut très bien ne pas correspondre à un bord d'objet dans la réalité et ne présenter aucun intérêt, Ainsi les traitements de bas niveau opèrent plutôt sur des données de nature numérique. A l'opposé, les traitements de haut niveau s'appliquent à des entités de nature symbolique associées à une représentation de la réalité extraite de l'image. Ils sont relatifs à l'interprétation et à la compréhension de l'image et sont exprimés avec des mots du vocabulaire de l'application. Par exemple, des zones d'une image aérienne peuvent être caractérisées par leur forme (rectangulaire, linéique,..), être étiquetées avec les termes : bâtiment, route, bosquet, ombre, etc... Des relations entre ces zones sont exploitées pour comprendre la scène étudiée, par exemple : une route ne peut pas être incluse dans un bosquet. La segmentation est un traitement de bas niveau qui consiste à créer une partition de l'image A en sous-ensemble Ri, appelées régions, tels que :
Une région est un ensemble connexe de points image (pixels) ayant des propriétés communes (intensité, texture,...) qui les différencient des pixels des régions voisins. Les connaissances utilisées sont le plus souvent du domaine de l'imagerie numérique et du traitement du signal, donc sémantiquement assez pauvres. Il n'y a pas de méthode unique de segmentation d'une image, le choix d'une technique ou une autre est dicté par : Ø la nature de l'image : -éclairage non homogène, reflets, -présence de bruit, de zones texturées, - contours flous, en partie occultes, Ø les opérations situées en aval de la segmentation : - localisation, mesure, calcul 3D, - reconnaissance des formes, interprétation, -diagnostique, contrôle qualité, Ø les primitives à extraire : -contours, segments de droite, angles,... -régions, formes, - textures, Ø les contraintes d'exploitation : -complexité algorithmique, fonctionnement en temps réel, - taille de la mémoire disponible en machine. Du fait de cette diversité, il est difficile de définir, de manière absolue, une « bonne » segmentation qui fait référence aux notions de différence et de similarité comme les perçoit le système visuel humain et ceci donne naissance à deux proches : « frontière » et approche « région » Ø La notion de « frontière » est associée à une variation d'intensité ou à une discontinuité entre les propriétés de deux ensembles connexes de points. Ø La notion de « région » fait référence à des groupements de points ayant des propriétés communes. Il existe évidemment de nombreuses méthodes de segmentation : Ø Fusion de région, [A4] ; Ø Diffusion anisotropique [A5] ; Ø Algorithmes de watershed [A6] ; Ø Contours actifs ou «snakes» [A7] ; Ø Contours géodésiques [A8] ; Ø Modèles déformables [A9] ; Ø Méthode des k-means introduite par MacQueen ; Ø Kernel-k-means [A10]; Ø Chaînes de Markov [A11] ; Ø Algorithmes génétiques [A12] ; Ø Filtrages ; Ø Etc.... Cependant, aucune méthode de segmentation ne se révèle absolue et optimale dans tous les cas. En effet, la complexité et la diversité des images à traiter rendent difficile la conception d'une méthode générique. Chaque méthode présente ses avantages et ses limites, aussi son utilisation dépend généralement du problème à résoudre. Le but est en général de trouver la méthode la plus adaptée à une famille d'application donnée. . 4.3 Analyse d'magesLe traitement d'image est né de l'idée et de la nécessité de remplacer l'observateur humain par la machine. L'image ou les signaux provenant des capteurs ont alors été codés et mémorisés sur différents supports (, la vision intervenant dans un grand nombre d'activités humaines) à revoir ce morceau de phrase car il n'a aucun sens. Le champ des applications du traitement d'images est très vaste. Une image est composée de pixels (répartis sous forme de tableau). On attribut a chaque pixel un niveau de gris codé en binaire sur n bits. S'il s'agit d'une image couleur, chaque pixel a trois composantes : une composante rouge, une composante verte et une composante bleue. A partir de ces trois composantes, il est possible de représenter plus ou moins bien la quasi-totalité du spectre visible. Dans le cadre de ce projet, les radiances (informations de départ) des canaux sont des comptes numériques de 10 bits (1024 valeurs), alors que les images de sortie seront en couleurs et chaque niveau de gris sera codé sur un octet soit huit bits. Les valeurs de niveaux de gris varieront donc de 0 `a 28 - 1 = 255. Si l'image traitée est en «noir & blanc», les composantes rouge, verte et bleue auront la même valeur pour un pixel donné. 4.3 Prétraitements :Les satellites d'EUMETSAT transmettent leurs images et données à la station de réception au sol (Centre de contrôle de Darmstadt.) ou les données seront traitées pour éliminer le bruit et faire la correction géométrique et le géoréférencement. Elles sont, ensuite retransmises aux usagers, essentiellement via le système de diffusion développé spécifiquement par EUMETSAT. 4.3.1 L'outil msg2binL`outil msg2bin est un exécutable permet de convertir les données de formats HRIT 1.5 d'Eumetsat à des valeurs binaires. 4.3.2contrôle et vérification de la taille des fichiers.Afin de s'assurer que les fichiers sont corrects, une vérification de la taille des fichiers est obligatoire ainsi que les valeurs des pixels. Pour cela un programme a été développé pour répondre si le fichier est de taille (1280 *1024) ou (1540 *1236) et si les valeurs des pixels sont entre 0 et 1023. Pour cette raison nous avons développé une fonction qui lit la valeur de chaque pixel (codée sur 2 octets). La valeur du pixel est alors donnée par la formule : F= (255*c1) +c2 Avec c1 et c2 les 2 octets d'un enregistrement 4.3.3 Les tables de conversion en albédo et en température.Le travail avec les canaux visibles nécessitent la conversion des valeurs numériques en albédo. De même les valeurs des canaux infrarouges seront converties en températures de brillance. En pratique chaque enregistrement sera remplacé par la valeur qui lui correspond dans la table de conversion. Il est à noter que chaque canal a sa propre table de conversion. 4.4 Formation des RGBLa composition colorée représente la plate forme de notre travail. A l'occasion une fonction intégrée dans le programme permet de regrouper les canaux appelés pour la formation de la composition souhaitée. Chaque RGB est caractérisée par sa dynamique et la correction gamma comme décrit au chapitre 2. Ainsi la valeur en niveau de gris (de 0 à 255) d'une composante R, G ou B d'un pixel donné est calculée par la formule suivante : Avec BT la valeur d'enregistrement. BTmin : la valeur minimale de la dynamique ou de température. BTmax : la valeur maximale de la dynamique ou de température. : représente la correction gamma. D'autre correction seront intégrée à l'occasion telle que la correction gamma 2. 4.5 La segmentation proposée : k.moyensLorsque nous voulons développer un système de segmentation, nous sommes souvent confrontés au problème de la sélection des meilleurs attributs pour cette segmentation. Pour cela, nous avons utilisé deux critères de sélection : la complexité et la taille en mémoire. La réduction du nombre de couleurs d'une image couleur est un problème de quantification classique. L'algorithme k-means est l'algorithme de clustering le plus connu et le plus utilisé, du fait de sa simplicité de mise en oeuvre. Il partitionne les données d'une image en K clusters. Contrairement à d'autres méthodes dites hiérarchiques, qui créent une structure en « arbre de clusters » pour décrire les groupements, k-means ne crée qu'un seul niveau de clusters. L'algorithme renvoie une partition des données, dans laquelle les objets à l'intérieur de chaque cluster sont aussi proches que possible les uns des autres et aussi loin que possible des objets des autres clusters. Chaque cluster de la partition est défini par ses objets et son centroïde. Le k-means est un algorithme itératif qui minimise la somme des distances entre chaque objet et le centroïde de son cluster. La position initiale des centroïdes conditionne le résultat final, de sorte que les centroïdes doivent être initialement placés le plus loin possible les uns des autres de façon à optimiser l'algorithme. K-means change les objets de cluster jusqu'à ce que la somme ne puisse plus diminuer. Le résultat est un ensemble de clusters compacts et clairement séparés, sous réserve qu'on ait choisi la bonne valeur K du nombre de clusters. La méthode proposée consiste à calculer la distance euclidienne entre le pixel à traiter et les centres des classes. La difficulté de cet algorithme réside essentiellement dans la définition des classes et l'initialisation des centres. 4.5.1 Les étapes de k.moyens.est issue de la distance euclidienne. Il procède ainsi (on note la fonction qui à un point de associe son niveau de gris) : 1. Choisir classes (distincts) y1, y2 ..yk (on les appelle centres des classes) Ci 2. Construire les classes telles que 3. Recalculer le centre des classes : 4. Reconstruire les nouvelles classes en retournant à l'étape 2. Si les nouvelles classes ne sont pas différentes des anciennes, s'arrêter. L'algorithme k-means dans le cadre du traitement de l'image se présente en quatre étapes : Cette segmentation présente une caractéristique particulière : on cherche uniquement à extraire les grandes zones homogènes en couleur. Dans les k-means classique, le nombre k de clusters est fixé au départ. A partir d'une partition initiale (k moyennes choisies au hasard), on cherche à améliorer itérativement ce choix et devient automatique. Pour cela on propose trois méthodes pour résoudre ce problème. 4.5.2 Première méthode : l'espace HSVLa segmentation proposée ici utilise la composante H (teinte) de l'espace de couleur HSV. La transformation de l'espace RGB vers l'espace HSV s'obtient par les formules suivantes : si max(r,g,b) = r H = 60*(g-b)/(max(r,g,b)-min(r-g-b)) si max(r,g,b) = g H= 60*(b-r)/(max(r,g,b)-min(r,g,b)). si max(r,g,b) = b H= 60*(r-g)/(max(r,g,b)-min(r,g,b)). S = (max(r,g,b) - min(r,g,b)) / max(r,g,b). V = max(r,g,b). H représente la teinte du pixel (l'information chromatique du pixel), qui varie entre 0 et 359. Cette information sera utilisée pour déterminer les centres d'action et leur nombres. A cet effet un histogramme de H est calculé et lissé. 4.5.3.1 Histogramme.L'histogramme est un moyen simple et rapide pour représenter la distribution d'un paramètre obtenu lors d'une fabrication. L'histogramme de la teinte représente typiquement le nombre de pixels en fonction de la couleur. His[i] = ki avec 0<=i<=359.ki représente le nombre de pixels ayant la teinte i. 0 Fig 4.1.Histogramme de la teinte de la RGB 5 de la situation du 21/02/2008 à 1300tu. 4.5.3.2 Lissage de l'histogramme.Le lissage permet de rendre la courbe de l'histogramme plus régulière en éliminant les hautes fréquences. Avec H l'histogramme de la teinte. 2*p+1 représente la taille du masque. Le masque ici est représenté par un filtre moyen. Fig 4.2. Histogramme de la RGB 5 lissé situation du 21/02/2008 à 1300tu 4.5.3.3 Maxima locauxAprès le lissage, en cherche les maxima locaux par la formule suivante : est un maximum local si > Et >. Fig 4.3. Maxima locaux histogramme lissé la RGB 5 lissé situation du 21/02/2008 à 1300tu). 4.5.4 Deuxième méthode : espace RGB.De la même manière que la teinte et pour chaque composante R, G et B on calcule l'histogramme, on opère un lissage et on détermine les maximums locaux. En fin le max des classes obtenus du triplet (R,G,B) initialisera notre programme. 4.5.5 Troisième méthode : méthode améliorée.L'inconvénient majeur des deux méthodes précédentes se présente d'une part de l'instabilité du masque (2*p+1) utilisé pour le calcul des maxima locaux d'autre part de l'irréalité des nombres de classes qui influencent le résultat d'une manière directe: Ainsi, la taille du masque sera une variable qui varie selon chaque situation. Cette contrainte augmente la complexité (le temps d'exécution) du programme, ce qui nous a poussés à réfléchir à une autre solution. Cette solution améliorée s'appuie donc sur les deux premières solutions, à laquelle nous introduisons d'autres processus. L'exemple ci-dessous appliqué sur deux images de différentes situations montre que le nombres des classes trouvées ne reflète pas le nombre des phénomènes météo existant. Test Sur HSV
Nombre de classe, correspondant à chaque masque, appliqué sur RGB 1 du 200802211300 Nombre de classe, correspondant à chaque masque, appliqué sur RGB 2 du 200802231300 Test Sur RGB
Nombre de classe, correspondant à chaque masque, appliqué sur RGB 1 du 200802211300 Nombre de classe, correspondant à chaque masque, appliqué sur RGB 2 du 200802231300
Afin de remédier ce problème, on propose une autre méthode pour le calcul du nombre des centres. Il s'agit de travailler avec le niveau de gris au lieu des couleurs. La conversion de l'espace RGB à l'espace monochromatique (niveau de gris) se fait par la formule suivante : Grayi = 0.2989 * Ri + 0.5870 * Gi + 0.1140 * Bi Avec i l'indice du pixel à traiter. L'avantage de cette formule, c'est qu'elle conserve l'information de R, G et B par l'intermédiaire de la valeur de la variable gray et garde un masque constant, de valeur égale à 3 et qui est obtenue pour p=1.
Nombre de classe optimal avec p=1 Par la suite, et de la même manière que les deux méthodes antérieures, on calcule l'histogramme, on procède à son lissage et on détermine les maxima locaux. Plusieurs tests sur différentes situations montrent l'avantage de cette méthode sur les deux autres En comparant les résultats de cette méthode et en particulier le nombre de classe, avec ceux des méthodes (HSV, RGB) on constate l'amélioration du résultat et la rapidité d'exécution. 4.6 Application à notre problèmeCe travail permet aux prévisionnistes de gagner énormément du temps dans leur analyse et d'enrichir leurs bulletins d'alertes. Pour cela On a choisi une situation plus récente, celle du 21 février 2008. Cette situation à 13h00 GMT présente une perturbation de sud-ouest qui couvre la majorité de notre royaume, et qui a présenté presque tous les hydrométéores. 4.6.1 Extraction du brouillardOn présente ici la composition colorée RGB5 initiale (Fig 4) qui comporte des milliers de couleurs, ainsi que le résultat de la solution améliorée (Fig 5) qui comporte uniquement 16 couleurs.
Fig.4.4 RGB5 initial Fig.4.5 résultat de la segmentation de RGB5 Cette RGB présente le brouillard en couleurs (DarkOliveGreen1) que nous avons extraire et le nicher sur un fond vierge (Fig 4.6) Fig.4.6 Le brouillard de la RGB5 sur un fond vierge 4.6.2 Extraction des cumulonimbus [A2].Les cumulonimbus sont des nuages convective [A3] très dangereux de la famille des cumulus, c'est le nuage qui présente la plus grande extension verticale.son sommet dépasse parfois la tropopause .ce nuage qui donne les orages et il peut être le siège de manifestations électriques comme la foudre de fortes précipitation et de chutes de grêle. On présente ici la composition colorée RGB7 initiale (Fig 7) qui comporte des milliers de couleurs, ainsi que le résultat de la solution améliorée (Fig 8) qui comporte uniquement 12 couleurs.
Fig.4.7 RGB7 initial Fig.4.8 résultat de la segmentation de RGB7 Cette RGB présente le cumulonimbus en couleurs (LightGoldenrod4) que nous avons extraire et le nicher sur un fond vierge (Fig 4.9). Fig.4.9 les cumulonimbus de la RGB7 sur un fond vierge 4.6.3 Extraction des nuages d'altitudes.Chaque type et variété de nuages a une signification particuliers chez les prévisionnistes. Les nuages d'altitudes représentes l'entête d'une dépression, comme il peut nous informé d'autre chose, a titre d'exemple la vitesse du vent, l'humidité en altitude... Ce type des nuages est très prisé par les pilotes, car ils indiquent la présence des ondes qui peuvent générer les courants ascendants et la turbulence. Cette RGB présente les nuages d'altitudes en couleur (firebrick3).
Fig.4.10 RGB2 initial Fig.4.11 résultat de la segmentation de RGB2 Fig.4.12 nuages de l'étage de la RGB7 sur un fond vierge 4.6.4 Extraction des nuages d'altitude : cirrus [A4].De même on peut extraire les nuages d'altitude comme les cirrus de la RGB4. Les cirrus se présentent en couleur(MediumPurple3).
Fig.4.13 RGB4 initial Fig.4.14 résultat de la segmentation de RGB4 Fig.4.15 nuages de l'étage supérieur : cirrus de la RGB4 sur un fond vierge 4.6.5 Extraction de tempête de poussière.Une tempête est un type de condition météorologique violente à large échelle dite synoptique, caractérisée par des vents rapides provoquant le déplacement et le transport des particules. La RGB 5 détecte ce phénomène elle le présente en couleur (maroon1).
Fig.4.16 RGB5 initial Fig.4.17 résultat de la segmentation de RGB5 Fig.4.18 tempête de poussière de la RGB5 sur un fond vierge 4.6.6 Extraction de la neigeLa neige peut se présente soit dans un nuage ou stagne sur le sol, La RGB 1 présente la neige sous la couleur (cyan).
Fig.4.19 RGB1 initial Fig.4.20 résultat de la segmentation de RGB1 Fig.4.21 la neige de la RGB1 sur un fond vierge 4.6.7 Extraction du couvertLes images MSG permet de détecter même le couvert végétal en couleur (ForestGreen).
Fig.4.22 RGB1 initial Fig.4.23 résultat de la segmentation de RGB1 Fig.4.24 la neige de la RGB1 sur un fond vierge 4.7 ConclusionGlobalement, nous pouvons conclure que cette solution améliorée a certes perfectionné la détection de phénomènes météorologiques .En effet notre travail confirme l'intérêt de la télédétection spatiale dans la résolution du problème des moyens de contrôle, d'alerte et d'initialisation. ConclusionConsciente de l'effort qui doit être entrepris en matière de recherche et développement en télédétection spatiale, la DMN déploie tous les moyens pour contribuer à ce grand chantier mondial. C'est dans ce contexte qu'inscrit notre travail. Il vise à tirer profit des compositions colorées de manière à faciliter l'interprétation des images RGB pour le prévisionniste. En effet, la performance apportée par ce travail, axé sur la détection des phénomènes météorologiques à partir des compositions colorée des images MSG, est un grand pas vers une nouvelle approche de classification automatique des nuages et d'interprétation assistée. La méthode utilisée met en avant certaines techniques de traitement d'images et ouvre ainsi de nouvelles voies d'exploration. Pour atteindre cet objectif, on a eu recours à l'algorithme de k-moyen, appliqué sur les composantes R, G et B d'une image en composition colorée. Les premiers résultats étaient déjà encourageant, cependant, ils étaient très tributaire du nombre d'objets (classes) à détecter et qui était jusqu'au là forcé à la main et de manière subjective. Ce qui nous a poussé à automatiser le choix du nombre de classe et ce, de manière objectif. Pour se faire on a utilisé l'histogramme lissé de la composante H (teinte) de l'espace de couleur HSV. Cette technique a eu l'inconvénient de surestimer le nombre de classes malgré l'application de filtres de grandes tailles. En fin ce problème a été résolu par l'utilisation de l'histogramme lissé de la composante monochromatique (niveau de gris). L'algorithme k-moyen s'initialise, alors par un nombre de classes déduit de manière automatique et objective de cet histogramme pour tourner ensuite sur l'espace RGB. Les résultats obtenus par cette dernière technique sont presque parfait. La méthode est très stable et elle est auto adaptée et auto réglée. Cependant, l'étude et résultats soulèvent bon nombre de questions qui s'ouvrent comme autant de perspectives pour la poursuite de travaux futurs. On peut citer certaines idées qui pourraient améliorer les performances obtenues par ce travail : Ø il serait intéressant de tester cette approche sur un grand nombre de situations pour faire éventuellement un réglage plus fin, Ø les phénomènes cachés par d'autres météores seront inaperçues par le radiomètre, d'où la nécessite du réseau radar ou les radiosondes pour compléter une image dite composite Ø Compléter l'algorithme, par un autre qui permet de détecter les phénomènes de très petites tailles (feu de forêt), Ø Enfin d'autres méthodes de segmentation peuvent apporter de nouvelles informations. Bibliographie[B1] O.diop. « Détection de nuages de poussière dans les images Météosat à l'aide des attributs de textures et de la fusion de segmentations : application à la zone sahélienne du continent africain » .thèse doctorat.2007, INSA, RENNE. [B2] archive. ''Image en ligne''.nr 24 mai 2006. [B3] J.P.Couwenbergh ''l'indispensable pour maitriser la couleur''. Marabout 269-270.1992. [B4] Jochen kerkmann .»applications of meteosat second generation (msg)».pp5.2004. http://msg.univ-paris1.fr/faq.html [B5] dos santos anaëlle , kang sari. & simon grégory . « acquisition des images satellites » http://the-overtake.ifrance.com/part3.htm. [B6] université de Genève Module 4 - Le traitement des images. http://universite www.unige.ch/cyberdocuments/didacticiel/unite2/module4.html. [B7] j.-p. cocquerez et s. philipp analyse d'images :filtrage et segmentation..p :1-3.1996 [B8]M.petermand+M.louys, Représentation couleur d'images multispectrales astronomiques,universite strasbourg http://documents.irevues.inist.fr/ [I1] (EUMETSAT [Eumet]). http://www.eumetsat.int/home/index.htm?l=fr [I2] Jochen Kerkmann (PPT : applications of Météosat second generation (msg) Eumetsat ).http://msg.univ-paris1.fr/faq.html [I3] R. Caloz et F. Golay, Télédétection et images numériques, Laboratoire de systèmes d'information géographique (LaSIG), [I4] météo France, www.meteofrance.com.
| "Des chercheurs qui cherchent on en trouve, des chercheurs qui trouvent, on en cherche !" |