Reconnaissance, extraction et classification semi
Transcription
Reconnaissance, extraction et classification semi
TRAVAIL DE DIPLOME Photogrammétrie et traitement d’image Reconnaissance, extraction et classification semi-automatique de la végétation, des forêts, des éboulis et des glaciers dans les images ADS40 en utilisant toutes les bandes spectrales (R, V, B, PIR) Rapport par Julien Fabing Pièce n°1 17 Décembre 2007 Professeur responsable : François Gervaix Répondant externe : Stéphane Bovet Sujet proposé par : Swisstopo Travail de diplôme 2007 HEIG-VD Avant propos « Ce n'est pas une image juste, c'est juste une image » Photogrammétrie et traitement d’image i Godard, Vent d'Est (1969) Julien Fabing Travail de diplôme 2007 HEIG-VD Résumé La couverture du sol est un élément essentiel pour appréhender un espace géographique, en particulier dans un modèle du territoire tel que Vector25 ou le futur Modèle Topographique du Paysage (MTP / TLM). Les informations contenues dans de tels modèles doivent être à la fois précises, détaillées et actuelles. Depuis 2005, Swisstopo dispose d'une nouvelle technologie pour l'acquisition d'images aériennes: l'ADS40. Cet outil permet d'acquérir simultanément des images dans les domaines panchromatique, couleur et proche infrarouge. Le but de ce travail de diplôme était d’étudier le potentiel des images aériennes ADS40 pour l’extraction semi-automatique de la couverture du sol. En particulier, l’accent a été mis sur l’extraction du domaine boisé (forêts, arbres). Les contraintes étaient que les méthodes à tester et à développer devaient être simples, rapides et efficaces sur de larges zones de terrain afin d’être le plus productives possible. Le travail présente des méthodes existantes et développe des méthodes nouvelles de reconnaissance, de restitution et de classification et fournit des indications quant à la faisabilité et la productivité de ces méthodes. Il ressort de cette étude qu’en utilisant des outils simples de classification non supervisée, on arrive à séparer les forêts du reste du paysage avec environ 90% de pixels bien classés. Ce résultat est encore amélioré grâce à des méthodes supplémentaires basées sur l’indice NDVI, le MNH ou le filtrage des pixels. Cependant, ce résultat n’est valable que pour des images acquises en été. La détection des forêts au printemps se révèle beaucoup plus difficile à cause d’une trop grande confusion entre la végétation environnante et les feuillus. D’autre part, même en été, les méthodes utilisées ne permettent pas d’éliminer suffisamment les fautes. L’extraction semi-automatique reste moins compétitive qu’une saisie entièrement manuelle à cause du temps de reprise des données qui est trop long. Quoiqu’il en soit, les méthodes utilisées lors de ce travail trouveront certainement d’autres applications à un niveau plus local par exemple en foresterie, avec la classification et la cartographie de différents types d’arbres à l’intérieur d’une forêt. Mots-clés : HEIG-VD, Swisstopo, ADS40, reconnaissance, extraction, classification, forêt. Photogrammétrie et traitement d’image ii Julien Fabing Travail de diplôme 2007 HEIG-VD Abstract The land cover is essential to apprehend a geographical space, especially in territory models like Vector25 or the future “Modèle Topographique du Paysage” (Topographic Landscape Model, MTP/TLM). The information contained in these models must be accurate detailed and updated. Since 2005, Swisstopo use a new aerial images acquisition technology: the ADS40. With this camera, it is possible to capture simultaneously panchromatic, color and near infrared images. The goal of this study was to evaluate the potential of ADS40 aerial images for semiautomatic extraction of land cover. In particular, the study was focused on extracting the wooded area (forests, trees). The constraints were that the methods to test and develop should be simple, quick and effective over large areas of land in order to be as productive as possible. The work presents existing methods and develops new methods of recognition, restitution and classification and provides indications about feasibility and productivity of these methods. This study shows that it is possible to separate forest from the rest of the landscape with approximately 90% of pixels well ordered by using simple unsupervised classification tools. This result is further improved by using additional methods based on NDVI, DEM and pixel filtering. However, this result is only valid for images acquired in summer. In spring, the forests detection is much more difficult because there is too much confusion between surrounding vegetation and trees. On the other hand, even in summer, the methods used are not sufficient to eliminate all the mistakes. The semi-automatic extraction remains less competitive than a fully manual extraction due to the time of data correction which is too long. Nevertheless, methods used during this work will no doubt find other applications at a more local level, for example, in forestry, with classification and mapping of different types of trees inside a forest. Keywords : HEIG-VD, Swisstopo, ADS40, detection, extraction, classification, forest. Photogrammétrie et traitement d’image iii Julien Fabing Travail de diplôme 2007 HEIG-VD Table des matières Avant propos ....................................................................................................... i Résumé .............................................................................................................. ii Abstract ............................................................................................................. iii Table des matières ............................................................................................ iv Liste des figures ............................................................................................... vii Liste des tableaux ............................................................................................. ix Liste des annexes ............................................................................................... x Introduction ....................................................................................................... 1 1 Principes de base............................................................................................. 6 1.1 LA TELEDETECTION ................................................................................................................. 6 1.2 LES IMAGES............................................................................................................................. 6 1.3 LES COMPOSITIONS COLOREES ............................................................................................... 6 1.4 LE PRETRAITEMENT DES IMAGES ............................................................................................ 6 1.5 LA CLASSIFICATION DES IMAGES ........................................................................................... 7 1.6 LE POST-TRAITEMENT ............................................................................................................. 7 2 Données et logiciels ......................................................................................... 8 2.1 DONNEES................................................................................................................................. 8 2.1.1 Caméra ADS40 .....................................................................................................................8 2.1.2 Jeu de données « Sargans-Rheintal » .................................................................................... 10 2.1.3 Jeu de données « Thun » ..................................................................................................... 11 2.1.4 Jeu de données « Romanshorn » ......................................................................................... 12 2.2 LOGICIELS............................................................................................................................. 14 2.2.1 ERDAS IMAGINE 9.1............................................................................................................ 14 2.2.2 ERMapper Professional 7.1 ................................................................................................... 14 2.2.3 Geomatica 10.0 .................................................................................................................. 14 2.2.4 Definiens Developper 7.0 ..................................................................................................... 14 2.2.5 Feature Analyst .................................................................................................................. 15 2.2.6 Remarque concernant ERDAS IMAGINE et ERMapper............................................................... 15 2.2.7 Comparaison des logiciels .................................................................................................... 15 2.2.8 Conclusion partielle ............................................................................................................. 15 3 Démarche ...................................................................................................... 16 3.1 PREPARATION DES DONNEES DANS GPRO ............................................................................ 16 3.1.1 Traitement radiométrique .................................................................................................... 16 3.1.2 Rééchantillonnage............................................................................................................... 17 3.1.3 Problèmes avec le logiciel GPro............................................................................................. 17 3.1.4 Choix effectués ................................................................................................................... 18 3.2 FILTRAGE DES DONNEES DANS ERDAS IMAGINE................................................................... 19 3.2.1 Filtrage des pixels de valeur 16 ............................................................................................ 19 Photogrammétrie et traitement d’image iv Julien Fabing Travail de diplôme 2007 HEIG-VD 3.2.2 Création d’images spatialement équivalentes.......................................................................... 19 3.2.3 Implémentation des deux prétraitements ............................................................................... 20 3.3 DEFINITION D’UNE IMAGE REFERENCE ................................................................................. 21 3.4 CALCUL D’UNE IMAGE NDVI................................................................................................... 22 3.5 DEFINITION D’OUTILS D’ANALYSE........................................................................................ 23 3.5.1 Outil de création d’une image servant à l’évaluation d’une classification..................................... 23 3.5.2 Coefficient Kappa ................................................................................................................ 25 3.6 TESTS DE CLASSIFICATIONS ................................................................................................. 26 3.7 PROPOSITIONS D’AMELIORATIONS ...................................................................................... 26 3.8 EVALUATION DES PROCESSUS............................................................................................... 26 4 Tests de classification ................................................................................... 27 4.1 CLASSIFICATION SUPERVISEE .............................................................................................. 27 4.1.1 Méthode ............................................................................................................................ 27 4.1.2 Influence du nombre de zones d’entraînement........................................................................ 27 4.1.3 Conclusion partielle ............................................................................................................. 28 4.2 CLASSIFICATION NON SUPERVISEE ...................................................................................... 29 4.2.1 Méthode ............................................................................................................................ 29 4.2.2 Analyse selon le nombre de classes et le type d’image............................................................. 29 4.2.3 Analyse selon la résolution des images .................................................................................. 31 4.2.4 Analyse selon la nature de l’occupation du sol ........................................................................ 32 4.2.5 Inventaire des objets mal classés.......................................................................................... 33 4.2.6 Comparaison entre deux bandes d’images différentes d’un même vol ........................................ 34 4.2.7 Comparaison entre deux images provenant de deux époques différentes ................................... 36 4.2.8 Images volées en avril à haute résolution ............................................................................. 39 4.2.9 Conclusion partielle ............................................................................................................. 41 4.3 CLASSIFICATION PAR BASE DE CONNAISSANCE ................................................................... 41 4.4 CONCLUSION PARTIELLE....................................................................................................... 42 5 Propositions d’améliorations ......................................................................... 43 5.1 PRETRAITEMENTS ................................................................................................................. 43 5.1.1 Influence de la qualité du MNT lors de la rectification sur le résultat .......................................... 43 5.1.2 Apport des données SH52 pour la classification....................................................................... 44 5.1.3 Travail sur des images 8 bits ou 16 bits ................................................................................. 45 5.1.4 Détection et correction/atténuation des ombres à priori ........................................................... 46 5.2 TRAITEMENTS COMPLEMENTAIRES ....................................................................................... 48 5.2.1 Classification par texture ..................................................................................................... 48 5.3 POST-TRAITEMENTS .............................................................................................................. 48 5.3.1 Elimination du bruit avec des opérateurs morphologiques ........................................................ 48 5.3.2 Elimination des bâtiments avec l’aide du NDVI....................................................................... 50 5.3.3 Elimination de certains champs et des ombres, apport du MNH................................................. 51 5.4 PROPOSITIONS SUPPLEMENTAIRES ...................................................................................... 52 5.4.1 Elimination des ombres par classifications successives............................................................. 52 5.4.2 Classification « multi-échelle ».............................................................................................. 53 5.5 RESULTAT.............................................................................................................................. 55 5.6 CONCLUSION PARTIELLE....................................................................................................... 56 6 Evaluation des méthodes ............................................................................... 57 6.1 DONNEES............................................................................................................................... 57 6.2 PROCEDURE........................................................................................................................... 57 Photogrammétrie et traitement d’image v Julien Fabing Travail de diplôme 2007 HEIG-VD 6.3 RESULTAT.............................................................................................................................. 58 6.4 REPRISE DES DONNEES ......................................................................................................... 59 6.5 CONCLUSION PARTIELLE....................................................................................................... 60 Conclusion et perspectives ............................................................................... 61 Bibliographie .................................................................................................... 65 Remerciements................................................................................................. 70 Mandat ............................................................................................................. 71 Photogrammétrie et traitement d’image vi Julien Fabing Travail de diplôme 2007 HEIG-VD Liste des figures Figure 1 : Problèmes de mises à jour et de généralisation .........................................................................1 Figure 2 : Apport du proche infrarouge ...................................................................................................2 Figure 3 : Etalement de l’histogramme d’une image ADS40 16 bits sur une zone de forêt..............................3 Figure 4 : Une image ADS40 (25 cm) superposée à une image SPOT (5 m) .................................................3 Figure 5 : Résultat d’une classification orientée objet [17].........................................................................4 Figure 6 : La caméra ADS40 [13] ...........................................................................................................8 Figure 7 : Principe d'acquisition des images [14] ......................................................................................8 Figure 8 : PAN/RVB/PIR/CIRF [14] ........................................................................................................8 Figure 9 : Situation « Sargans-Rheinthal » ............................................................................................ 10 Figure 10 : Les huit bandes de vol........................................................................................................ 10 Figure 11 : Vol ADS40 en configuration SH40 ........................................................................................ 11 Figure 12 : Situation Thun .................................................................................................................. 11 Figure 13 : Thun premier vol (mois d’avril)............................................................................................ 12 Figure 14 : Thun second vol (mois de mai)............................................................................................ 12 Figure 15 : Situation Romanshorn ........................................................................................................ 12 Figure 16 : Les trois vols sur Romanshorn............................................................................................. 13 Figure 17 : Vol ADS40 en configuration SH52 ........................................................................................ 13 Figure 18 : Courbe de calibration ......................................................................................................... 16 Figure 19 : Résumé de la génération des images L2 dans GPro ................................................................ 18 Figure 20 : Différence de couverture entre les images ............................................................................ 19 Figure 21 : Images spatialement équivalentes ....................................................................................... 20 Figure 22 : Saisie manuelle des zones de forêt ...................................................................................... 21 Figure 23 : Création de l'image de référence ......................................................................................... 22 Figure 24 : Image NDVI ...................................................................................................................... 23 Figure 25 : Erreur de première et de seconde espèce ............................................................................. 23 Figure 26 : Création de l’image synthétique « analyse de la classification » ............................................... 24 Figure 27 : Bonne et mauvaise zone d'entrainement............................................................................... 27 Figure 28 : Influence du type et du nombre de zones d'entrainement ....................................................... 28 Figure 29 : Configuration classification non supervisée............................................................................ 29 Figure 30 : Classification, identification et regroupement des classes........................................................ 29 Figure 31 : Pourcentage de pixels bien classés selon le nombre de classes et le type d’image ...................... 30 Figure 32 : Coefficient Kappa selon le nombre de classes et le type d'image .............................................. 30 Figure 33 : Analyse selon la résolution des images ................................................................................. 31 Figure 34 : Classification GSD 5 m et GSD 1 m ...................................................................................... 31 Figure 35 : Zone forestière et zone urbaine ........................................................................................... 32 Figure 36 : Analyse selon le type d'occupation du sol.............................................................................. 32 Figure 37 : Confusion avec les champs de Maïs...................................................................................... 33 Figure 38 : Confusion avec les ombres.................................................................................................. 33 Figure 39 : Confusion avec les toits ...................................................................................................... 33 Figure 40 : Confusion avec des zones herbeuses sombres ....................................................................... 34 Figure 41 : Zones exposées au soleil .................................................................................................... 34 Figure 42 : Confusion avec certains types de feuillus .............................................................................. 34 Photogrammétrie et traitement d’image vii Julien Fabing Travail de diplôme 2007 HEIG-VD Figure 43 : Histogrammes des images 1024 et 1031 .............................................................................. 35 Figure 44 : Comparaison classifications................................................................................................. 35 Figure 45 : Différences dues aux dévers des arbres................................................................................ 36 Figure 46 : Zone de test Thun ............................................................................................................. 37 Figure 47 : Résultat après regroupement .............................................................................................. 37 Figure 48 : Séparation difficile des feuillus et de l'herbe (Thun) ............................................................... 38 Figure 49 : Séparation facile des feuillus et de l'herbe (Sargans).............................................................. 39 Figure 50 : Images RVB et CIRF GSD 25 cm.......................................................................................... 39 Figure 51 : Problème des images volées en avril .................................................................................... 40 Figure 52 : Classification par base de connaissances............................................................................... 41 Figure 53 : Diminution du dévers longitudinal ........................................................................................ 43 Figure 54 : Légère diminution transversale des ombres portées ............................................................... 43 Figure 55 : Amélioration de la précision ................................................................................................ 44 Figure 56 : Canaux PIR, R, V, B parfaitement superposés au nadir (GSD : 25 cm) ..................................... 44 Figure 57 : Différence entre les classifications 8 bits et 16 bits................................................................. 45 Figure 58 : Différence entre les classifications après regroupement .......................................................... 46 Figure 59 : Pourcentage de pixels bien classés après regroupement ......................................................... 46 Figure 60 : Modification de la radiométrie.............................................................................................. 47 Figure 61 : Correction des ombres d'après [41] ..................................................................................... 47 Figure 62 : Correction des ombres d'après [43] ..................................................................................... 47 Figure 63 : Analyse de texture............................................................................................................. 48 Figure 64 : Ouverture dans IMAGINE.................................................................................................... 48 Figure 65 : Processus de filtrage des pixels (1 m) .................................................................................. 49 Figure 66 : Processus de filtrage des pixels (5 m) .................................................................................. 49 Figure 67 : Elimination des bâtiments ................................................................................................... 50 Figure 68 : Création du MNH ............................................................................................................... 51 Figure 69 : Utilisation complémentaire du MNH...................................................................................... 51 Figure 70 : Elimination des ombres par classification successives, une itération ......................................... 52 Figure 71 : Superposition de classifications 1 m et 5 m ........................................................................... 53 Figure 72 : Classification "multi-échelle" ............................................................................................... 54 Figure 73 : Evaluation des trois méthodes dans un cas défavorable .......................................................... 58 Figure 74 : Données à reprendre manuellement selon la méthode............................................................ 59 Figure 75 : Image, saisie manuelle, extraction semi-automatique, erreurs ................................................ 60 Figure 76 : Séparation des feuillus et des épineux (Sargans, 28 juillet 2005)............................................. 63 Figure 77 : Séparation des feuillus et des épineux (Thun, 26 mai 2005).................................................... 63 Photogrammétrie et traitement d’image viii Julien Fabing Travail de diplôme 2007 HEIG-VD Liste des tableaux Tableau 1 : Comparaison sommaire des logiciels.................................................................................... 15 Tableau 2 : Exemple fictif pour le calcul du coefficient Kappa .................................................................. 26 Tableau 3 : Influence du type et du nombre de zones d'entrainement....................................................... 28 Tableau 4 : Résultat de la comparaison................................................................................................. 36 Tableau 5 : Apport des opérateurs morphologiques ................................................................................ 49 Tableau 6 : Synthèse des propositions d'amélioration ............................................................................. 55 Photogrammétrie et traitement d’image ix Julien Fabing Travail de diplôme 2007 HEIG-VD Liste des annexes Annexe 1 : Problèmes avec GPro ...................................................................................................... II Annexe 1.1 : Problème selon la résolution des images......................................................................... II Annexe 1.2 : Problème de la fonction auto rotation............................................................................ III Annexe 1.3 : Problème de rééchantillonnage avec la fonction Fast Rectification ..................................... IV Annexe 1.4 : Problème des images de base fortement chahutées ....................................................... VII Annexe 1.5 : Problème des pixels qui ne sont pas à zéro dans les bandes noires ................................. VIII Annexe 2 : Comparaison sommaire des logiciels ..............................................................................IX Annexe 3 : Fonction filtrage des pixels .............................................................................................. X Annexe 4 : Fonction seuillage de l’image référence ........................................................................ XII Annexe 5 : Fonction création d’une image d’analyse .....................................................................XIII Annexe 6 : Calcul de l’image NDVI................................................................................................... XV Annexe 7 : Prétraitement images 16 bits et 8 bits ........................................................................ XVII Annexe 8 : Image NDVI binaire ......................................................................................................XIX Annexe 9 : Fonction multiplication .................................................................................................. XX Annexe 10 : MNH à partir de MNS et MNT .......................................................................................XXI Annexe 11 : Image classifiée et MNH ........................................................................................... XXII Annexe 12 : Image et masque .....................................................................................................XXIII Annexe 13 : Somme 5 images.......................................................................................................XXIV Annexe 14 : Classifications supervisées 5 m Sargans .................................................................... XXV Annexe 15 : Classifications non supervisées 5 m Sargans ............................................................XXVI Annexe 16 : Classifications non supervisées 1 m Sargans .......................................................... XXVII Annexe 17 : Zone forêt / Zone urbaine Sargans ....................................................................... XXVIII Annexe 18 : Classifications sur deux images différentes d’un même vol Sargans.........................XXIX Annexe 19 : 8 bits /16 bits Sargans .............................................................................................. XXX Annexe 20 : Test des trois méthodes Sargans ..............................................................................XXXI Annexe 21 : Planning.................................................................................................................. XXXII Photogrammétrie et traitement d’image x Julien Fabing Travail de diplôme 2007 HEIG-VD Introduction La couverture du sol est un élément essentiel pour appréhender un espace géographique, en particulier dans un modèle du territoire tel que Vector25 ou le futur Modèle topographique du Paysage (MTP / TLM). Les informations contenues doivent être à la fois précises, détaillées et actuelles. Depuis 2005, Swisstopo dispose d’une nouvelle technologie pour l’acquisition d’images aériennes : L’ADS40. Cet outil permet d’acquérir simultanément des images dans les domaines panchromatique, couleur et proche infra rouge. Cette nouvelle capacité doit permettre une classification automatisée, précise, détaillée et rapide de divers éléments de couverture du sol. [1] Dans le cadre de ce travail, l’intérêt sera plus particulièrement porté sur l’extraction du milieu boisé (forêt, zones boisées, arbres). En effet, dans les cartes Swisstopo et par extension dans des modèles vectoriels tels que Vector25, cette thématique est présente et très importante car c’est un élément visuel de situation immédiatement reconnaissable par l’utilisateur. Cependant, la mise à jour de cette thématique est pour des raisons économiques très sporadique (uniquement lorsqu’un déplacement significatif de la limite forestière est constaté) et relativement grossière à cause du processus de généralisation cartographique (figure 1). Figure 1 : Problèmes de mises à jour et de généralisation On peut noter par exemple sur l’image aérienne récente à gauche une zone déboisée (en rouge) qui n’a pas encore été mise à jour sur la carte nationale. On peut aussi remarquer deux groupes d’arbres (en vert et en bleu) dont la modélisation et les géométries ont été extrêmement simplifiées par rapport à la réalité. Photogrammétrie et traitement d’image 1 Julien Fabing Travail de diplôme 2007 HEIG-VD Si dans la plupart des cas, cette information « grossière » est amplement suffisante, les utilisateurs sont toujours plus demandeurs en matière de précision et d’actualité de ce type de données et ce pour de nombreuses applications. Par exemple, la Suisse a signé les accords de Kyoto sur la réduction de la production de gaz à effet de serre, aussi dans ce contexte, une connaissance précise, détaillée et à jour de la couverture forestière du territoire peut être un élément déterminant pour l’évaluation du respect des quotas d’émission de CO2. L’extraction semi-automatique de la forêt peut aussi se révéler un outil supplémentaire dans le cadre du projet SAU qui consiste à actualiser les surfaces agricoles utiles. L’imagerie aérienne avec ces mises à jour fréquentes semble bien adaptée pour ce type de travail. Actuellement, Swisstopo se contente d’utiliser les images ADS40 de la même manière qu’étaient utilisés précédemment les films scannés. Seuls les canaux panchromatiques et couleurs (rouge, vert et bleu) sont utilisés pour l’extraction vectorielle stéréoscopique ou pour la production d’orthophotos par exemple. Swisstopo n’exploite donc pas pleinement pour le moment tous les avantages de l’ADS40 et en particulier la présence d’un canal PIR (proche infra-rouge). Ce canal du domaine invisible peut se révéler important dans la perspective de la détection du domaine boisé. En effet, la réflexion dans le proche infrarouge de la végétation met particulièrement bien en évidence son activité chlorophyllienne. Cela permet en particulier de bien différencier la végétation du reste du paysage mais aussi de distinguer plusieurs types de végétation et notamment d’arbres. Par exemple, on arrive plus facilement à distinguer les feuillus (en rose/rouge) des conifères (en violet) sur l’image fausse couleur (PIR, R, V) que sur l’image couleur classique (RVB) présentées dans la figure 2. Figure 2 : Apport du proche infrarouge Photogrammétrie et traitement d’image 2 Julien Fabing Travail de diplôme 2007 HEIG-VD Un autre avantage probable de l’ADS40 est de pouvoir acquérir des images codées sur 16 bits et donc dans une gamme de couleurs (65536 couleurs par canal) bien plus étendue que les classiques images aériennes 8 bits (256 couleurs par canal). On peut donc émettre l’hypothèse que cela permettra de mieux distinguer certains objets ; en tout cas, c’est le cas visuellement. Figure 3 : Etalement de l’histogramme d’une image ADS40 16 bits sur une zone de forêt Enfin, un dernier avantage potentiel est la haute résolution spatiale offerte par les images ADS40 (25 cm à 50 cm) et l’absence de couverture nuageuse par rapport à des images satellites classiques. Figure 4 : Une image ADS40 (25 cm) superposée à une image SPOT (5 m) Photogrammétrie et traitement d’image 3 Julien Fabing Travail de diplôme 2007 HEIG-VD Les images ADS40 semblent donc à priori une solution intéressante pour la détection et l’extraction détaillée de la forêt et de nombreux autres éléments de la couverture du sol. Plusieurs études ont déjà été réalisées dans ce sens, en particulier au niveau des images satellites, mais aussi au niveau des images ADS40 avec d’excellents résultats, surtout avec les nouvelles approches orientées objet qui permettent de distinguer jusqu’aux différents types de cultures (voir figure 5). Figure 5 : Résultat d’une classification orientée objet [17] Cependant, ces méthodes de classification automatique orientées objet sont complexes et longues à paramétrer et le résultat obtenu, bien que très bon, est le fruit de nombreux essais successifs. De plus, des données supplémentaires comme le MNH ou des données vecteurs doivent être utilisées en combinaison avec l’image pour améliorer la classification. D’autre part, le résultat se limite en général à de très petites zones et n’est pas applicable directement sur d’autres images car une configuration spécifique à chaque image est utilisée. Enfin, ce type de résultat est bien trop détaillé par rapport aux besoins de Swisstopo. Les objectifs de Swisstopo s’inscrivent avant tout dans un contexte de productivité. L’intérêt de ce travail est donc d’étudier la possibilité d’obtenir un résultat certes moins détaillé au niveau de la couverture du sol mais par des procédés plus simples, plus rapides et peu gourmands en termes de ressources. Ces méthodes doivent en outre être valables sur de grandes zones de terrain (par exemple une ligne de vol ADS40 entière) mais aussi sur des images dont la couverture du sol est sensiblement différente (par exemple une ligne de vol sur une zone très urbaine et une ligne de vol sur une zone très Photogrammétrie et traitement d’image 4 Julien Fabing Travail de diplôme 2007 HEIG-VD forestière). Enfin, la part de supervision et de reprise manuelle des fautes engendrées par le traitement automatisé ne doit pas être trop importante pour que le processus reste plus productif qu’un traitement entièrement manuel. Dans un premier temps, l’étude portera sur la possibilité d’extraire les forêts. Puis, dans un deuxième temps, selon les résultats obtenus, sur la possibilité de séparer les feuillus et les épineux. Le premier chapitre de ce document évoque brièvement quelques principes de base de la télédétection et de la classification des objets. Le second chapitre présente les données et logiciels utilisées dans le cadre de ce travail. Le troisième chapitre expose la démarche utilisée pour réaliser ce travail. Le quatrième chapitre fait état des différents tests de classification et des résultats obtenus. Le cinquième chapitre décrit les éléments de prétraitement et de post-traitement testés susceptibles ou non d’améliorer le processus. Le sixième chapitre rend compte de l’évaluation des méthodes mis en œuvre. Enfin le dernier chapitre conclut ce rapport et met en avant les perspectives offertes par cette étude. Photogrammétrie et traitement d’image 5 Julien Fabing Travail de diplôme 2007 HEIG-VD 1 Principes de base Dans ce chapitre sont évoqués brièvement quelques principes de base. 1.1 La télédétection La télédétection (remote sensing) regroupe un ensemble de techniques ayant pour objectif d’étudier la surface de la terre par l’analyse et l'interprétation des images recueillies à partir d'avions ou de satellites par exemple. Elle utilise les propriétés des ondes électromagnétiques émises ou réfléchies par les objets sur le terrain. 1.2 Les images Une image est une représentation bidimensionnelle, ou plus simplement une matrice. Chaque élément de la matrice représente un pixel. Une image multispectrale est une image qui comprend plusieurs canaux. C’est donc une matrice dont chaque élément possède n valeurs (n étant le nombre de canaux). Ces n valeurs forment un vecteur représentant la signature spectrale de chaque pixel. 1.3 Les compositions colorées Pour afficher une image sur un écran d’ordinateur, la plupart du temps, on associe respectivement les canaux rouge, vert et bleu de l’écran aux canaux rouge, vert et bleu du capteur. Ainsi l’image affichée à l’écran correspond à ce qu’un observateur aurait vu de ses yeux au moment de la prise de vue. Les objets ont la « même » couleur sur l’image que dans la réalité. Il est cependant possible de réaliser des compositions colorées appelées aussi images fausse couleur. Pour cela on assigne aux canaux spectraux des couleurs d’affichages qui ne leur correspondent pas. Ces compositions colorées peuvent s’avérer très utiles pour la photo-interpretation notamment en affichant des canaux du domaine invisible. 1.4 Le prétraitement des images Quel que soit le type de caméra et le mode d’acquisition utilisé, on ne travaille généralement jamais directement avec les données brutes. Des corrections radiométriques et géométriques sont nécessaires. Les images brutes n’exploitent souvent pas toute la plage radiométrique d’une image et il est donc courant de procéder à un étalement de la dynamique de l’image ce qui améliore son contraste. Des corrections géométriques sont également nécessaire pour rendre superposable l’image à n’importe quel produit possédant une géoréférence. L’orthorectification est la correction géométrique rigoureuse des déformations de l’image dues au relief et aux conditions de Photogrammétrie et traitement d’image 6 Julien Fabing Travail de diplôme 2007 HEIG-VD la prise de vue. Cette correction nécessite d’avoir recours à un modèle numérique du terrain. 1.5 La classification des images Effectuer une classification des images consiste à réaliser une partition du territoire selon la nature des objets. Pratiquement, il s’agit de réaliser une partition de l’espace radiométrique en un nombre de classes prédéfini (par exemple forêt, urbain, champs…). C’est donc une abstraction de l’image de base dont le nombre de classes radiométriques est réduit par rapport à la radiométrie originale. Il est possible d’effectuer une classification manuelle : un opérateur identifie visuellement les différents éléments sur l’image et les saisit dans des couches spécifiques selon leur nature. C’est une opération relativement longue à mettre en œuvre mais qui reste toujours la plus utilisée. Il existe aussi des méthodes plus ou moins automatisées de classification. La classification non supervisée est une méthode généralement utilisée pour l’analyse d’image quand aucune donnée de terrain n’est disponible (comportement spectral des objets composant l’image non connu). Avec cette méthode c’est la machine qui grâce à des algorithmes de détection des groupements naturels de vecteurs spectraux classe au mieux les pixels selon un nombre de classes défini par l’utilisateur. L’utilisateur doit ensuite identifier visuellement les classes et éventuellement les regrouper. La classification supervisée fonctionne de la même manière que la classification non supervisée à ceci près que les limites ou seuils des groupements sont imposées par l’utilisateur par le biais de zones d’entrainement. Ces zones d’entrainement sont des zones échantillons saisies sur l’image représentant une classe recherchée. Chaque pixel est affecté à une classe selon un critère de ressemblance. Si un pixel appartient à deux classes à la fois, il est affecté à la classe la plus semblable. 1.6 Le post-traitement Suite à une classification, il reste généralement des pixels mal classés isolés. Il convient donc de les réassocier à une classe. Pour cela on peut utiliser des outils de filtrages. Le plus simple est le filtre majoritaire qui consiste à attribuer à chaque pixel la valeur qui est majoritaire dans ses huit pixels voisins. Cependant, ce filtre modifie tous les contours de l’image. On lui préfèrera souvent les filtres d’érosion et de dilatation de la morphologie mathématique ou encore l’ouverture et la fermeture qui sont des combinaisons de ces filtres et qui permettent d’éliminer les pixels isolés, combler les trous et lisser les contours tout en conservant la plupart du temps la taille et la forme des objets. Ce chapitre a été inspiré par les références suivantes: [4][8][9][11] Photogrammétrie et traitement d’image 7 Julien Fabing Travail de diplôme 2007 HEIG-VD 2 Données et logiciels Dans ce chapitre sont présentés les diverses données et les logiciels utilisés et évalués lors de ce travail. 2.1 Données 2.1.1 Caméra ADS40 Développée par LEICA Geosystems, l’ADS40 est la toute dernière génération de caméra aérienne fonctionnant avec un capteur numérique à barette de type « push broom » s’inspirant des technologies de l’imagerie satellitaire. Figure 6 : La caméra ADS40 [13] Figure 7 : Principe d'acquisition des images [14] Grâce à ce système « push broom », l’ADS40 peut acquérir des bandes d’images de 12000 pixels de large sur de très grandes longueurs (dépendant ensuite de la capacité de stockage des données). D’autre part, l’ADS40 permet d’acquérir des images dans le domaine du visible (panchromatique, rouge, vert et bleu) mais aussi dans le domaine du proche infra-rouge (PIR). Il est donc possible par composition des canaux d’obtenir aussi bien des images panchromatiques et couleur (R, V, B) que des compositions colorées fausses couleurs CIRF (PIR, R, V) par exemple. Les images sont acquises en 16 bits (65536 couleurs par canal). Figure 8 : PAN/RVB/PIR/CIRF [14] Photogrammétrie et traitement d’image 8 Julien Fabing Travail de diplôme 2007 HEIG-VD Le capteur est en outre doté de plusieurs angles de prises de vues pour permettre de faire de la stéréo-restitution. Il y a généralement une prise de vue avant, une prise de vue au nadir et une prise de vue arrière. La configuration des angles de prises de vues et des canaux disponibles dépend de la génération de la caméra. La première génération d’ADS40 vole en configuration SH40 (voir 2.1.2) et la seconde génération de caméra vole en configuration SH51 ou SH52 (voir 2.1.4). Concernant la résolution des données, pour une altitude de vol de 2500 m, le GSD (Ground Sampling Distance) qui est la taille de pixel au sol sera d’environ 25 cm. Enfin, l’ADS40 possède un inertiel (IMU) et un GPS intégrés, permettant de faciliter l’aérotriangulation et l’orthorectification des images par géoréférencement direct. Swisstopo vole depuis 2005 avec cette nouvelle technologie. Le logiciel GPro (Ground Processing) conçu par LEICA permet de télécharger et manipuler les images ADS40. Il offre la possibilité de produire des images géoréférencées et orthorectifiées à partir des images ADS40 brutes et des données de positionnement. GPro permet également la mesure automatique de points pour l’aérotriangulation des images ADS40. Il existe trois niveaux d’images manipulables dans GPro : - Les images L0 qui sont quasiment les images brutes. - Les images L1 qui sont rectifiées sur un plan et qui sont principalement utilisées pour la stéréorestitution - Les images L2 qui sont orthorectifiées et géoréférencées. C’est ce type d’image qui sera utilisé pour ce travail. Photogrammétrie et traitement d’image 9 Julien Fabing Travail de diplôme 2007 HEIG-VD 2.1.2 Jeu de données « Sargans-Rheintal » Le jeu de données « Sargans-Rheintal » a été volé le 28.07.05. Il est constitué de huit bandes (scènes) ADS40 provenant de huit lignes de vol différentes. Ces images couvrent la région de la commune de Sargans dans le canton de St Gall. Figure 9 : Situation « Sargans-Rheinthal » Cette région a une topographie très accidentée avec des pentes pouvant aller jusqu’à 45°. Et une altitude Figure 10 : Les huit bandes de vol variant de 439 m à 2395 m [6] L’autre particularité de ce jeu de données est la disposition des bandes de vol. En général, les lignes de vol sont plutôt réalisées selon les axes des coordonnées géographiques suisses, à savoir dans le sens Nord-Sud ou Est-Ouest afin d’éviter une rotation importante des images. Ici, comme la zone est plutôt montagneuse les lignes de vol suivent les vallées afin de garantir un GSD de 25 cm dans la zone de plaine. En effet, en zone montagneuse, l’altitude de vol étant plus élevée le GSD n’est généralement que de 50 cm. Photogrammétrie et traitement d’image 10 Julien Fabing Travail de diplôme 2007 HEIG-VD Le vol a été réalisé avec un capteur ADS40 en configuration SH40, La particularité de cette configuration est que les canaux rouge, vert et proche infra-rouge pris vers l’avant le sont avec un angle d’incidence de respectivement 14°, 16° et 18°. Ces trois canaux ne sont donc pas colinéaires. La précision du MNT pour l’orthorectification primordiale pour est que les donc images Figure 11 : Vol ADS40 en configuration SH40 avant et nadir par exemple puissent se superposer parfaitement Remarque : Le vol ayant été réalisé en plein été, la végétation sur le terrain est luxuriante contrairement à un vol qui aurait été réalisé à une autre époque. Il faudra garder cela à l’esprit lors de l’analyse des résultats. 2.1.3 Jeu de données « Thun » Le jeu « Thun » de données couvrant la région de Thun dans le canton de Berne a été volé en deux temps. En effet, un problème s’est produit lors du vol initial effectué le 22 avril 2005 et deux bandes de vol sont incomplètes (des canaux sont manquants). Un vol complémentaire a donc été réalisé le 26 Figure 12 : Situation Thun mai 2005. Le premier vol est constitué de 6 bandes ADS40 « utilisables » provenant de 6 lignes de vol différentes. Le GSD des images est d’environ 25 cm. Les bandes de vol sont de configuration plus classique que celles du vol Sargans-Rheintal puisqu’elles sont horizontales. Le second vol est lui constitué de 7 bandes de vol (dont deux verticales). Le GSD est pour ce second vol de 30 cm. Photogrammétrie et traitement d’image 11 Julien Fabing Travail de diplôme 2007 HEIG-VD Les deux vols ont été effectués en configuration SH40 comme le vol de Sargans. La particularité de ce jeu de données est que les images entre les deux vols ont été acquises à un mois d’intervalle. Or, l’aspect temporel est très important pour le traitement d’image et la détection des objets puisqu’en un mois la Figure 13 : Thun premier vol (mois d’avril) végétation change énormément. On peut d’ailleurs le constater sur les figures 13 et 14 au niveau du feuillage des arbres et des cultures. Comme certaines images se recouvrent entre les deux vols, il sera possible de tester les méthodes développées lors de ce travail sur recouvrement ces pour zones voir de leur comportement dans des conditions très différentes. Figure 14 : Thun second vol (mois de mai) 2.1.4 Jeu de données « Romanshorn » Le jeu de données de « Romanshorn » est un jeu de données de démonstration volé par LEICA au dessus de la région de Romanshorn dans le canton de St Gall. Il est en fait constitué de 3 vols à différentes résolutions (20 cm, 10 cm et 5 cm) composés respectivement de 4, 2 et 3 bandes. Les vols ont été effectués le 16 avril 2007. Figure 15 : Situation Romanshorn Photogrammétrie et traitement d’image 12 Julien Fabing Travail de diplôme 2007 HEIG-VD GSD : 10 cm GSD : 20 cm GSD : 5 cm Figure 16 : Les trois vols sur Romanshorn Les images de GSD 5 cm et 10 cm couvrent la commune de Romanshorn. Un MNT dans le nouveau format LTF (LEICA Terrain Format) est fourni sur cette zone, on peut donc l’utiliser pour l’orthorectification des images. Les images de GSD 20 cm couvrent, elles, une zone à l’ouest de Romanshorn, il n’y a pas de MNT fourni sur cette zone, il faut orthorectifier les images sur un plan. La particularité de ce jeu de données est que les images ont été acquises avec une caméra ADS40 en configuration SH52. La figure ci-contre montre le principe d’acquisition de l’ADS40 dans cette nouvelle configuration. Figure 17 : Vol ADS40 en configuration SH52 D’ores et déjà, on peut imaginer l’avantage de cette configuration par rapport à la configuration SH40 avec la présence de tous les canaux multi-spectraux colinéaires au nadir. Les images proche infra-rouge, rouge, vert, bleu et panchromatiques seront donc parfaitement superposées (colinéarité) lors de la rectification et les dévers seront minimisés dans le sens du vol (Nadir). La qualité du MNT sera donc beaucoup moins importante pour l’orthorectification qu’avec la configuration SH52. Remarque : Swisstopo volera avec cette nouvelle technologie à partir de l’année prochaine. Photogrammétrie et traitement d’image 13 Julien Fabing Travail de diplôme 2007 HEIG-VD 2.2 Logiciels 2.2.1 ERDAS IMAGINE 9.1 IMAGINE 9.1 [47] de la société ERDAS (propriété de LEICA) est un logiciel qui permet l’analyse d’images complexes et d’images radar disposant d’outils de classification simples et avancés. Il permet aussi la modélisation de données en 3D. Ce logiciel a pu être évalué et utilisé sans restriction. 2.2.2 ERMapper Professional 7.1 ERMapper Professionnal 7.1 [44] de la société Earth Resource Mapping est un logiciel de traitement d’images géoréférencées très complet. Il est surtout reconnu pour son format de compression des images très performant ECW. Lors de ce travail, seule une version de démonstration a pu être testée, elle était limitée à 30 jours et/ou 50 utilisations. De plus les traitements étaient aussi limités dans le temps. Il y avait aussi une restriction sur la taille des images. 2.2.3 Geomatica 10.0 Geomatica 10.0 [46] de la société PCI Geomatics est un logiciel qui intègre dans un seul environnement des outils de télédétection, de SIG, de photogrammétrie, de cartographie ainsi que des outils de développement. En particulier, il possède des fonctions classiques de classification mais aussi par l’intermédiaire de bibliothèques d’algorithmes de fonctions de classification par réseaux de neurones. Lors ce travail, il n’a pu être testé qu’une version de démonstration téléchargeable sur le site de PCI Geomatics. Elle est assez complète mais les images utilisables sont limitées à 1000x1000 pixels ce qui ne permet pas de faire des tests sur de très grandes zones. 2.2.4 Definiens Developper 7.0 Definiens Developper 7.0 [51] de la société Definiens est un environnement de développement intégré qui vise à faciliter le développement rapide d'applications pour l'analyse des images. Definiens Developper intègre le module Definiens Professionnel autrefois connu sous le nom d’eCognition. Ce programme permet de segmenter les images sur critères radiométriques puis de réaliser des classifications orientées objet. De nombreux tests de classification très poussés ont déjà été réalisés avec ce logiciel avec de très bons résultats [49][50][52]. Cependant, le paramétrage est très long et la taille des fichiers est pour le moment limitée à 4 Go. Il n’est pas donc pas très adapté aux objectifs de productivité de ce travail. La version de démonstration à disposition était très complète. La restriction majeure est l’impossibilité d’exporter les résultats. Photogrammétrie et traitement d’image 14 Julien Fabing Travail de diplôme 2007 HEIG-VD 2.2.5 Feature Analyst Le programme Feature analyst [55] de la société VLS est une extension qui peut se greffer sur les programmes ArcGis, IMAGINE, GeoMedia et Socet Set. Cette extension utilise les fonctions de ces logiciels pour effectuer des extractions semi-automatiques « facilitées ». Ce logiciel découvert tardivement n’a pas pu être évalué faute de temps. 2.2.6 Remarque concernant ERDAS IMAGINE et ERMapper LEICA qui est déjà propriétaire d’ERDAS IMAGINE vient récemment de racheter ERMapper. Dans un premier temps, les deux logiciels vont être maintenus. A plus long terme, un nouveau produit devrait voir le jour regroupant le meilleur des deux logiciels. 2.2.7 Comparaison des logiciels Le tableau ci-dessous présente une comparaison sommaire des logiciels dans la perspective de la réalisation de ce travail. Tableau 1 : Comparaison sommaire des logiciels Remarque : Tableau 1 en version agrandie visible dans l’annexe 2 2.2.8 Conclusion partielle Definiens Developper est mis à l’écart pour la complexité de ses paramètres et son problème de gestion des gros fichiers. Parmi les trois logiciels généralistes restant dont les méthodes de classification sont plus classiques et similaires, le choix s’est porté sur le logiciel ERDAS IMAGINE 9.1. Ce choix est avant tout un choix de confort car c’est le seul des trois logiciels dont on dispose d’une licence complète. Toutefois, les deux autres logiciels possédant aussi des boites à outils pour la création de fonctions personnalisées, et les fonctions existantes étant très semblables, il devrait être assez aisé de transposer les algorithmes développés depuis IMAGINE dans ces derniers. Photogrammétrie et traitement d’image 15 Julien Fabing Travail de diplôme 2007 HEIG-VD 3 Démarche Le présent chapitre présente la démarche utilisé pour la réalisation de ce travail. Le traitement présenté ci-après est celui du vol « Sargans-Rheintal ». 3.1 Préparation des données dans GPro Avant de pouvoir traiter les données, un prétraitement des images brutes dans GPro est nécessaire. Pour réaliser les premiers tests, les images brutes L0 sont dans un premier temps orthorectifiées sur le MNT25. Une aérotriangulation déjà existante a été réutilisée pour ce travail. 3.1.1 Traitement radiométrique GPro propose trois options pour le traitement de la radiométrie des images brutes lors de leur orthorectification. La première est de ne rien faire. L’image reste comme elle est. La seconde est d’appliquer une courbe de correction automatique dont les limites peuvent être fixées. Cela a pour effet d’étaler l’histogramme mais on n’est pas tout à fait maître de ce qui se passe. La troisième solution est d’appliquer une courbe de correction créée manuellement. C’est l’option qui a été retenue pour ce travail. Une courbe de calibration linéaire a été créée. Dans un souci de productivité, cette courbe a été utilisée pour tous les canaux spectraux. Figure 18 : Courbe de calibration Photogrammétrie et traitement d’image 16 Julien Fabing Travail de diplôme 2007 HEIG-VD Cette courbe est linéaire de 0 à 4096 puis plane de 4096 à 65536. De cette manière, la majeure partie de l’information est normalisée sur toute la plage de couleurs (16bits) et les pixels restant considérés comme du bruit deviennent des pixels « blanc ». La valeur de 4096 (12bits) a été choisie de manière assez large afin d’être valable pour toutes les bandes spectrales. GPro offre aussi la possibilité d’exporter les images en 8 bits ou en 16 bits. Dans un premier temps les tests seront effectués sur des images 16 bits afin de garder le plus d’information possible. 3.1.2 Rééchantillonnage GPro propose trois méthodes pour le rééchantillonnage des images (Nearest neighbor, Bilinear et Cubic convolution). En traitement et analyse d’images, il est important de garder le maximum d’information de l’image de base. Il a donc été choisi d’utiliser la méthode Nearest Neighbor (plus proche voisin) qui copie la valeur du pixel le plus proche de l’image de base. Ainsi on réalise un véritable échantillonnage de l’image de base et pas une interpolation qui risquerait d’introduire de nouvelles valeurs de pixels pouvant aboutir à une certaine confusion entre des objets de natures différentes. D’autre part la méthode Nearest Neighbor est de loin la plus rapide en termes de temps de calcul. 3.1.3 Problèmes avec le logiciel GPro De nombreux problèmes ont été rencontrés lors de l’utilisation du logiciel GPro. Ces problèmes sont détaillés dans l’annexe 1 : - Problème selon la résolution des images (annexe 1.1) - Problème de la fonction auto rotation (annexe 1.2) - Problème de rééchantillonnage avec la fonction Fast Rectification (annexe 1.3) - Problème des images de base fortement chahutées (annexe 1.4) - Problème des pixels qui ne sont pas à zéro dans les bandes noires (annexe 1.5) Photogrammétrie et traitement d’image 17 Julien Fabing Travail de diplôme 2007 HEIG-VD 3.1.4 Choix effectués Les images à 25 cm étant assez lourdes à manipuler dans ERDAS IMAGINE malgré la machine puissante à disposition et au vu des problèmes énoncés précédemment, le choix a été fait d’utiliser des images L2 RGB Nadir et CIRF « Avant » avec comme résolution de base 1 m sans utiliser la fonction Fast Rectification. Les images qui vont être utilisées n’étant pas chaotiques, la fonction Pixel Wise est laissée de côté. Les images L2 de résolution 1 m seront par la suite rééchantillonnées à 5 m dans IMAGINE pour pouvoir faire des tests à basse résolution. Figure 19 : Résumé de la génération des images L2 dans GPro Remarque : Pour les jeux de données de « Romanshorn » et « Thun », les courbes de calibration existantes ont été utilisées. Photogrammétrie et traitement d’image 18 Julien Fabing Travail de diplôme 2007 HEIG-VD 3.2 Filtrage des données dans ERDAS IMAGINE Nous pouvons donc maintenant extraire pour chaque bande deux images de résolution 1 m. L’une est en vraie couleur (rouge, vert, bleu) et l’autre en fausse couleur CIRF (proche infra-rouge, rouge, vert). Avant de pouvoir aller plus loin, il est nécessaire de filtrer les images pour régler deux problèmes explicités ci-après. 3.2.1 Filtrage des pixels de valeur 16 Pour résoudre le problème des pixels de valeur 16 dans les bandes noires provenant de GPro (voir Annexe 1.5), une solution très simple est appliquée. Les images sont passées dans un filtre qui effectue l’opération suivante : SI valeur pixel image = 16 ALORS nouvelle valeur pixel = 0 : 3.2.2 Création d’images spatialement équivalentes Les zones couvertes par les deux images d’une même bande de vol ne sont pas spatialement équivalentes comme on peut le voir sur la figure ci-dessous : Figure 20 : Différence de couverture entre les images Sur l’image CIRF, on aimerait éliminer les bandes de couleur supplémentaires aux extrémités et sur les bords dues à la non colinéarité des canaux. On aimerait aussi avoir des zones spatialement équivalentes entre l’image Nadir RGB et l’image avant CIRF. Pour cela un algorithme de prétraitement assez simple est utilisé : SI (image_RVB_Rouge = 0 ou image_RVB_Vert = 0 ou image_RVB_Bleu = 0 ou image_CIRF_PIR = 0 ou image_CIRF_Rouge = 0 ou image_CIRF_Vert = 0) ALORS (image_RVB_Rouge = 0, image_RVB_Vert = 0, image_RVB_Bleu = 0, image_CIRF_PIR = 0, image_CIRF_Rouge = 0, image_CIRF_Vert = 0) SINON les valeurs des pixels restent inchangées. Photogrammétrie et traitement d’image 19 Julien Fabing Travail de diplôme 2007 HEIG-VD La figure ci-dessous présente le résultat du traitement : Figure 21 : Images spatialement équivalentes Remarque : Ce prétraitement a pour conséquence d’apparier les pixels de l’image CIRF avec ceux de l’image RVB (Data Matching). Dans ce cas précis, cela a bien fonctionné car les pixels de l’image CIRF et de l’image RVB n’avaient pas un décalage important après l’orthorectification (inférieur à un demi pixel). Cette étape de prétraitement est bien sûr superflue avec les données SH52. Les images ainsi créées sont ensuite rééchantillonnées à 5 m avec la fonction « Degrade » d’IMAGINE (méthode Nearest Neighbor). 3.2.3 Implémentation des deux prétraitements Par souci d’efficacité, les deux algorithmes de prétraitement ont été réunis en un seul : SI (image_RVB_Rouge ≤ 16 ou image_RVB_Vert ≤ 16 ou image_RVB_Bleu ≤ 16 ou image_CIRF_PIR ≤ 16 ou image_CIRF_Rouge ≤ 16 ou image_CIRF_Vert ≤ 16) ALORS (image_RVB_Rouge = 0, image_RVB_Vert = 0, image_RVB_Bleu = 0, image_CIRF_PIR = 0, image_CIRF_Rouge = 0, image_CIRF_Vert = 0) SINON les valeurs des pixels restent inchangées. Ce filtre a été implémenté dans le module Model Maker d’ERDAS IMAGINE. La description détaillée de cette fonction se trouve dans l’annexe 3. Photogrammétrie et traitement d’image 20 Julien Fabing Travail de diplôme 2007 HEIG-VD 3.3 Définition d’une image référence Une image contenant toutes les zones boisées (forêt, arbres, arbustes, haies) a été créée manuellement. Elle servira de référence pour qualifier et évaluer le résultat des classifications par comparaison entre les images. Pour cela, les zones forestières ont été saisies à partir de l’image RVB de résolution 1 m. Il a été attribué aux pixels représentant des zones boisées la valeur 65535. Considérant l’ampleur de la tâche, le choix de l’image s’est porté sur la bande de vol la plus petite du jeu de données (image 1024). Figure 22 : Saisie manuelle des zones de forêt Pour un confort d’utilisation optimal, l’image résultante a ensuite été rendue binaire à l’aide d’une fonction spécialement créée pour l’occasion (voir annexe 4) qui met tous les pixels de valeur 65535 à 1 et le reste à 0. La nouvelle image binaire a un volume bien moins important que l’image 16 bits (~50 fois plus petit). Elle sera donc plus facilement manipulable et plus rapidement chargeable lors des calculs de comparaison (voir le point 3.5.1). Remarque : le travail de saisie manuelle s’est révélé assez long et fastidieux (quelques 35 heures pour une zone d’environ 18.5 km2). Cela montre encore une fois l’intérêt de pouvoir faire le plus gros du travail de manière automatique. Photogrammétrie et traitement d’image 21 Julien Fabing Travail de diplôme 2007 HEIG-VD Figure 23 : Création de l'image de référence L’image binaire finale a ensuite été rééchantillonnée à 5 m avec la fonction « Degrade » d’IMAGINE (méthode Nearest Neighbor) pour pouvoir faire des comparaisons et des analyses à cette échelle. 3.4 Calcul d’une image NDVI Le NDVI (Normalized Difference Vegetation Index) est un indice de végétation compris entre -1 et 1. C’est un indicateur de l’activité chlorophyllienne de la végétation. L’indice NDVI se calcule de la manière suivante : NDVI = PIR − R PIR + R Avec PIR = valeur du pixel dans le canal proche infra-rouge et R = valeur du pixel dans le canal rouge. Sur les sols nus, la réflectance du rouge et du proche infra-rouge est très proche et donc le NDVI sera proche de 0. Sur les zones de végétation, la réflectance du proche infrarouge sera nettement plus importante que celle du rouge et le NDVI s’approchera de 1. L’image NDVI est calculée à partir des canaux 1 (PIR) et 2 (R) de l’image CIRF. Pour se ramener à une image 16 bits, l’image créée a été normalisée à nouveau sur 65536 couleurs. Le détail de l’implémentation dans IMAGINE Modeler de l’algorithme de calcul du NDVI est explicité dans l’annexe 6. On voit sur l’image NDVI créée ci-dessous que les zones de végétation apparaissent en clair et que les zones urbaines, les routes et les cours d’eaux apparaissent en sombre. Photogrammétrie et traitement d’image 22 Julien Fabing Travail de diplôme 2007 HEIG-VD Figure 24 : Image NDVI 3.5 Définition d’outils d’analyse Avant de se lancer dans des classifications, il est nécessaire de se doter d’outils d’analyse des résultats. 3.5.1 Outil de création d’une image servant à l’évaluation d’une classification Le premier outil qui a été développé est une fonction qui permet de comparer l’image classifiée à l’image de référence. Il en ressort une image synthétique couleur qui fait apparaître en vert les pixels qui ont été bien classés comme de la forêt, en rouge les pixels sujets à l’erreur de première espèce (càd les pixels qui sont en réalité de la forêt mais qui n’ont pas été classés comme tels) et en bleu les pixels sujets à l’erreur de deuxième espèce (càd les pixels qui ont été classés comme forêt mais qui n’en sont pas). Figure 25 : Erreur de première et de seconde espèce Photogrammétrie et traitement d’image 23 Julien Fabing Travail de diplôme 2007 HEIG-VD Image classifiée Image référence Figure 26 : Création de l’image synthétique « analyse de la classification » L’intérêt d’un tel outil d’analyse est double. D’une part on peut lire facilement le nombre de pixels dans telle ou telle catégorie en affichant les informations sur l’image pour pouvoir ultérieurement faire des analyses statistiques. D’autre part, avec cette image synthétique, on peut voir en un coup d’œil où se situent les éléments qui ont été mal classés lors de la classification. Le principe de l’algorithme de création de cette image synthétique est relativement simple : SI un pixel est à 1 dans l’image classifiée et dans l’image référence ALORS le pixel créé dans une nouvelle image B prend la valeur 1 SINON il prend la valeur 0. (pixels forêts bien classés) SI un pixel est à 0 dans l’image classifiée et à 1 dans l’image référence ALORS le pixel créé dans une nouvelle image A prend la valeur 1 SINON il prend la valeur 0 (erreur de première espèce) Photogrammétrie et traitement d’image 24 Julien Fabing Travail de diplôme 2007 HEIG-VD SI un pixel est à 1 dans l’image classifiée et à 0 dans l’image référence ALORS le pixel créé dans une nouvelle image C prend la valeur 1 SINON il prend la valeur 0 (erreur de seconde espèce) Par la suite, une image couleur est créée à partir des images monocanal A, B et C. L’image A est placée dans le canal rouge, l’image B dans le canal vert et l’image C dans le canal bleu. Le développement de cet algorithme dans IMAGINE Modeler est détaillé dans l’annexe 5. 3.5.2 Coefficient Kappa Pour évaluer la précision et la qualité des classifications réalisées, on se propose d’utiliser l’estimateur statistique Kappa [10]. Le coefficient Kappa est un indice statistique qui varie de 0 à 1. Il peut notamment être utilisé pour estimer la précision des classifications en évaluant le degré de concordance entre deux classifications, par exemple dans notre cas entre la classification de référence et la classification à tester. Plus le coefficient Kappa est proche de 1, plus la concordance est bonne entre les classifications. Pour notre étude on considérera qu’une classification est très satisfaisante pour un Kappa supérieur à 0.75. A la différence d’un simple rapport entre le nombre de pixels classés de manière identique par les deux classifications et le nombre total de pixels à classer, le coefficient Kappa effectue une correction qui prend en compte le fait qu'une certaine proportion de la concordance peut être due au hasard. Dans notre cas, Le coefficient Kappa peut se calculer de la manière suivante : Κ= N × n − ∑ (ri .ci ) i N 2 − ∑ (ri .ci ) i Avec N = nombre total de pixels dans l’image n= nombre de pixels identiques dans l’image classifiée et dans l’image référence ri = nombre de pixels classés dans la classe i dans l’image référence ci = nombre de pixels classés dans la classe i dans l’image classifiée Photogrammétrie et traitement d’image 25 Julien Fabing Travail de diplôme 2007 HEIG-VD Exemple : Soit une image de 100 pixels que l’on souhaite classifier en deux classes : « forêt » et « non forêt ». Classe 1 : Forêt Classe 2 : Non Forêt Total Nbre de pixels image référence 50 50 100 Nbre de pixels image classifiée 40 60 100 30 40 70 Nbre de pixels bien classés (identiques dans les deux images) Tableau 2 : Exemple fictif pour le calcul du coefficient Kappa Pourcentage de pixels bien classés = 70/100 = 70% Κ= 100 × 70 − (50 × 40 + 50 × 60) = 0,4 100 2 − (50 × 40 + 50 × 60) Ici avec un pourcentage de pixels bien classés de l’ordre de 70% on pourrait se dire que la classification est plutôt bonne. Cependant le faible Kappa indique que la classification n’est en fait pas très satisfaisante. En effet, trop de pixels ont probablement été bien ou mal classés « par hasard ». 3.6 Tests de classifications Plusieurs tests de classifications ont ensuite été effectués : classification supervisée, non supervisée, avec des résolutions d’images différentes et des méthodes différentes. Chaque classification a été comparée avec l’image de référence et le coefficient Kappa a été calculé afin de déterminer la méthode la plus efficace. Le résultat des différents tests est détaillé dans le chapitre suivant. 3.7 Propositions d’améliorations Plusieurs méthodes de prétraitement et de post-traitement ont ensuite été testées dans le but d’améliorer et d’optimiser le processus (voir chapitre 5). 3.8 Evaluation des processus Finalement, une description des méthodes retenues pour l’amélioration de la classification des zones boisées a été mise en place ainsi qu’une évaluation du temps nécessaire pour reprendre les données (voir chapitre 6). Photogrammétrie et traitement d’image 26 Julien Fabing Travail de diplôme 2007 HEIG-VD 4 Tests de classification Dans ce chapitre sont exposés les résultats des différents tests de classification effectués. 4.1 Classification supervisée Dans cette partie est testée la méthode de classification non supervisée. 4.1.1 Méthode Les classifications supervisées sont réalisées à l’aide du module pixel classifier d’ERDAS IMAGINE. La première étape est l’ouverture d’une image dans le viewer et la saisie d’une ou plusieurs zones d’entrainements selon la nature des objets recherchés. Puis avec l’outil « signature editor », on peut créer des signatures spectrales correspondantes à ces zones d’entrainement. Figure 27 : Bonne et mauvaise zone d'entrainement La radiométrie des zones d’entrainement doit suivre une distribution gaussienne pour que l’algorithme de classification fonctionne de manière correcte. Il faut donc analyser les histogrammes de chaque canal pour chaque zone d’entrainement pour vérifier que cette condition est respectée. Si les histogrammes présentent deux pics par exemple il faut alors subdiviser la zone en deux zones plus homogènes [10]. 4.1.2 Influence du nombre de zones d’entraînement Un test de classification supervisé a été réalisé sur les images RVB et CIRF de Sargans de résolution 5 m, une fois avec une seule zone d’entrainement sur un secteur de forêt et une fois avec une zone d’entrainement supplémentaire sur un secteur de forêt de radiométrie plus sombre. Les deux classes résultantes ont ensuite été regroupées en recodant leurs pixels avec la valeur 1 afin de pouvoir utiliser le comparateur (voir 3.5.1). Photogrammétrie et traitement d’image 27 Julien Fabing Travail de diplôme 2007 HEIG-VD Les résultats de ce test sont présentés dans l’annexe 14 et résumés dans la figure 28, et le tableau 3: Zone forêt claire 1 zone 2 zones Zone forêt sombre Figure 28 : Influence du type et du nombre de zones d'entrainement Pourcentage de pixels bien classés Kappa 1 Zone entrainement forêt RGB 74.3 % 0.45 1 Zone entrainement forêt CIRF 76.5 % 0.50 2 Zone (clair + sombre) RGB 88.2% 0.76 89.7% 0.79 2 Zones entrainement forêt (clair + sombre) CIRF Tableau 3 : Influence du type et du nombre de zones d'entrainement L’ajout d’une deuxième zone d’entrainement située dans une zone forestière plus sombre améliore grandement la qualité du résultat. Il est probable que le résultat peut encore être amélioré en segmentant encore plus les zones d’entrainement selon les versants. 4.1.3 Conclusion partielle La classification supervisée offre des résultats très intéressants, cependant son manque de systématisme est un désavantage dans une perspective d’automatisation du processus. En effet, il faut définir de nouvelles signatures spectrales pour chaque image et, pour obtenir un résultat de qualité, il faut faire de nombreux essais pour déterminer les zones d’entrainement les plus pertinentes. Le résultat dépend donc de manière trop importante de l’opérateur et des images. Photogrammétrie et traitement d’image 28 Julien Fabing Travail de diplôme 2007 HEIG-VD 4.2 Classification non supervisée Dans cette partie est testée la méthode de classification non supervisée. 4.2.1 Méthode Les classifications non supervisées de type isodata sont réalisées à l’aide du module Classifier d’Erdas Imagine. Par souci d’efficacité et pour pouvoir faire des comparaisons non biaisées, une configuration généraliste est utilisée et ce pour toutes les classifications réalisées. Seul le nombre de classes est changé, les autres paramètres sont laissés tels quels. Figure 29 : Configuration classification non supervisée Une fois les classifications effectuées, les images résultantes sont ouvertes dans le Viewer. Les différentes classes contenant des éléments de forêt sont ensuite identifiées par l’opérateur puis recodées avec la valeur 1 afin de pouvoir utiliser l’outil d’analyse (voir 3.5). C’est une opération qui est très rapide avec l’image d’origine sous les yeux. Figure 30 : Classification, identification et regroupement des classes 4.2.2 Analyse selon le nombre de classes et le type d’image Dans ce paragraphe, on se propose d’évaluer l’influence du nombre de classes sur la qualité de la classification. Il s’agit en outre de définir quel type d’image est le plus performant pour la méthode de classification non supervisée. Pour cela, un grand nombre de classifications non supervisées ont été effectuées à partir de l’image RVB, de l’image CIRF et de l’image NDVI de résolution 5 m (voir annexe 15). Photogrammétrie et traitement d’image 29 Julien Fabing Travail de diplôme 2007 HEIG-VD Les deux graphiques ci-dessous présentent les résultats de ces tests : Pourcentage de pixels bien classés 100% 90% 80% 70% 60% RVB 50% CIRF 40% NDVI 30% 20% 10% 0% 2 classes 3 classes 4 classes 5 classes 6 classes 7 classes 8 classes 9 classes 10 classes 20 classes Figure 31 : Pourcentage de pixels bien classés selon le nombre de classes et le type d’image Kappa 1.0 0.9 0.8 0.7 0.6 RVB 0.5 CIRF 0.4 NDVI 0.3 0.2 0.1 0.0 2 classes 3 classes 4 classes 5 classes 6 classes 7 classes 8 classes 9 classes 10 classes 20 classes Figure 32 : Coefficient Kappa selon le nombre de classes et le type d'image On notera que le nombre de classes n’influe pas sensiblement sur la qualité de la classification. Ce qui signifie qu’au cas où la classification non supervisée serait une des méthodes retenues, on pourrait se contenter d’un nombre limité de classes ce qui raccourcirait le temps consacré à la classification à postériori. En effet, il est plus facile et rapide par exemple d’identifier visuellement une classe à partir de trois classes qu’à partir d’une vingtaine. Concernant le type d’image, l’image RVB semble obtenir les meilleurs résultats, tout juste suivie par l’image CIRF. On peut relativiser ce résultat par le fait que l’image de référence a été saisie à partir de l’image RVB mais le Kappa est quand même nettement plus faible dans le cas des images CIRF. L’image NDVI ne donne pas de bons résultats, il faudrait certainement définir un nombre de classes beaucoup plus important pour pouvoir séparer les arbres de la végétation. Photogrammétrie et traitement d’image 30 Julien Fabing Travail de diplôme 2007 HEIG-VD 4.2.3 Analyse selon la résolution des images Des classifications de 3, 5 et 10 classes ont été réalisées avec des images RVB de résolution 1 m afin de pouvoir comparer l’efficacité de la classification non supervisée à une résolution supérieure à 5 m (annexes 15 et 16). Le graphique ci-dessous présente les résultats de ce test : Pourcentage de pixels bien classés Kappa 100% 90% 80% 70% 60% GSD 5 m 50% 40% 30% 20% GSD 1 m 10% 0% 3 classes 5 classes 1.0 0.9 0.8 0.7 0.6 GSD 5 m 0.5 0.4 0.3 0.2 0.1 0.0 GSD 1 m 3 classes 10 classes 5 classes 10 classes Figure 33 : Analyse selon la résolution des images Les résultats sont sensiblement identiques entre les classifications réalisées sur des images de résolution 5 m et sur des images de résolutions 1 m. Le résultat est toutefois légèrement moins bon avec la résolution de 1 m car plus bruité. Figure 34 : Classification GSD 5 m et GSD 1 m Remarque : Une classification à 5 m semble mieux convenir dans la perspective de saisir des grandes zones arborés car un filtrage des pixels non connectés éliminera les arbres isolés (à 5 m, un arbre isolé = au mieux un pixel). Par contre si on veut conserver l’information sur ces arbres isolés, il faut utiliser une meilleure résolution. Tout dépend du niveau de généralisation souhaité. Photogrammétrie et traitement d’image 31 Julien Fabing Travail de diplôme 2007 HEIG-VD 4.2.4 Analyse selon la nature de l’occupation du sol On a vu que la classification non supervisée fonctionne avec une certaine efficacité. Il serait intéressant de savoir comment évolue la qualité de la classification selon la nature du terrain présent sur les images. Pour cela des tests de classification ont été réalisés sur une image avec une zone majoritairement forestière et sur une image avec une zone majoritairement urbaine (annexe 17). Figure 35 : Zone forestière et zone urbaine Le résultat de ce test est présenté dans le graphique ci-dessous : Kappa 1.0 0.9 0.8 0.7 0.6 0.5 Zone forestière Zone urbaine 0.4 0.3 0.2 0.1 0.0 5 classes 10 classes Figure 36 : Analyse selon le type d'occupation du sol On constate que le coefficient Kappa est très bon pour les classifications en zones forestières. Par contre, il chute d’environ 10% pour les classifications en zone urbaine. La classification automatique des zones boisées semble donc plus difficile en zone urbaine. Photogrammétrie et traitement d’image 32 Julien Fabing Travail de diplôme 2007 HEIG-VD 4.2.5 Inventaire des objets mal classés Quelle que soit la résolution des images (5 m ou à 1 m), le nombre de classes ou le type d’image, les mêmes types de zones et d’objets semblent poser problème lors de la classification. Ils sont décrits dans les paragraphes ci-dessous. Remarque : Les problèmes issus d’une erreur dans la saisie manuelle de l’image référence ne sont évidemment pas pris en compte dans cet inventaire. Les objets en surplus (bleu) : - Les champs (RVB et CIRF) Figure 37 : Confusion avec les champs de Maïs - Les ombres (RVB et CIRF) Figure 38 : Confusion avec les ombres - Les ombres et les toitures non exposées au soleil (RVB et CIRF) Figure 39 : Confusion avec les toits Photogrammétrie et traitement d’image 33 Julien Fabing Travail de diplôme 2007 HEIG-VD - Certaines zones herbeuses à la radiométrie sombre Figure 40 : Confusion avec des zones herbeuses sombres Les objets manquants (rouge) : - Les arbres fortement exposés au soleil (RVB et CIRF), confusion avec l’herbe La classification sur l’image CIRF est encore plus touchée par ce phénomène à cause du dévers des arbres qui est plus important sur cette image. Figure 41 : Zones exposées au soleil - Certains types de feuillus (RVB et CIRF) Figure 42 : Confusion avec certains types de feuillus 4.2.6 Comparaison entre deux bandes d’images différentes d’un même vol Maintenant que les différents problèmes ont été identifiés, on aimerait savoir si la méthode de classification non supervisée est réutilisable sur une autre image, c’est à dire si elle se comporte de manière identique sur une image provenant d’une autre bande de vol et donc avec une radiométrie absolue différente. L’idéal aurait été de faire ce test sur une bande de vol prise un autre jour et à une autre heure de la journée pour que les deux images aient une radiométrie complètement indépendantes (un test de ce type a été réalisé sur un autre jeu de données et est commenté dans le paragraphe suivant). Les deux images testées ici ont été acquises dans des conditions similaires. Pour réaliser ce test, deux images RVB de deux bandes différentes (1024 et 1031) mais recouvrant une même zone ont été extraites avec GPro (GSD = 1m). Ces images ont ensuite été rendues spatialement équivalentes avec l’outil de prétraitement détaillé dans l’annexe 3. Photogrammétrie et traitement d’image 34 Julien Fabing Travail de diplôme 2007 HEIG-VD 1024 1024 1024 1031 Canal rouge 1031 Canal vert 1031 Canal bleu Figure 43 : Histogrammes des images 1024 et 1031 Sur la figure précédente, on observe une forte corrélation entre les histogrammes de l’image 1024 et de l’image 1031. Ils possèdent toutefois des différences sensibles ainsi qu’une petite translation. On limitera toutefois la validité du test à des images acquises lors d’un même vol. Une classification à cinq classes et une à dix classes ont été réalisées pour chacune des deux images. Les classifications ont été réalisées exactement de la même manière pour les deux images en particulier au niveau de l’identification et du regroupement des classes. Ici on ne s’intéresse pas à la qualité de chaque classification mais à la similarité entre les deux classifications. Donc, au lieu de comparer les deux classifications à l’image référence, elles sont comparées entre elles avec l’outil d’analyse détaillé dans l’annexe 3 et avec le coefficient Kappa. Les pixels classés comme forêt dans les deux images apparaitront en vert. Les pixels classés comme forêt dans l’image 1024 mais classés comme « non forêt » dans l’image 1031 apparaitront en rouge et les pixels classés comme forêt dans l’image 1031 mais comme « non forêt » dans l’image 1024 apparaitront en bleu. Cela permettra d’identifier les différences dans la façon dont ont été classés les pixels dans les deux images (voir Figure 44 : Comparaison classifications aussi l’annexe 18). Photogrammétrie et traitement d’image 35 Julien Fabing Travail de diplôme 2007 HEIG-VD Le résultat donne : Kappa 5 classes Pourcentage de pixels classés de manière identique dans les deux images 88.5% 10 classes 88.7% 0.73 0.68 Tableau 4 : Résultat de la comparaison Les 12,5 % de pixels qui n’ont pas été classés de la même manière entre les deux images sont principalement dus aux dévers des arbres qui sont différents entre les deux bandes de vol. Mais aussi aux dévers de certains champs qui selon l’angle de prise de vue ont une radiométrie se confondant plus ou moins avec celle des arbres. Mis à part ces problèmes de dévers (dus à la mauvaise qualité du MNT), il n’est pas constaté d’autres différences flagrantes entre les classifications. On peut donc émettre l’hypothèse qu’une méthode générique de classification non supervisée pourrait être utilisée pour plusieurs images différentes. Figure 45 : Différences dues aux dévers des arbres 4.2.7 Comparaison entre deux images provenant de deux époques différentes Pour valider l’hypothèse émise dans le paragraphe précédent à un niveau plus général, on se propose d’effectuer un test sur un autre jeu de données. Il s’agit cette fois du jeu de données de Thun (voir 2.1.3). Ce jeu de données contient des images provenant de deux vols effectués à deux dates différentes (l’un en avril et l’autre en mai) et qui ont donc été acquises dans des conditions différentes non seulement de vol mais aussi de végétation sur le terrain. En effet, sur les images du premier vol effectué en avril, de nombreux arbres n’ont pas encore leur feuillage. Il est donc intéressant de voir s’il est toujours possible de séparer la forêt du reste de la couverture du sol par classification non supervisée dans ces conditions particulières de végétation. Certaines de ces images contiennent des secteurs qui se recouvrent entre les deux dates ce qui nous permet d’effectuer des tests. On choisit les images 1023 du premier vol et 1034 du second vol. La zone de test utilisée fait 4 km2. Le GSD est de 1 m. Photogrammétrie et traitement d’image 36 Julien Fabing Travail de diplôme 2007 HEIG-VD Figure 46 : Zone de test Thun L’idée était de réaliser exactement le même test que dans le paragraphe précédent. C'est-à-dire effectuer des classifications à 5 et 10 classes pour chaque image, regrouper les classes en forêt et non forêt puis comparer les classifications entre la première et de la deuxième époque. L’hypothèse de départ était que la méthode fonctionnerait pour les images du mois de mai de manière identiques aux images de Sargans du mois de juillet et ce test devait donc permettre d’éprouver la méthode sur des images du mois d’avril avec des arbres Mois de mai Mois d’avril sans feuilles. Or cela n’est pas si simple. Figure 47 : Résultat après regroupement Photogrammétrie et traitement d’image 37 Julien Fabing Travail de diplôme 2007 HEIG-VD La figure 47 montre le résultat des regroupements effectués à partir des classifications 5 classes en classe « forêt » et « non forêt ». Ces regroupements ont été effectués de manière à minimiser les erreurs de première et de seconde espèce. On constate que le résultat n’est pas très satisfaisant et que contrairement à ce qui était attendu, il l’est encore moins pour les images du mois de mai que pour les images du mois d’avril. Sur les images du mois d’avril, on arrive à séparer la forêt du reste du paysage mais il y a de nombreuses lacunes de taille parfois importantes au niveau des zones de feuillus. Ce phénomène est légèrement atténué car la résolution d’1 m donne une radiométrie assez homogène dans ces zones. A une plus grande échelle, il est très probable que cela pose encore plus de problèmes (cf 4.2.8). De plus, il y a de nombreuses confusions avec des sols nus et beaucoup de fautes aléatoires. Ces données seront difficiles à reprendre. Mais, ce qui est plus surprenant, c’est le résultat obtenu avec les images volées en mai. En effet, il est impossible de regrouper les classes résultantes de la classification (que ce soit à 5 ou 10 classes) de manière satisfaisante en « forêt » et « non forêt ». Le problème semble venir d’une trop grande confusion entre les zones de feuillus et les zones herbeuses. Il se pose aussi bien avec les images RVB que les images CIRF. Pour confirmer cela, une comparaison entre les histogrammes d’une zone de feuillus et d’une zone herbeuse est effectuée sur l’image du mois de mai de Thun. Cette comparaison montre une grande superposition entre ces histogrammes ce qui implique qu’il est très difficile de séparer ces deux zones car leur radiométrie est trop similaire (figure 48). Figure 48 : Séparation difficile des feuillus et de l'herbe (Thun) Les erreurs de première et de seconde espèce seront très importantes contrairement à une même situation sur une image du mois de juillet de Sargans où les histogrammes ne se superposent que très partiellement (figure 49) et où il est facile d’effectuer une séparation car les pics sont bien dissociés (un peu moins pour le PIR toutefois). Photogrammétrie et traitement d’image 38 Julien Fabing Travail de diplôme 2007 HEIG-VD Figure 49 : Séparation facile des feuillus et de l'herbe (Sargans) Il y a donc bien confusion entre le feuillage jeune et les zones herbeuses dans le cas des images de Thun volées en mai. D’autre part, si le résultat est meilleur en avril avec l’image CIRF qu’avec l’image RVB, c’est le contraire en mai. Les images prises au printemps ne semblent donc pas vraiment adéquates pour détecter les zones boisées avec une méthode qui se base sur la radiométrie. La méthode se limitera donc à des images volées en été. Remarque : La zone de lac ressortant très sombre a été prise comme de la forêt dans tous les cas, c’est un problème supplémentaire à considérer. 4.2.8 Images volées en avril à haute résolution Figure 50 : Images RVB et CIRF GSD 25 cm Un test de classification à 5 classes a été réalisé sur une image d’1 km2 représentative de GSD 25 cm contenant forêts, arbres isolés, champs et milieu urbain issue du jeu de données de « Romanshorn » volé en avril. Cependant, il est difficile d’en tirer des Photogrammétrie et traitement d’image 39 Julien Fabing Travail de diplôme 2007 HEIG-VD conclusions puisqu’on rencontre les mêmes problèmes qu’avec les images de Thun du mois d’avril et du mois de mai. Les problèmes sont cette fois cumulés puisqu’il y a des arbres sans feuilles et des arbres avec un feuillage jeune. - Non homogénéité des zones de forêt - Confusion entre les feuillus et l’herbe Classification 5 classes à partir de l’image RVB - Confusion des routes et des cerisiers - Confusion entre les feuillus et l’herbe - Mauvaise définition des limites de forêt Classification 5 classes à partir de l’image CIRF - Confusion des routes et des cerisiers Figure 51 : Problème des images volées en avril Comme pour les images de Thun, on constate une difficulté pour séparer les forêts du reste du paysage. C’est même impossible avec l’image RVB où les zones avec des arbres nus posent de gros problèmes. D’autre part on constate à nouveau le phénomène de confusion important entre l’herbe et le feuillage des arbres. Photogrammétrie et traitement d’image 40 Julien Fabing Travail de diplôme 2007 HEIG-VD 4.2.9 Conclusion partielle La classification non supervisée semble bien adaptée pour répondre aux objectifs de production de part sa rapidité d’exécution et son paramétrage rapide. Cependant, son approche uniquement radiométrique n’est pas suffisante car environ 10% des pixels restent mal classés. Concernant les canaux spectraux à utiliser, les canaux RVB donnent le meilleur résultat. La configuration CIRF est aussi intéressante, mais le dévers des arbres dans le sens longitudinal de la ligne de vol est un élément pénalisant par rapport au RVB avec la configuration SH40. De plus, il y a un problème de confusion plus important entre l’herbe et les feuillus avec les images CIRF. L’utilisation du NDVI n’apporte rien pour la détection des forêts. En fait, plus généralement, on peut dire que le canal PIR n’est pas idéal pour séparer les forêts du reste de la végétation. Il est par contre très efficace pour séparer l’ensemble de la végétation du milieu bâti et est un peu moins sensibles aux effets d’ombre. Enfin, la classification non supervisée ne donne des résultats satisfaisants que sur des images volées au moment où la végétation est abondante et mature (juillet-août). 4.3 Classification par base de connaissance ERDAS IMAGINE propose un outil de classification « expert ». Cet outil permet d’effectuer une classification en utilisant une base de connaissance qui doit être créée par l’utilisateur. Elle contient des hypothèses (cet objet est de la forêt…), des règles (si la variable X est comprise entre W et Y…) et des variables (PIR, R, V…). Figure 52 : Classification par base de connaissances Cette base de connaissance est le fruit de nombreux tests et on peut y incorporer plusieurs types de données (images, MNT…). Cette méthode est relativement longue à mettre en œuvre. Elle peut toutefois se révéler intéressante dans le cas ou de nombreux objets de type différent doivent être classés. Elle ne reste cependant valable que pour une image en particulier et il faudra adapter les paramètres en fonction des images. Cette piste a donc été écartée pour cette étude. Photogrammétrie et traitement d’image 41 Julien Fabing Travail de diplôme 2007 HEIG-VD 4.4 Conclusion partielle Une approche uniquement radiométrique n’est pas suffisante pour séparer de manière satisfaisante le domaine boisé du reste de la couverture du sol, que ce soit en mode supervisé ou non supervisé. Concernant la productivité des méthodes, la classification non supervisée reste à privilégier par rapport à la classification supervisée. Même si cette dernière donnera certainement de meilleurs résultats en affinant les zones d’entrainement, elle est beaucoup plus longue à mettre en œuvre. En effet, des signatures spectrales doivent être définies pour chaque image et il faut en outre parfois désigner plusieurs signatures pour un même élément (forêt, forêt à l’ombre etc…). La classification non supervisée, elle, est plus systématique, plus rapidement effective et ne nécessite qu’une intervention limitée d’un opérateur qui doit simplement identifier les classes à postériori. Le paramétrage peut être réutilisé pour d’autres images puisqu’il ne dépend d’aucune signature spectrale en particulier et est donc plus productif. Dans un cas ou dans l’autre, il est impératif que les images soient volées en été au moment où la végétation est la plus abondante pour faciliter la classification (juilletaoût). Pour l’anecdote, un travail de diplôme antérieur datant de 2006 et traitant de la restitution supervisée de sentiers pédestres et des routes de montagne à partir d’images ADS40 [5] mandaté également par Swisstopo préconisait de privilégier les images volées au printemps (mars-avril) plutôt qu’en été afin justement de s’affranchir des problèmes de feuillage et de mieux voir les routes et les sentiers. Sous l’hypothèse de disposer d’images volées en été, le type d’image qui donne le meilleur résultat pour la détection est l’image RVB. On arrive à bien classer 90 % des pixels en « forêt » et « non forêt » par classification non supervisée et regroupement. Cependant, de nombreux problèmes se posent. L’un des plus importants étant celui des ombres. En effet, on peut avec un nombre de classes suffisant séparer de manière grossière les ombres du reste du paysage lors de la classification. Les ombres font alors partie d’une classe à part entière mais cette classe contient toutes les ombres portées et donc aussi les ombres des arbres sur d’autres arbres. On pourrait décider de classer cette classe en non forêt, mais en faisant cela les grandes zones de forêt se retrouvent avec des lacunes très importantes qui ne pourront pas être comblées de manière automatique. Il faudrait donc dans l’idéal trouver un moyen d’atténuer l’effet de ces ombres à priori. Ou alors trouver un moyen de les identifier facilement lors de la reprise manuelle des données. Les autres problèmes importants sont dus à la surexposition au soleil, à des confusions avec certaines zones herbeuses sombres, à la confusion avec certains types de toitures de bâtiment et à la non détection de certains types de feuillus. Photogrammétrie et traitement d’image 42 Julien Fabing Travail de diplôme 2007 HEIG-VD 5 Propositions d’améliorations Ce chapitre fait état des propositions d’améliorations émises dans le cadre de ce travail. Ces propositions s’appliquent aux images acquises en été. 5.1 Prétraitements 5.1.1 Influence de la qualité du MNT lors de la rectification sur le résultat Pour tester l’influence de la qualité du MNT sur le résultat, on se propose de comparer les images du jeu de données de Sargans issues d’une orthorectification sur MNT25 et d’une orthorectification sur MNS-MO (maille de 2 m) avec un GSD d’1 m. On sait que cela va améliorer la précision, mais on aimerait aussi voir si cela corrige de manière satisfaisante les problèmes des dévers et des ombres. Direction du vol Direction du vol MNS-MO MNT25 Figure 53 : Diminution du dévers longitudinal On observe une nette atténuation des dévers longitudinaux avec l’utilisation du MNS-MO ce qui permet une bien meilleure superposition des images RVB nadir et CIRF « avant » pour la configuration SH40 (figure 53). Direction du vol Direction du vol MNT25 MNS-MO Figure 54 : Légère diminution transversale des ombres portées On peut en outre constater que le phénomène des ombres portées est très légèrement atténué perpendiculairement à l’axe de vol grâce au redressement plus précis des arbres Photogrammétrie et traitement d’image 43 Julien Fabing Travail de diplôme 2007 HEIG-VD et du terrain (correction des dévers transversaux). Toutefois, l’amélioration reste anecdotique en regard de la superficie des zones d’ombres restantes. Les ombres portées ne sont donc pas éliminées de manière satisfaisante par le procédé (figure 54). MNT25 MNS-MO Figure 55 : Amélioration de la précision Comme on peut le voir sur la figure 55, il peut y avoir un décalage important entre les limites de forêts sur les images rectifiées sur le MNT25 par rapport aux images rectifiées sur le MNS-MO (ici jusqu’à 3 pixels, soit 3 mètres). Comme attendu, la précision est donc meilleure avec le MNS-MO. Les problèmes des dévers sont en outre bien corrigés. Cependant, cela ne règle pas de manière satisfaisante le problème des ombres ni celui de la surexposition. 5.1.2 Apport des données SH52 pour la classification Pour illustrer ce paragraphe, les données du vol « Romanshorn » sont utilisées. Direction du vol R, V, B PIR, R, V Figure 56 : Canaux PIR, R, V, B parfaitement superposés au nadir (GSD : 25 cm) Comme on peut le voir sur la figure 56, les pixels des 4 canaux sont parfaitement superposés au nadir et il n’y a donc plus de problème de dévers longitudinaux (dans la direction de l’axe de vol). La qualité du MNT pour l’orthorectification est donc beaucoup moins primordiale qu’avec la configuration SH40 sous la condition de travailler dans la partie centrale de l’image (car les dévers transversaux sont bien sûr toujours présents). Photogrammétrie et traitement d’image 44 Julien Fabing Travail de diplôme 2007 HEIG-VD L’idée était ici de tester une classification avec une image multispectrale à 4 canaux (R, V, B, PIR) pour voir si le résultat obtenu était meilleur que les classifications avec les images 3 canaux RVB et CIRF utilisées jusqu’à présent. Or le vol de Romanshorn a été effectué en avril et, comme on l’a vu dans le paragraphe 4.2.8, les classifications effectuées sur des images volées à cette période posent problème. On ne pourra donc pas tirer de conclusions de ce test sur l’utilisation combinée simultanée des 4 canaux. Cela reste cependant une piste à investiguer dans le futur. 5.1.3 Travail sur des images 8 bits ou 16 bits Jusqu’à présent des images 16 bits ont été utilisées. Comme on cherche uniquement à classer les pixels selon deux grands groupes (forêt et non forêt), il se peut que travailler sur des images 8 bits soit tout à fait suffisant. On gagnerait ainsi un peu en confort d’utilisation puisque les images 8 bits sont deux fois moins volumineuses que les images 16 bits. Pour vérifier cela un petit test a été effectué. Une image 8 bits de la zone de test habituelle de Sargans a été extraite, puis rendue spatialement équivalente à l’image 16 bits utilisée lors des tests précédents avec une fonction légèrement différente de celle vue en 3.2.2 (voir annexe 7). Puis, des classifications non supervisées à 3, 5 et 10 classes ont été réalisées sur l’image 8 bits. Ensuite, pour vérifier si les classifications ont été réalisées de la même manière entre les images 8 bits et 16 bits, l’outil « Change detection » d’IMAGINE a été utilisé. Cet outil permet de mettre en évidence les pixels qui ne sont pas identiques entre deux images. On peut ensuite facilement compter le nombre de pixels qui ont été classés différemment entre les deux images classifiées. Enfin, pour chaque classification, les classes ont ensuite été regroupées en 2 classes « forêt » (valeur 1) et « non forêt » (valeur 0) identiquement. Les images résultantes ont été évaluées avec le comparateur habituel pour voir si le résultat final est équivalent ou non. Avant classes, regroupement on observe des le 4.0% pourcentage de pixels classés 3.5% différemment 3.0% entre que Pourcentage de pixels classés différemment entre les classifications des images 8 bits et 16 bits les classifications des images 8 bits 2.5% 2.0% et celles des images 16 bits 1.5% augmente selon le nombre de 1.0% classes (figure 57, annexe 19). 0.5% 0.0% 3 classes 5 classes 10 classes Figure 57 : Différence entre les classifications 8 bits et 16 bits En revanche, après avoir effectué le regroupement des classes en classes « forêt » et « non forêt », on constate qu’on obtient un résultat de qualité équivalente (figures 58 et 59, annexes 16 et 19) avec les images 8 bits et 16 bits. Photogrammétrie et traitement d’image 45 Julien Fabing Travail de diplôme 2007 HEIG-VD Il Pourcentage de pixels classés différemment semble donc possible d’utiliser les images 8 bits après regroupement 4.0% 3.5% avec cette méthode dans le 3.0% cas particulier de la détection 2.5% des 2.0% forêts et obtenir des résultats équivalents à ceux 1.5% 1.0% obtenus avec les images 16 0.5% bits. 0.0% 3 classes 5 classes 10 classes Figure 58 : Différence entre les classifications après regroupement Pourcentage de pixels bien classés 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Kappa 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 8 bits 16 bits 3 classes RGB 5 classes RGB 10 classes RGB 8 bits 16 bits 3 classes RGB 5 classes RGB 10 classes RGB Figure 59 : Pourcentage de pixels bien classés après regroupement Remarque : En travaillant avec des images 8 bits, on s’affranchit du problème des pixels qui ne sont pas à 1 dans les bandes noires (annexe 1.5). 5.1.4 Détection et correction/atténuation des ombres à priori Divers essais ont été réalisés pour tenter d’atténuer de manière simple l’effet des ombres avant la classification. Théoriquement l’information sur la radiométrie des pixels est présente sous le voile d’ombre, il faudrait donc trouver un moyen de la révéler. Après avoir effectué une classification (10 classes) puis un regroupement pour séparer les ombres du reste du paysage, il a été tenté de faire varier le contraste et la luminosité uniquement sur les zones d’ombre. Le problème est qu’en procédant ainsi, on fait varier linéairement et simultanément les valeurs des pixels dans les 3 canaux. Or les ombres ne sont pas toujours projetées sur le même type de sol (herbe, route, arbres etc…). Ces objets ont des propriétés radiométriques différentes. De plus, l’intensité lumineuse de chaque ombre n’est pas non plus constante sur toute l’image. On ne peut donc pas utiliser un modèle global pour corriger toutes les ombres sur toute l’image. Le problème qui se pose est qu’on ne sait pas de quelle valeur augmenter chaque pixel dans chaque canal. On peut bien sûr procéder par tâtonnements en modifiant les courbes des trois histogrammes une à une pour avoir un résultat local plus ou moins satisfaisant mais ce Photogrammétrie et traitement d’image 46 Julien Fabing Travail de diplôme 2007 HEIG-VD n’est pas très productif et d’autre part si le résultat permet de révéler la géométrie des objets cachée sous les ombres, la radiométrie n’est de toute façon pas très bien corrigée. Des tests ont aussi été réalisés en utilisant l’espace IHS (Intensity, hue, saturation) en faisant par exemple varier l’intensité des pixels, mais on se retrouve confronté au même problème qui est qu’on ne sait pas de quelle valeur modifier cette intensité pour chaque pixel. On voit qu’il n’y a pas de manière simple de corriger les ombres. On peut toutefois citer deux études ; l‘une menée par l’IGN en France[41][42] et l’autre par un groupe japonais sur des images ADS40 [43] qui montrent avec deux approches différentes qu’il est possible de corriger avec un certain succès les ombres (figure 61 et 62). Figure 60 : Modification de la radiométrie dans les zones d'ombres Cependant, ces méthodes sont relativement complexes à mettre en œuvre et nécessitent beaucoup de traitement ainsi que des données et logiciels supplémentaires. De plus, rien ne garantit que ces traitements ne seront finalement pas sources de confusions supplémentaires lors de la classification. En effet, la radiométrie corrigée est loin de correspondre parfaitement aux zones environnantes. Il y a aussi le problème des « coutures » qui restent visibles. Le plus opportun pour le moment reste donc de conserver les ombres lors de la classification et de tenter les éliminer semi-automatiquement en post classification ou lors de la reprise manuelle des données. Figure 61 : Correction des ombres d'après [41] Remarque : La détection et la correction des ombres est un sujet assez complexe et mériterait peutêtre un travail spécifique. Figure 62 : Correction des ombres d'après [43] Photogrammétrie et traitement d’image 47 Julien Fabing Travail de diplôme 2007 HEIG-VD 5.2 Traitements complémentaires 5.2.1 Classification par texture Pour la détection des forêts, il n’est pas possible d’utiliser des critères de forme ou de géométrie comme pour la détection des bâtiments, il n’est pas possible non plus d’utiliser des outils de détection de contours comme pour les routes. Le seul élément propre à l’image autre que la radiométrie sur lequel on peut imaginer s’appuyer est la texture. En effet, on a vu par exemple qu’il y avait parfois une confusion radiométrique entre les forêts et certains champs. L’approche texturale peut être une réponse à ce genre problème. Ci-dessous, on peut voir un test réalisé avec une fonction d’analyse de texture par distance moyenne euclidienne utilisée dans l’imagerie radar. On voit que les forêts et le tissu bâti sortent particulièrement bien. Il y a certainement une piste à explorer de ce point de vue. Il faut cependant noter que la texture est directement dépendante de la résolution des images. Une méthode qui s’appuierait sur cet élément devrait donc être établie de manière différente selon la résolution des images. Cette approche n’étant pas prioritaire pour ce travail, elle a été mise de côté. Figure 63 : Analyse de texture 5.3 Post-traitements 5.3.1 Elimination du bruit avec des opérateurs morphologiques Ici, il s’agit de tester le filtrage du résultat de la classification grâce morphologiques en vue aux opérateurs d’éliminer le bruit (pixels mal classés). Pratiquement ici, on utilise une ouverture (érosion puis dilatation) suivi d’une fermeture (dilatation puis érosion). Ceci permet de filtrer les pixels isolés et de combler les « trous » ainsi que d’adoucir les contours des grandes zones de forêt. La figure ci-dessous Figure 64 : Ouverture dans IMAGINE illustre le résultat de l’opération effectuée sur l’image « 5 classes » de résolution 1 m. Photogrammétrie et traitement d’image 48 Julien Fabing Travail de diplôme 2007 HEIG-VD Le processus élimine bien les pixels isolés, il ne reste plus maintenant que des amas de Classification et regroupement pixels. Le travail de reprise des données sera donc facilité Ouverture puisque les zones fausses sont plus grandes, visibles et donc par plus conséquent mieux identifiables. Ces zones Fermeture sont aussi moins nombreuses et donc le processus de reprise sera plus rapide. Figure 65 : Processus de filtrage des pixels (1 m) L’image résultat est ensuite comparée à l’image de référence par le processus classique. Le pourcentage de pixels bien classés et le kappa augmentent suite à cette opération (voir tableau 5 et annexe 16). 5 classes Pourcentage de pixels bien classés 88 % Kappa 0.76 5 classes + ouverture + fermeture 89.9 % 0.79 Tableau 5 : Apport des opérateurs morphologiques Remarque : Ici on a utilisé une matrice noyau de 3x3 pixels. On peut utiliser une matrice plus grande pour filtrer des amas de pixels plus importants. Il faut cependant être prudent dans l’utilisation des opérateurs morphologiques. Classification et regroupement En effet, si on les applique sur une image résolution de même faible avec le Ouverture noyau le plus petit, il peut y avoir une perte d’information très importante montre la comme figure le ci-contre Fermeture représentant le même test effectué cette fois avec l’image de résolution 5 m. Figure 66 : Processus de filtrage des pixels (5 m) Photogrammétrie et traitement d’image 49 Julien Fabing Travail de diplôme 2007 HEIG-VD 5.3.2 Elimination des bâtiments avec l’aide du NDVI On a vu qu’il y avait un problème de confusion entre les zones de forêt et les toitures lors de la classification. L’idée serait de pouvoir éliminer les bâtiments et donc les toitures de l’image résultat. L’indice NDVI va se révéler fort utile dans cette optique. En effet, le NDVI permet de séparer facilement la végétation du domaine bâti et des cours d’eau. Avec un seuillage adéquat, on peut aisément séparer ces éléments et obtenir une image masque avec la végétation à 1 et les bâtiments, la route et les cours d’eau à 0 (annexe 8). La valeur de seuil est à identifier manuellement. Ensuite il suffit de multiplier l’image résultat par l’image issue de la classification pour obtenir une image finale débarrassée des pixels bâtiments classés comme forêt (annexe 9). La figure 67 illustre cette opération. Classification et regroupement Elimination des bâtiments dans l’image classifiée Seuillage de l’image NDVI Figure 67 : Elimination des bâtiments Le gain est marginal au niveau du nombre de pixels bien classés sur toute l’image : 0.3 % (voir annexe 16) mais en zone urbaine on peu imaginer que cela permettra une élimination plus facile des ombres autour des bâtiments lors du filtrage. Limitations de la méthode : Les toitures comprenant de la végétation Remarques : En lieu et place du seuillage, on peut imaginer utiliser une classification non supervisée sur l’image NDVI et un regroupement visuel des classes « en bâtiments », et « non bâtiments ». Idéalement, il faudrait pouvoir travailler avec des images SH52. Perspectives : En zone urbaine, on peut imaginer, à la suite du seuillage, récupérer les arbres à partir du MNH puisqu’ils seraient les derniers éléments restant possédant une certaine hauteur (à définir selon le type d’arbre recherché). Photogrammétrie et traitement d’image 50 Julien Fabing Travail de diplôme 2007 HEIG-VD 5.3.3 Elimination de certains champs et des ombres, apport du MNH Il faudrait pouvoir éliminer les deux problèmes que sont les champs et les ombres. Pour cela une idée serait d’utiliser de manière complémentaire un modèle numérique de hauteur. En effet, si les pixels de l’image résultante de la classification est à 1 et le MNH est supérieur à une valeur seuil alors on pourra éliminer les ombres et les champs dont les cultures ont une hauteur inférieure à ce seuil. Dans un premier temps, il faut transformer les fichiers MNS-MO et MNT-MO format grille de résolution 2 m fournis par Swisstopo en fichiers image IMAGINE img. Cette opération est réalisée simplement avec l’outil « create surface » d’IMAGINE. Ensuite, on crée un MNH à partir du MNS et du MNT à l’aide d’une petite fonction créée dans le Modeler (annexe 10) qui effectue la soustraction entre les deux (figure 68). MNS MNT MNH Figure 68 : Création du MNH D’autre part, on effectue de la manière habituelle une classification et un regroupement « en forêt » et « non forêt » des classes à partir d’une image que l’on a orthorectifiée sur le MNS-MO avec un GSD d’1 m (cf. 5.1.1). Ensuite, on applique l’algorithme suivant implémenté dans le « modeler » (annexe 11) : SI un pixel est à 1 dans l’image classifiée et que le pixel correspondant est supérieur à 0,3 (m) dans l’image MNH ALORS le pixel créé dans l’image résultat prend la valeur 1 SINON il prend la valeur 0. On constate qu’on arrive bien à éliminer les ombres et les champs ainsi qu’une partie du bruit. Les toits des bâtiments sont toujours présent mais on a vu qu’il était possible de les éliminer en amont (5.3.2). Par contre, certains arbres qui ne sont pas présents sur le MNH sont évidemment absents dans l’image finale. Ceci pose la question de la date de validité et de la résolution du MNH. Figure 69 : Utilisation complémentaire du MNH Photogrammétrie et traitement d’image 51 Julien Fabing Travail de diplôme 2007 HEIG-VD Dans l’idéal, il faudrait utiliser un MNH et donc un MNS avec une meilleure résolution et si possible acquis dans la même période que les images (dans l’idéal un vol couplé LiDAR-ADS40). Mais il se pose alors le problème de la taille des fichiers. En effet, dans l’outil « Create Surface » par exemple le nombre d’objet (points ou lignes) est limité à 6000000. Remarque : Le choix du seuil de 0,3 mètres pour le MNH est arbitraire. Ce paramètre est à faire varier selon la hauteur des arbres que l’on souhaite identifier. 5.4 Propositions supplémentaires 5.4.1 Elimination des ombres par classifications successives Si on ne dispose pas du MNH, on aimerait tout de même pouvoir éliminer les ombres. L’idée présentée ici est de différencier le traitement des zones d’ombre et des forêts. C'est-à-dire que lors du regroupement des classes après la classification, au lieu de les regrouper en deux classes « forêt » et « non forêt », on enregistre deux images, l’une contenant les classes « ombres » et « non forêt » et l’autre les classes « forêt moins ombres» et « non forêt ». Ensuite, en utilisant l’image « ombres » comme masque sur l’image de base, on obtient une image avec uniquement les zones d’ombres (annexe 12). On espère par la suite pouvoir séparer les ombres sur les arbres des ombres sur le reste du paysage en effectuant une classification sur ces zones d’ombres uniquement. Par suite, il suffit d’additionner l’image résultante « ombres sur arbre » avec l’image « forêts moins ombres ». Pour réaliser ces opérations, il faut un nombre de classes suffisant lors de chaque classification pour séparer au mieux les éléments. Ici ce sont des classifications de 10 classes qui ont été utilisées. + Image de base ombres Forêts moins ombres Zones d’ombre = Ombres sur arbres Forêts moins ombres 2 Ombres 2 etc… Figure 70 : Elimination des ombres par classification successives, une itération Cette technique se révèle finalement inefficace avec une seule itération. En effet, on n’arrive pas à séparer de manière satisfaisante et sur toute l’image les deux éléments recherchés (ombres sur arbre et ombres sur autres objets) avec un nombre de classes raisonnable. Le résultat final comporte de trop de grosses lacunes au niveau des grandes Photogrammétrie et traitement d’image 52 Julien Fabing Travail de diplôme 2007 HEIG-VD zones de forêt qu’il n’est pas possible de combler automatiquement à postériori. Il faudrait éventuellement réitérer l’opération plusieurs fois mais la technique deviendrait alors trop longue à mettre en œuvre. A défaut de disposer du MNH, il faudra donc conserver les ombres lors de la classification et les éliminer manuellement lors de la reprise des données. 5.4.2 Classification « multi-échelle » Dans l’optique de détecter des fautes (pixels mal classés) à postériori, une idée a été développée dans le cadre de ce travail. Cette idée consiste à effectuer une classification à une résolution moins bonne (avec un résultat qui sera donc plus généralisé) et de la comparer avec la classification réalisée sur une image de meilleure résolution. L’intuition étant que l’on pourrait peut-être identifier les zones à problème plus rapidement en vue de la reprise manuelle des données. Figure 71 : Superposition de classifications 1 m et 5 m En fait, en utilisant cette méthode, on ne détecte pas les grosses fautes. En effet, quelle que soit la résolution, il y a toujours les confusions entre la radiométrie des pixels « forêts » et la radiométrie « champs de maïs » par exemple. L’intérêt pour la reprise des données reste donc limité. Toutefois on observe que les très petites fautes sont par contre bien mises en évidence (figure 71). Aussi, au vu de ce résultat, une autre idée est apparue. Pourquoi ne pas réaliser une classification qui s’appuierait sur d’autres classifications d’images d’échelles différentes ? En effet, en sommant les images classifiées de plusieurs échelles, on obtiendrait une image avec un nombre de classes plus important. Comme les classifications à basse résolution sont plus généralisées, on peut espérer obtenir des zones plus homogènes après l’opération. Les zones « forêts » et « non forêts » seront renforcées et on espère ainsi éliminer une partie du bruit et pouvoir séparer plus facilement les objets. En quelque sorte, on combine la précision des images haute résolution et l’homogénéité des images basse résolution. Photogrammétrie et traitement d’image 53 Julien Fabing Travail de diplôme 2007 HEIG-VD Un test a été réalisé pour évaluer cette possibilité. Pour cela, une pyramide d’images a été créée par dégradation successive de l’image de résolution 1 m (résolution 1 m, 2 m, 4 m, 8 m et 16 m). Puis une classification à 3 classes a été réalisée pour chacune des 5 images. Ensuite les 5 images classifiées ont été simplement sommées sans pondération (annexe 13). Enfin, les 16 classes (1+2+3+4+5=15 + les pixels à 0) résultantes de l’image « multi-échelle » ont été regroupées en deux classes forêt (pixels à 1) et non forêt (pixels à 0). La figure ci-dessous montre un aperçu de l’opération qui a été effectuée sur toute l’image. 1 2 3 4 5 1+2+3+4+5 Figure 72 : Classification "multi-échelle" Le résultat obtenu est intéressant puisque 90.7 % des pixels sont finalement bien classés avec un Kappa de 0.81 contre respectivement 88.3 % et 0.76 avec la classification 3 classes réalisés sur l’image 1 m seule (voir annexe 16). Il faut toutefois noter que la forme des objets se retrouve parfois grandement simplifiée. Cela est dû à l’influence sûrement trop importante des images à basse résolution. Cependant, il est certainement possible d’améliorer la méthode en faisant varier le nombre de classes et/ou la résolution des images de la pyramide et/ou le nombre d’images de la pyramide et surtout en introduisant une pondération adéquate entre chaque image classifiée au moment de la somme. Cela fait beaucoup de paramètres à tester. Comme la méthode de filtrage par opérateurs morphologiques donne déjà des résultats satisfaisants et que cette nouvelle méthode ne règlera de toute façon pas les gros problèmes que sont les ombres et la surexposition, elle n’a pas été développée plus avant. Photogrammétrie et traitement d’image 54 Julien Fabing Travail de diplôme 2007 HEIG-VD 5.5 Résultat Le tableau ci-dessous présente un résumé des propositions testées pour l’amélioration du Prétraitements résultat de la classification ainsi que plusieurs constats effectués au cours de ces tests. Méthode/choix Avantages Utilisation d’images 8 bits au lieu d’images 16 bits - taille des fichiers divisée par deux - pas de problème de pixels à 1 dans les bandes noires Résolution d’image haute (par ex 1 m) - arbres isolés détectés - Beaucoup de bruit Résolution d’image basse (par ex 5 m) - grandes zones homogènes - Il manque des arbres Image RVB - bonne séparation de la forêt et du reste du paysage - séparation moins évidente des différents types d’arbres Image CIRF - bonne séparation des différents types d’arbres - séparation légèrement moins bonne de la forêt et du reste du paysage qu’avec l’image RVB Image NDVI - Bonne séparation de la végétation et des sols nus - mauvaise séparation de la forêt et du reste de la végétation Image RVB+PIR Utilisation du MNSMO au lieu du MNT25 pour l’orthorectification Données SH52 A tester dans le futur avec données SH52 en été - meilleure précision - correction des dévers longitudinaux (pour SH40) - correction des dévers transversaux - légère diminution des zones d’ombre - pas de dévers longitudinaux, tous les canaux sont parfaitement superposés au nadir Post-traitements Atténuation des ombres à priori Autres traitements Inconvénients - Gestion plus lourde des fichiers Méthode peu pertinente dans le contexte Niveau d’automatisation Utilisation complémentaire d’une image NDVI seuillée comme masque - Elimination des bâtiments - les bâtiments qui ont de la végétation sur les toits ne sont pas éliminés - nécessite une intervention manuelle pour le seuillage ++ Utilisation complémentaire du MNH - élimination des ombres - élimination de certains champs (dépend de la hauteur des cultures) - possibilité de sélectionner les arbres selon leur hauteur - nécessite de créer le MNH à partir du MNS-MO et du MNT-MO - nécessite le MNH sur toute une bande ADS40 ! - nécessite l’élimination préalable des bâtiments + Opérateurs morphologiques - élimination des pixels isolés - lissage des contours +++++ Elimination des ombres par classification successives Classification multiéchelle - très légère amélioration de la séparation des ombres sur les forêts et des ombres sur le reste du paysage - identification facilitée des zones lors du regroupement - élimination du bruit - meilleure homogénéité des zones -assez rapide à mettre en œuvre - élimination d’arbres isolés à basse résolution - simplification de la géométrie à basse résolution - traitement lourd - trop de trous résiduels importants dans les zones de forêts - géométrie simplifiée - méthode encore à développer +++ Classification par texture A tester dans le futur - Dépend de la résolution des images ? - Tableau 6 : Synthèse des propositions d'amélioration Photogrammétrie et traitement d’image 55 Julien Fabing Travail de diplôme 2007 HEIG-VD 5.6 Conclusion partielle On peut d’après ces résultats préconiser un type d’image « idéal » à utiliser qui serait une image multi-spectrale 4 canaux RVB+PIR (8 bits) acquise en configuration SH52 au nadir et orthorectifiée sur le MNS-MO. En combinant les méthodes les plus efficaces, parmi celles testées pour éliminer les zones à problème, on peut en outre dégager trois méthodes pour aboutir à un résultat amélioré : Méthode 1 : - Classification non supervisée puis regroupement sur image RVB (voire RVB + PIR) - Filtrage du bruit à l’aide des opérateurs morphologiques Méthode 2 : - Classification non supervisée puis regroupement sur image RVB (voire RVB + PIR) - Filtrage des bâtiments à l’aide du NDVI - Filtrage du bruit à l’aide des opérateurs morphologiques Méthode 3 : - Classification non supervisée puis regroupement sur image RVB (voire RVB + PIR) - Filtrage des bâtiments à l’aide du NDVI - Filtrage des ombres et de certains champs avec l’utilisation complémentaire du MNH - Filtrage du bruit à l’aide des opérateurs morphologiques Photogrammétrie et traitement d’image 56 Julien Fabing Travail de diplôme 2007 HEIG-VD 6 Evaluation des méthodes Dans ce chapitre on se propose d’évaluer les différents procédés retenus et en particulier le temps consacré à chaque processus ainsi que le temps qui sera nécessaire à la reprise manuelle des données. 6.1 Données On ne dispose pas d’un jeu de données optimal comme défini au chapitre 5.6. On essaie cependant de s’en rapprocher au mieux. La zone utilisée pour ce dernier test est la zone d’1 km2 de Sargans dont on possède le MNS-MO. Cette zone est intéressante car c’est une partie de la bande ADS40 utilisée qui n’est pas très favorable pour la détection semiautomatique des forêts car elle présente un peu tous les types de zones problématiques vues dans le chapitre 4.2.5. On pourra donc évaluer le temps de reprise manuelle des données dans un cas très défavorable ce qui apportera des informations intéressantes sur la possible compétitivité des méthodes par rapport à une saisie entièrement manuelle. On utilise comme base une image RVB et une image CIRF orthorectifiée sur le MNS-MO. Les images avaient déjà été créées en 16 bits pour un test précédent, elles ont donc été réutilisées mais des images 8 bits auraient été suffisantes. 6.2 Procédure On applique les trois méthodes décrites dans le paragraphe 5.6 aux images. Puis on observe l’amélioration apportée par ces méthodes à chaque étape par le pourcentage d’objets bien classés, le kappa et le nombre d’amas de pixels à corriger (annexe 20). Pour déterminer le nombre d’amas de pixels à corriger, on procède de la manière suivante : A partir des images synthétiques d’évaluation de la classification, on utilise la fonction « Clump » d’IMAGINE sur le canal « erreur de première espèce » et sur le canal « erreur de seconde espèce ». Ceci nous permet de créer deux nouvelles images dans lesquelles les pixels ont été regroupés par voisinage (le programme regarde si un pixel a un voisin dans les 8 connexités et si oui regroupe les deux pixels) puis numérotés. On peut donc facilement compter le nombre d’amas dans les deux images. Pour connaître le nombre total d’amas à corriger, il suffit d’additionner les deux nombres. Photogrammétrie et traitement d’image 57 Julien Fabing Travail de diplôme 2007 HEIG-VD 6.3 Résultat eu es Un Classification (10 classes) et regroupement Intervention manuelle : < 5 min i le g ma n ee SH 52 Calcul du NDVI Intervention manuelle : < 1 min Création de l’image MNS Intervention manuelle : < 5min Seuillage NDVI Création de l’image MNT du Intervention manuelle : < 5 min Intervention manuelle : < 5 min Ouverture + Fermeture Intervention manuelle : < 5 min Elimination des bâtiments Intervention manuelle : < 1 min Création du MNH Intervention manuelle : < 1 min % pixels bien classés : 86.9 % % pixels bien classés : 84.9 % Kappa : Kappa : 0.71 0.67 Nombre amas à corriger : 2166 Nombre amas à corriger : 11711 % pixels bien classés : 82.8 % Kappa : 0.63 Nombre amas à corriger : 10650 Ouverture + Fermeture Intervention manuelle : < 5 min Combinaison avec le MNH Intervention manuelle : < 1 min % pixels bien classés : 88.8 % % pixels bien classés : 90.8 % Kappa : Kappa : 0.74 0.77 Nombre amas à corriger : 2191 Nombre amas à corriger : 8530 Ouverture + Fermeture Intervention manuelle : < 5 min Méthode 1 Méthode 2 % pixels bien classés : 92.5 % Méthode 3 Kappa : 0.81 Nombre amas à corriger : 1969 Figure 73 : Evaluation des trois méthodes dans un cas défavorable Photogrammétrie et traitement d’image 58 Julien Fabing Travail de diplôme 2007 HEIG-VD La combinaison des différentes techniques permet chaque fois une amélioration du pourcentage de pixels bien classés et du Kappa ainsi qu’une diminution du nombre d’amas de pixels à corriger. Il y a donc une réelle amélioration apportée par la combinaison des traitements proposés. Figure 74 : Données à reprendre manuellement selon la méthode Cependant, quelle que soit la méthode, il reste beaucoup de fautes. Ces fautes sont dispersées sur toute l’image. Elles semblent encore plus nombreuses et dispersées dans la partie urbaine. Ceci est en partie dû à la configuration SH40 car il reste du dévers entre les bâtiments « RVB » et « CIRF ». La méthode avec le MNH donne un résultat assez squelettique, il y a plus d’objets manquants, mais les gros objets en surplus sont bien éliminés. 6.4 Reprise des données Pour quantifier le temps de reprise des données, une idée était de se baser sur le nombre d’amas de pixels à corriger. En effet, on pourrait se dire par exemple que si le nombre d’amas à corriger est nettement inférieur au nombre d’objets présent sur l’image, le temps de reprise des données sera alors inférieur au temps de la saisie manuelle de tous les objets. Dans ce cas, l’extraction semi-automatique se révèlera avantageuse. A contrario, si le nombre d’amas à corriger est supérieur ou de l’ordre de grandeur du nombre d’objets à saisir alors la méthode semi-automatique n’est pas intéressante. Cependant, on ne peut pas procéder ainsi. En effet, il y aura toujours au moins une « faute » sur chaque objet puisque l’extraction semi-automatique ne correspondra jamais à 100% à la saisie manuelle. Donc, le nombre d’amas à corriger réel sera moins important que celui calculé jusqu’ici. Il n’est pas possible quantifier précisément ce nombre puisque la différence de saisie peut engendrer plus d’un amas « faux » pour un même objet (figure 75). D’autre part, au moment de la reprise manuelle des données, plusieurs amas « faux » seront certainement corrigés en une seule fois car les objets contenant trop de fautes seront ressaisis entièrement. Il n’est donc pas possible de Photogrammétrie et traitement d’image 59 Julien Fabing Travail de diplôme 2007 HEIG-VD donner une indication sur le temps de reprise des données en procédant de cette manière. Le nombre d’amas à corriger reste toutefois un indicateur intéressant de la qualité du résultat. Figure 75 : Image, saisie manuelle, extraction semi-automatique, erreurs Pour quantifier le temps de reprise des données, à moins d’élaborer un modèle statistique complexe se basant sur les pixels ou les amas de pixels à corriger, il faut donc se résoudre à un test réel. Le test a donc été réalisé en saisissant manuellement tous les arbres et arbustes sur l’image RVB. Cette saisie a pris environ 2 heures (pour 380 objets). Il a ensuite été tenté de reprendre manuellement les données issues de la deuxième méthode. Au bout de deux heures, le travail de reprise n’étant toujours pas terminé, il a été interrompu. La méthode semi-automatique utilisée ne semble donc pas suffisamment compétitive en l’état pour rivaliser avec une saisie entièrement manuelle. Le même test n’a pas pu être réalisé avec les autres méthodes faute de temps, cependant, vu le nombre d’amas à corriger quasi-identique avec les trois méthodes et même si on a vu que ce nombre n’était pas exact, on peut penser que le résultat sera similaire au niveau du temps de reprise des données. Le temps de reprise devrait toutefois être un peu moins long avec des données SH52 car il y aura moins de fautes en zone urbaine mais la différence ne devrait pas être significative. 6.5 Conclusion partielle Les méthodes proposées améliorent de façon nette le résultat, cependant ces améliorations sont loin de régler tous les problèmes. Il reste des fautes. Ces fautes sont très dispersées sur l’image et en particulier dans la partie urbaine. En outre, Le temps de reprise des données est beaucoup trop long pour que les différentes méthodes restent intéressantes et productives par rapport à la saisie entièrement manuelle. Il faudrait peut-être essayer approfondir d’autres méthodes, en particulier, l’approche basée sur la texture qui avait été mise de côté est peut-être opportune sur des images à haute résolution pour bien discriminer les éléments. Photogrammétrie et traitement d’image 60 Julien Fabing Travail de diplôme 2007 HEIG-VD Conclusion et perspectives Ce travail a permis de montrer qu’avec des outils simples de classification non supervisés présents dans n’importe quel logiciel de traitement d’image à référence spatiale du marché, on arrive à séparer les forêts du reste du paysage avec un total d’environ 90% de pixels bien classés. Les 10% de pixels restants mal classés ont plusieurs origines : confusion avec la radiométrie des ombres, surexposition au soleil, confusion avec certaines zones herbeuses, confusion avec certains types de toitures de bâtiment, non détection de certains types de feuillus. Cependant, ce résultat n’est valable à priori que pour des images volées en plein été (juillet-août) quand le feuillage des arbres est à maturité. C’est à cette période que les images donnent le meilleur résultat pour la classification car la confusion entre le feuillage et l’herbe y est moindre. C’est un point très pénalisant car cela restreint fortement la fenêtre des vols qui sont généralement réalisés de juin à septembre pour la réalisation du produit Swissimage et au printemps pour effectuer de la stéréo-restitution. Cela illustre bien toute la problématique du choix des dates de vol pour la mise à jour de bases de données. Selon le type de données à saisir la problématique est différente. Elle est particulièrement complexe pour la forêt et les arbres dont la couleur du feuillage évolue au fil des saisons. Sous l’hypothèse d’utiliser des images volées en plein été, des propositions d’amélioration ont été émises et testées pour pouvoir éliminer certains des problèmes de confusion. Ainsi, on arrive par exemple avec succès à éliminer les bâtiments de l’image en utilisant l’indice NDVI ou à filtrer les pixels isolés en utilisant des opérateurs morphologiques. Malgré les traitements utilisés pour améliorer les classifications, il reste des fautes. Ces fautes sont très longues à reprendre manuellement car elles sont très dispersées et de tailles très différentes sur les images. Elles sont particulièrement nombreuses en zones urbaines. On peut raisonnablement penser que ces fautes seront moins nombreuses avec une configuration de données idéale, à savoir des images multi-spectrales de quatre canaux RVB+PIR (8 bits) acquises en configuration SH52 au nadir et orthorectifiées sur le MNS-MO, du fait principalement de l’atténuation (mais pas disparition) des dévers et de la superposition parfaite des quatre canaux spectraux. Néanmoins, même dans cette configuration, il semble peu probable que la méthode semi-automatique telle que décrite dans ce travail puisse rivaliser avec une saisie entièrement manuelle qui sera par ailleurs bien plus précise. Photogrammétrie et traitement d’image 61 Julien Fabing Travail de diplôme 2007 HEIG-VD Toutefois toutes les méthodes n’ont pas pu être testées dans le détail, en particulier, l’approche texturale qui semble intéressante pour venir en appui des critères radiométriques qui ne sont pas suffisants. D’autre part, les méthodes qui s’appuient sur le MNH sont aussi intéressantes, surtout si on utilise un MNH de très grande qualité et au moins aussi à jour que les images (par l’intermédiaire d’un vol couplé ADS40/LiDAR par exemple). Mais le fait de travailler sur des bandes ADS40 entières fait émettre de grandes réserves quant à la faisabilité de ces méthodes car les MNS et MNH utilisés devront couvrir ces zones très importantes. Les fichiers de ces modèles seront par conséquent très lourds et difficilement manipulables et importables dans les logiciels de traitement d’image comme IMAGINE du fait du trop grand nombre de points. Par ailleurs, on se rend compte que plus la résolution des images est haute, plus le résultat est bruité. Les problèmes constatés étant déjà nombreux avec une résolution d’un mètre, on pourrait se résoudre à travailler avec des images de résolution plus faible, par exemple cinq mètres et obtenir un résultat un peu meilleur au niveau de la reprise des données car offrant des zones plus homogènes. Cela serait peut-être suffisant pour mettre à jour des produits tels que Vector25. Mais cela a peu de sens de travailler avec des images à la base si riches à de si faibles résolutions. Dans ces conditions, il est certainement préférable de travailler avec des images satellites qui présentent comme avantage, à résolution égale, d’être acquises chaque année à la même période sur une même zone. Elles offrent aussi une panoplie de canaux spectraux (et donc de possibilités de séparation) plus importantes. La richesse des images ADS40 qui semblait à priori être un avantage se révèle finalement dans ce contexte un désavantage à cause de la faible homogénéité radiométrique qui en résulte au niveau des zones de forêt. Ceci rajouté au fait que l’on travaille sur de très grandes zones souvent accidentées où la radiométrie peut varier pour un même type d’arbre d’un endroit à l’autre de l’image suivant l’exposition des versants et créer plus ou moins de confusions avec les éléments de végétation alentours. Avec ce travail, on atteint quelque peu les limites de ce qu’on peut obtenir avec des méthodes « simples ». Pour de meilleurs résultats, il faudrait donc passer à des méthodes plus complexes telles que la segmentation, les bases de connaissances et les approches orientées objets avec ce que cela comprend comme frein à la productivité au niveau des paramétrages et de la taille des zones à traiter. Photogrammétrie et traitement d’image 62 Julien Fabing Travail de diplôme 2007 HEIG-VD Perspectives en foresterie ? On peut tout de même entrevoir un avenir intéressant pour les images ADS40 volées par Swisstopo dans le domaine de la foresterie par exemple. En effet, on a vu que ce qui pose principalement problème, c’est le nombre de types d’objets différents dans une image. Ceci crée une confusion radiométrique entre la forêt et le reste du paysage et en particulier les autres végétaux. C’est d’autant plus vrai au printemps. Cependant, en limitant les traitements à l’intérieur des zones de forêt, on peut de manière assez simple séparer les feuillus et les épineux et ce avec une contrainte de période de vol plus souple (de mi-mai à mi-septembre). La présence de feuillage sur les arbres reste néanmoins nécessaire. A ce titre, on peut voir sur les figures 76 et 77 que de simples classifications non supervisées de respectivement trois et cinq classes sur une zone à l’intérieur d’une forêt permettent de séparer facilement feuillus, épineux et zones d’ombre. On remarquera au passage que l’ombre reste un problème récurrent. Figure 76 : Séparation des feuillus et des épineux (Sargans, 28 juillet 2005) Figure 77 : Séparation des feuillus et des épineux (Thun, 26 mai 2005) Par conséquent, on peut par exemple imaginer utiliser un outil tel que RALF (Restitution Automatique des Lisières de Forêt) [68] déjà utilisé dans le projet SAU pour extraire les zones de forêt. Ces données pourraient alors servir de masque sur les images ADS40 pour dégager uniquement la radiométrie des zones de forêt et permettre d’effectuer des classifications sur ces zones seulement. Ainsi, on peut raisonnablement envisager de réaliser simplement une cartographie semi-automatique des forêts. Photogrammétrie et traitement d’image 63 Julien Fabing Travail de diplôme 2007 HEIG-VD Yverdon-les-Bains, le 17 décembre 2007 Julien Fabing Photogrammétrie et traitement d’image 64 Julien Fabing Travail de diplôme 2007 HEIG-VD Bibliographie Papier : [1] Mandat [2] Cours de télédétection de M. François Gervaix [3] Cours de télédétection de Traitements d’images satellitaires avec ERDAS IMAGINE du Dr. Pierre Terrettaz [4] Cours de traitements d’images de M. Edouard Beauvillain (IGN) [5] Restitution supervisée de sentiers pédestres et routes de montagnes à partir d’images ADS40 couleurs et proche infrarouge, Travail de diplôme 2006 de M. Joël Gasser. [6] Rapport Condor Expertise, HEIG-VD. Août 2006 Internet : Pages consultables au 28/09/2007 Télédétection : [7] http://ccrs.nrcan.gc.ca/glossary/index_f.php?id=2179 [8] http://telsat.belspo.be/bEO/fr/guide/ [9] http://www.bibliotheque.refer.org/livre23/l2310.pdf [10] http://www.unoosa.org/pdf/sap/2005/morrocco1/presentations/HAKDAOUIF.pdf [11] http://www.iro.umontreal.ca/~dift2730/cours/Cours2_IFT2730_2006_6.pdf [12] http://www.uwm.edu/~rama/gisday2006_workshop.pdf ADS40 : [13] http://www.dewberry.com/uploadedFiles/Leica_ADS40_Presentation_082907.pdf [14] http://www.swisstopo.ch/pub/down/products/digital/ortho/SWISSIMAGE_info_fr.pdf Photogrammétrie et traitement d’image 65 Julien Fabing Travail de diplôme 2007 HEIG-VD ADS40 SH52 : [15] http://agrifish.jrc.it/marspac/meetings/Toulouse2006/Parallel3/S3_ARohrbach_ADS40.pdf Classification avec images ADS40 : [16] http://www.swisstopo.ch/pub/down/about/coll/coll_2006_2007/070216/3_EPFL_Gachet.pdf [17] http://www.swisstopo.ch/pub/down/about/coll/coll_2006_2007/070216/4_RSL_Kellenberger.pdf [18] http://www.gisdevelopment.net/aars/acrs/2002/sol/059.pdf [19] http://www.geo.uzh.ch/rsl/research/LACOMM/ADS40/ [20] http://www.eomonline.com/Archives/Dec03/Ehlers.html [21] http://ethesis.inp-toulouse.fr/archive/00000282/01/bailloeul.pdf Classification classique : [22] http://www.swisstopo.ch/pub/down/about/coll/coll_2006_2007/070216/5_MFB_Terretaz.pdf [23] http://www.swisstopo.ch/pub/down/download/geodatanews/13_2007_de-fr.pdf [24] http://www.cstars.ucdavis.edu/classes/ers186-w05/classification/slides.pdf [25] http://marte.dpi.inpe.br/col/ltid.inpe.br/sbsr/2004/11.21.19.34/doc/3379.pdf [26] http://ethesis.inp-toulouse.fr/archive/00000282/01/bailloeul.pdf [27] http://themadmax.free.fr/stage/Rapport.pdf [28] http://www.theses.ulaval.ca/2007/24216/ch03.html [29] http://www.grenoble.cemagref.fr/doc/pdf/CDROM/Reports/14-1630-JBB.pdf [30] http://www.inra.fr/internet/Hebergement/afes/pdf/EGS_3_2_LEGROS96.pdf [31] http://138.102.82.2/IMG/pdf/these_gaddas.pdf [32] http://www-direction.inria.fr/international/AFRIQUE/euromed/Rapports06/Desmed.pdf [33] http://www.yale.edu/ceo/Projects/swap/pubs/geerkenetal2005.pdf Photogrammétrie et traitement d’image 66 Julien Fabing Travail de diplôme 2007 HEIG-VD Classification forêts : [34] http://edoc.bib.ucl.ac.be:81/ETD-db/collection/available/BelnUcetd-04202006150020/unrestricted/kayitakire_thesis_chap1.pdf [35] http://www.greenhouse.crc.org.au/injune/further_info/papers/2006_injune_casi_crown_delin.pdf [36] http://www.ipi.unihannover.de/html/publikationen/2007/workshop/paper/Safia_he_belbachir_bounoua.pdf Classification glaciers : [37] http://lasig.epfl.ch/enseignement/cours/sigenv/2007/groupe5.pdf [38] http://www.geo.unizh.ch/~kaeaeb/paul_lis_02.PDF [39] http://www.impetus.uni-koeln.de/content/download/Ouarzazate/hanich.pdf [40] http://ccrs.nrcan.gc.ca/resource/tutor/polarim/chapter7/03_f.php Détection et atténuation/correction des ombres : [41] http://recherche.ign.fr/doc/BI75/B01_75_MARTINOTY.pdf [42] http://recherche.ign.fr/doc/BI74/B02_74_BOLDO.pdf [43] http://www.isprs.org/istanbul2004/comm3/papers/378.pdf ER Mapper : [44] http://www.ermapper.com/ [45] http://web.univ-pau.fr/~deletraz/dos_santos_1.pdf Geomatica : [46] http://www.pcigeomatics.com/products/pdfs/G10brochure.pdf ERDAS IMAGINE : [47] http://www.mfb-geo.com/pic/pdf/brochure_ERDAS_IMAGINE_9.pdf Photogrammétrie et traitement d’image 67 Julien Fabing Travail de diplôme 2007 HEIG-VD Envi : [48] http://www.ittvis.com/envi/pdfs/ENVI_FeatureExtract.pdf e-cognition (definiens): [49] http://www.swisstopo.ch/pub/down/about/coll/coll_2006_2007/070216/6_UNIGE_Jaquet_Klaus.pdf [50] http://www.swisstopo.ch/pub/down/about/coll/coll_2003_2004/23JAN04-Satellitenbilder/NPOC_UniGE.pdf [51] http://lasig.epfl.ch/projets/cantons/doc_veille_tech/ecognition.pdf [52] http://alban-thomas.exen.fr/file/BoisObjet.pdf [53] http://mgilmore.web.wesleyan.edu/phragms/phragmanuv4.doc [54] http://www.greenhouse.crc.org.au/injune/further_info/papers/2006_injune_casi_crown_delin.pdf Feature analyst : [55] http://www.featureanalyst.com/feature_analyst.htm [56] http://gi.leica-geosystems.com/LGISub1x285x0.aspx [57] http://gi.leica-geosystems.com/documents/pdf/VLS_obrien_asprs.pdf [58] http://gi.leica-geosystems.com/documents/pdf/VLS_forest_service.pdf Comparaison E-cognition et ERDAS IMAGINE : [59] http://earth.esa.int/rtd/Events/ESA-EUSC_2006/Oral/Pr18_Ohlhof.pdf Classification orientée objet (type e-cognition) : [60] http://cassini.univ-lr.fr/versionFrancaise/GTObservationTerre/JourneeCaen7_11_2005/Jacquin-GayPURPAN.pdf [61] http://www.commission4.isprs.org/obia06/Papers/04_Automated%20classification%20Agriculture/OBIA2006_Fi sette_et_al.pdf Photogrammétrie et traitement d’image 68 Julien Fabing Travail de diplôme 2007 HEIG-VD Vector 25: [62] http://www.swisstopo.ch/fr/products/digital/landscape/vec25/index [63] http://lasig.epfl.ch/services/documentation/vector25.pdf [64] http://www.swisstopo.ch/pub/down/products/digital/landscape/vector25_info_fr.pdf TLM (MTP): [65] http://www.ikg.uni-bonn.de/fileadmin/nextgen3dcity/pdf/NextGen3DCity2005_Streilein.pdf [66] http://www.cadastre.ch/pub/down/publications/bulletin/2004_3_fr.pdf [67] http://www.swisstopo.ch/pub/down/about/coll/coll_2005_2006/TLM/20060310%20TLM.pdf Projet SAU/RALF : [68] http://www.swisstopo.ch/pub/down/download/geodata/height/dom_dtmAV_fr.pdf Photogrammétrie et traitement d’image 69 Julien Fabing Travail de diplôme 2007 HEIG-VD Remerciements En premier lieu, je voudrais remercier Monsieur François Gervaix, professeur responsable de ce travail de diplôme pour m’avoir conseillé tout au long de cette étude et pour sa disponibilité même tard le soir lors de mes problèmes avec GPro. Je tiens également à remercier : Monsieur Stephane Bovet, répondant externe, pour m’avoir reçu chez Swisstopo et pour ses remarques constructives qui m’ont aidées à orienter mon travail. Madame Renata Castioni et Monsieur Raphaël Seuret pour la préparation des données MNT. LEICA GEOSYSTEMS pour la fourniture du jeu de données SH52 de démonstration de Romanshorn très bien documenté et ordonné. Mes collègues diplômant du Labo D58 : François, Giacomo et Julien pour leur bonne humeur et pour les conversations enrichissantes échangées autour de nos différents sujets. Mes autres collègues de la GO2007 et particulièrement Florence pour son soutien. Enfin, je remercie Annick pour sa relecture, ses encouragements et son soutien permanent ainsi que ma petite Maylis à qui je dédie ce travail. Photogrammétrie et traitement d’image 70 Julien Fabing Travail de diplôme 2007 HEIG-VD Mandat Photogrammétrie et traitement d’image 71 Julien Fabing Travail de diplôme 2007 Photogrammétrie et traitement d’image HEIG-VD 72 Julien Fabing Travail de diplôme 2007 Photogrammétrie et traitement d’image HEIG-VD 73 Julien Fabing TRAVAIL DE DIPLOME Photogrammétrie et traitement d’image Reconnaissance, extraction et classification semi-automatique de la végétation, des forêts, des éboulis et des glaciers dans les images ADS40 en utilisant toutes les bandes spectrales (R, V, B, PIR) Annexes par Julien Fabing Pièce n°2 17 Décembre 2007 Professeur responsable : François Gervaix Répondant externe : Stéphane Bovet Sujet proposé par : Swisstopo Travail de diplôme 2007 HEIG-VD Liste des annexes Annexe 1 : Problèmes avec GPro ...................................................................................................... II Annexe 1.1 : Problème selon la résolution des images......................................................................... II Annexe 1.2 : Problème de la fonction auto rotation............................................................................ III Annexe 1.3 : Problème de rééchantillonnage avec la fonction Fast Rectification ..................................... IV Annexe 1.4 : Problème des images de base fortement chahutées ....................................................... VII Annexe 1.5 : Problème des pixels qui ne sont pas à zéro dans les bandes noires ................................. VIII Annexe 2 : Comparaison sommaire des logiciels ..............................................................................IX Annexe 3 : Fonction filtrage des pixels .............................................................................................. X Annexe 4 : Fonction seuillage de l’image référence ........................................................................ XII Annexe 5 : Fonction création d’une image d’analyse .....................................................................XIII Annexe 6 : Calcul de l’image NDVI................................................................................................... XV Annexe 7 : Prétraitement images 16 bits et 8 bits ........................................................................ XVII Annexe 8 : Image NDVI binaire ......................................................................................................XIX Annexe 9 : Fonction multiplication .................................................................................................. XX Annexe 10 : MNH à partir de MNS et MNT .......................................................................................XXI Annexe 11 : Image classifiée et MNH ........................................................................................... XXII Annexe 12 : Image et masque .....................................................................................................XXIII Annexe 13 : Somme 5 images.......................................................................................................XXIV Annexe 14 : Classifications supervisées 5 m Sargans .................................................................... XXV Annexe 15 : Classifications non supervisées 5 m Sargans ............................................................XXVI Annexe 16 : Classifications non supervisées 1 m Sargans .......................................................... XXVII Annexe 17 : Zone forêt / Zone urbaine Sargans ....................................................................... XXVIII Annexe 18 : Classifications sur deux images différentes d’un même vol Sargans.........................XXIX Annexe 19 : 8 bits /16 bits Sargans .............................................................................................. XXX Annexe 20 : Test des trois méthodes Sargans ..............................................................................XXXI Annexe 21 : Planning.................................................................................................................. XXXII Photogrammétrie et traitement d’image I Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 1 : Problèmes avec GPro Cette annexe présente les différents problèmes rencontrés avec le logiciel GPro de LEICA. Annexe 1.1 : Problème selon la résolution des images Pour sortir une image L2 à une résolution de 2 m ou supérieure à partir d’une image L0, il est impératif d’utiliser la fonction Fast Rectification, autrement GPro est sujet à un problème d’allocation mémoire : Sans la fonction Fast Rectification, l’image résultante n’est pas entièrement achevée. De plus, de nombreux pixels dans les parties réalisées possèdent des couleurs excentriques. Remarque : La fonction Pixel Wise ne fonctionne pas non dans de telles conditions. Figure 1 : Problème pour extraire des images de faible résolution Photogrammétrie et traitement d’image II Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 1.2 : Problème de la fonction auto rotation Le rapport Condor [6] mentionnait déjà un problème avec la fonction auto rotation qui est censée permettre à l’image d’effectuer une rotation afin d’obtenir une image verticale ou horizontale tout en conservant sa géoréférence. Cette fonction doit permettre en théorie de réduire considérablement les bandes noires autour des images qui sont naturellement plus importantes dans une image oblique et donc de réduire la taille et le poids des images. Lors du test effectué à l’occasion du rapport Condor, il avait été montré que si l’image effectuait bien la rotation, des bandes noires étaient toujours bien présentes et que l’image finale était même un peu plus grande que l’image de base. Ce qui n’est bien évidemment pas le but recherché. Disposant de la dernière mise à jour de GPro, un nouveau test a été effectué lors de ce travail pour voir si le bug avait été corrigé dans l’optique de pouvoir travailler avec des images moins lourdes. Avec auto rotation Sans auto rotation Figure 2 : Bug de la fonction auto rotation de GPro Comme on peut le voir sur la figure ci-dessus, le bug n’est toujours pas corrigé, le résultat est même encore plus mauvais qu’attendu puisque l’image a été purement et simplement tronquée. Il manque en effet deux tiers de l’image de base. Cette fonction n’est donc toujours pas exploitable à l’heure actuelle. Photogrammétrie et traitement d’image III Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 1.3 : Problème de rééchantillonnage avec la fonction Fast Rectification Pour ce travail, il était dans un premier temps question de faire de l’extraction sur des images à faible résolution (5 m) pour pouvoir identifier rapidement les problèmes principaux posés lors de la classification. En effet, les processus sont plus rapides avec des images plus petites. L’idée était de comparer la classification d’une image L2 (GSD de 5 m) extraite dans GPro avec à une image référence (GSD 5 m) rééchantillonnée à partir d’une image haute résolution (GSD 25 cm) sur laquelle auraient été saisis les objets recherchés. Mais pour que cette comparaison soit pertinente, il faut que les pixels soient le plus possible en concordance entre les deux images. Or lors d’un test pour vérifier cette concordance, il a été constaté un phénomène étrange de décalage des pixels de l’image basse résolution (image C) par rapport à l’image haute résolution (image A) et par rapport à l’image rééchantillonnée à 5 m (image B). Un décalage était bien sûr à prévoir car les deux images à 5 m n’ont pas été traitées de la même façon mais le décalage observé était tout de même très important comme on peut le constater sur la figure ci-dessous : B A Image L2 (GSD 25 cm) OK Image rééchantillonnée à 5 m partir de l’image A dans IMAGINE C Image L2 (GSD 5m) (Fast Rectification) Figure 3 : Problème de décalage des pixels Photogrammétrie et traitement d’image IV Julien Fabing Travail de diplôme 2007 HEIG-VD Le décalage est de l’ordre d’un pixel, soit cinq mètres ce qui est gênant surtout dans la perspective de comparer les images classifiées à une image de référence. Pour tenter d’identifier et de remédier à ce problème, plusieurs tests ont été réalisés. Il a d’abord été tenté de recalculer les pyramides des images brutes afin de voir si celles-ci n’avaient pas été altérées. Le résultat s’est révélé identique avec ces nouvelles pyramides. Le MNT ne semble pas en cause car les images RGB (nadir) et CIRF (avant) orthorectifiées à partir de ce dernier se superposent bien. Il a aussi été tenté de sortir l’image à une meilleure résolution (voir figure 4). Le décalage est toujours de l’ordre d’un pixel soit cette fois de 2.5 m. Image L2 (GSD 25 cm) Image L2 (GSD 2,5 m) (Fast Rectification) Figure 4 : Problème lors du rééchantillonnage Le soupçon concernant la cause de ce problème s’est finalement porté sur la fonction Fast Rectification. En effet, cette fonction ne calcule pas directement les images L2 à partir des images L0 mais à partir de l’image pyramidale de résolution juste supérieure à la résolution souhaitée ceci afin de gagner du temps de calcul. Le rééchantillonnage et l’orthorectification à partir de l’image pyramidale sont apparemment moins précis qu’en partant de l’image de base, surtout que les images de ce jeu de données nécessitent des rotations. On ne peut pas vérifier cette hypothèse à basse résolution car on est toujours obligé d’utiliser le mode Fast Rectification (annexe 1.1), cependant on peut le vérifier à plus haute résolution. Un test a été réalisé à 0,5 m sans et avec Fast Rectification. Photogrammétrie et traitement d’image V Julien Fabing Travail de diplôme 2007 HEIG-VD La figure ci-dessous montrant une route en bord d’image met bien en évidence le phénomène de décalage qui semble donc effectivement dû à la fonction Fast Rectification. 4 pixels 5 pixels 7 pixels 6 pixels 5 pixels 5 pixels 4 pixels 3 pixels GSD 0,5 m sans Fast Rectification GSD 0,5 m avec Fast Rectification Figure 5 : Problème de décalage des pixels dû à la fonction Fast Rectification Photogrammétrie et traitement d’image VI Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 1.4 : Problème des images de base fortement chahutées Dans ce paragraphe est mentionné un problème rencontré avec une image L0 ADS40 fortement « chahutée » à certains endroits. Dans de tels types de zone, l’image n’est pas toujours parfaitement corrigée géométriquement lors de l’orthorectification, comme le montre par exemple la figure ci-dessous : Image L2 sans Fast Rectification Image L0 Image L2 avec Fast Rectification Image L2 sans Fast Rectification et avec Pixel Wise Figure 6 : Amélioration apportée par la fonction Pixel Wise La fonction Pixel Wise semble mieux s’en sortir avec ce type d’image mouvementé. Cependant le temps de calcul pour sortir les images est plus long avec cette fonction. Photogrammétrie et traitement d’image VII Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 1.5 : Problème des pixels qui ne sont pas à zéro dans les bandes noires Un problème supplémentaire a été rencontré avec GPro. Les images L2 extraites dans GPro possèdent des bandes noires autour de l’image comme nous l’avons vu précédemment. Cependant ces pixels ne sont pas tous de valeur 0. Certaines zones de pixels ont une valeur radiométrique de 1. Figure 7 : Problème des pixels noirs non nuls Comme on applique une courbe de correction linéaire de l’histogramme, ces pixels se trouvent donc après traitement avec la valeur 16 (1*65536/4096). Ce problème est gênant dans la perspective d’effectuer des classifications automatiques. Si on peut ignorer facilement la valeur 0 lors du calcul, il reste ces pixels qui forment une masse importante et qui risquent de biaiser le résultat de la classification et des statistiques sur les résultats. Il faudra donc filtrer ces pixels dans IMAGINE. Remarque : Ce problème a été constaté uniquement lors de la création d’images 16 bits. Si on crée une image 8 bits les pixels sont tous à 0 dans les bandes noires. Photogrammétrie et traitement d’image VIII Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 2 : Comparaison sommaire des logiciels Photogrammétrie et traitement d’image IX Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 3 : Fonction filtrage des pixels Cette fonction agit sur deux images. Elle permet d’éliminer dans chaque canal des deux images les pixels dont la valeur est inférieure à 16. Elle permet aussi de rendre les deux images spatialement équivalentes. Images à 3 canaux (16 bits) Etape 1 : Séparation des canaux et filtrage des pixels Images provisoires (float) Etape 2 : Réunion des canaux filtrés Images à 3 canaux (16 bits) Photogrammétrie et traitement d’image X Julien Fabing Travail de diplôme 2007 HEIG-VD Etape 1 : Séparation des canaux et filtrage des pixels Exemple du code pour le premier canal de l’image 1 : EITHER 0 IF ( $n17_PROMPT_USER(1) <= 16 OR $n17_PROMPT_USER(2) <= 16 OR $n17_PROMPT_USER(3) <= 16 OR $n18_PROMPT_USER(1) <= 16 OR $n18_PROMPT_USER(2) <= 16 OR $n18_PROMPT_USER(3) <= 16) OR ($n17_PROMPT_USER(1)) OTHERWISE Etape 2 : Réunion des canaux Exemple du code pour l’image 1 : STACKLAYERS ( $n21_memory , $n23_memory , $n25_memory) Image 1: Image 1 résultat: Nom de la fonction sur le DVD-ROM : 16bits_pretraitement.gmd Photogrammétrie et traitement d’image XI Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 4 : Fonction seuillage de l’image référence Images à 3 canaux (16 bits) Etape 1 : seuillage Images à 1 canal binaire (1bit) Etape 1 : Seuillage Code : EITHER 1 IF ( $n1_PROMPT_USER(1) == 65535) OR 0 OTHERWISE Image référence: Image référence seuillée: Nom de la fonction sur le DVD-ROM : 16bits_image_reference_seuillage.gmd Photogrammétrie et traitement d’image XII Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 5 : Fonction création d’une image d’analyse Image à 1 canal (8 bits) Image à 1 canal (1 bits) Etape 1 : Comparaison des images A B C Images temporaires à 1 canal binaires Rouge Vert Bleu Etape 2 : Création d’une composition colorée Image à 3 canaux (1 bits) Photogrammétrie et traitement d’image XIII Julien Fabing Travail de diplôme 2007 HEIG-VD Etape 1 : Comparaison des images Code pour la partie A (erreur de première espèce) : EITHER 1 IF ( $n1_PROMPT_USER == 0 AND $n4_PROMPT_USER ==1 ) OR 0 OTHERWISE Code pour la partie B (pixels forêt bien classés) : EITHER 1 IF ( $n1_PROMPT_USER == 1 AND $n4_PROMPT_USER ==1 ) OR 0 OTHERWISE Code pour la partie C (Erreur de seconde espèce) : EITHER 1 IF ( $n1_PROMPT_USER == 1 AND $n4_PROMPT_USER == 0 ) OR 0 OTHERWISE Etape 2 : Création d’une composition colorée Code : STACKLAYERS ( $n3_memory , $n10_memory , $n11_memory) Image classifiée: Image référence: Images temporaires: Image analyse: Nom de la fonction sur le DVD-ROM : evaluation_de_la_classification.gmd Photogrammétrie et traitement d’image XIV Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 6 : Calcul de l’image NDVI Cette fonction permet de calculer une image NDVI normalisée sur 16 bits à partir d’une image CIRF 16 bits possédant des bandes noires. Image 3 canaux(16 bits) Etape 1-a Etape 1-b Images temporaires à 1 canal (float) Etape 2 Image temporaire à 1 canal (float) Etape 3 Image à 1 canal (16 bits) Photogrammétrie et traitement d’image XV Julien Fabing Travail de diplôme 2007 HEIG-VD Etape 1-a : $n1_PROMPT_USER(1) - $n1_PROMPT_USER(2) Etape 1-b: $n1_PROMPT_USER(1) + $n1_PROMPT_USER(2) Etape 2: EITHER -1 IF ( $n7_memory == 0.0 ) OR $n3_memory / $n7_memory OTHERWISE Remarque: ici le test sert à mettre les pixels autour de l’image qui sont noirs (de valeur 0) à -1. Ainsi, après la normalisation ils seront à nouveau à 0. Etape 3: ($n11_memory - GLOBAL MIN ( $n11_memory )) / ( GLOBAL MAX ( $n11_memory ) - GLOBAL MIN ( $n11_memory )) * 65535 Image CIRF: Images NDVI: Nom de la fonction sur le DVD-ROM: 16bits_ndvi_normalized.gmd Photogrammétrie et traitement d’image XVI Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 7 : Prétraitement images 16 bits et 8 bits Cette fonction agit sur deux images l’une 16 bits et l’autre 8 bits. Elle permet de rendre les deux images spatialement équivalentes. Image à 3 canaux (16 bits) Image à 3 canaux (8 bits) Etape 1 : Séparation des canaux et filtrage des pixels Images provisoires (float) Etape 2 : Réunion des canaux filtrés Image à 3 canaux (16 bits) Photogrammétrie et traitement d’image Image à 3 canaux (8 bits) XVII Julien Fabing Travail de diplôme 2007 HEIG-VD Etape 1 : Séparation des canaux et filtrage des pixels Exemple du code pour le premier canal de l’image 2 : EITHER 0 IF ( $n17_PROMPT_USER(1) == 0 OR $n17_PROMPT_USER(2) == 0 OR $n17_PROMPT_USER(3) == 0 OR $n18_PROMPT_USER(1) == 0 OR $n18_PROMPT_USER(2) == 0 OR $n18_PROMPT_USER(3) == 0) OR ($n18_PROMPT_USER(1)) OTHERWISE Etape 2 : Réunion des canaux Exemple du code pour l’image 1 : STACKLAYERS ( $n21_memory , $n23_memory , $n25_memory) Image 1: Image 1 résultat: Image 2: Image 2 résultat: Nom de la fonction sur le DVD-ROM : 16bits_8bits_pretraitement.gmd Photogrammétrie et traitement d’image XVIII Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 8 : Image NDVI binaire Image 1 canal (16 bits) Etape 1 Image 1 canal binaire (1bit) Etape 1 : Seuillage Code : EITHER 1 IF ( $n1_PROMPT_USER(1) > 37000) OR 0 OTHERWISE Image NDVI: Image NDVI binaire: Nom de la fonction sur le DVD-ROM : 16bits_ndvi_seuille_binaire.gmd Photogrammétrie et traitement d’image XIX Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 9 : Fonction multiplication Image 1 canal (8 bits) Image 1 canal binaire (1bit) Etape 1 Image 1 canal (8 bits) Etape 1 : Multiplication Code : $n1_PROMPT_USER * $n2_PROMPT_USER Nom de la fonction sur le DVD-ROM : multiplication_2_images.gmd Photogrammétrie et traitement d’image XX Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 10 : MNH à partir de MNS et MNT Images 1 canal (float) Etape 1 Image 1 canal (float) Etape 1 : Soustraction Code : $n1_PROMPT_USER - $n2_PROMPT_USER Nom de la fonction sur le DVD-ROM : mnhfrommnsandmnt.gmd Photogrammétrie et traitement d’image XXI Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 11 : Image classifiée et MNH Image1 canal (8 bits) Image 1 canal (float) Etape 1 : filtrage Image 1 canal (8 bits) Etape 1 : Filtrage Code : EITHER 1 IF ( ($n1_PROMPT_USER == 1) AND ($n2_PROMPT_USER > 0.3)) OR 0 OTHERWISE Nom de la fonction sur le DVD-ROM : image_classifie_et_mnh.gmd Photogrammétrie et traitement d’image XXII Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 12 : Image et masque Image 3 canaaux (16 bits) Image1 canal (8 bits) Etape 1 : filtrage Image 3 canaaux (16 bits) Etape 1 : Filtrage Code : EITHER $n1_PROMPT_USER IF ( $n2_PROMPT_USER==1 ) OR 0 OTHERWISE Nom de la fonction sur le DVD-ROM : image_et_masque.gmd Photogrammétrie et traitement d’image XXIII Julien Fabing Travail de diplôme 2007 HEIG-VD Annexe 13 : Somme 5 images Images 1 canal (8 bits) Somme Image 1 canal (8 bits) Nom de la fonction sur le DVD-ROM : multi_echelle.gmd Photogrammétrie et traitement d’image XXIV Julien Fabing nbre pixels nbre pixels Pixels forêt bien classés Erreur de première espèce Erreur de seconde espèce Pixels non forêt bien classés Total Pixels Pourcentage classés forêt classés non forêt nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage bien classés 194626 541237 159766 50.8% 154427 49.2% 34860 8.3% 386810 91.7% 546576 74.3% 196617 539246 168831 53.7% 145362 46.3% 27786 6.6% 393884 93.4% 562715 76.5% 304435 431428 265902 84.6% 48291 15.4% 38533 9.1% 383137 90.9% 649039 88.2% 311962 423901 275086 87.6% 39107 12.4% 36876 8.7% 384794 91.3% 659880 89.7% Kappa 0.45 0.50 0.76 0.79 Travail de diplôme 2007 XXV 1 Zone entrainement forêt RGB 1 Zone entrainement forêt CIRF 2 Zones entrainement forêt (clair + sombre) RGB 2 Zones entrainement forêt (clairl + sombre) CIRF nbre nbre pixels nbre pixels non nbre pixel total pixels noirs forêt référence forêt référence sans les pixels noirs 1698797 314193 421670 735863 HEIG-VD Julien Fabing Annexe 14 : Classifications supervisées 5 m Sargans Photogrammétrie et traitement d’image nbre pixels total image 2434660 Pourcentage de nbre pixels nbre pixels classés Pixels forêt bien classés Erreur de première espèce Erreur de seconde espèce Pixels non forêt bien classés Total Pixels bien classés pixels bien classés nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage classés forêt non forêt 553873 181990 311047 99.0% 3146 1.0% 242826 57.6% 178844 42.4% 489891 66.6% 348133 387730 262483 83.5% 51710 16.5% 85650 20.3% 336020 79.7% 598503 81.3% 537937 197926 280594 89.3% 33599 10.7% 257343 61.0% 164327 39.0% 444921 60.5% 297074 438789 271874 86.5% 42319 13.5% 25200 6.0% 396470 94.0% 668344 90.8% 299672 436191 255591 81.3% 58602 18.7% 44081 10.5% 377589 89.5% 633180 86.0% 602519 133344 302538 96.3% 11655 3.7% 299981 71.1% 121689 28.9% 424227 57.7% 271398 464465 255377 81.3% 58816 18.7% 16021 3.8% 405649 96.2% 661026 89.8% 373866 361997 292765 93.2% 21428 6.8% 81101 19.2% 340569 80.8% 633334 86.1% 478784 257079 254563 81.0% 59630 19.0% 224221 53.2% 197449 46.8% 452012 61.4% 342653 393210 290980 92.6% 23213 7.4% 51673 12.3% 369997 87.7% 660977 89.8% 352500 383363 288993 92.0% 25200 8.0% 63507 15.1% 358163 84.9% 647156 87.9% 530954 204909 277859 88.4% 36334 11.6% 253095 60.0% 168575 40.0% 446434 60.7% 294803 441060 270623 86.1% 43570 13.9% 24180 5.7% 397490 94.3% 668113 90.8% 361566 374297 289805 92.2% 24388 7.8% 71761 17.0% 349909 83.0% 639714 86.9% 361313 374550 296472 94.4% 17721 5.6% 64841 15.4% 356829 84.6% 653301 88.8% 334951 400912 287137 91.4% 27056 8.6% 47814 11.3% 373856 88.7% 660993 89.8% 315261 420602 281082 89.5% 33111 10.5% 34179 8.1% 387491 91.9% 668573 90.9% 283080 452783 235018 74.8% 79175 25.2% 48062 11.4% 373608 88.6% 608626 82.7% 270544 465319 254817 81.1% 59376 18.9% 15727 3.7% 405943 96.3% 660760 89.8% 337998 397865 291590 92.8% 22603 7.2% 46408 11.0% 375262 89.0% 666852 90.6% 333289 402574 288178 91.7% 26015 8.3% 45111 10.7% 376559 89.3% 664737 90.3% 361640 374223 288211 91.7% 25982 8.3% 73429 17.4% 348241 82.6% 636452 86.5% 520008 215855 273399 87.0% 40794 13.0% 246609 58.5% 175061 41.5% 448460 60.9% 294622 441241 263343 83.8% 50850 16.2% 31279 7.4% 390391 92.6% 653734 88.8% 329526 406337 279127 88.8% 35066 11.2% 50399 12.0% 371271 88.0% 650398 88.4% Kappa 0.38 0.62 0.26 0.81 0.71 0.23 0.79 0.72 0.26 0.79 0.76 0.26 0.81 0.74 0.78 0.79 0.81 0.64 0.79 0.81 0.80 0.73 0.26 0.77 0.76 Travail de diplôme 2007 XXVI 2 classes RGB 2 classes CIRF 2 classes NDVI 3 classes RGB 3 classes CIRF 3 classes NDVI 4 classes RGB 4 classes CIRF 4 classes NDVI 5 classes RGB 5 classes CIRF 5 classes NDVI 6 classes RGB 6 classes CIRF 7 classes RGB 7 classes CIRF 8 classes RGB 8 classes CIRF 9 classes RGB 9 classes CIRF 10 classes RGB 10 classes CIRF 10 classes NDVI 20 classes RGB 20 classes CIRF nbre pixels nbre pixels nbre pixels nbre pixel total noirs forêt référence non forêt référence sans les pixels noirs 1698797 314193 421670 735863 HEIG-VD Julien Fabing Annexe 15 : Classifications non supervisées 5 m Sargans Photogrammétrie et traitement d’image nbre pixels total image 2434660 nbre pixels non forêt 10556237 nbre pixel total sans les pixels noirs 18378547 Pourcentage de nbre pixels nbre pixels classés Pixels forêt bien classés Erreur de première espèce Erreur de seconde espèce Pixels non forêt bien classés Total Pixels bien classés pixels bien classés classés forêt non forêt nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage 7478101 10900446 6571956 84.0% 1250354 16.0% 906145 8.6% 9650092 91.4% 16222048 88.3% 6969830 11408717 5765066 73.7% 2057244 26.3% 1204764 11.4% 9351473 88.6% 15116539 82.3% 14801412 3577135 7301149 93.3% 521161 6.7% 7500263 71.1% 3055974 28.9% 10357123 56.4% 8565380 9813167 7094881 90.7% 727429 9.3% 1470499 13.9% 9085738 86.1% 16180619 88.0% 7736104 10642443 6189872 79.1% 1632438 20.9% 1546232 14.6% 9010005 85.4% 15199877 82.7% 12910042 5468505 6362155 81.3% 1460155 18.7% 6547887 62.0% 4008350 38.0% 10370505 56.4% 8215927 10162620 6956594 88.9% 865716 11.1% 1259333 11.9% 9296904 88.1% 16253498 88.4% 7039802 11338745 5905089 75.5% 1917221 24.5% 1134713 10.7% 9421524 89.3% 15326613 83.4% 9419149 8959398 4461702 57.0% 3360608 43.0% 4957447 47.0% 5598790 53.0% 10060492 54.7% Kappa 0.76 0.63 0.20 0.76 0.65 0.18 0.77 0.66 0.10 5 classes RGB moins bat 8080681 10297866 6874619 87.9% 947691 12.1% 1206062 11.4% 9350175 88.6% 16224794 88.3% 0.76 5 classes RGB ouv_ferm 7990250 10388297 6975528 89.2% 846782 10.8% 1014722 9.6% 9541515 90.4% 16517043 89.9% 0.79 3 classes RGB multi-échelle 7365157 11013390 6737852 86.1% 1084458 13.9% 627305 5.9% 9928932 94.1% 16666784 90.7% 0.81 3 classes 8 bits 5 classes 8 bits 10 classes 8 bits 6932501 6932501 6932501 10901295 9795677 10212694 6571923 7099561 6932501 84.0% 90.8% 88.6% 1250387 722749 889809 16.0% 9.2% 11.4% 905329 1483309 1233352 8.6% 14.1% 11.7% 9650908 9072928 9322885 91.4% 85.9% 88.3% 16222831 16172489 16255386 88.3% 88.0% 88.4% 0.76 0.77 0.78 Travail de diplôme 2007 XXVII 3 classes RGB 3 classes CIRF 3 classes NDVI 5 classes RGB 5 classes CIRF 5 classes NDVI 10 classes RGB 10 classes CIRF 10 classes NDVI nbre pixels nbre pixels noirs forêt référence 42473053 7822310 HEIG-VD Julien Fabing Annexe 16 : Classifications non supervisées 1 m Sargans Photogrammétrie et traitement d’image nbre pixels total image 60851600 5 classes RGB 10 classes RGB nbre pixels non forêt référence 56891 nbre pixel total sans les pixels noirs 199142 nbre pixels nbre pixels Pixels forêt bien classés Erreur de première espèce Erreur de seconde espèce Pixels non forêt bien classés Total Pixels classés forêt classés nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage bien classés 143592 55550 137128 96.4% 5123 3.6% 6464 11.4% 50427 88.6% 187555 128718 70424 125767 88.4% 16484 11.6% 2951 5.2% 53940 94.8% 179707 Pourcentage de pixels bien classés 94.2% 90.2% Kappa 0.86 0.78 XXVIII Zone urbaine 5 classes RGB 10 classes RGB nbre pixels nbre pixels nbre pixels nbre pixels nbre pixel total total image noirs forêt référence non forêt référence sans les pixels noirs 121404 0 24651 96753 121404 Total Pixels nbre pixels nbre pixels Pixels forêt bien classés Erreur de première espèce Erreur de seconde espèce Pixels non forêt bien classés classés forêt classés nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage bien classés 23919 97485 18515 75.1% 6136 24.9% 5404 5.6% 91349 94.4% 109864 32911 88493 21537 87.4% 3114 12.6% 11374 11.8% 85379 88.2% 106916 Pourcentage de Kappa pixels bien classés 90.5% 0.70 88.1% 0.67 Travail de diplôme 2007 nbre pixels nbre pixels nbre pixels total image noirs forêt référence 251001 51859 142251 HEIG-VD Julien Fabing Annexe 17 : Zone forêt / Zone urbaine Sargans Photogrammétrie et traitement d’image Zone forêt XXIX 5 classes RGB image 1031 526028 Nbre pixels forêt nbre pixels image 1024 non forêt image 1024 817609 2656363 nbre pixel total sans les pixels 3473972 Erreur de première espèce Erreur de seconde espèce Pixels non forêt classés identiquement Total Pixels Pourcentage total pixels nbre pixels nbre pixels classés Pixels forêt classés identiquement Kappa classés identiquement nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage classés forêt non forêt identiques 812725 2661247 615429 75.7% 202180 24.9% 197296 7.4% 2459067 92.6% 3074496 88.5% 0.68 nbre pixels total image 4000000 10 classes RGB image 1031 nbre pixels noirs nbre pixels Nbre pixels forêt nbre pixels noirs image 1024 non forêt image 1024 526028 1024254 2449718 nbre pixel total sans les pixels 3473972 Erreur de première espèce Erreur de seconde espèce Pixels non forêt classés identiquement Total Pixels Pourcentage total pixels nbre pixels nbre pixels classés Pixels forêt classés identiquement Kappa nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage classés forêt non forêt identiques classés identiquement 1006980 2466992 828242 82.3% 178738 17.7% 196012 8.0% 2253706 92.0% 3081948 88.7% 0.73 Travail de diplôme 2007 4000000 HEIG-VD Julien Fabing Annexe 18 : Classifications sur deux images différentes d’un même vol Sargans Photogrammétrie et traitement d’image nbre pixels total image Travail de diplôme 2007 HEIG-VD Annexe 19 : 8 bits /16 bits Sargans nbre pixels image 18378547 3 classes 5 classes 10 classes nbre pixels classés différemment pourcentage du total 133455 0.7% 274303 1.5% 673678 3.7% après regroupement : 3 classes 5 classes 10 classes nbre pixels classés différemment pourcentage du total 103633 0.6% 101396 0.6% 109098 0.6% Photogrammétrie et traitement d’image XXX Julien Fabing 10_classes_recode_2_classes_moins_batiments 10_classes_recode_2_classes_moins_batiments_ouverture_fermeture Pourcentage de nbre d'amas nbre pixels nbre pixels classés Pixels forêt bien classés Erreur de première espèce Erreur de seconde espèce Pixels non forêt bien classés Total Pixels Kappa à corriger classés forêt non forêt nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage nbre pixels Pourcentage bien classés pixels bien classés 419115 564949 267712 93.9% 17500 6.1% 151403 21.7% 547449 78.3% 815161 82.8% 0.63 10650 370425 613639 263120 92.3% 22092 7.7% 107305 15.4% 591547 84.6% 854667 86.9% 0.71 2166 391514 343528 592550 640536 263947 259333 92.5% 90.9% 21265 25879 7.5% 9.1% 127567 84195 18.3% 12.0% 571285 614657 81.7% 88.0% 835232 873990 84.9% 88.8% 0.67 0.74 11711 2191 10_classes_recode_2_classes_moins_batiments_et_mnh 268718 10_classes_recode_2_classes_moins_batiments_et_mnh_ouverture_fermeture 241553 715346 742511 231455 226433 81.2% 79.4% 53757 58779 18.8% 20.6% 37263 15120 5.3% 2.2% 661589 683732 94.7% 97.8% 893044 910165 90.8% 92.5% 0.77 0.81 8530 1969 Travail de diplôme 2007 XXXI 10_classes_recode_2_classes 10_classes_recode_2_classes_ouverture_fermeture nbre d'objets total ~380 HEIG-VD Julien Fabing Annexe 20 : Test des trois méthodes Sargans Photogrammétrie et traitement d’image nbre pixels nbre pixels nbre pixels nbre pixels nbre pixel total image noirs forêt référence non forêt référence total 1000000 15936 285212 698852 984064 Travail de diplôme 2007 HEIG-VD Annexe 21 : Planning Mardi Planification 18.09.2007 Biblio Mercredi 19.09.2007 Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Lundi 20.09.2007 21.09.2007 22.09.2007 23.09.2007 24.09.2007 25.09.2007 26.09.2007 27.09.2007 28.09.2007 29.09.2007 30.09.2007 01.10.2007 02.10.2007 03.10.2007 04.10.2007 05.10.2007 06.10.2007 07.10.2007 08.10.2007 09.10.2007 10.10.2007 11.10.2007 12.10.2007 13.10.2007 14.10.2007 15.10.2007 16.10.2007 17.10.2007 18.10.2007 19.10.2007 20.10.2007 21.10.2007 22.10.2007 23.10.2007 24.10.2007 25.10.2007 26.10.2007 27.10.2007 28.10.2007 29.10.2007 30.10.2007 31.10.2007 01.11.2007 02.11.2007 03.11.2007 04.11.2007 05.11.2007 06.11.2007 07.11.2007 08.11.2007 09.11.2007 10.11.2007 11.11.2007 12.11.2007 13.11.2007 14.11.2007 15.11.2007 16.11.2007 17.11.2007 18.11.2007 19.11.2007 20.11.2007 21.11.2007 22.11.2007 23.11.2007 24.11.2007 25.11.2007 26.11.2007 27.11.2007 28.11.2007 29.11.2007 30.11.2007 01.12.2007 02.12.2007 03.12.2007 04.12.2007 05.12.2007 06.12.2007 07.12.2007 08.12.2007 09.12.2007 10.12.2007 11.12.2007 12.12.2007 13.12.2007 14.12.2007 15.12.2007 16.12.2007 17.12.2007 Mardi 15.01.2008 Rapport tests logiciels Classification Extraction des données avec Gpro et Définition des tests à effectuer Tests de classification et analyse des résultats Rendu rapport intermédiaire avant 16 h Préparation présentation Présentation intermédiaire 9 h Rapport Planification Tests prétraitements et post-traitements Filtrage des ombres Filtrage des pixels isolés "Détection d'erreur" Attenuation des dévers SH52 TestJeu de données 6 semaines de différence MNS-MO, MNH, attenuation des dévers Temps de reprise des données Rapport Photogrammétrie et traitement d’image Rendu rapport final entre 8 h et 16 h Présentation Défense de diplôme 13 h XXXII Julien Fabing