Die Fernerkundung im Georisikomanagement

Die Fernerkundung im Georisikomanagement
Autor: Dennis "Rabkcor" Amtsfeld

Inhalt

1 Einleitung
1.1 Definition der wichtigsten Begriffe 
2 Geschichte der Fernerkundung
3. Die wichtigsten Attribute und Parameter der Fernerkundung
3.1 Die wichtigsten Parameter der Fernerkundung
4. Fernerkundungssysteme
4.1. Photographische Aufnahmesysteme (Zeilenscanner)
4.2. Opto-mechanische Scanner Systeme (Rotationsscanner)
4.3. Hyperspektrale Spektrometer
4.4. Radarsysteme
4.5. Wichtige Geofernerkundungssysteme
4.6. Welches System für welche Naturgefahr?
4.7 Fazit des Kapitel 4
5. Risk- Disastermanagement
5.1. Paradigmen der Naturgefahrenforschung
5.2. Risikomanagement
5.3. Informationsbedarf im Katastrophenmanagement
5.4 Geodaten im Katastrophenmanagement
5.5 Fazit
6. Fernerkundung und Riskmanagement
6.1 Überflutungsereignisse
6.2 Erdbeben
6.3 Hangrutschungen
6.4 Waldbrände/Feuer
6.5 Lawinen und Schnee
6.6 Fazit Kapitel 6
7. UN Spider
Anhang A Geodaten
Anhang B Quellen- und Abbildungsverzeichnis



1. Einleitung:

Die Fernerkundung und das Disastermanagement gehören zu den wichtigsten Arbeitsmitteln der Regionalplanung. Fernerkundungssysteme leisten nicht nur unschätzbare Dienste bei der allgemeinen Raumplanung, sondern auch bei der Erfassung, Bewertung und Kartierung der unterschiedlichen Naturgefahren. Nahezu alle Naturgefahren werden mittlerweile durch die Fernerkundung erfasst, da die Prozesse, die diese Entstehen lassen, seien es geologische, hydrologische oder atmosphärische Phänomene sich in der Regel wiederholen und/oder Verbindungen zu früheren Ereignissen aufweisen. Dies gilt es zu archivieren, zu analysieren und in aktuelle sowie zukünftige Planungsprozesse zu integrieren.

Eine Katastrophenvorsorge ist wichtiger den je. 2009 war ein relativ „ruhiges nicht spektakuläres“ Jahr. Trotzdem verursachten viele kleine Ereignisse einen volkswirtschaftlichen Schaden von 50 Milliarden US-Dollar und ein Jahr zuvor, waren die Schäden viermal so hoch und lagen bei 200 Milliarden US-Dollar. Das Jahr 2010 begann mit einem Erdbeben in Haiti, welches bisher 200000 Menschen das Leben kostete und einen ganzen Staat in mitleidenschaft zog, ein verherendes Hochwasser, zerstörte große Teile von Pakistan und am 20. April 2010 explodierte die Ölplattform Deepwater Horizon im Golf von Mexiko. Dabei traten je nachdem welchen Schätzungen man glauben mag, zwischen 500.000 und 1.000.000 Tonnen Rohöl aus. Der volkswirtschaftliche Schaden sowie die ökologischen Folgen lassen sich noch nicht abschätzen.

Diese Arbeit soll für Entscheidungsträger sowie für interessierte Personen im Bereich der Fernerkundung und im Risk- und Disastermanagement die Möglichkeiten aufzeigen welche es gibt, um verschiedene Naturgefahren zu analysieren und identifizieren. Zudem soll ein umfangreiches Basiswissen in den angesprochenen Bereichen geschaffen werden.

Grundlage für diese Arbeit sind eingehende Recherchen in WWW, Bibliotheken und Fachmagazinen, sowie auf Grundlage diverser Artikel, die in Fachzeitschriften publiziert wurden. Sämtliche Artikel wurden zudem als Hardcopy archiviert und können vorgelegt werden.




1.1 Definition der wichtigsten Begriffe

Definition der Fernerkundung

Bei der Fernerkundung handelt es sich um ein indirektes Beobachtungsverfahren der Erdoberfläche mit den darauf befindlichen Objekten, der Meeresoberfläche oder der Atmosphäre. Hierbei werden zur Gewinnung von Informationen elektromagnetische Strahlungen benutzt, die direkt vom beobachteten Objekt abgestrahlt werden. Die dafür benötigten Empfangseinrichtungen werden in Luftfahrzeugen oder Raumfahrzeugen mitgeführt. Am weitesten verbreitet sind die abbildenden Fernerkundungssysteme, welche zu einer bildhaften Wiedergabe der Erdoberfläche führen (Köster 2003).

Definition der Katastrophe

Eine Katastrophe ist ein Ereignis, in Raum und Zeit konzentriert, bei dem eine Gesellschaft einer schweren Gefährdung unterzogen wird und derartige Verluste an Menschenleben oder materielle Schäden erleidet, dass die lokale gesellschaftliche Struktur versagt und alle oder einige wesentliche Funktionen der Gesellschaft nicht mehr erfüllt werden können (UNO 1987).

Definition Katastrophenmanagement (Disastermanagement)

Als Katastrophenmanagement bezeichnet man Maßnahmen einer Organisation in Reaktion auf unerwartete Ereignisse, die Menschen oder Ressourcen beeinträchtigen und die Fortsetzung des Betriebes gefährden. Darin enthalten sind Vorschläge zur Erholung nach der Katastrophe. Diese Gesundungskonzepte sollen die Risiken durch Katastrophen minimieren und wirksame Gegenmaßnahmen ermöglichen. Katastrophenmanagement bezieht sich im Regelfall auf Naturkatastrophen wie Brände, Überschwemmungen und Erdbeben. Verwandte Instrumente sind Krisenmanagement, Kontingenzmanagement und Risikomanagement (UNO 1987).

Katastrophenmanagement als Extremfall einer Betriebsanpassung, wo kurzfristig qualitative und quantitative Systemanpassungen notwendig sind sowie zwangsweise kooperiert werden muss (Grün 2005).


2. Eine Geschichte der Fernerkundung

1839 Die Fotogrammetrie wird in Frankreich erfunden.
1858 Erste photographische Bilder vom Ballon aus über Paris von G.Tournachon.
1859 Entwicklung der Bildmessung.
1872 Beginn der terrestrischen Fotogrammetrie.
1887 Erste bekannte forstliche Bildaufnahmen in Pommern. Anfang 20.Jh Schrägbilder vom Flugzeug.
1903 Erster gesteuerter Motorflug der Gebrüder W. und O. Wright in den USA.
1904 Beginn der Anwendung photogrammetrischer Methoden durch den US-Geological
Survey.
1914-1918 Erstmals militärische Luftaufklärung. Deutliche Verbesserung der Aufnahmequalität.
1919 Erscheinen des Buches „Fotogrammetrie aus Luftfahrzeugen“ von Carl Pulfrich.
1920 Rasche Verbreitung des Luftbildwesens durch die Einführung der systematischen Reihenaufnahme.
1926 Sensibilisierung lichtempfindlicher Emulsionen im nahen Infrarot, Infrarotphotographie.
1926 Erste Luftaufnahmen bei Nacht.
1927 Gründung der deutschen Gesellschaft für Fotogrammetrie.
1934 Gründung der amerikanischen Gesellschaft für Fotogrammetrie.
1937-1945: Militärische Aufklärung im 2 Weltkrieg. Die intensive Nutzung von Farbfilmen und
Infarotaufnahmen beginnt.
1949 Erste Gesamtbefliegung Österreichs (Waldstandaufnahme) durch Flugzeuge.
1951 Gründung des international Training Centre for Aerial Survey in Delft/Niederlande.
1953 Das Orthofoto-Verfahren wird eingeführt.
1956 Verwendung von Farbinfrarotfilmen in der vegetationskundlichen Forschung, wenig später gewinnen Abtatst-- und Radarsysteme an Bedeutung.
1957 Start von SPUTNIK 1 der erste Satellit ist im Orbit.
1958 Die NASA (National Aeronautics and Space Administration) mit Sitz in Washington, USA wird geründet.
1958 Die erste Weltraumaufnahme der Erde durch den US-Satelliten Explorer 6.
1972 Start von LANDSAT-1 erstmalig werden systematisch und regelmäßig Bilder der Erdoberfläche aufgenommen.
1973 Die erste Stereophotographien aus dem Weltall im wurde im Rahmen des SKYLAB Experimentes der NASA getätigt.
1975 Gründung der ESA (European Space Agency ).
1983 Durchführung des Metric Camera Experimentes der ESA.
1986 Französisches Satellitensystem SPOT mit stereophotogrammatetrisch auswertbaren Bilddaten
1992 Freigabe der sowjetischen/russischen hochauflösender Weltraumphotos der Erde.
1995 Freigabe der US-amerikanischen Spionagephotos des CORONA Programms.
Heute Bilddaten von sehr breitem Maßstabsbereich, vom Kleinflugzeug zum geostationären Satelliten in einen sehr großen Wellenlängenbereich sowie der Gebrauch digitaler Bildverarbeitung
(Koska 2007und Köster 2003)

                                    Abb. 1 Ballonphotographie 


                             Abb.2 Militärische Aufklärung WW1


3. Die wichtigsten Attribute und Parameter der Fernerkundung

Die wichtigsten Attribute der Fernerkundung sind: Maßstab, die räumliche, radiometrische, spektrale und zeitliche Auflösung, die Flächenabdeckung, die radiometrischen Eigenschaften sowie die Datenkosten und deren Verfügbarkeit.

Maßstab
Oft ist es möglich, Naturgefahren in kleinen maßstäblichen Datensätzen zu erfassen. Allerdings werden sehr häufig groß maßstäbliche Ausschnitte benötigt. Leider ist es regelmäßig unmöglich, diese mittels Vergrößerung zu notieren. Es ist deshalb zwingend nötig, den richtigen Maßstab und damit den geeigneten Sensor zu wählen, der für die geforderte Aufgabenstellung geeignet ist (Steinrocher et all 2009).

Geometrische, räumliche und zeitliche Auflösung:
Die geometrische Auflösung gibt das Auflösungsvermögen nah nebeneinander liegender Objekte wieder. Eine Vergrößerung von Datensätzen beinhaltet nicht eine Verbesserung der Auflösung, sondern beeinflusst nur die Möglichkeit der Interpretation.
Die zeitliche Auflösung, gibt die Frequenz wieder, mit der beispielsweise ein Satellit ein definiertes Gebiet abdecken kann (Steinrocher et all 2009).

                                         Abb. 3 Zeitliche Auflösung von ausgewählten Satelliten

In Abbildung 3 wird für einige Satelliten die zeitliche Auflösung dargestellt. Diese Auflistung ist in keinster Weise vollständig, sondern dient nur als Beispiel für die große Spannbreite der unterschiedlichen zeitlichen Auflösungen.
Die spektrale Auflösung bestimmt die Bandbreite eines Sensors. Jeder Sensor kann nur eine bestimmte Bandbreite aufnehmen. Nicht alle Naturkatastrophen können mit den gleichen Sensoren aufgenommen werden. Überflutungen haben eine hoch signifikante Änderung im spektralen Bereich zur Folge, Erdbeben hingegen weisen nur eine kleine spektrale Variation auf (Oesch 2001).

Die räumliche Auflösung bestimmt das Maß der kleinsten identifizierbaren Fläche als unabhängige Einheit. Dies ist nicht mit der räumlichen Abdeckung zu verwechseln die angibt, wie groß die abgedeckte Fläche ist. In Abbildung 4 ist der Unterschied zwischen räumlicher Auflösung und räumlicher Abdeckung ausgearbeitet. In Abbildung 5 ist eine Auflistung unterschiedlicher Sensoren mit ihrer spektralen Bandbreite und der dazugehörigen räumlichen Auflösung aufgelistet . 

                                     Abb. 4 räumliche Abdeckung und räumliche Auflösung






Spektrale Auflösung:
Die spektrale Auflösung gibt Anzahl und Bandbreite der Spektralbereiche (Kanäle) wieder, die der Sensor differenzieren kann:

Panchromatisch: ein Kanal
Multispektral: 3-7 Kanäle (einzelne Stützpunkte)
Hyperspektral: >100 Kanäle (unnatürliche Farben; eignet sich für Differenzierungen)

Abb. 5 spektrale Bandbreite und räumliche Auflösung

In Abbildung 6 ist zur besseren Darstellung, wie sich die unterschiedlichen Attribute auf die „Qualität“ des Bildes auswirken, ein Vergleich zischen Terra SAR X und GeoEye 1 dargestellt. Dies ist natürlich ein sehr extremer Vergleich, gibt aber anschaulich die Bandbreiten der zu Verfügung stehenden Fotos wieder (Steinrocher et all 2009).



Abb. 6 Vergleich Terra SAR X zu GeoEye1


Radiometrische Auflösung:
Die radiometrische Auflösung beschreibt das Differenzierungsvermögen innerhalb eines Spektralkanals. Diese ergibt sich aus dem Signal/Rauschverhältnis. Sie wird in Bit angegeben und ist hauptsächlich abhängig von der geometrischen und der spektralen Auflösung. Je höher diese Auflösung ist, desto mehr Überlagerungen – Rauschen gibt es. 1 Bit entspricht 2 Graustufen, 8 Bit entsprechen 256 Graustufen
Der Unterschied wird in Abbildung 7 deutlich (Steinrocher et all 2009).

                                                      Abb.7 radiometrischen Auflösung

Um tiefergehende Einblicke in die Zusammenhänge der unterschiedlichen Faktoren zu erhalten, ist die „Internetvorlesung“ Fernerkundung der Universität Kiel zu empfehlen. Aufrufbar unter: http://www.uni-kiel.de/forum-erdkunde/unterric/material/einf_fe/index.htm

Geometrische Auflösung:
Die Größe eines Bildelementes (Pixel) auf der Erdoberfläche hängt vom Öffnungswinkel des Sensors und von der Flughöhe ab. Bei Rotationsscannern ist die Variable innerhalb der Bildzeile in Abhängigkeit des Beobachtungswinkels (Panoramaverzerrung).
Beim Zeilenscanner, ist die Variable innerhalb der Bildzeile konstant (exakte Zentralprojektion) und daher stabiler gegen Verzerrungen. Jedoch wird beim Zeilenscanner eine spezielle Art von Linse verwendet, die es unmöglich macht, Thermalstrahlung zu erfassen (Steinrocher et all 2009).


3.1 Die wichtigsten Parameter der Fernerkundung :

Das Medium zur Informationsübertragung ist die elektromagnetische Strahlung. Sie wird beeinflusst von der Atmosphäre und von der Reflexion an der Erdoberfläche. Die Sonne sendet elektromagnetische Strahlung aus, welche von Geoobjekten jeglicher Art reflektiert wird. Auch die Erde strahlt elektromagnetische Strahlung aus (Koska 2009).

Elektromagnetisches Spektrum (Wellenlängenbereich):

                                                     Abb.8 Elektromagnetisches Spektrum














Wellenlänge



von bis

Fernes Infrarot 50 µm 1 mm

Mittleres Infrarot 2,5 µm 50 µm

Nahes Infrarot 780 nm 2,5 µm
Licht Rot 640 nm 780 nm
Orange 600 nm 640 nm
Gelb 570 nm 600 nm
Grün 490 nm 570 nm
Blau 430 nm 490 nm
Violett 380 nm 430 nm

Tab. 1 Wellenlängen

Wellentheorie:
c = λ . f → Lichtgeschwindigkeit = Wellenlänge x Frequenz
Die elektromagnetische Strahlung wird in Lichtgeschwindigkeit in Wellenform übertragen.

Teilchentheorie:
Q = h . f → Energie des Quantums = Plank’sche Konstante x Frequenz
Je kürzer die Wellenlänge, desto höher die Energie. Es existiert ein linearer Zusammenhang zwischen der Energie und der Frequenz.

Boltzmann-Gesetz:
Je heißer ein Körper, desto mehr Energie wird ausgetauscht.

Wiens Verschiebungsgesetz:
Je heißer ein Körper, desto kürzer die Wellenlänge der maximalen Strahlung.

Einflüsse der Atmosphäre:
Wie bereits beschrieben, durchläuft die Strahlung die Atmosphäre, wobei diese die Strahlung beeinflusst. Die Strahlung ist abhängig von: der Wellenlänge, der Strahlungsenergie, der Weglänge und den atmosphärischen Bedingungen.Die Strahlung unterliegt dabei der Absorption, der Transmission und einer Streuung (scatter). Wichtig für die Aufnahmen in der Fernerkundung ist das atmosphärische Fenster welches jenen Bereiche kennzeichnet, der für einen Teil des Spektrums durchlässig ist. Die restliche Strahlung wird absorbiert (z.B. wird UV von Ozon absorbiert) (Bernhard 2003).

Die Streuung der Strahlen kann wie folgt ausfallen:

Rayleigh Scatter: Partikel < Wellenlänge (Staub)
Mie scatter: Partikel ~ Wellenlänge (Wasserdampf, Rauch)
Non selective scatter: Partikel > Wellenlänge (Wassertröpfchen)

Die Streuung beeinflusst die Strahlung, wodurch es zu störenden Effekten kommen kann, welche jedoch durch die atmosphärische Korrektur ausgeglichen wird (Steinrocher et all 2009).

Interaktionen an der Erdoberfläche:
Sobald die Strahlung die Erdoberfläche erreicht, kann mit ihr, je nachdem auf welches Geo-Objekt sie trifft, folgendes passieren: sie wird reflexiert, absorbiert oder transmittiert. Die Funktion des Reflexions-, Absorptions- und Transmissionsgrades der Oberfläche ist abhängig von: Art der Oberfläche, der Wellenlänge, dem Zustand der Oberfläche, der Lage der Oberfläche und dem Zeitpunkt der Aufnahme (Steinrocher et all 2009).

Emittierte Strahlung:

Thermalstrahlung:
Emission an der Erdoberfläche (8-14µm) ist abhängig von der Oberflächenbeschaffenheit und des Materials. Der Emissionsgrad bestimmt sich aus dem Verhältnis zwischen Strahldichte eines schwarzen Körpers und Strahldichte eines realen Körpers bei gleicher Temperatur. Der Einfluss der Atmosphäre ist durch Absorption und Eigenstrahlung bestimmt (Bernhard 2003).

Mikrowellen:
Emission der Erdoberfläche (1-100cm – langwelliger Bereich) ist abhängig von Feuchtigkeit und Temperatur. Die Emission von der Erdoberfläche ist sehr gering, deshalb ist der Einfluss der Atmosphäre vernachlässigbar und Mikrowellen (Radar) sind somit wetterunabhängig (Bernhard 2003).

4. Fernerkundungssysteme

In der Fernerkundung wird zwischen passiven und aktiven Systemen unterschieden. Bei den passiven Systemen geht die Strahlung von einer natürlichen Quelle aus, in den meisten Fällen von der Sonne. Diese Strahlung erreicht das zu untersuchende Geo-Objekt und wird von diesem absorbiert und/oder reflektiert. Die absorbierte Strahlung führt zu einer Erwärmung des Objektes, welche dann in thermale Strahlung emittiert (thermales IR). Die vom Objekt ausgehende reflektierte bzw. emeritierte Strahlung wird dann von einem passiven Sensor in Abhängigkeit der spektralen Empfindlichkeit aufgezeichnet. Passive Systeme sind: Kameras, TM-Scanner und Wärmesensoren. Bei aktiven Systemen sendet der Sensor die elektromagnetische Strahlung aus und empfängt diese nach der Reflektion des Objektes. Das System ist damit gleichzeitig Empfänger sowie Quelle der Strahlung. Aktive Systeme sind: Radar und Laserscanning. Abbildung 8 veranschaulicht die unterschiedlichen Systeme. (Prinz 2007)


                                                        Abb. 9 Fernerkundungssysteme

In der Fernerkundung werden entweder Satelliten, Flugzeuge und sogar bodengestütze Vorrichtungen als Träger der unterschiedlichen Systeme eingesetzt.


4.1. Photographische Aufnahmesysteme (Zeilenscanner)

Die Satelliten und Luftbilder, die den meisten Menschen geläufig sein dürften, beruhen auf den Methoden der Photographie. Hier dient die lichtempfindliche Schicht eines Filmes als analoges Speichermedium. Es ist also ein passives Verfahren, welches die Strahlung im VIS und NIR (400-1000 nm) je nach Filmempfindlichkeit über eine chemische Reaktion optisch aufnimmt.
Der Vorteil dieser Methode ist, dass sie relativ kostengünstig ist und individuelle Flächen erfassen kann. Nachteile sind die schwierige radiometrischen Kalibrierung, eine geringe spektrale Bandbreite und nicht zuletzt der analoge Primärzustand der Daten. Wobei in diesem Bereich immer häufiger digitale Kameras eingesetzt werden und es absehbar ist, dass analoge Kameras verschwinden werden.

Analoge Systeme: Schwarz-weiß (SW) Bilder liefern hier die beste geometrische Auflösung und sind somit die erste Wahl bei Anwendungen mit hohen Genauigkeitsansprüchen an geometrischer Information. Farbbilder (F) sind meist deutlich besser interpretierbar, haben allerdings eine schlechtere geometrische Auflösung. Falschfarben-Infrarotbilder (FIR) besitzen eine gute thematische Interpretierbarkeit (Prinz 2007 und Bernhard 2003).

Digitale Photosysteme oder auch Charge Coupled Devices (CCD) und Abtastsysteme (Scanner): Der wichtigste Unterschied ist, dass das Maß der Reflexion nicht auf einem Film festgehalten wird, sondern als elektronischer Impuls gespeichert wird (Prinz 2007 und Steinrocher et all 2009).
Bei der CCD-Bildaufnahme erfolgt die Belichtung vom Flugzeug direkt auf einen CCD-Sensor. Der Vorteil hier ist, dass durch neue Technologien mit einer Auslösung drei verschiedene Produkttypen realisiert werden können, nämlich: Panchromatisch, höhere Auflösung als VIS oder NIR, Echtfarbe (VIS) und NIR-Colorinfrarot. Das gesamte optische Spektrum wird also synchron ausgeschöpft (Prinz 2007).
Auf den meisten Satelliten werden digitale Scanner eingesetzt. Es wird zwischen optoelektronische Scanner (z.B. beim Spot-Satelliten) und optisch-mechanische Scanner (z.B. bei LANDSAT) unterschieden. Beide Systeme sind passive Scanner und sind sowohl in der Flugzeug-gestützten Geofernerkundung als auch in der Satelliten Geofernerkundung im Einsatz (Prinz 2007).
Optoelektronische Scanner tätigen die Bildaufnahme mit Hilfe von zeilenweise angeordneten Halbleiter-Bildsensoren. Für jeden Bildpunkt (Pixel) ist ein eigener Photosensor installiert.
Aktuelle CCD-Kameras verfügen über eine flächenhafte CCD-Anordnung (Zeilen x Spalten). Bei CCD-Aufnahmen vom Flugzeugen oder Satelliten werden die CCD-Zeilen in der Bildebene eines Objektes angeordnet. Dadurch ist es nun möglich, alle Pixel quer zur Flugrichtung orientierten Bildzeile gleichzeitig zu erfassen. Verdeutlicht wird dies in Abbildung 9 (Prinz 2007 und Bernhard 2003).


Abb.10 Optoelektronischer Scanner.


Vorteile dieser Technik sind das Fehlen einer mechanischen Bewegung, eine simultane Aufnahme der Reflexionswerte pro Zeile sowie über wechselnde Brennweiten der Optik eine veränderbare geometrische Auflösung. Zusätzlich ist es möglich, den Aufnahmewinkel mittels einer Fernsteuerung zu neigen und dadurch auch benachbarte Regionen aufzunehmen, was den Vorteil hat, dass durch eine mehrfache Befliegung das Gebiet unter verschiedenen Winkeln aufgenommen werden kann. Durch diese Technik ist das System in der Lage, Stereobilder zu erzeugen (Prinz 2007 und Steinrocher et all 2009).


4.2. Opto-mechanische Scanner Systeme (Rotationsscanner)


Optisch-mechanische Scanner Systeme tasten die Erdoberfläche über einen rotierenden Spiegel zeilenweise ab. Dabei wird die Strahlung fokussiert und in ein digitales Signal umgewandelt. Der Spiegel rotiert um eine der Flugbahn parallelen Achse. Folglich werden die Pixel quer zur Flugrichtung aufgenommen. Da sich das Trägersystem naturgemäß in Flugrichtung bewegt, werden die Geländestreifen zeilenweise hintereinander aufgenommen. Die Aufnahme erfolgt multispektral. Der Vorteil dieser Systeme ist die hohe spektrale Bandbreite. Der große Vorteil ist, dass nur bei diesem System Thermalstrahlung aufgenommen werden kann. Dem stehen allerdings eine geringe geometrische Auflösung und durch die Bewegung des Spiegels eine zusätzliche Bildverzerrung gegenüber (Prinz 2007 und Steinrocher et all 2009).

                                                         Abb 11. Zeilenscanner


4.3. Hyperspektrale Spektrometer


Dies sind relativ neue Systeme, welche erst in den letzten Jahren auf den Markt kamen. Die Systeme haben eine sehr hohe spektrale Auflösung in häufig mehr als 30 bis 200 aneinander grenzenden Kanälen und erlauben damit eine Archivierung eines nahezu kontinuierlichen Spektrums für jedes Bildelement. Dadurch können Geo-Objekte identifiziert und charakterisiert werden, die in ihren charakteristischen Absorption- und Reflexionseigenschaften sehr schmale/kleine Spektralbereiche aufweisen und von bisher eingesetzten Systemen nicht aufgelöst werden können. Aktuell werden solche Systeme meist in Flugzeugen installiert, allerdings gibt es bereits die ersten Satelliten, die mit einem solchen System ausgerüstet sind. Das neuste System ist hier: die aktuelle ENIMAP-Mission mit 218 Kanälen (Prinz 2007).

Abb. 12 Schematische Darstellung des Aufnahmeprinzips eines hyperspektralen Scanners (hier: HyMap)


4.4. Radarsysteme


Bisher wurden nur passive Systeme betrachtet. Das wichtigste aktive System ist das Radarsystem. Es ist ein aktives System im Mikrowellenbereich. Dabei gibt es grundlegende Unterschiede in der Aufnahmetechnik. Wie weiter oben bereits beschrieben, erzeugt ein aktives System die zu reflektierende Strahlung eigenständig und ist damit unabhängig von einer evtl. vorhandenen Wolkendecke und der vorhandenen Strahlungsdichte. In der Trägerplattform ist ein kombinierter Sender/Empfänger installiert. Die Sende- und Empfangsantenne ist schräg nach unten gerichtet. Je kürzer die Antenne (Apertur) ist, desto höher muss die Strahlungsenergie sein und umso geringer ist die räumliche Auflösung. Deswegen werden über komplizierte physikalische Konstruktionen und Programmierungen synthetische Antennen konstruiert, die auch in einer hohen Flughöhe eine hohe radiometrische Auflösung zulassen. Diese Systeme werden als SAR bezeichnet und finden vor allem in der Satellitentechnik Anwendung. Die Sensoren sind dabei so konstruiert, dass die ausgestrahlten Mikrowellen sich senkrecht zur Flugrichtung in einem sehr schmalen Raumwinkel ausbreiten. Sobald die Mikrowellenstrahlung ein Geo-Objekt treffen, werden Sie teilweise reflektiert und von der Antenne als Signal aufgezeichnet. Die Trägerplattform bewegt sich dabei in Flugrichtung und kann damit seitlich Bildstreifen erfassen. Diese werden dann zu einer Geländefläche zusammengefügt. Daher bezeichnet man ein solches System auch als Seitensicht-Radar oder Side-Looking-Airborne-Radar (SLAR) (Prinz 2007 und Steinrocher et all 2009).



Abb. 13 Schematische Darstellung der Radaraufnahme eines SLAR


Der wichtigste Faktor der Beurteilung der aufgenommenen Radarbilder ist die Oberflächenrauigkeit. Je größer die Rauigkeit des Geo-Objektes im Bezug zur Wellenlänge, desto stärker/intensiver ist das Radarecho. Ist die Rauigkeit zur Wellenlänge gering, wie es zum Beispiel bei glatten Wasserflächen der Fall ist, wird die Strahlung derart reflektiert, dass kein Signal am Empfänger ankommt. Daher ist Wasser bei Radarbildern immer schwarz und aus diesem Grund ist diese Technik hervorragend zur Überwachung und Detektierung von Überflutungsereignissen geeignet (Prinz 2007 und Steinrocher et all 2009).
Eine wichtige Rolle spielt die Oberflächenform auf das Radarecho. Flächen, die der schräg einfallenden Mikrowellenstrahlung zugewandt sind, werden auch stärker bestrahlt. Im gegenteiligen Fall weisen strahlungsabgewandte Flächen ein nur kleines Radarecho auf. Im Extremfall kommt es zu Schlag- bzw. Radarschatten, die eine Interpretation der Bilder deutlich verkomplizieren (Prinz 2007 und Steinrocher et all 2009).


Abschließend lässt sich sagen, dass die Interpretation von Radarbildern eine sehr komplexe und schwierige Arbeit darstellt. Die Forschungen auf diesem Gebiet halten bis zum heutigen Tag an. Dies liegt nicht zuletzt an der Tatsache, dass neue Systeme wie: ERS-1 und -2, MAGELLAN, SEDISAR in der Geofernerkundung wieder auf die Radar Technik setzten und es damit zwingend notwendig ist, sich mit Radartechnik auseinander zu setzten (Prinz 2007 und Steinrocher et all 2009).


                                                        Abb. 14 Reflexion von Radar.

Kurze Zusammenfassung der Systeme

Optische Sensoren:
Digital bildgebende Sensoren liefern zwei-dimensionale Bilder der Erdoberfläche, welche die optische Strahlung (sichtbares Licht, sowie nahes und mittleres Infrarot) wiedergeben.

Vorteile gegenüber analogen Systemen:
    • Größerer Spektralbereich
    • Geringere Bandbreiten
    • Ein optisches System
    • Bessere Kalibrierung
    • Elektronische Übermittlung
Zwei Arbeitsweisen von Optischen Sensoren:
    • Rotationsscanner quer zur Flugrichtung
    • Zeilenscanner in Flugrichtung

(Steinrocher et all 2009)

Rotationsscanner:
Sind Optisch-mechanisches Systeme mit einem rotierenden Spiegel, wobei eine Umdrehung einer Bildzeile (Scan) entspricht. Multispektral und Thermalscanner sind möglich (Steinrocher et all 2009).

Zeilenscanner:
Ist ein Opto-elektronisches System mit 1000 bis 2000 Pixelelementen (Steinrocher et all 2009).

SLAR – Side Looking Airborne Radar:
Eine Antenne ist parallel zur Flugrichtung montiert, wobei es zum abwechselnden Senden und Empfangen der Mikrowellen kommt. Die Bildrichtung ist seitlich normal zur Flugrichtung, wobei zeilenförmige Geländeausschnitte erfasst werden, da durch die Nutzung des Zeitfaktors für die Zeileninformationen keine senkrechten Aufnahmen möglich sind. Der Öffnungswinkel ist in Flugrichtung sehr klein, quer zur Flugrichtung hingegen groß. Die geometrische Auflösung ist in Flugrichtung abhängig vom Öffnungswinkel der Antenne und der Distanz zum Objekt. Normal zur Flugrichtung ist sie abhängig von der Pulslänge. Durch die Reflexionseigenschaften erscheinen Wasserflächen, außer bei hohem oder starkem Wellengang schwarz. In Radar-Aufnahmen gibt es keine Sonnenschatten, sondern Radarschatten (Steinrocher et all 2009).

SAR – Synthetic Aperture Radar:
Die Auflösung ist in Flugrichtung proportional zur Antennenlänge. Für Satellitensystem ist die Antenne zu kurz, wobei eine lange Antenne durch mehrere kurze Antennen ersetzt werden kann. Es werden sowohl die Intensität, als auch die Phase erfasst. Durch Interferenzen der mehrfach rückgestreuten Signale entsteht Rauschen (Speckle-Effekt) (Steinrocher et all 2009).

Neuere Systeme:
In den letzten Jahren lag einer der Forschungsschwerpunkte auf dem Airborne Laserscanning. Da dieses Technik sich nicht auf Satelliten installieren lässt, wird sie hier nur kurzvorgestellt. Airborne Laserscanning ist eine ideale Technik, wenn es um Höhenmodelle geht. Die Daten werden Beispielsweise bei Überflutungsereignissen oder Lawinenereignissen benötigt.

Airborne Laserscanning:
Ein rotierender Laserstrahl tastet die Erdoberfläche ab (aktives System), wobei über eine Laufzeitmessung die Distanz zum Punkt auf der Erdoberfläche bestimmt wird. Aufgrund der geringen Distanzen treten keine Überlappungen auf. Die Orientierung des Laserstrahls erfolgt durch GPS und INS. Das Ergebnis ist eine 3d-Punktwolke, wobei die Punktdichte von der Flughöhe und vom Sensortyp abhängig ist. Es werden Höhengenauigkeiten von <10cm erreicht werden, weshalb Geländemodelle erstellt werden können. Alternative DHM-Erstellung z.B. durch Photogrammmetrie. Das erste und letzte Echo wird gemessen (Oberfläche und Gelände), wodurch es möglich ist, ein Digitales Oberflächen Model (DOM) und ein Digitales Gelände Modell (DGM) zu erstellen (Steinrocher et all 2009).


4.5. Wichtige Geofernerkundungssysteme

Bevor in diesem Unterkapitel die wichtigsten Geofernerkundungssysteme vorgestellt, ist es nötig die verschiedenen Bahnparameter von Satellitensystem zu kennen.
Bahnparameter:

Umlaufbahn (Orbit):
    • Kreisförmig (konstante Flughöhe)
    • Sonnensynchron (Bahnebene enthält Sonnenlicht – „Rückenlicht“)
    • Polnah (Inklination ~90°)
    • Geostationär (Inklination = 0°) … am Äquator, hohe Flughöhe (36.000km) und langsame Geschwindigkeit. Der Satellit „fliegt mit der Erde mit“.
Flughöhe:
    • Höhe über der Erdoberfläche, invers proportional zur Geschwindigkeit

Inklination (Neigung):
    • Winkel zwischen Äquator und Bahnebene. Entspricht der höchsten Breite, die der Satellit erreicht.

In der Fernerkundung werden geringe Höhen bevorzugt. Unter 400 km kann jedoch kein Satellit mehr fliegen, da er aufgrund der atmosphärischen Reibung einen zusätzlichen Antrieb benötigen würde (Prinz 2007 und Steinrocher et all 2009).


Der momentane Trend liegt bei kleinen sehr flexiblen Systemen mit einer hohen Auflösung, aber auch die älteren Systeme sind nach wie vor aktiv und werden weiterhin intensiv genutzt. 
 
Abb. 15 Hochauflösenden Systeme seit 1997

                                                           Abb. 16 geplante Systeme


Landsat 4 und 5
  • aktiv seit 1982/1984
  • TM – Thematic mapper (Rotationsscanner)

Kanal
spektral (μm)
geometrisch (m)
Streifenbreite (km)
1
0.45 - 0.52
30
185
2
0.52 - 0.60
30
185
3
0.63 - 0.69
30
185
4
0.76 - 0.90
30
185
5
1.55 - 1.75
30
185
6
10.40 - 12.50
120
185
7
2.08 - 2.35
30
185
Tab. 2 Landsat


Landsat 7
  • aktiv seit 1999
  • ETM+ – enhanced thematic mapper plus (Rotations scanner)

Kanal
spektral (μm)
geometrisch (m)
Streifenbreite (km)
1
0.45 - 0.52
30
183
2
0.52 - 0.60
30
183
3
0.63 - 0.69
30
183
4
0.76 - 0.90
30
183
5
1.55 - 1.75
30
183
6
10.40 - 12.50
60
183
7
2.08 - 2.35
30
183
8
0,45-0,90
15
183
Tab 3 Landsat 7

SPOT 4
  • aktiv seit 1998
  • HRVIR (high resolution visible and infrared) Sensor

Kanal
spektral (μm)
geometrisch (m)
Streifenbreite (km)
Xs1
0.50 - 0.59
20
60
Xs2
0.61 - 0.68
20
60
Xs3
0.79 - 0.89
20
60
Xs4
1.58 - 1.75
20
60
Pan
0.61 - 0.68
10
60
Tab. 4 SPOT 4


SPOT 5
  • aktiv seit 2002
  • HRG (high resolution geometry) Sensor

Kanal
spektral (μm)
geometrisch (m)
Streifenbreite (km)
Xs1
0.50 - 0.59
10
60
Xs2
0.61 - 0.68
10
60
Xs3
0.79 - 0.89
10
60
Xs4
1.58 - 1.75
20
60
Pan
0.48 – 0,71
5 – 2,5
60
Tab 5 SPOT 5

IRS 1C/D
-aktiv seit 1995/97
-LISS III Sensor

Kanal
spektral (μm)
geometrisch (m)
Streifenbreite (km)
1
0.52- 0.59
23,5
141
2
0.62 - 0.68
23,5
141
3
0.77 - 0.86
23,5
141
4
1.55 - 1.70
70,5
148
Pan
0.50 - 0.75
5,8
70
Tab 6 IRS 1C/D

Ikonos
  • aktiv seit 1999
  • Hochauflösender PAN/Multispektralsatellit

Kanal
spektral (μm)
geometrisch (m)
Streifenbreite (km)
2
0.45 - 0.52
4
11
3
0.51 - 0.60
4
11
4
0.63 - 0.70
4
11
5
0.76 - 0.85
4
11
1 Pan
0.45 - 0.90
1
11
Tab. 7 Ikonos
Quickbird
  • aktiv seit 2001
  • Hochauflösender PAN/Multispektralsatellit

Kanal
spektral (μm)
geometrisch (m)
Streifenbreite (km)
2
0.45 - 0.52
2,44
16
3
0.51 - 0.60
2,44
16
4
0.63 - 0.69
2,44
16
5
0.76 - 0.90
2,44
16
1 Pan
0.45 - 0.90
0,61
16
Tab. 8 Quickbird

Weitere VHRI Satelliten:

Aktiv

- Formosat 2 NSPO (Taiwan) 2004 2,0m pan
- Kompsat 2 KARI (Süd Korea) 2006 1,0m pan
- EROS B ImageSat (Israel) 2006 0,7m pan
- WorldView 1 Digital Globe (US) 2007 0,5m pan
- GeoEye 1 GeoEye (US) 2008 0,4m pan
- WorldView 2 Digital Globe (US) 2009 0,46m pan
- Pleiade-HR1 CNES (F) 2010 0,70m pan

Geplant
- GeoEye 2 GeoEye (US) 2011 0,25m pan
- Pleiade-HR2 CNES (F) 2011 0,70m pan

(Prinz 2007, Bernhard 2003 und Steinrocher et all 2009)

4.6. Welches System für welche Naturgefahr?

Wie im Kapitel 4 beschrieben, gibt es eine große Anzahl an Faktoren und Systemen aus denen man wählen kann. Zwingend zu beachten ist allerdings, dass sich nicht jedes fernerkundliche System für jede Art von Naturgefahren einsetzten lässt. Es ist also genau abzuwägen, welches System für welche Gefahr zu verwenden ist. Zudem hat jede Organisation, sei es eine GO oder NGO, unterschiedliche Ansprüche bezüglich der verschiedenen Parameter. Der wichtigste Faktor ist der zeitliche Faktor. Kurzfristige, schnell auftreten Naturkatastrophen wie Hochwasser, Sturmfluten oder Tsunamis sollten durch Systeme überwacht werden, die eine möglichst hohe Überfliegungsrate aufweisen. Lang andauernde Prozesse wie Desertifikation, Landslide etc. sind deutlich einfacher zu überwachen, da die Daten nicht innerhalb weniger Stunden zur Verfügung stehen müssen.

Zudem werden eine Fülle von Informationen gebraucht, welche die reine Fernerkundung meist nicht liefern kann und in der Regel bereits vor dem Monitoring kartiert werden müssen. So werden in nahezu allen Fällen Karten über die aktuelle Landnutzung benötigt. Dazu kommt eine Reihe von speziellen Informationen, deren Beschaffung teilweise sehr umständlich und zeitintensiv sein kann. So werden bei Landsildes zum Beispiel genaue Angaben über Einzugsgebiet, Oberflächenabfluss, Hangstabilität, Bodentyp, Hangtyp und Gebiete mit stehendem Wasser benötigt und dies für das ganze zu beobachtende Gebiet. Es ist also deutlich ersichtlich, das die Fernerkundung kein Wundermittel ist welches die Arbeit im Gelände unnötig werden lässt. Nur durch eine solide Vorbereitung im Gelände, können fernerkundliche Daten überhaupt genutzt werden. Eine Hilfestellung, welches System zu welcher Katastrophe passt, liefern die folgenden zwei Tabellen. Die Tabellen geben die Mindestanforderungen wieder, die ein System erfüllen muss, um zur Überwachung gefährdeter Gebiete eingesetzt werden zu können: Es gilt, sollten die Mindestanforderungen übertroffen werden können, hat dies auch eine deutliche Steigerung der Effizienz zur Folge (Oesch 2001).

                                         Tab. 9 Examples of the Uses of Space Remote Sensing



Erdbeben
Vulkanische Eruption
Erdrutsch
Tsunami
Desertifikation
Flut
Sturm/ Hurrikan
Benötigte Information Nutzungskarten, Geologische Karten Karte der vulkanischen Aktivität, Lawafluss, Aschefalls und Feuergefährdung Geologische Karten, Einzugsgebiet, Hangstabilität, Bodentyp, Gebiete mit stehenden Gewässern, Nutzungskarten Bathymetric/ Topographische Karten Landnutzungs-karten, Bodentyp, Karte der landw. Nutzung und der Vegetation Nutzung historische Daten BodenbedeckungBodenfeuchte, Überflutungsplan Nutzungskarten
Spektrales Band Sichtbares und nahes Infrarot Sichtbar, nahes IR und thermales IR Sichtbar Sichtbar, einschließlich Blau und nahes IR Sichtbar, nahes IR und Mikrowellen Nahes IR, thermales IR und Mikrowellen Sichtbar und nahes IR
Räumliche Auflösung [m] 20 – 80 30 – 80 10 – 30 30 80 – 1000 20 für Siedlungen
30 – 80 für genutzte Flächen
1000 für Schnee, Gletscher
20 für Siedlungen
30 – 80 für genutzte Flächen


Räumliche Abdeckung Großflächig Großflächig Großflächig Große Küsten Flächen Große regionale Flächen Große regionale Flächen Großflächig
Allwetterfähig Nein Nein Nein Nein Nein Nein Nein
Überblick Ja Ja Ja Ja Ja Ja Ja
photometrisches Stereo Ja Ja Ja Ja Nein Ja Nein
Überfliegungshgäufigkeit 1 bis 5 Jahre 1 bis 5 Jahre 1 bis 5 Jahre 1 bis 5 Jahre Monatlich Saisonal Jährlich
Tab 10 Mindestanforderungen

Abb.17 Landsat 5


Abschließend gibt Tabelle 11 die Charakteristika einiger Satelliten wieder, die derzeit in der Fernerkundung im Bezug auf Naturgefahren eingesetzt werden. Diese Liste ist nicht vollständig, sondern bietet nur einen Anhaltspunkt, um ein Gespür über die bestehenden Möglichkeiten zu bekommen.


Satellit SPOT LANDSAT 5 LANDSAT 7 ERS - 1 NOAA IRS (LISS) METEOSAT
Betreiber SPOT Image NASA NASA ESA NASA Indien ESA
Umlaufbahn sonnensynchron sonnensynchron sonnensynchron sonnensynchron sonnensynchron sonnensynchron geostationär
Höhe 830 km 705 km 705 km 777 km 815 km 904 km 35.800 km
Anwendungs-
Bereiche
Landnutzung,
Geologie
Landnutzung,
Geologie
Landnutzung, Geologie, Hydrol. Landinformation
Ozeane, Eis
Erde bei Tag & Nacht Landnutzung, Geologie, Hydrol. meteorologische
Daten
Räumliche Auflösung 10 m (pan) 20 m (ms) 30 m  120 m (tir) 15 m (pan), 30 m (ms), 60 m (tir) 30 m 1.000 m im Nadir LISS 3: 25 m 2.500 m (vis) 5.000 m (ir)
Zeitliche  Auflösung 21 Tage 16 Tage 16 Tage 3 Tage 12 Stunden 22 Tage 30 Minuten
Radiometr. Auflösung 8 Bit 8 Bit 8 Bit 8 Bit 10 Bit 8 Bit 8 Bit
Spektrale  Auflösung 1 Kanal pan 2 Kanäle ms 6 Kanäle ms 1 Kanal tir 6 Kanäle ms 1 Kanal tir 1 Kanal pan aktives Radar-
System (SAR)
5 Kanäle 4 Kanäle 2 Kanäle (vis, nir) 1 Kanal (tir)
Tab. 11 Charakteristika einiger Satelliten


Katastrophenursache ermittelbare Parameter Sensoren/Satelliten
Erdbeben Topographie SPOT
digitale Höhenmodelle Landsat TM
Zustandsveränderungen ERS-1/-2
(Interferometrie) Radarsat
Dürre Niederschlag NOAA-AVHRR
Vegetationsindex SPOT
Vegetationszustand Landsat TM
Bodenfeuchte Meteosat, MSG
Flut (u.a. Hochwasser) Niederschlag NOAA-AVHRR
Topographie ERS-1/-2
Wolkenbedeckung Meteosat, MSG
Überflutungsflächen

Schneebedeckung

Bodenfeuchte

Vulkanausbrüche Deformationen ERS-1/-2
Aufwölbungen SPOT
Eruptionswolken Landsat TM
Oberflächentopographie

Hangneigungen

Stürme (Wind, Sandstürme) Wolkenbedeckung Meteosat, MSG
Windfelder NOAA-AVHRR
Luftdruck ERS-1/-2
Niederschlag GOES
Wildfeuer Oberflächentemperaturen NOAA-AVHRR
Vegetationsindex ERS-1/-2
Topographie SPOT


Landsat TM
Hangrutschungen digitale Geländemodelle SPOT
Bodenfeuchte Landsat TM
Niederschlag ERS-1/-2
Zustandsveränderungen

Massenschädlinge digitale Geländemodelle NOAA-AVHRR
Vegetationszustände ERS-1/-2
Bodentemperatur SPOT
Klimafaktoren Landsat TM
Tab 12 Einsatzmöglichkeiten von Fernerkundungstechniken im Katastrophenmanagement



4.7 Fazit des Kapitel 4

Wie in diesem Kapitel dargestellt, gibt es eine große Anzahl verschiedener Systeme sowie Plattformen. Es ist dementsprechend eine zwingende Voraussetzung, sich mit der Art der Naturgefahren auseinander zu setzen und dann die geeignete Plattform samt System zu wählen. Oft ist es auch von Vorteil, verschiedene Systeme zu kombinieren, um eine höhere Informationsdichte zu erhalten. Zum Beispiel Landsataufnahmen in Kombination mit Radaraufnahen und zudem noch Aufnahmen, die durch Airborne Laserscanning gewonnen wurden. Zu beachten ist, dass das Kapitel 4 in keinster Weise eine vollzählige Aufstellung aller Möglichkeiten behandelt, da in dem Bereich der Fernerkundung jährlich neue Innovationen und Technologien zur Marktreife gebracht werden. Ziel des Kapitel 4 war es, die Möglichkeiten der am häufigst eingesetzten Systeme zu verdeutlichen. Zudem sollte ein erstes Fach-, Technisches- sowie auch Detailwissen im Bereich der Fernerkundung vermittelt werden. Eine gute Möglichkeit, sich über den aktuellen state-of-the-art zu informieren, sind die regelmäßigen Fachkonferenzen, die weltweit stattfinden. Eine weitere Informationsquelle ist das Weltraumbüro der UN, welche ihren Sitz in Wien hat. Dieses Büro hilft gerne, schnell und kompetent bei speziellen Fragen weiter.


5. Risk- Disastermanagement


Bevor auf die einzelnen Naturgefahren eingegangen werden kann und wie mit ihnen fernerkundlich sowie im Disaster- Riskmanagement verfahren wird, muss vorab geklärt werden, wie sich dieses Management überhaupt zusammensetzt. Welche Mechanismen gibt es? Wo liegen die Schwerpunkte? Was ist Risiko- bzw. Disastermanagement überhaupt?

Anmerkung: Beim Studium der Fachliteratur wird einem sehr schnell auffallen, dass zwei Begriffe fast synonym verwendet werden. Der erste ist Riskmanagement bzw. Risikomanagement und der zweite ist Disastermanagement bzw. Katastrophenmanagement. Die Grenze zwischen beiden ist kaum zu erkennen und fließend. Im Allgemeinen gilt jedoch der Kontext, dass das Katastrophenmanagement ein Teil des Risikomanagement ist. Da sich diese Bachelorarbeit nicht ausschließlich mit dem Management beschäftigt, sondern nur einen kurzen Überblick geben will, folgt sie dem allgemeinen Kontext und gliedert das Katastrophenmanagement dem Risikomanagement ein und unterscheidet nicht extra.

5.1. Paradigmen der Naturgefahrenforschung

Zurzeit werden in der Naturgefahrenforschung bzw. der Risikobetrachtung (Risk- Disastermanagement ist ein Teil davon) zwei Paradigmen angewandt. Das verbreiterte Paradigma ist der nicht integrative Ansatz, wie in Abbildung 18 zu sehen.

                                                   Abb. 18 Segmente der Risikobetrachtung

Jedes Segment wird von einer Disziplin geleitet, die sich nur punktuell in überschneidenden Bereichen austauschen. Die einzelnen Akteure halten an ihrer historisch gewachsenen Segmentierung fest. Dies hat den Vorteil, dass das benötigte Know How der entsprechenden Spezialdisziplinen vorhanden ist. Nachteile sind, die Akteure verfolgen absichtlich oder unabsichtlich ihre eigenen Interessen und die unterschiedliche Motivation der Fachbereiche erschwert eine Konsensbildung in der Planung.

Dem gegenüber steht das neue Paradigma, welches ein integrativeres Konzept ist. Es ist in Abbildung 19 dargestellt. 


Abb. 19 integratives Paradigma

Dieses Paradigma trennt die Segmente in die Bereiche: Analyse, Bewertung und Management. Die naturwissenschaftliche Risikoanalyse liefert Informationen über das Ausmaß und die Wahrscheinlichkeit der zu erwartenden Schäden durch eine Naturgefahr. Nachdem die maßgeblichen Parameter Raum, Zustand und Thematik bestimmt wurden, wird die Gefährdung durch das zu untersuchende Georisiko über die Gefährdungsanalyse und die zu erwartenden Auswirkungen beim Eintritt des Ereignisses mit einer Vulnerabilitätsanalyse ermittelt.

Darauf aufbauend wird die spezifische Intensität und Wahrscheinlichkeit bzw. Häufigkeit berechnet. Die Kenntnis der potenziellen Bedrohung ermöglicht nun die Abschätzung möglicher Schäden im Katastrophenfall und liefert damit die Grundlage für das Risk-/ Disastermanagement (Markau 2008).

Die in dieser Bachelorarbeit bestimmende Fernerkundung setzt hier im Bereich Analyse, Monitoring und Systemabgrenzung an.

Ein Beispiel aus der Praxis für diesen Ansatz mit Integration der Fernerkundung ist der Potsdamer Forschungs- und Technologieverbund zu Naturgefahren, Klimawandel und Nachhaltigkeit. Abbildung 20 verdeutlicht diesen vernetzten/ integrativen Ansatz. 


Abb. 20. Potsdamer Forschungs- und Technologieverbund

Der neue Forschungsverbund beschreibt sein Konzept/Strategie wie folgt:
Mit der Gründung eines neuen Forschungsverbundes universitärer und außeruniversitärer Partner sowie Akteuren der Wirtschaft und Verwaltung zur Naturgefahren-, Klimawandel- und Nachhaltigkeitsforschung soll deshalb in Potsdam eine Kooperation entwickelt werden, in der die international anerkannten Forschungs- und Ausbildungskompetenzen der Region mit Technologieschwerpunkten im Bereich der satellitengestützten Erdbeobachtung, der Geoinformationswirtschaft sowie des Geoconsultings verknüpft werden. Damit werden die Innovationspotentiale im Bereich der gemeinschaftlichen Forschung und akademischen Lehre gezielt ausgebaut. Der Ansatz des Verbundes ist multidisziplinär.“ (Zitat. Strecker; Berger 2009, S.10)

Das eben erwähnte Beispiel zeigt deutlich, dass sich das neue integrative Konzept langsam aber sicher durchsetzten wird. Ein weiters Beispiel ist UN-Spider. Über das Pogramm, wird in Kapitel 7 informiert.

5.2. Risikomanagement

Als Faustformel zur Risikobestimmung gilt:

Risiko = Gefahr H * Verletzbarkeit V * Wert W

R = H * V * W [Euro / Jahr]

H: Wie häufig tritt eine Intensität I auf? [1/Jahr]

V: Welcher Schadengrad erfährt das Objekt bei der Intensität I ? [%]

W: Welchen Wert hat das Objekt? [Euro]

(Wegmann 2009)

Warum haben Naturkatastrophen oft dramatische Folgen?
Weil Naturgefahren durch den Menschen nicht verhindert werden können, ist das Mobilisierungspotential
der Gesellschaft eher klein. Daher sind die erforderlichen Schutzmaßnahmen oftmals politisch schwer durchsetzbar.“ (WBGU 1999)

Der WBGU (Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen)

nennt als Gründe hierfür1: Die geringe Eintrittswahrscheinlichkeit mancher Naturereignisse verleitet dazu anzunehmen, dass das nächste Ereignis erst in ferner Zukunft eintreten wird. Das hohe Schadenspotential der Naturereignisse (z.B. von Meteoriteneinschlägen) übersteigt die Vorstellungskraft vieler Menschen. Die Unsicherheit bei der Prognose von Naturkatastrophen verleitet dazu, ihr Gefahrenpotential zu ignorieren oder zu leugnen. Ein zusätzlicher Verdrängungseffekt tritt dann auf, wenn seit der letzten Katastrophe längere Zeit verstrichen ist. Die Bereitschaft zu finanziellen Opfern für Maßnahmen der Risikominderung verringert sich beträchtlich bei Gruppen, die nicht direkt durch ein Naturrisiko betroffen sind oder zu sein scheinen. Bestehende technische Schutzmaßnahmen (z.B. Deichbauten in hochwassergefährdeten Gebieten) verleiten die Bevölkerung zu der Illusion, dass kein Restrisiko mehr gegeben ist (Markau 2008).

Was bedeutet Risikomanagement?
Methodik zur Gestaltung, Entwicklung und Steuerung von Systemen zur Risikoreduktion. Risikomanagement umfasst Strategien und Maßnahmen, die zu einer Entscheidung über den Handlungsbedarf, zu Maßnahmen und zu deren Implementation und Überwachung führen. (PPRS 1993)

Abb. 21 Risikomanagement

In Abbildung 21 ist das Schema des Risikomanagements dargestellt. Es wird in zwei Hauptstränge unterteilt. „Was kann passieren?“ und „Was darf passieren?“. Die Fernerkundung setzt in beiden Bereichen an. Bei: „Was kann passieren?“ liefert Sie beispielsweise Daten über Stärke und Richtung eines Sturms und bei: „Was darf passieren?“ liefert die Fernerkundung die Datengrundlage für eine Modellierung, aus der sich verschiedene Szenarien ableiten lassen.

Dieses Unterkapitel beschäftigt sich mit den einzelnen Schritten des Risikomanagements. Die konkrete Verbindung mit den Naturgefahren und deren fernerkundlichen Erfassung wird in Kapitel 6 beschrieben. Ziel dieses Kapitels ist es zu verstehen, welche Schritte und Mechanismen das Risikomanagement beinhaltet.

Abb. 22 Aufteilung der Naturgefahren

Abb. 23 Risikomanagement – Kreislauf für Naturrisiken


Am2 Anfang des Risikomanagements steht die Risikobeurteilung. Unterteilt wird diese Phase in die Risikoanalyse und die Risikobewertung. Das Resultat hängt ab von der Art des GeoRisikos und der Bewertung des Risikos. Diese Bewertung kann sich durch natürliche oder anthropogene Prozesse verändern und ist deswegen in einem regelmäßigen der Naturgefahr angepassten Turnus neu zu bewerten. Die Beurteilung ist auch davon abhängig, mit welchen Detailgrad das Risiko erfasst und bewertet wurde. Hier setzt die Fernerkundung an. Tauchen neue Erkenntnisse auf, oder die Ausgangslage, wie beispielsweise die Nutzung, verändert sich dann muss eine neue Beurteilung getroffen werden. Die Fernerkundung eignet sich hierbei als Mittel zum Monitoring, von abgelegenen Gebieten oder um Langzeitbeobachtungen durchzuführen (Stichwort: Verstädterung). Für jede Risikobewertung sollte offen liegen, auf welcher Basis sie zustande kam. Die Beurteilung wird zudem noch in Analyse und Bewertung unterteilt. Abbildung 23 gibt wieder, welche Unterschritte diese beinhalten (Kipfer 2005).

Abb. 24 Analyse/Bewertung

Als nächste Phase schließt sich die Vorbeugung an. In diesem Bereich müssen die Konsequenzen aus der vorangegangenen Phase gezogen werden. Ziel ist es, das vorhandene Risiko auf ein akzeptables Maß zu senken. Unterteilt ist die Phase in Prävention und Vorsorge. Durch die Prävention soll der Schaden durch eine angemessene Raumplanung vermieden oder durch technische Maßnahmen verhindert werden. Folgende Methoden können genutzt werden: Raumplanung (Gefahrenzonen), technische Maßnahmen (Schutzbauten, Objektschutz...) oder biologische Maßnahmen (z.B. Schutzwald). Gerade bei der Raumplanung und der Kartierung der Gefahrenzonen leistet die Fernerkundung in der Kombination mit Geoinformationssystemen (GIS) unschätzbare Dienste, da diverse Modelle modelliert, kombiniert und graphisch bearbeitet werden können. Die Fernerkundung liefert hier: Orthophotos, Geländemodelle, Höhenmodelle und genau angepasste Spezialkarten. Durch die Vorsorge wird sichergestellt, dass eine Naturkatastrophe bewältigt werden kann, sollte die Leistungsmöglichkeit der präventiven Maßnahmen überschritten worden sein (Kipfer 2005).


Die Phase der Bewältigung ist einsatzorientiert. Gefährliche Prozesse können trotz aller präventiven- bzw. vorbeugenden Maßnahmen auftreten. Unterteilt ist diese Phase in Einsatz und Instandhaltung. Im Einsatz, werden in den ersten Momenten der Katastrophe meist improvisierte Entscheidungen getroffen. Später bzw. bei vorhersehbaren Katastrophen (wie z.B. Hochwasser im Hinterland), folgen die Einsatzkräfte einen festgelegten Einsatzplan. Das Ziel ist es, das Naturereignis optimal zu managen. Ab jetzt beginnt das Disaster- bzw. Katastrophenmanagement, auf das später noch einmal eingegangen wird. Die Fernerkundung liefert schnell benötigte Daten, wie Wetterdaten, Überflutungsdaten, aktuelle Orthophotos und darauf basierende Karten (Kipfer 2005).

Den Abschluss bildet die Phase der Regeneration. Dieser Abschnitt ist in Dokumentation und Wiederaufbau gegliedert. In wirtschaftlich starken Gebieten unterscheidet sich diese Phase kaum vom Alltag, es sei denn dieses Gebiet wurde unverhältnismäßig stark betroffen. Am Ende jedes Katstrophenereignisses sollten die Ergebnisse der Schäden dokumentiert werden, damit auf deren Basis eine neue Bewertung stattfinden kann. Die ersten Ergebnisse sollten sehr schnell vorliegen, damit evtl. Änderungen beim Wiederaufbau berücksichtigt werden können. Die Fernerkundung setzt nun wieder als Bildergebendverfahren an, sofern großflächige Gebiete betroffen sind. Mit dem Wiederaufbau wird wieder der Alltagsbetrieb aufgenommen. Der Wiederaufbau sollte nicht den Status quo wiederherstellen, sondern zu einer Verbesserung führen (Kipfer 2005).

Abb. 25 Risikomanagement


5.3. Informationsbedarf im Katastrophenmanagement

Wie in den oberen Abschnitten dargestellt, werden im Katastrophenfall umfangreiche Informationen sowie Daten benötigt. Diese Daten müssen eine hohe Qualität im Bezug auf Aktualität und Genauigkeit aufweisen. Eine Hilfestellung welche Daten insgesamt benötigt werden liefert Tabelle 14. Wichtig zudem ist, das nicht nur die Einsatzkräfte zugriff auf die unterschiedlichen Informationen haben, sondern auch die Bevölkerung des betroffenen Gebietes, hat einen großen Bedarf an Information (Hermann 2007).


Kategorie Beispiele
Klimadaten Temperaturen, Luftfeuchtigkeit, Niederschlagsmengen, Luftdruckverhältnise,

Windgeschwindigkeiten, Zugbahn von Tief- bzw. Hochdruckgebieten



Gewässerdaten Pegelstände, Abflussmengen, Wasserqualität
Vegetationsdaten Bewuchs, Baumkataster usw.
Reliefdaten Fernerkundungsdaten, digitale Geländemodelle
demographische Daten Zensusdaten, Bevölkerungsdichte, Bevölkerungsverteilung, Bevölkerungsstruktur, Bevölkerungsentwicklung
Landnutzungsdaten Nutzungsstruktur, -vielfalt, Gewerbekataster
Verkehrsdaten Straßennetz, Schienennetz, Zustand der Verkehrsnetze
Liegenschaftsdaten Gebäude, Besitzer, Flurstücke usw.
Versorger- und Infrastrukturdaten Lage von Gas-, Strom-, Wasserleitungen, Hydranten, Kanalisationsrohren und -deckeln
Lage und Eigenschaften von Risikogebieten Gefahren-, Gefährdungs-, Risikokarten
Informationen zum Katastrophenereignis Stärke, Ausdehnung, Ausbreitung, Ausbreitungsgeschwindigkeit usw.
Schadenskartierung Gebäudeschäden, Infrastrukturschäden, Überflutungspläne
Standortinformationen Standort von Gefahrgütern, Einsatzkräften, Einsatzwägen, Sammelplätzen, Schutzbauten, Notfallbrunnen, Sonderausrüstung/-material
logistische Informationen Position und Lagerstände von Depots für Versorgungsgüter und sonstige Ressourcen, Informationen zur Verkehrslage
Warnungen Katastrophenalarm, ABC Alarm
Handlungsanweisungen empfohlene Evakuierungsrouten, Ausgangssperre
Pläne z.B. Einsatzpläne, Gefahrenabwehrpläne, Flächennutzungspläne, Bebauungspläne
Hintergrunddaten Ausstattung und Qualifikation der Akteure, Gefahrgutdatenbank, Daten zu Vorschriften und Regeln
Tab. 13 Beispiele für im Katastrophenmanagement benötigte Daten


5.4 Geodaten im Katastrophenmanagement

(Da Geodaten von großer Wichtigkeit sind, befasst sich Anhang A intensiver mit diesen.)

Beim Katastrophenmanagement gibt es einen hohen Bedarf an Geodaten, da diese Auskunft über Gegenstände, Geländeformen und Infrastruktur geben. Das wesentliche Merkmal von Geodaten ist der Raumbezug und das Geodätische Datum. Diese mathematische Methode weist jedem Punkt der Erde eine genaue Koordinate zu. Wie bereits erwähnt, liegt die Besonderheit der Geodaten in der Möglichkeit, Informationen zu einem genau definiertem Punkt aus verschiedenen Thematiken und verschiedenen Quellen in einer Datei zu vereinen. Dies ist im Katastrophenmanagement auch nötig. Das Bindeglied dieser verschiedenen Daten ist der räumliche Bezug. Geodaten können durch Überlagerung, Verschneiden, Filtern, Rastern, Vektorisieren usw. in eine gemeinsame Relation gebracht werden (Hermann 2007). 
 

Abb. 26 Geodaten

Geoaten können in vektorisierter oder gerasterter Form vorliegen. Vektordaten sind Geometriedaten, die durch Polygone, Linien oder Punkte im zwei oder dreidimensionalen Raum repräsentiert werden. Die Führungspunkte sind durch das räumliche Bezugssystem genau definiert. Rasterdaten setzen sich aus Bildpunkten (Pixel) zusammen. Jedes Pixel hat eine identische Größe und ihm sind Zahlenwerte zugeordnet wie: Farbinformationen, Höhenwerte oder Eigenschaften des Raumausschnittes. Die gebräuchlichsten Rasterdaten sind: Orthophotos oder Satellitenbilder. Wichtig für alle Arten von Geodaten sind die Metadaten. Diese beinhalten zweckgebundene Informationen wie Quellenangaben, Qualitätsangaben (z.B. Aktualität, Genauigkeit) sowie Informationen zur Semantik, zum Datenmodell oder dem zugrunde liegenden Referenzsystem (Hermann 2007).

Die benötigten Geodaten werden durch unterschiedliche Methoden erfasst. Im Katastrophenmanagement werden diese Datensätze sehr häufig über diverse Satelitensysteme aufgenommen. Dies hat den Vorteil, das die erfassten Daten aktuell sind und zudem mit hoher Präzession geliefert werden können. Zudem haben Satellitensysteme die Möglichkeit sehr große Gebiete zu erfassen, was einen zeitnahen Überblick über die betroffene Region liefert. Zusätzlich werden Satelliten auch im Monitoring verwendet, wodurch Veränderungen im betrachteten System frühzeitig erkannt werden können. Bei allen Vorteilen die diese Technik liefert, sind auch einige Nachteile zu nennen. Augrund der Umlaufbahn der verwendeten Satelliten, ist eine Erfassung betroffener Gebiete nicht zu jedem Zeitpunkt möglich. Die Auswertung von Satellitendaten, insbesondere von Radardaten ist sehr komplex und kann viel Zeit in Anspruch nehmen. Aus diesem Grund, sind die Daten oft im Gegensatz zu der landläufigen Meinung häufig nicht in Realtime verfügbar (Hermann 2007).

5.5 Fazit
Das systematische Management von Katastrophen beinhaltet neben Verwaltungsentscheidungen vor allem Strategien und Bewältigungskapazitäten einer Gemeinschaft, um eine Naturgefahr abzuwehren bzw. ihre Auswirkungen zu lindern. Es soll sicherstellen, dass im Katastrophenfall angemessen auf die Gefahr reagiert wird. Beim Risikomanagement haben Fernerkundungsverfahren eine besondere Stellung. Die Möglichkeiten der Wettervorhersage via Satellit, schwer zugängliche Gebiete zu erkunden und durch GPS Einsatzgerätschaften zu lokalisieren, macht die Fernerkundung zu einem wichtigem Mittel.

6. Fernerkundung und Riskmanagement

1972 wurde der erste Earth Resource Satellit (Landsat 1) gestartet. Seitdem hat die Fernerkundung deutliche Fortschritte in der Technik und in den Einsatzmöglichkeiten erzielt. Diese Entwicklung und der aktuelle Stand der Forschung wurde bereits in den Kapiteln 2 bis 5 beschrieben.
Verschiedene Satelliten und Sensoren können uns heute einzigartige Informationen über die Eigenschaften der Erde zur Verfügung stellen. Vom Satelliten aufgenommene Daten der reflektierten Sonneneinstrahlung, geben Beispielsweise Angaben über Albedo und der Oberflächentemperatur an. Mikrowellen-Sensoren sind in der Lage, die elektrischen Eigenschaften und damit Informationen über den Feuchtigkeitsgehalt des Oberflächenbodens oder des Schnees zu ermitteln. Wettersatelliten geben uns Wetterdaten sämtlicher Art, um Vorhersagen zu tätigen.
Die Auswirkung von Naturkatastrophen kann durch ein korrektes Katastrophenmanagement einschließlich Unfallverhinderung (Gefahr und Risikobeurteilung, Flächennutzungsplan und Baubestimmungen), Katastrophenbereitschaft (Prognosen, Warnung, Vorhersage) und schnelle und ausreichende Katastrophenhilfe gemindert werden. Eine Abschwächung von Naturkatastrophen kann allerdings nur dann erfolgreich sein, wenn ausreichendes Wissen über die zu erwartete Frequenz, den Charter und das Ausmaß der erwarteten Naturgefahr in ausreichender Menge zur Verfügung steht.
Einige Arten von Georisiken wie Überflutungen, Sturmfluten, Tsunamis oder Erdbeben können sehr schnell entstehen und haben das Potenzial große Gebiete zu bedrohen. Der Einsatz der Fernerkundung ist besonders im Katastrophenmanagements wegweisend. In den Ländern der Erde, in denen Warnsysteme und Baubestimmungen in hohen Maße vorhanden sind, ist die Fernerkundung sehr erfolgreich darin, die Bevölkerung rechtzeitig zu warnen. 95% aller durch Naturkatastrophen verursachten Todesfälle treten in den Entwicklungsländern auf. Das jüngste Beispiel ist Haiti. Die ökonomischen Verluste, die Entwicklungsländer durch Naturkatastrophen erleiden, können bis zu 80% ihres Bruttosozialproduktes betragen. In Indien starben 1,6 Millionen Menschen seit 1960 an Naturkatastrophen. Zudem verursachten diese Katastrophen einen Verlust von über 16 Milliarden US$ (München Reinsurance Company, 2003). Indien hat in den letzten Jahren deutlich in die Fernerkundung investiert und es ist auf lange Sicht abzusehen, dass auch hier das Niveau der Industrieländer erreicht werden kann. Leider gilt dies in keinster Weise für die meisten Staaten in Afrika. Mit dem Pogramm UN-Spider wurde in den letzten Jahren ein Instrument geschaffen, welches genau in diese Bresche springt und zum ersten Mal versucht, Daten die in der Fernerkundung gewonnen werden, im Katastrophenfall und zur Katastrophenprävention dem entsprechendem Land zu Verfügung zu stellen.


6.1 Überflutungsereignisse

Einleitung
Überflutungen gehören zu den häufigsten und teuersten Naturkatastrophen der Welt. Ungefähr 90 Prozent des Schadens auf alle Naturkatastrophen weltweit bezogen, wird durch Fluten verursacht. Die Überwachung von Fluten ist dementsprechend für die Bevölkerung wichtig, die in den Hochwasser anfälligen Gebieten leben und arbeitet. Genaue, schnelle und ökonomische Methoden sind erforderlich, um jene Daten zur Verfügung zu stellen, die für die Planung sowie das Katastrophenmanagement benötigt werden, um solche Ereignisse zu verhindern bzw. abzumildern.

Die Fernerkundung und die GIS Technologie sind geeignete Mittel für das Katastrophenmanagement, um Gefahrdiagramme zu erstellen und zu erfassen, welche Bereiche gefährdet sind. Unter Verwendung der Fernerkundungsdaten, wie zum Beispiel Satellitenbilder mit großem synoptischem Überblick, erlaubt es die Veränderungen von hydrologischen Systemen zu erfassen und zu analysieren. Die Fernerkundung kann auch im Bereich des Hochwassermonitorings eingesetzt werden und erfasst ebenfalls wichtige Daten während des Katastrophenereignisses und unterstützt damit die Einsatzkräfte vor Ort (Al-Shawabkah. T. 2009).

Satellitendaten können vor, während und nach einer Katastrophe für Verhinderung, Überwachung, Abschwächung und Hilfsaktionen verwendet werden, da die Bereiche, die durch Überschwemmung beeinflusst werden, für gewöhnlich sehr groß sind. Es gibt viele verschiedene Arten von Überflutungsereignissen und jede hat verschiedene Anforderungen an die Satellitenbilder. Die meisten jedoch lassen sich in zwei allgemeine Kategorien zusammenfassen. Die erste Kategorie beinhaltet Flussfluten, welche meist saisonal auftreten und die zweite Kategorie beinhaltet die Küstenfluten. Häufig treten diese als tropische Wirbelstürme oder Sturmfluten auf (El-Sayed S. 2010 und Al-Shawabkah. T. 2009).

Viele Faktoren spielen eine Rolle im Vorkommen und Art der Überschwemmung sowie der Intensität und der Dauer des Niederschlags, der Schneeschmelze, der Abholzung, der Sedimentbildung im Flussbett und der natürlichen oder anthropogenen Hindernisse. In der Auswertung der Flutgefahren sollten die folgenden Parameter berücksichtigt werden: Tiefe des Wassers während der Flut, die Dauer der Flut, die Fließgeschwindigkeit, die Rate des Aufstieges und der Abnahme der Frequenz der untersuchten Vorkommen El-Sayed S. 2010 und Al-Shawabkah. T. 2009).

Im Risikomanagement können SPOT Stereopair Images und ERS-Radarbilder verwendet werden, um digitale Geländemodelle zu erzeugen, um mit deren Hilfe eine Simulation der möglicherweise verhängnisvollen Bedingungen zu schaffen und damit verletzbare Bereiche zu kennzeichnen. Während und nach dem Ereignis ist die Kartierung der aufeinander folgenden Überschwemmungsphasen, einschließlich der Dauer, sowie der Tiefe der Überschwemmung möglich. Dies kann mit Hilfe von automatisierten Klassifikationen durch optische Aufnahmen und Radarsatellitenbilder geschehen (El-Sayed S. 2010).

Eingesetzt werden meist hoch und niedrigauflösende Satelliten, welche die hydrologischen Informationen sowie die physikalischen Parameter erfassen, wie: Einzugsgebietsgrenzen, Höhenmodelle, Landnutzung, Schneedecke, Temperaturen, Vegetationsdecken etc. Daneben gibt es die rein meteorologischen Satelliten, die entweder geostationär (METEOSAT, GOES, INSAT, GOMS) das Wetter auf einer kontinuierlichen Basis (15-30 Minuten) überwachen oder im Polarorbit (NOAA-AVHRR und DMSPSSM) Daten in einer sehr großen räumlichen Auflösung liefern. Dies allerdings nur zweimal am Tag. Die letzte Gruppe wird eingesetzt um die physikalischen Parameter des Niederschlages und der Feuchtigkeitsprozesse zu bestimmen (El-Sayed S. 2010 und Al-Shawabkah. T. 2009).

Im Georisikomanagement wird die Fernerkundung im Bereich Hochwasser bei der detaillierten Kartierung und bei großmasstäblichen Übersichtskarten verwendet. Bei der detaillierten Kartierung werden auf regionaler Ebene Risikokarten erstellt, sowie Daten für diverse lokale und überregionale hydrologische Modelle gesammelt. Die großmasstäblichen Übersichtskarten dienen zur Übersicht ganzer hydrologischer Einzugsgebiete, um die Gebiete, die das höchste Gefährdungspotenzial aufweisen, zu identifizieren. Zusätzlich lassen sich auf regionaler Ebene ebenfalls Daten für hydrologische Modelle sammeln (Oesch 2001).

Ein Problem bei Überflutungsereignissen ist die in den meisten Fällen vorhandene Wolkendecke. Deswegen ist der Einsatz von optischen Systemen meist schwierig. In der Regel werden optische Systeme wegen ihrer großen Wiederkehrrate in nahezu Realtime zum Hochwassermonitoring und –kartierung verwendet. Im Katastrophenfall sind Radardaten von Vorteil, da sie, wie bereits erwähnt, auch Aufnahmen durch eine dichte Wolkendecke hindurch ermöglichen. Beide Systeme werden allerdings in Kombination zur Abschätzung der Niederschlagsintensitäten, Niederschlagsmengen und Niederschlagsgebieten, und zur Bestimmung von Oberflächeneffekten wie Bodenfeuchte, Schneefeuchte, etc. eingesetzt (Oesch 2001).

Risikomanagement:
Aktuell ruht das Risikomanagement im Hochwasserbereich beispielsweise in Deutschland sowie auch in Österreich3 und in der Schweiz auf drei Säulen: Flächenmanagement, technischer Hochwasserschutz und Hochwasservorsorge.

Flächenmanagement
Das Ziel dieses Managements ist eine Stärkung des Wasserrückhaltes in den Einzugsgebieten. Primär handelt es sich dabei um eine dem entsprechendem Gebiet angepasste Nutzung, die zu einer Minderung des Schadenspotenzials beitragen soll. Zusätzlich soll die Hochwasserentstehung direkt beeinflusst werden, indem der Wasserrückhalt durch Erhalt und neue Bereitstellung natürlicher Retentionsräume verbessert und durch Entsiegelung versickerungsfähiger Böden gesteigert wird.

Technischer Hochwasserschutz
Dieser Bereich beinhaltet die bautechnischen Schutzmaßnahmen wie Dämme, Deiche, Hochwasserrückhaltebecken, Talsperren oder objektspezifische Maßnahmen. Sie sind stets ein Teil eines umfassenden Hochwasserschutzes und haben die Aufgabe, Schäden bis hin zum Bemessungshochwasser zu verhindern.

Hochwasservorsorge
Die Hochwasservorsorge beinhaltet auch bei extremen Ereignissen das Vermindern von Schäden. Also Ereignissen, die über das Bemessungshochwasser für den technischen Hochwasserschutz hinausgehen. Elemente hierbei sind: die Verhaltensvorsorge (Die Verringerung von Schäden durch entsprechende Frühwarnsysteme und das Erstellen von Alarm- und Notfallplänen), einer umfassenden Risikovorsorge (Rücklagen und Versicherungen) und einer die Bauvorsorge (Die Ausrüstung von baulichen Anlagen entsprechend der spezifischen Hochwassergefahr) (Denhardt et All 2008).

Langfristige Prävention
Bei regionalen Methoden werden die geomorphologischen und hydrologischen Daten, sowie historische Ereignisse und deren Klimatologie analysiert. Die Fernerkundung hat dabei die Aufgabe, geomorphologische und landnutzungsspezifische Elemente zu kartieren, sowie meteorologische Daten für hydrologische Modelle zu sammeln und bei der genauen Kartierung von historischen Katastrophenereignissen zu unterstützen. Durch diese Arbeiten können die Verantwortlichen einer Region abschätzen (in Unterstützung mit spezifischen Modellen), in welcher Intensität ein Katastrophenereignis eintritt und welche Maßnahmen nach welchem Notfallplan zu treffen sind (Oesch 2001).

Lokale Hochwassermodelle sind interdisziplinär aufgebaut und beinhalten umfassende Daten über Topographie, hydraulische Daten, Flussbettrauhigkeit, Sedimentkorngrösse, hydraulische Berechnungen, Landbedeckung und Oberflächenrauhigkeit. Die Fernerkundung setzt hier in den Bereichen Bestimmung von Oberflächenrauhigkeiten (Generierung von digitalen Höhenmodellen) und der Landnutzung an. Diese Daten können mit Daten zur Bevölkerung, Gebäuden, Infrastruktur und Nutzung kombiniert werden, und bilden dann die Hauptkomponente des Riskassessment. In diesem Fall liegt der Beitrag der Fernerkundung im Bereich der Aktualisierung des verwendeten Kartenmaterials. Zusammenfassend lässt sich sagen, dass der wichtigste Beitrag der Fernerkundung in allen Bereichen das Bereitstellen von hochauflösenden Satellitenbildern ist (Oesch 2001).

Der Katastrophenfall
Tritt ein Hochwasserereignis auf, so werden sehr schnell detaillierte Zustandsreporte benötigt, um betroffene Gebiete zu identifizieren und schadensmildernde Maßnahmen einzuleiten. Sehr wichtig dabei ist, dass die benötigten Daten sehr zeitnah zur Verfügung stehen, um auf die spezifische Situation angemessen zu reagieren. Die Fernerkundung hat hier die Aufgabe, Daten möglichst schnell zu erfassen und wenn möglich, in Echtzeit zur Verfügung zu stellen. Folgende Daten hat die Fernerkundung nahezu verzögerungsfrei zu liefern:

- Eine umfangreiche Kartierung des betroffenen Gebietes, mitsamt einer permanenten Anpassung der Ereignisse in Echtzeit. Dies geschieht mit der Hilfe von und Satellitensystemen und flugzeuggestützten Fernerkundungsmethoden. Zusätzlich wird diese Methode unterstützt von einer bodengestützten Beobachtung.

- Gebäudeschäden müssen ebenfalls kartiert werden. Die Fernerkundung wird hier mit einer direkten Beobachtung am Einsatzort vom Boden aus kombiniert.

- Es müssen permanent kurzfristige Wetterprognosen erstellt werden (0 – 3 Stunden). Dabei sind Intensitäts-, Bewegungs-, Zeitdauerabschätzung des Niederschlags durch entsprechende Wettersatelliten zu erfassen und zu analysieren.

- Sekundäre Katastrophen (wie Verschmutzung oder Verseuchung), die durch das Hauptereignis bedingt werden, müssen erfasst und abgeschätzt werden.

Nach dem Katastrophenereignis ist der Zeitdruck deutlich milder. Mithilfe von mittel- bis hochauflösenden Satellitendaten im Verbund eines GIS können nun Informationen über Schäden und Ursachen erfasst werden. Zudem liefern diese Daten Erkenntnisse, die beim Wiederaufbau der betroffenen Gebiete eingesetzt werden. Denn sie können für die Datengrundlage für Referenzkarten zum Wiederaufbau von Brücken, Strassen, Häusern und Anlagen herangezogen werden (Oesch 2001).

Zusammenfassung der Möglichkeiten der Fernerkundung im Bereich Hochwasser

Erfassung von Daten über:

- Strahlung (Einstrahlung, Ausstrahlung)
- Hydrometeorolog. Größen: z.B. Schnee, Bodenfeuchte
- Landnutzung
- Höhenmodelle

Regelmäßige Abdeckung eines Gebietes: (Verschiedene Zeitschritte für Erdbeobachtung, derzeit zwischen 1 Monat und 15 Minuten)

ERS 35 Tage
NOAA 12 Stunden
METEOSAT 30min
MSG 15min

Abb. 27 große Gebiete im kleinem Maßstab.


Abb. 28 Hotspot im großen Maßstab.

Beispiele aus der Praxis:

SAFER

Innerhalb des SAFER-Projekts werden neuartige Maßnahmen entwickelt welche helfen sollen, die Hochwasserschäden an Flüssen und Küsten zu reduzieren bzw. zu minimieren. Dafür arbeiten auf unterschiedlichen Ebenen Behörden und Organisationen eng zusammen. Die Projektinhalte werden gemeinsam mit fünf europäischen Partnern bearbeitet und in drei Partnerregionen umgesetzt. Das Projekt wird von der Europäischen Union finanziell unterstützt (INTERREG III B; Europäischer Fond für Regionalentwicklung).

InFerno
(Integration von Fernerkundungsdaten in operationelle Wasserhaushalts- und Hochwasser-Vorhersagemodelle)
Das InFerno Projekt der LFU Baden Würtenberg (Landesanstalt für Umwelt, Naturschutz und Verkehr) hat das Ziel, mithilfe der Fernerkundung einen Beitrag zur Verbesserung der operationellen hydrologischen Modellierung zu leisten.

6.2 Erdbeben

Einleitung
Erdbeben treten in Zyklen auf, die Dekaden oder Jahrhunderte umfassen. Wissenschaftler der USGS (U.S. Geological Survey) betreiben seit mehr als 35 Jahren in Zusammenarbeit mit dem Forschungskonsortium IRIS (Incorporated Research Institutions for Seismology (einem Zusammenschluss von 90 Universitäten) weltweit ein Netz von seismographischen Stationen. Dadurch hat die USGS ein globales seismographisches Entwicklungsnetz (GSN Global Seismographic Network) geschaffen. Das GSN hat die Aufgabe, Daten in digitaler Form zu sammeln und zur Verfügung zu stellen. Einige GSN Stationen beziehen ihre Daten aus Satellitensystemen und stellen diese zur freien Verfügung in das Internet. Die Fernerkundung liefert damit also Informationen für seismische Aktivitäten. Im Allgemeinen können die Störungen, die mit Erdbeben verbunden sind, auf Satellitenbildern gut identifizierent werden. Zu diesem Zweck können Flächennutzung sowie auch geologische Diagramme erstellt werden, die wichtige Anzeiger dafür sind, ob es sich um eine erdbebengefährdete Zone handelt. Eingesetzt werden in der Regel optische Systeme, die im sichtbaren Bereich und im Bereich des nahen IR arbeiten. Die gängigsten Systeme sind: IRS (IRS-1D Handbook, 1997), NOAA (www.usgs.gov), SPOT (www.SPOTimage.fr), LANDSAT (www.nasa.gov) und IKONOS (www.spaceimaging.com). LANDSAT Bilder sind wegen der umfangreichen Archive der historischen Daten des Satellites und seiner Rentabilität in diesem Bereich sehr gefragt. Ursprünglich gab es flugzeuggetragene Systeme, welche die besten Ergebnisse lieferten, um seismologischen Störungszonen in denen die höchste Zerstörung auftritt, zu identifizieren und um jene Bereiche zu kennzeichnen, in denen ein Erdbeben einen Erdrutsche auslösen kann. Da aber in den letzten Jahren immer mehr Systeme mit einer räumlichen Auflösung von knapp 1 Meter entwicklet wurden und marktreife erlangten, wird von den Fachleuten verstärkt auf die Satellitentechnik gesetzt (Slobodan 2002).

Gegenwärtig erfassen Fernerkundungssysteme, die in der Erdbebenforschung eingesetzt werden Phänomene, die mit Erdbeben in Verbindung gebracht werden können. Es wird gezielt nach Deformationen an der Erdoberfläche gesucht und deren Oberflächentemperatur sowie der Feuchtigkeits-, Luftfeuchtigkeits-, Gas- und Aerosolinhalt bestimmt. Solche Deformationen werden meist durch die SAR (Synthetic Aperture Radar) identifiziert. Post-Erdbeben Deformationen können sehr klein sein und sind streckenweise nur wenige Zentimeter hoch bzw. tief. Deswegen wird intensiv an der Verbesserung der SAR Technik gearbeitet, um auch kleinste Deformationen zu erfassen. Eine weitere Technik, diese Deformationen zu finden, ist mit Hilfe von IR- Systemen die Erdoberfläche abzutasten. Häufig hat eine solche Deformation eine um 3,5 C° höhere Temperatur als das umliegende Gelände. Moderne IR- Systeme notieren solche Veränderungen. Eine andere Methode der Erdbebenvorhersagen entwickelt sich ebenfalls unter Verwendung der thermischen IR-Übersicht. Vor Erdbeben ändert sich der Gas- und Aerosolinhalt der Störung. Moderne Satellitensysteme können solche Gaskonzentrationen (O3, CH4, CO2, Co, H2S, SO2, HCl) in der Atmosphäre erfassen. Jedoch ist die räumliche Erschließung und die Empfindlichkeit der modernen Systeme noch sehr niedrig. Erste viel versprechende Resultate wurden nur für Ozon-, Aerosol- und Luftfeuchtigkeit erzielt (Tronin 2006).

Sensor Vorteile Nachteile
Optisch Bilder sind leicht zu verstehen und interpretierbar
Farbgebung entspricht der Gewohnheit
kann durch Rauch und Wolken gestört werden
Limitiert auf Tageslicht
geringe Frequenz
SAR Tag und Nachtbeobachtung
Keine Beeinflussung durch Rauch oder Wolken
Hohe Frequenz
Bilddeutung ist schwierig, da SAR Rückstreuung notiert
SAR Sensoren verursachen Verzerrungen und Überlappungen (durch die seitliche Ausrichtung)
Tab. 14 Vor- und Nachteile der Systeme

Die Früherkennung von Erdbeben ist sehr kompliziert. Deswegen findet die Fernerkundung in diesem Bereich meist in den Bereichen Grundlagen- und Schadenskartierung ihren Einsatz.

Risikomanagement:
Im Bereich des Risikomanagements geht es vorrangig darum, Siedlungstätigkeiten in Regionen mit einer hohen seismischen Aktivität zu unterbinden. Dies wird in der Regel durch Umsiedlung ganzer Ortschaften bewerkstelligt. In vielen Fällen ist eine solche Maßnahme aus ökonomischen Gründen allerdings unmöglich. Betrachtet man Städte wie Los Angeles, San Francisco oder Tokio ist schnell klar warum. Auch in Entwicklungsländern ist es eine fast unmögliche Aufgabe, eine Siedlungstätigkeit in gefährdeten Gebieten zu unterbinden. Hier versucht die Fernerkundung Aussagen über zu erwartende Schäden zu treffen. Eine 100% Vorhersage, wann ein Katastrophenereignis eintritt, ist wie im oberen Abschnitt zu sehen, bisher nicht möglich.

Die folgenden Parameter werden dafür erfasst:
- Demographie
- Infrastruktur (Kommunikation, Hochrisiko - Installationen, Spitäler)
- Häuserbestand
- Seismische Vergangenheit
- Neotektonische Ereignisse
- Lithologie
- Lage und dynamische Mechanik von Verwerfungen

Die Fernerkundung erfasst davon die Demographie sowie die Infrastruktur, da in vielen Teilen der Welt kein Basiskartenmaterial existiert. Mit Hilfe der Fernerkundungssysteme IKONOS und SPOT lassen sich die Karten sehr schnell generieren und sind damit eine unschätzbare Hilfe für humanitäre Regionen im Katastrophenfall, um Kenntnisse darüber zu gewinnen, wo sich zerstörte Ortschaften befinden. Die so erschaffenen Basiskarten lassen sich ohne großen Aufwand mit einem GIS System kombinieren und dadurch können wiederum Informationen über Straßennetzwerke, Geologie, Flugplätze, Spitäler in das Kartenwerk eingebunden werden (Oesch 2001).

Ein weiterer Anwendungsbereich der Fernerkundung im Risikomanagement ist die Kartierung der Tektonischen Situation und die Lineament – Kartierung. Diese stellt die Basis für die Bestimmung der seismischen Aktivität einer Region da. Die Satellitengeodäsie (Distanzmessung, GPS) ist ein kostengünstiges und schnelles Mittel, um abgelegene Regionen zu erfassen. Die Fernerkundung ist mittlerweile eine Standardmethode in der Geologie, um verschiedene geologische Einheiten zu bestimmen. In der Regel werden dafür SPOT oder LANDSAT TM Daten verwendet. Daten vom InSAR System können wie beschrieben eingesetzt werden, um gezielt nach Deformationen an der Erdoberfläche zu suchen. Wie bereits mehrfach erwähnt, eignet sich die Fernerkundung noch nicht, um Vorhersagen zu treffen. In diesem Bereich leisten bodengebundene Messungen deutlich bessere Arbeit (Oesch 2001).


Der Katastrophenfall
Im Katastrophenfall werden sehr schnell Daten über die genaue Lage der betroffenen Gebiete und der Zustand der Infrastruktur benötigt. Diese Informationen sollten innerhalb von weniger als zwei Tagen nach dem Ereignis vorliegen, damit eine reale Chance besteht, Verschüttete zu bergen. Folgende Parameter sind bei Erdbeben von Bedeutung:

- Die geographische Position, Natur und Ausmaß von Schäden am Einsatzort
- Eine Datenbank mit der Infrastruktur und Gebäudeeigenschaften des Einsatzortes
- Geographische Position von entstandenen Feuern
- Geographische Position von Versorgungseinrichtungen am Einsatzort
- Probleme bzgl. der Erreichbarkeit durch zerstörte Strassen und Brücken
- Ausmaß evtl. Überflutungen

Die Fernerkundung kann hier in folgende Breichen eingesetzt werden:

  • Gefahrenkartierung mittels Change Detektion bei der Detektion von Feuer und Überflutungen
  • bei der Kartierung der Infrastruktur und
  • bei der Detektion der betroffenen Ortschaften

Systeme, die Daten nahezu in Echtzeit liefern, sind bisher noch nicht in ausreichender Form am Markt. Deswegen ist der Einsatz von Satellitensystemen im Katstrophenfall sehr limitiert. Flugzeuggestütze Systeme leisten hier deutlich bessere Arbeit, da das geforderte Datenmaterial gezielt beschafft werden kann und sofort der Auswertung zu Verfügung steht (Torin 2006).
.

Beispiele aus der Praxis:
Da es noch keine funktionierende Systeme in Früherkennung von Erdbeben mittels Fernerkundungssystem gibt, können leider keine Beispiele genannt werden.


6.3 Hangrutschungen

Einleitung:
Hangrutschungen können überall auftreten. Nicht nur im Gebirge, sondern auch auf dem Meeresboden, wo diese Fluten bzw. Tsunamis auslösen. Eine Massenbewegung hat viele Ausprägungen: Sie gleitet, kippt, fließt, kriecht oder fällt Festgestein, Sediment, Schutt oder Boden unter dem direkten Einfluss der Gravitation entlang eines Hangs abwärts. Gravierende Hangrutschungen nehmen vermutlich durch die klimawandelbedingten extremen Wetterereignisse weltweit zu. Dieses Georisiko kommt statistisch gesehen häufiger als jede andere Naturgefahr vor, wird aber in der Regel nicht wahrgenommen, da sie im Normalfall ein geringes Schadensrisiko aufweisen. Allerdings gibt es auch Regionen, in denen Hangrutschungen deutlich höhere Schäden als andere Georisiken verursachen. Dies ist aus der Tatsache bedingt, dass Hangrutschungen am Ende einer langen Wirkungskette stehen (Hochwasser, Erdbeben, Vulkanausbrüche, Waldbrände, schnelle Schneeschmelzen oder auch durch mehrere dieser Ereignisse, aber auch durch anthropogen Einfluss, wie Bergbau, Straßenbau, Hangbelastungen, Bewässerung, Entwaldung oder künstliche Bodenvibrationen )(Geowissenschaftliche Gemeinschaftsforschung der DFG 2010).
Tab.15 Auslöser Massenbewegungen

Das Spektrum einer Hangrutschung reicht von wenigen Quadratmetern, die sich wenige Millimeter pro Jahr bewegen, bis zu enormen submarinen Hangrutschungen, die hunderte von Quadratmetern Meeresboden in einem Augenblick versetzen. Auch der Zeitraum der Dauer einer Hangrutschung variiert von wenigen Sekunden bis hin zu Tausenden von Jahren. In den vergangenen Jahren wurden von Geowissenschaftlern sehr große Fortschritte getätigt, gefährdete Stellen zu identifizieren und auch die Vorhersage, wann ein solches Katastrophenereignis eintritt, wurde deutlich verbessert. Dies ist auf die Fernerkundung zurückzuführen, die in Kombination mit moderner GIS-Technologie und hochauflösenden fernerkundlichen Daten diesen Qualitätssprung ermöglichten (Geowissenschaftliche Gemeinschaftsforschung der DFG 2010).

Hangrutschungen treten häufig in abgelegenen und/oder sehr schwer erreichbaren Regionen auf. Gerade die Fernerkundung liefert ein praktikables Mittel, um Hangrutschungen zu untersuchen. Allerdings stößt die Fernerkundung hier oft an ihre Grenzen, da sich die betroffenen Gebiete häufig im Hochgebirge befinden (im alpinem Raum, also ein Niveau über 2000 Meter). Die Probleme sind durch das steile Gelände verursacht. Viele Aufnahmesysteme sind nicht in der Lage, dieses Gelände fehlerfrei (also ohne störendes Rauschen) zu erfassen. Dazu kommt der aktuelle Forschungstrend, möglichst kleinräumige Ausschnitte zu erfassen. Diese Tatsache steht oft im Kontrast zur möglichen räumlichen Auflösung eines Sensors. Eingesetzt werden optische Daten, Laser- und Radardaten sowie DHM (Digitale Höhenmodelle). Gerade die DHM eignen sich für die Darstellung und die Analyse steiler Reliefe (Heinrich 2007).

Die angesprochenen DHM`s eigenen sich für eine 3D Darstellung der Topographie. Erstellt werden diese meist auf der Basis von optischen Stereosatellitenbildern (ASTER oder SPOT5) oder durch SAR1-Interferometrie (InSAR). Die räumliche Genauigkeit beträgt einige Zehnermeter und eine vertikale Genauigkeit von einigen Metern, bis zu wenigen Zehnermetern. Die durch InSAR und Laserscanning erzeugten DHM`S haben eine räumliche Auflösung von wenigen bis zu einigen Zehnermetern und eine vertikale Genauigkeit im Bereich von Zentimetern. Eingesetzt werden die DHM`s im Bereich der hydrologische Modellierung, Naturgefahrenbeobachtung (hier Hangrutschung), der Planung der Infrastruktur, um gefährdete Gebiete zu meiden und der Wetter- und Klimamodellierung. Durch die DHM`s können im Bereich der Hangrutschungsforschung vertikale Veränderungen der Erdoberfläche ermittelt werden. Eine beobachtete Veränderung gibt nach Erstellen der Differenzenbildern Aufschluss über Erosionsvorgänge oder Veränderungen einer Gletschermächtigkeit, bzw. sie erkennt Rutschungsmulden. Neu bei der DHM Erstellung sind Daten, die aus Airborne Laserscanning gewonnen werden. Daten aus Airborne Laserscanning haben die bisher höchste mögliche Auflösung und es laufen mehre Forschungsprojekte, diese effizient zu verwenden, da jene Systeme es ermöglichen, einzelne Felsbrocken und Bäume aufzunehmen und sie in die Analyse einfließen zu lassen . Satelliten wie IKONOS, QuickBird und Orbview-3 liefern in der Regel hochauflösende Bilder, die Aussagen über Oberflächenformen, geologische und geomorphologische Zusammenhänge, Vegetation, Böden, Landnutzung, Wasserhaushalt und Siedlungen liefern und damit wichtiges Datenmaterial für das Risikomanagement bereitstellen. Radardaten werden meist von folgenden Satelliten geliefert: ERS-1/2 , JERS, RADARSAT, ENVISAT. und TerraSAR-X.. Eingesetzt werden die Daten, neben dem Erstellen von DHM`s, zur Bestimmung der Bodenfeuchte (Heinrich 2007).

Risikomanagement:
Da Hangrutschungen in der Regel nicht überraschend, wie beispielsweise Erdbeben auftreten, ist es möglich, sich auf die Gefahr einzustellen. Wichtige Arbeitsmittel hierbei sind eine Gefahren- und Verwundbarkeitsabschätzung, sowie eine Zonierung der Hangrutschungsgefahr in den betroffenen Gebieten. Dafür müssen die Tendenzen eines Hanges bestimmt werden, ob er das Potenzial zur Rutschung aufweist. Hierfür müssen folgende Parameter erfasst werden: Lithologie und Struktur des Untergundmaterials, Verwitterung und Kontakt mit aufliegenden Deckschichten, die physikalischen Eigenschaften der Deckschichten, Hangneigung und –form, hydrologische Bedingungen, Vegetation, Landnutzen und anthropogene Aktivität. Zweitens muss die Wahrscheinlichkeit errechnet werden, ob ein auslösendes Ereignis wie Hochwasser, Erdbeben, Vulkanausbrüche, Waldbrände, schnelle Schneeschmelzen etc., eintrifft. Da diese Ereignisse auch in einer Kombination zustande kommen können, ist eine Wahrscheinlichkeitsrechnung mit großen Schwierigkeiten verbunden. Die Fernerkundung liefert im Bereich des Risikomanagements die Datenbasis für die Inventarkarte, auf deren Grundlage alle Berechnungen stattfinden. Inventarkarten werden durch eine Interpretation und Kombination von Stereoluftbildpaaren, Satellitenbildern und Bodenbeobachtungen erstellt. Es empfiehlt sich dabei, multitemporale Luft - oder Satellitenbilder zu verwenden, da es so möglich wird, eine räumliche Verteilung der Massenbewegungen darzustellen. Abbildung 29 zeigt exemplarisch eine solche multitemporale Beobachtung (Glade 2002).


Abb. 29 Fernerkundliche Inventarisierung von Hangrutschungen

Inventarkarten sowie die daraus erfolgende Risikokartierung, bilden die Grundlage für aktive technische und passive vorbeugende Maßnahmen. Im Bereich des Risikomanagements sind also folgende Punkte wichtig:

  • Risikoanalyse. Verknüpfung der Naturgefahr mit dem Risiko und ihrer Vulnerabilität zu einer Wahrscheinlichkeitsberechnung.
  • Eine den Umständen angepassten Ermittlung der bestehenden technischen sowie vorbeugenden Maßnahmen


Massenbewegungen lassen sich häufig vorhersagen, wenn ausreichende Informationen zu den gefährdeten Objekten zur Verfügung stehen. Es ist also in vielen Fällen möglich, ein Frühwarnsystem zu installieren (Bell, Glade 2004).

Abb. 30 Risikokarte/Massenbewegung

Abbildung 31 gibt die Fragen wieder, die beim Risikomanagement im Bereich der Hangrutschung vorab geklärt werden müssen. 

Abb. 31 The holistic concept of risk assessment

Der Katastrophenfall
Im Katastrophenfall werden Bilder mit einer hohen räumlichen (3-10 m) sowie zeitlichen Auflösung benötigt. Im besten Fall stehen Aufnahmen vor und nach einer Katastrophe zu Verfügung, um schnell betroffene Bereiche zu identifizieren. Es bieten sich hier Daten von IKONOS oder MODIS an. Aber auch SAR Daten finden hier ihre Anwendung. IKONOS oder MODIS können bei Bewölkung nicht die benötigten Daten liefern. Zudem kann SAR mit Hilfe der Change detection Methode Hangrutschungen und deren Ablagerungsgebiet erfassen. Die restlichen Maßnahmen unterscheiden sich nicht von denen in den oberen Abschnitten.

Beispiele aus der Praxis:

  • ILEWS (Integrative Frühwarnsysteme für gravitative Massenbewegungen) BMBF Verbundantrag
  • MOUNTAIN RISKS (Mountain Risks: from prediction to management and governance) EU - RTN-Projekt
  • MOVE (Methods for the Improvement of Vulnerability Assesments
  • MoNOE (Development oft methods for the landslide hazard assessment in Lower Austria
  • AVI Projekt - Projekt zur Sammlung historischer Daten von Rutschungen und Überschwemmungen; 
     
6.4 Waldbrände/Feuer

Waldbrände haben in den letzten Jahren sehr viel Aufmerksamkeit erregt. Nicht nur die jüngsten Waldbrände in Russland im Sommer 2010 zeigten, welches Zerstörungspotential diese Naturgewalt hat. Auch in der Vergangenheit kam es immer wieder zu dramatischen Bränden, Griechenland, Spanien und Portugal haben beispielsweise jedes Jahr mit verheerenden Waldbränden zu kämpfen. Im Zuge des „Global Change“ ist mit einer deutlichen Erhöhung des Feuerrisikos weltweit zu rechnen. Feuerwarnanlagen die in nahezu Echtzeit Daten liefern, könnten dieses Risiko mindern, hier kann die Fernerkundung helfen. Ein grundsätzlicher Vorteil der Fernerkundung ist die schnelle und objektive Erfassung großer Flächen mit verhältnismäßig geringem Aufwand. Zu diesem Zweck wurden schon Anfang des 20. Jahrhunderts Luftbilder zur Kartierung von Waldgebieten als Hilfsmittel zur Forsteinrichtung und zur Erhebung von Bestandsdaten eingesetzt (Albertz 1991, Hildebrand 1996). Die Fernabfragung ist seit damals eine schnelle und preiswerte Technik für die Entdeckung und Überwachung von Waldbränden geworden. Das Satellitensystem Advanced Very High Resolution Radiometer (AVHRR) war lange Zeit der Standard im Feuermonitoring. In den letzten Jahren kamen die Systeme Moderate-resolution Imaging Spectroradiometer (MODIS) und Meteosat Next Generation Spinning Enhanced Visible and Infrared Imager MSG SEVIRI hinzu, welche ebenfalls zum Feuermonitoring eingesetzt werden. Mit der Einführung vom MSG SERVI ist es nun zum ersten Mal möglich, nahe der Echtzeit (in diesem Fall in einem Intervall von 15-Minuten) Daten zu erhalten. MSG hat eine Feuererfassungsrate von 88%, mit einer Auslassungsrate von 12%; MODIS ermittelt 64% aller Feuer, mit einer Auslassungsrate von 36%. AVHRR war seitdem das schlechteste System, da es nur 37% der Gesamtfeuer mit einer Auslassungsrate von 63% ermittelte. Da es also zurzeit keine 100%ige Erfassung gibt, muss zwingend mit einer Kombination von verschiedenen Systemen gearbeitet werden, um eine Erfassung von fast 100% zu erreichen. (Phillip 2007). Ein weiterer aktueller Forschungsschwerpunkt im Bereich der Fernerkundung und Feuerentstehung besteht darin, gefährdete Waldgebiete mit Hilfe von Airborne Laserscanning zu erfassen. Hierbei können sogar einzelne Bäume erkannt werden, welches eine Risikoberechnung stark vereinfacht. Der Nachteil dabei ist, dass sich die Technik, da sie noch an Flugzeuge gebunden ist, nicht für ein permanentes Monitoring, also für die Frühwarnung eignet und auch keine sehr großen Gebiete erfasst. Allerdings leistet diese neue Technik im Risikomanagement im Bereich Vorbeugung unschätzbare Dienste, solange sie auf eine definierte Region angewendet wird (Morsdorf et all 2008).

Ein wichtiger Faktor in der Feuergefahr liegt zudem darin, dass Naturlandschaften stark durch den Menschen verändert wurden und es sehr viele Siedlungen in Bereichen gibt, die potenziell feuergefährdet sind. Hinzu kommt zudem, dass bei einem Brand durch die Freisetzung von CO² und anderen Klimagasen, das gesamte Ökosystem der Erde beeinflusst wird. Feuersbrünste gehören zu den wenigen Naturgefahren, die auch aktiv von Menschen (Brandstiftung) ausgelöst werden können (Morsdorf et all 2008).

Zur Durchführung eines erfolgreichen Feuer Managements werden umfangreiche Kenntnisse über die Region (Vegetation, Verkehrswege, Seen, Flüssen) und das Feuerpotenzial benötigt. Im Katstrophenfall werden Angaben über Entwicklung und Ausbreitung/Verhalten des Feuers benötigt, um in der Lage zu sein, dessen Verhalten und Entwicklung voraussagen zu können. Nach dem Feuerereignis müssen die Schäden erfasst werden. All diese Aufgaben können diverse Fernerkundungssysteme übernehmen (Oesch 2001).

Folgende Parameter, die durch die Fernerkundung erfasst werden können, beeinflussen die Brandbekämpfung:

- Luftfeuchtigkeit, Niederschlag
- Temperatur
- Baumart und Aufbau des Waldbestandes
- Nadelgehölze begünstigen die Ausbreitung
- Hangneigungen begünstigen die Ausbreitung
- Laubgehölze bremsen die Ausbreitung

Nahezu alle Brandbekämpfungsmodelle beruhen auf dem Prinzip Brennstoff, Wetter und Topographie. Sämtliche Werte unterliegen Gesetzmäßigkeiten und verhalten sich in diversen Kombinationen unterschiedlich, dies macht die Feuerbekämpfung zu einer sehr komplexen Angelegenheit. Brennstoffe, werden wie folgt charakterisiert: Zustand der Biomasse, deren Quantität, Feuchtegehalt und horizontale und vertikale Struktur. Damit ein Feuer entstehen kann, müssen spezifische atmosphärische Zustände herrschen: geringe relative Feuchte, kein Niederschlag und hohe Temperatur. Die Topographie des Geländes bestimmt hingegen die Ausbreitung des Feuers. Diese Faktoren nehmen darauf Einfluss: Steilheit, Orientierung und Position im Terrain, Höhe und geomorphologische Form des Geländes (Phillip 2007).

Risikomanagement:
Das Hauptaugenmerk im Risikomanagement ist die Erfassung aller relevanten Werte, die für eine Risikoeinschätzung nötig sind um eine Gefahrenkarte zu erstellen. Auf dessen Basis können diverse Katastrophenpläne verfasst werden. Die Fernerkundung übernimmt im Bereich der Waldbrände/Feuer in der Regel neben der Datenbeschaffung, die für die Grundlagenforschung von Nöten sind, die Aufgabe des Monitoring. Die Fernerkundung soll den Feuchtegehalt der Pflanzen beobachten und diesen mit aktuellen Klimaprognosen abgleichen. Daran werden diverse Gefahrenstufen gekoppelt. Eingesetzt zur Kartierung der Risikoareale und für die Klimaprognosen werden meist Metosat, NOAA-AVHRR, LANDSAT, SPOT, Ikonos und MODIS. In der Regel werden Fernerkundungssysteme nur in abgelegenen Gebieten zur Erfassung von Feuern eingesetzt. In bewohnten Gebieten übernehmen bodengestützte Systeme diese Aufgabe (Oesch 2001 und Phillips 2007).

Der Katastrophenfall
Feuer lassen sich sehr einfach zu jeder Tageszeit durch optische-, thermale- oder Infrarot Sensoren erfassen. Eine Ausnahme bilden die optischen Sensoren. Diese können nur Nachts Feuer aufnehmen. Im Katastrophenfall werden Satelliten benötigt, die das betroffene Gebiet mehrfach pro Tag überfliegen. Idealerweise wird eine Kombination eingesetzt (wie beispielsweise in der Einleitung zu diesem Unterkapitel beschrieben), dadurch wird eine Übertragung in nahezu Echtzeit ermöglicht. Zu beachten ist, dass die eingesetzten Systeme Temperaturen über 700 K messen können, um Sonnenreflexionen und Sättigunsgprobleme zu vermeiden. Die restlichen Maßnahmen unterscheiden sich nicht von denen, in den oberen Abschnitten (Morsdorf et all 2008 und Oesch 2001).


Abb. 32 Optische Feuererfassung

Nach dem Brandereigniss muss das Brandgebiet kartiert werden. Häufig werden dafür folgende Systeme eingesetzt: NOAA – AVHRR, kommen hochauflösende LANDSAT TM und SPOT Datensätze, SARMap und IRS zum Einsatz.

Beispiele aus der Praxis:

- Brasilien: Observed and Predicted Fire Weather and NDVI
- Kanada: Wildland Fire Information System
- Europa: Forest fire Risk
- Finnland: The Finnish Forest Fire Index
- Indonesien: Fire Danger Rating for East Kalimantan
- Indonesien: Fire Danger Rating for Sumatra
- Mexiko: Wildland Fire Information System
- Neuseeland: Fire Weather Forecasts
- Portugal: Meteorological Support to Forest Fire Prevention
- Südafrika: Net Forecasting
- USA: Wildland Fire Assessment System (WFAS)
- USA: Fire Weather Forecasts of the Storm Prediction Center (SPC)
- USA: Florida Fire Management Information System (FFMIS)

6.5 Lawinen und Schnee
Ein hoher Anteil des Niederschlages der in den Alpen fällt, ist Schnee. Die Schneeschmelze hat damit einen erheblichen Einfluss auf die Abflussdynamik der Fliessgewässer und kann dadurch der Auslöser für Hochwasser und Überflutungen sein. Schnee ist bekannterweise auch für die Entstehung von Lawinen verantwortlich. Eine genaue Analyse und Beobachtung des gefallenen Schnees ist daher die Grundlage für jede Katastrophenforschung. Lawinen gehören zu den gefährlichsten Naturgefahren in den Hochgebirgsräumen dieser Welt und stellen damit eine enorme Gefahr für den zum Beispiel dicht besiedelten Alpenraum dar. Die Entstehung von Lawinen hängt von den Eigenschaften der Schneedecke ab. Schnee besteht aus komplexen Mikrostrukturen und weist zudem eine breite Variation von räumlichen Schichteigenschaften auf. Deswegen ist diese Naturgefahr äußerst schwer vorherzusagen. Hinzu kommt, dass die meisten Lawinen von ihren „Opfern“ selbst ausgelöst werden. Es gibt zwei verschiedene Arten von Lawinen: Lockerschneelawinen die von einem Punkt ausgehen, und Schneebrettlawinen, bei denen eine ganze Schneetafel gleichzeitig ins Rutschen kommt, wobei die Lockeschneelawinen meist eher harmlos sind. Verheerend können hingegen die Schneebrettlawinen sein, da sie deutlich größer sind. Es gibt mehrere Möglichkeiten die Lawinengefahr möglichst konkret zu schätzen. Dazu gehört das Ausheben von Gräben im Schnee, um die verschiedenen Schichten und Formen der Schneekristalle zu analysieren. Ferner das Auswerten von meteorologischen Daten, um Rückschlüsse auf die Art des Schneefalls zu treffen. Die Lawinenforschung mit Hilfe der Fernerkundung ist eine relativ neue Wissenschaft. Erst im Jahre 2000 wurden die ersten Versuche in dieser Richtung unternommen. Der Hauptansatz der Fernerkundung ist die Analyse von Bildern, die in verschiedenen Wellenlängen aufgenommen wurden. Dadurch ist es möglich, Rückschlüsse auf die Art der Schneekristalle zu treffen, da jede Art von Schnee das Licht unterschiedlich reflektiert. Auf dieser Basis kann die Schneedichte, die Temperatur, der Wasser- und Luftgehalt bestimmt werden. Der große Nachteil der Satellitenbilder ist, dass nur die obersten Schneeschichten erfasst werden, was eine tiefer gehende Analyse erschwert. Eingesetzt werden hochauflösende optische Sensoren wie AVHRR, GeoEye 1, IKONOS, QuickBird und Orbview-3. Radardaten werden zur Feuchtebestimmung des Schnees eingesetzt. Seit 2005 wird verstärkt an der Einbindung von ALS (Airborne Laserscanning) Daten geforscht. An der Erhöhung der Effizienz der Erfassung der Schneehöhenverteilung in Lawinenhängen wird aktuell durch die Fernerkundung geforscht. Generell gilt, dass zurzeit eher auf flugzeuggetragene bzw. bodengebundene Systeme gesetzt wird, als auf Satelitensysteme, da Lawinen sehr kleinräumige Ereignisse darstellen (WSL-Institut für Schnee- und Lawinenforschung SLF 2010, Oesch 2001 und Heinrich 2007).

Risikomanagement:
Da viele von dieser Naturgefahr betroffene Regionen intensiv besiedelt sind sowie touristisch genutzt werden, muss ein zeitgemäßes Risiko- und Krisenmanagement weit mehr als eine reine Gefahrenverminderung leisten. Abbildung 33 zeigt wie komplex das Risiko- und Krisenmanagement in diesem Bereich ist.


Abb. 33: Die Komponenten der lang-, mittel- und kurzfristigen Maßnahmen und Methoden

Wie aus der Abbildung 33 ersichtlich, gibt es drei Planungsebenen: langfristig, mittelfristig und kurzfristig.

Bei den langfristigen Planungselementen, wie der Flächenwidmungsplan basieren auf den jeweils gegebenen gesetzlichen Grundlagen, welche die Berücksichtigung der Naturgefahren im Planungsprozess vorsehen, dabei gibt es mehrere Planungsmodelle. Im Bereich der Lawinenplanung ist in Österreich vor allem das System SamosAT (Sailer, Schaffhauser 2008).

Bei den mittelfristigen Planungelementen wurden bisher die meisten Anstrenungen unternommen, um entsprechnde Vorhersagemodelle und –techniken zu entwickeln. Dabei wurden deutliche Verbesserungen im Bereich der meteorologischer Prognosen der Neuschneehöhen und deren regionaler Verteilung erzielt. Zudem ist es nun auch machbar, die Unsicherheit der Prognosen genauer zu beziffern. Auf Basis dieser ermittelten Daten ist es möglich, Lawinensimulationen als mittelfristiges Prognoseinstrument einzusetzen. Wobei zu beachten ist, je kürzer die Vorlaufzeit, desto schwieriger wird der "Echtzeiteinsatz" von Lawinensimulationsmodellen (Sailer, Schaffhauser 2008).
Bei der kurzfristigen Planungsebene werden Prognosen Stunden vor oder während eines Extremereignisses erstellt, um möglichst zeitnah eine Prognose über den Verlauf sowie den Umfang einer Lawine zu tätigen. Um dies zu ermöglichen, werden im Vorfeld bereits diverse Szenarien „durchgespielt“. Das passende Szenario wird durch aktuelle Messwerte (Punktmessungen meteorologischer Parameter und Erfassung der flächenhaften Niederschlagsverteilung) in Verbindung mit extremwertstatistischen Auswertungen bestimmt (Sailer, Schaffhauser 2008).

Abb. 34 Schneekarte basierend auf NOAA

Wie bereits erwähnt, ist die Fernerkundung aktuell bereits in der Lage, räumliche und zeitliche Schneehöhenveränderungen zu messen. Allerdings sind die eingesetzten Systeme abweichend von den bisher eingesetzten Systemen entweder Flugzeug gestützt oder werden vom Boden aus bedient. Dies beruht auf der Tatsache, dass nun vermehrt das Laserscanning als primäres System verwendet wird. Diese Laserscanning Systeme lassen keine Aussage über den Wassergehalt oder die Dichte der Schneedecke zu. Deswegen werden diese mit boden bzw. flugzeuggestützten Radarsystemen kombiniert. Gerade in der Kombination mit der Radartechnik ist es nun möglich, wetterunabhängige Messungen der Schneedeckenparameter zu tätigen, sowie auch Aussagen zum Schneewasseräquivalent der Schneedecke zu liefern. Diese Kombinationssysteme befinden sich monetan noch in der Erforschung und haben zurzeit noch keine Serienreife. Sie werden aber seit 2007 in Österreich eingesetzt und in Kombination mit SamosAt gibt es dort bereits die ersten darauf basierenden Modelle. SamosAt arbeitet wie folgt: die Schneehöhenänderungen werden in einer hohen zeitlichen Auflösung gemessen, so dass jeder markante Anstieg registriert wird. Dadurch lässt sich die potenzielle Kubatur eines Anbruchgebietes bestimmen. Erkenntlich wird dies in Abbildung 35. Kombiniert wird die Information mit der kontinuierlichen Aufzeichnung der meteorologischen Größen und begleitender Feldmessungen, sowie mit der Dichte des Schnees. Dichte sowie Kubatur werden von SamosAt für die Berechnung herangezogen (Sailer, Schaffhauser 2008).

Abb. 35 Schneehöhe gemessen mit Laserscanning

Der Katastrophenfall
Die Maßnahmen im Katastrophenfall unterscheiden sich nicht wesentlich von den Maßnahmen bei der Massenbewegung.

Beispiele aus der Praxis:
Außer dem beschriebenen System SamosAt konnte ich keine weiteren operativen Anwendungen finden. Dem nahe kommen evtl. noch Schneekarten, welche meist nur in kontinentalem Maßstab vorliegen und deswegen viel zu großflächig sind. Trotz der Fortschritte der Fernerkundung beruht die Lawinenfrühwarnung meist noch auf klassischen, bodengestützten Systemen und der Erfahrung der Verantwortlichen.


6.6 Fazit Kapitel 6

Wie im Kapitel 6 ersichtlich, hat sich die Fernerkundung als nahezu unverzichtbares Mittel in der Georisikoforschung etabliert. Ebenfalls ersichtlich ist, dass trotz der unterschiedlichen Katastrophen immer die gleichen Abläufe zu sehen sind:

Vorbereitung:

  1. Am Anfang steht immer die genaue Kartierung der gefährdeten Gebiete.
  2. Auf Grundlage der Kartierung und der gegebenen Naturgefahr müssen unterschiedliche Modelle generiert werden.
  3. Auf Grundlage der Modelle muss der Flächenwidmungsplan angepasst, bauliche Schutzmaßnahmen getroffen, und der Einsatzplan für den Katastrophenfall entwickelt werden.
  4. Das gefährdete Gebiet ist permanent zu überwachen, wobei in den meisten Fällen die reine Fernerkundung nicht ausreicht und mit bodengestützten Maßnahmen vor Ort kombiniert werden muß.

Im Katastrophenfall:

  1. Es müssen schnellst möglich in nahezu Echtzeit die benötigten Daten vorliegen.
  2. Diese sollten genaustens analysiert werden: Was ist passiert? Wo ist es passiert? Wie viel Personen sind betroffen? Welcher Schaden ist eingetreten? Welcher Schaden kann noch eintreten? Wie ist die aktuelle Wetterentwicklung? Inwieweit ist die Infrastruktur betroffen?
  3. Es ist von Vorteil bzw. dringend nötig, Daten mehrerer Systeme zu kombinieren, um beispielsweise unabhängig vom Wetter und unabhängig von den unterschiedlichen Laufbahnen der Systeme zu sein.
  4. Diese aufbereiteten Daten müssen schnell an die Einsatzkräfte, sowie an die betroffene Bevölkerung verteilt werden.

Die Fernerkundung ist auch im Katastrophenfal eine große Hilfe. Allerdings haben die einzelnen Systeme ihre Schwächen. Es ist ein großer Fehler, sich beispielsweise nur auf optische Daten zu verlassen, da im Falle einer Bewölkung über dem Zielgebiet mit diesen Daten nichts anzufangen ist. Des Weiteren sollte die satelitengestützte Fernerkundung nicht als Allheilmittel gesehen werden, da diese zu abhängig von den Umlaufbahnen ist.
Persönlich bin ich der Meinung, dass die flugzeuggetragene Fernerkundung deutlich flexibler im Katastrophenfall ist, da gezielt die Schwerpunkte zu jeder Zeit angeflogen werden können. Auch die relativ neue Laserscanning Technologie sollte weiter erforscht werden, da keine andere Technologie in der Lage ist, ein genaueres Geländemodell zu erstellen, welches in der Regel die Grundlage jeder Schadensmodellierung darstellt. Zudem zeigt sich gerade am Beispiel der Lawinen, dass auch bodengestützte Systeme nicht ignoriert werden dürfen, da sie bei kleinräumigen Ereignissen sehr flexibel eingesetzt werden können. Der Vorteil der klassischen Fernerkundung bleibt jedoch, da nur diese in der Lage ist große und/oder abgelegene Gebiete zu überwachen.

Mit dem Ende dieses Kapitels soll ein umfangreiches Basiswissen in den angesprochenen Bereichen geschaffen sein.


7. UN Spider

Fernerkundung und das damit verbundene Katastrophenmanagement ist ein sehr komplexes und vor allem sehr teures Unterfangen. Moderne Industriestaaten und einige Schwellenländer können sich diese leisten, jedoch sehr oft nicht in vollem Umfang. Länder der sogenannten dritten Welt haben meist überhaupt keine Chance und Möglichkeit, sich teure Fernerkundungssysteme zu leisten. Um diesen Misstand abzustellen hat die UN den Verbund UN Spider gegründet.
Diese Bachelorarbeit schließt nun damit , dieses neue System vorzustellen.

In der Resolution der UN-Vollversammlung vom 1.12.2006 wurde die herausragende Rolle der Raumfahrttechnologie im Bereich des Katastrophenmanagements hervorgehoben. Folgende drei Bereiche wurden als die wichtigsten Hilfsmittel bestimmt:

1.) Die Satellitenfernerkundung: Diese liefert die dringend benötigten Informationen zur Lage und zu dem Ausmaß der Schäden im Katastrophenfall, und dient in Kombination mit Geographischen Informationssystemen (GIS) zur Früherkennung und Kartierung der betroffenen Risikogebieten.

2.) Die satellitengestützte Telekommunikation: Diese dient ebenfalls der Frühwarnung im Katastrophenfall und stellt im Einsatzfalle in den betroffenen Gebieten die Kommunikation zwischen Einsatzgebiet und Außenwelt sicher.

3.) Navigations- und Ortungssysteme: dienen den Einsatzkräften vor Ort zur Orientierung. Ebenfalls werden diese für die satelittengestüzte Kartierung verwendet.

Im Mittelpunkt steht für die UN die Perspektive der Betroffenen und damit die der Nutzer. Helfer vor Ort müssen wissen, welche Informationen wo vorhanden sind? Wo und wie kann man auf diese zugreifen? Wie aktuell sind diese Daten? In welcher Qualität werden mir die Daten geliefert? Wie teuer ist die Beschaffung sowie die Auswertung der Daten?

Diese Fragen sind die Ansetzpunkte von UN Spider, der neu geschaffenen Plattform der Vereinten Nationen für raumfahrtgestützte Informationen für Katastrophenmanagement und Notfallmaßnahmen. Ist es die Aufgabe von UN Spider allen Staaten und allen Hilfsorganisationen den Zugriff raumfahrtgestützter Informationen zu ermöglichen, die im Katastrophenmanagement eingesetzt werden. Dafür betreibt UN Spider ein eigenes Wissensportal im Internet, berät Entwicklungsländer über den Einsatz der Technik, gibt einen Newsletter heraus und führt in betroffenen Regionen spezielle Workshops durch. UN Spider bearbeitet alle Aspekte des Katastrophenmanagements, einschließlich Risikoanalyse und Katastrophenvorsorge. Der Sitz von UN Spider ist das Weltraumbüro der UN in Wien. Weitere Büros finden sich in Bonn und Beijing. Des Weiteren wurde ein regionales Kompetenznetzwerk geschaffen, samt regierungsamtlicher nationaler Kontaktstellen. UN Spider kooperiert mit International Charter Space and Major Disasters, welches Hilfsorganisationen sind, die im unmittelbaren Katastrophenfall kostenfreie Satellitenfernerkundungsdaten bereitstellen. Die Hauptstelle in Wien ist autorisiert, diese Kooperation zu aktivieren. Allerdings beinhaltet der Kooperationsvertrag Restriktionen hinsichtlich des Nutzerkreises, des Zeitrahmens und der Datenqualität. Aktuelle Informationen über UN Spider sind unter www.un-spider.org abrufbar (Backhaus 2009).


Anhang A Geodaten

(Co-Autorin in diesem Abschnitt ist Katja Kauschke
Ich habe hier nochmal den Text: Datenquellen für Globale Daten überarbeitet)

In den vorangegangenen Kapiteln waren Daten, im speziellen Geodaten, der Schwerpunkt sämtlicher Aktivitäten und die Basis aller Arbeitsschritte. Dieser Anhang beschäftigt sich deswegen noch einmal intensiv mit Geodaten jeglicher Art und definiert diese noch einmal genauer, differenziert sie, beschäftigt sich mit dem Aufbau und gibt an, wo welche Daten zu bekommen sind.
Zunächst soll der Begriff „Geodaten“ näher erläutert werden. Es gibt wie in so vielen anderen Bereichen auch nicht nur den einen Begriff, sondern zahlreiche Arbeitsbegriffe, die sich in den jeweiligen Institutionen und Forschungsrichtungen etabliert haben. Trotz der fehlenden verbindlich genormten Begriffe gibt es eine grobe Gliederung, die sich im Laufe der Zeit durchgesetzt hat (HARCKE, 2009):
  • Informationstechnische Definitionen (objektbeschreibende Daten mit Raumbezug)
  • Eigenschaften der Daten (Vektordaten, Rasterdaten, Multimedia-Daten etc.)
  • Herkunft der Daten (amtliche Geobasisdaten, Geofachdaten, lokale Daten etc.)

A.1 Definition Geodaten

Geodaten sind digitale Informationen, die Gegenstände, Gebäude, Geländeformen und Infrastrukturen auf der Erdoberfläche beschreiben und ihnen eine bestimmte räumliche Lage zugewiesen werden kann (HARCKE, 2009). Sie können unmittelbar gewonnene Primärdaten oder bereits weiter bearbeitete Sekundärdaten sein. Geodaten spielen in den Geoinformationssystemen die wichtigste Rolle. Sie sind entweder in der GIS-Anwendung direkt gespeichert oder liegen auf den verschiedensten Geodatenbanken-Servern.

Abb.36: Integration der Geodaten im Geoinformationssystem

A.2 Klassifizierung von Geodaten

Da es auch hier keine Normen und eindeutigen Regeln gibt, werden im Folgenden die Vorschläge verschiedenster Autoren zusammengetragen und vorgestellt. Dabei wird kein Anspruch an Vollständigkeit gestellt, jedoch versucht einen Überblick über die verschieden Möglichkeiten der Klassifizierung zu geben.
Klassifizierung nach Datentypen
Hier geht es vornehmlich um die Einteilung nach Vektor- und Rasterdaten. Vektordaten sind durch x und y Koordinaten definierte Punkt- Linien- oder Flächenobjekte mit meist erläuternden Attributinformationen (z.B. Radius, Linienstärke, Mittelpunkt etc.). Zudem besteht die Möglichkeit auch Objektbeziehungen abzubilden. Im GIS werden sie meist für großmaßstäbige Bereiche angewendet. Sie haben eine hohe Punktgenauigkeit, wenig Speicherplatzbedarf, ermöglichen eine einfache Generierung der Topologie (Knoten, Kanten, Flächen) und können leicht mit Sachdaten verbunden werden. Nachteile von Vektordaten sind u.a. die hohe Rechenzeit bei Flächenanalysen und der hohe Erfassungsaufwand im großmaßstäbigem Bereich. Rasterdaten erhält man vorwiegend durch das Scannen und Georeferenzieren von analogen Karten und Bildern. Sie bestehen aus einer bestimmten Anzahl von Bildpunkten (Pixel), die wiederum durch die Auflösung bestimmt wird. Die Summe der Bildpunkte ergibt dann das kartographische Gesamtbild. Da die Rasterdaten keine einzelnen Objekte wiedergeben, sondern einen kompletten Raum, eignen sie sich nur als räumliche Bezugsgrundlage und Hintergrundinformation. Im GIS werden sie meist für kleinere und mittlere Maßstäbe angewendet und eignen sich gut für räumliche Analysen und Untersuchungen von zeitlichen Veränderungen. Sie haben eine einfache Datenstruktur, jedoch keine logische Strukturierung. Zudem benötigen sie einen großen Speicherbedarf und haben eine begrenzte Auflösungsgenauigkeit (RIEDL 2009 und HARCKE 2009).
Abb.37: Vergleich zwischen Raster- und Vektordaten


Klassifizierung nach Merkmalsraum
Diese Aufteilung ist nur eine von vielen, die sich in der Literatur finden lässt. Daher soll noch der Vollständigkeit halber eine weitere Einteilung der Geodaten erwähnt werden. Laut G. KLINGER 2004 werden Geodaten nach folgenden Kennzeichen eingeteilt:
Geometrische Informationen (räumlicher Bezug)
Semantische Informationen (sachlicher Bezug)
Temporale Informationen (zeitlicher Bezug)

Beide Einteilungen unterscheiden sich im wesentlichen durch das Vorhandensein bzw. nicht Vorhandensein der temporalen Informationen, welche ein wichtiger Bestandteil der Geodaten sein sollten. „Zeit bedeutet Veränderung und somit sind alle räumlichen Objekte zeitbezogen.“ (KLINGER 2004)

Klassifizierung nach Datenart
Geodaten bestehen immer aus mehreren Daten und können nach R. HARCKE (2009) aus informationstechnischer Sicht folgendermaßen aufgeteilt werden:
Geometriedaten (Lage und Form der Objekte)
Topologie (explizit gespeicherte räumliche Beziehungen)
graphische Ausprägungen (Signaturen, Farbe, Typographie)
Sachdaten (Daten zur Beschreibung der Semantik)
Nicht vergessen werden sollen bei dieser Aufzählung die Metadaten. Diese sind elementare Bestandteile von Geodaten und ermöglichen es zumeist gezielt nach Geodaten zu suchen. Sie enthalten beschreibende Informationen über die Eigenschaften von Datensätzen. Idealerweise enthalten sie Angaben über das Format der Datensätze, über das Koordinatensystem und die Datenqualität. Hinzu kommen die Informationen zu den Themengruppen, Geltungs- und Fachbereichen und die Kontaktdaten der „Hersteller“. Eine ganz wichtige Information, die alle Metadaten enthalten sollten, sind die Angaben über Aktualität und über den Aktualisierungsrhythmus. Letzteres ist vor allem bei Realtime-Daten sehr wichtig. Damit der Umgang mit den Metadaten für alle Nutzer erleichtert wird, gibt es von den verschiedensten Organisationen zahlreiche Vorgaben für die Erstellung der Metadaten. Die Internationale Organisation für Normung (ISO) erstellte die Norm ISO 19115. Sie ist Bestandteil der Normung von Geoinformationen und Geodaten. Mit ihr soll ermöglicht werden, dass anhand von Metadaten Geodaten so beschrieben werden, um damit ihre Eignung für bestimmte Anwendungszwecke zu beurteilen. Insgesamt gibt es 409 Metadatenelemente, die von der ISO definiert wurden. Der Minimaldatensatz mit verpflichtenden Metainformationen umfasst jedoch nur 20 Elemente, die enthalten sein müssen. 
 
Klassifizierung nach Herkunft von Geodaten
Hier gibt es zwei Herangehensweisen. Laut G. KLINGER 2004 fällt unter diese Klassifizierung die Einteilung nach Primär- und Sekundärdaten. Primärdaten sind Geodaten, die „...durch Messen, Zählen oder seltener Schätzen direkt vor Ort der Realität entnommen werden.“ (G. KLINGER 2004, S.51). Zu diesem Verfahren der Datenerfassung zählen auch Fernerkundungsmethoden und photogrammetrische Methoden. Vor allem globale Geodaten werden mittels der Fernerkundung erfasst und spielen eine große Rolle in der Thematik der Digitalen Globen. Sekundärdaten werden aus primären Geodaten abgeleitet und somit nicht direkt erhoben. Sie entstehen u.a. durch Aggregation, Generalisierung, Interpretation und Klassifizierung von Primärdaten. Die Statistik ist laut G. KLINGER 2004 die wichtigste Bezugsquelle für Sekundärdaten. Zumeist handelt es sich dabei um quantitative Daten, die mittels kartographischer Visualisierung besser verortet und lesbar gemacht werden. Die zweite Herangehensweise bei der Klassifizierung nach der Herkunft ist die Einteilung nach Erfasser und Pfleger der Geodaten. Dabei geht es um den Unterschied zwischen amtlichen, behördlichen, kommunalen und privaten Geodaten. Diese weisen meist qualitativ und quantitativ große Unterschiede auf.

Klassifizierung nach Grad der Spezialisierung
Bei dieser Klassifizierung werden die Geodaten in Geofachdaten und Geobasisdaten eingeteilt (siehe auch Abb.1). Geobasisdaten sind amtliche Geodaten, welche sowohl die Landschaft (Topographie) als auch die Liegenschaften anwendungsneutral in einem einheitlichen geodätischen Bezugssystem beschreiben. Sie werden fast immer durch die Vermessungsverwaltungen der Länder erhoben, auch bereitgestellt und gepflegt. Geobasisdaten sind die Grundlage für amtliche Kartenwerke und für Geofachdaten (vgl. http://www.geoportal.rlp.de 2010). Geofachdaten sind raumbezogene Daten aus einem bestimmtem Fachgebiet. Sie enthalten somit einerseits geographische Koordinaten und andererseits diverse dazugehörige Informationen. 
 
Klassifizierung nach Thematik
Die Klassifizierung nach Thematik ist eigentlich selbstverständlich. Hier wird beispielsweise zwischen Umweltdaten, topographischen Daten, sozioökonomischen Daten oder Katasterdaten unterschieden.

Klassifizierung nach Erfassungsmaßstab
Hier unterscheidet man zwischen Geodaten die im groß-, mittel- oder kleinmaßstäbigem Bereich erfasst wurden.

Klassifizierung nach Organisationsstruktur der Datenbanken
Da Datenbanken eine wichtige Rolle im GIS spielen, ist diese Klassifizierung sehr wichtig. Es gibt laut A. RIEDL (2009) folgende Organisationsstrukturen:
  • Flat Files: Verwaltung der Daten in einfachen Tabellen, in der alle zum Datensatz gehörigen Daten untergebracht sind
  • Hierarchisch: zu jedem Datensatz können abhängige Unterdatensätze existieren
  • Relational: Daten liegen in Tabellenform vor, zwischen Tabellen können Beziehungen gesetzt werden
  • Objektorientiert: Daten werden mit Werten und spezifischen Verhalten (Methoden) gespeichert, Datensatz besteht somit aus Daten und Operationen für diese Daten
  • Klassifizierung nach Raumbezug
Dabei erfolgt die Unterscheidung zwischen Geodaten mit direkten oder indirekten Raumbezug. Der direkte ist derjenige, welcher über geographische Koordinaten definiert ist. Das bedeutet, dass die räumliche Position einer Information durch zwei- oder dreidimensionale Koordinaten beschrieben wird. Ein indirekter Raumbezug wird über Ortsangaben, Postanschriften, Postleitzahlen, Straßennamen u.ä. definiert. Daten mit indirektem Raumbezug sind bereits georeferenzierte Daten, da der Raumbezug erst indirekt über eine Zuordnung zu Fachdaten zu Koordinaten stattfindet. Erst so erhalten diese Daten dann ihren Raumbezug.

A.3 Qualitative Merkmale von Geodaten

In diesem Abschnitt soll es um die Qualität von Geodaten gehen. Um diese einschätzen zu können, sollte am Anfang eine konkrete Fragestellung stehen, die mit Hilfe von Geodaten beantwortet werden soll. Je nach Frage gibt es unterschiedliche Anforderungen an die Qualität von Geodaten. Daher ist die Qualität von Daten umso besser, je mehr Merkmale diese besitzen, die für die Beantwortung der Fragestellung elementar sind. Diese Merkmale sind in den bereits beschriebenen Metadaten dokumentiert. Auch hier gibt es von der ISO eine Norm, die sich ausschließlich mit den Qualitätsparametern von Geodaten beschäftigt (ISO 19113).

A.4. Globale Daten

Im Gegensatz zu Geodaten im kleinräumigem Maßstab, gibt es bei globalen Geodaten bei deren Erfassung, Beschaffung, Vergleichbarkeit, Qualität und Verarbeitung viel größere Probleme (G. Klinger 2004). Bei der Erfassung von globalen Primärdaten eignen sich oft nur satellitengestützte Methoden, da durch dieses Verfahren globale Phänomene erdumfassend dokumentieren werden können. Dabei sollte dies entweder durch eine Organisation geschehen oder durch mehrere, die die gleichen Standards aufweisen, da eine Zusammenführung von mehreren uneinheitlichen Daten meist mühsam und oft nicht möglich ist. Das gleiche gilt für die Erfassung und Beschaffung von globalen Sekundärdaten. Diese sollten idealerweise auf internationale Statistiken von internationalen Organisationen beruhen bzw. auf nationalen, wissenschaftlichen und privaten Erhebungen von Anbietern mit gleichen qualitativen Standards. In den folgenden Abschnitten soll es einen kleinen Überblick über mögliche Bezugsquellen von Geodaten geben. Zudem wird besonders auf das Internet als Bindeglied zwischen Anbieter und Nutzer eingegangen.

A.5 Bezugsquellen von Geodaten

Es gibt zahlreiche behördliche Stellen, die Geodaten erfassen und weiterverarbeiten. Deren Daten bilden meistens die Grundlage für die Raumplanung des Bundes bzw. der Gemeinden. Diese Daten besitzen fast immer eine hohe Aktualität und sie sind zudem sehr vielfältig. Leider gibt es bei diesen Bezugsquellen sehr häufig keine globalen Geodaten. Da die Lizenzgeber die Daten sehr unterschiedlich erfassen und weiterverarbeiten, wäre es schwierig lauter einzelne Geodaten von behördlichen Stellen zusammenzufügen, um anschließend allumfassende globale Daten vorliegen zu haben. Zudem sind diese Daten in der Regel kostenpflichtig und der Datenbezug ist auch nicht immer sehr einfach.
Eine weitere Bezugsquelle stellen unterschiedlichste Forschungseinrichtungen dar. Auch hier können bei der Beschaffung teilweise Kosten entstehen. Der Vorteil hier ist, dass die Daten eine hohe Qualität und Aktualität aufweisen und dass die Geodaten häufig globale Themen abdecken, so dass ein mühsames zusammenführen von einzelnen Daten entfällt.
Auch das Militär verfügt über zahlreiche Geodaten. Die Verfügbarkeit für Dritte und der Umfang dieser Daten ist staatenabhängig und wie bei den Forschungseinrichtungen, werden globale Geodaten angeboten.
Kommerzielle Anbieter besitzen Geodaten, die von privaten Unternehmen erfasst und bearbeitet werden und zunächst häufig der eigenen Planung und Verwaltung des Anbieters dienen sollen. Diese Daten sind normalerweise kostenpflichtig und je nach Unternehmen von der Themenauswahl oft sehr eingeschränkt. Jedoch erhält man über die privatwirtschaftlichen Unternehmen meist ein flächendeckendes Produktangebot aus einer Hand, was einen enormen Vorteil darstellt.
Die letzte Bezugsquelle die erwähnt werden soll, ist die der freien privaten Datenanbieter. Die Vorteile die sich hier ergeben sind das flächendeckende Angebot die oft nur kleine Beträge oder gar nichts kosten. Der Nachteil jedoch ist, dass es bei diesen Daten keine Qualitätsgarantie gibt.
Die nachstehende Tabelle soll noch einmal einen kurzen Überblick über die wichtigsten Eigenschaften der Geodaten geben, sortiert nach deren Bezugsquellen. Dieser Überblick gibt nur die Ergebnisse wieder, die während der Recherche über Geodaten und deren Anbieter gewonnen konnten.

Anbieter Globale Themenauswahl Kostenpflichtig frei Qualität Aktualität
Behörden sehr selten häufig selten (staatenabhängig) meistens hoch hoch
Militär häufig staatenabhägig staatenabhängig staatenabhängig hoch
Privatwirtschaft häufig häufig selten hoch abhängig vom Unternehmen
Forschungs- Einrichtungen häufig häufig selten sehr hoch Meistens hoch
Private Anbieter häufig selten häufig abhängig vom Anbieter abhängig vom Anbieter
Tab.16: Eigenschaften von Geodaten sortiert nach Anbieter

Die Plattform auf der diese Daten angeboten werden ist das Internet. Der Vorteil, der sich dadurch für den Bezieher ergibt, ist zum einen der Erhalt der Daten in digitaler Form, die Schnelligkeit, mit der man an diese Daten kommen kann und zum anderem die enorme Vielfalt von Anbietern und Formaten der Daten. Die heutige Situation bietet jedoch nicht nur Vorteile. Wie schwierig es zum Teil ist, geeignete Geodaten im Internet zu finden soll im nächsten Abschnitt näher erläutert werden.

A.6 Geodaten im Internet

Im Internet gibt es ein ständig expandierendes Datenangebot. Als Nutzer geeignete Geodaten zu finden, stellt sich jedoch als äußerst schwierig heraus. Zum einen gibt es keinen weltweiten einheitlichen und übersichtlich gestalteten Geodatenmarkt und zum anderen sind die Verfügbarkeiten und rechtlichen Grundlagen von Staat zu Staat unterschiedlich. Es gibt zwar zahlreiche auf Geodaten spezialisierte Suchmaschinen (z.B. Geometa.info), Kataloge (z.B. OGC) und Geodatenbanken, jedoch sind diese entweder sehr unvollständig oder aber die Suche gestaltet sich als äußerst schwierig, da die Metadaten nicht den bereits beschriebenen Qualitätsstandards nach ISO entsprechen. Daher sind sie bei der Suche nach geeigneten Geodaten oft weniger oder gleich geeignet wie normale Suchmaschinen (Google, Yahoo, Altavista etc.). Eine Suche direkt auf der Seite der kommerziellen Anbieter erweist sich meistens als sehr benutzerfreundlich.
Globale Geodaten findet man generell etwas schwieriger als kleinräumige Geodaten. Das Angebot von qualitativ guten globalen Realtime-Daten ist sehr beschränkt, wohingegen man mittlerweile qualitativ sehr hochwertige globale statische Daten auf zahlreichen Seiten oft kostenlos herunterladen kann. Im folgendem Abschnitt soll auf diese freien Datensätze etwas näher eingegangen werden.

A.7 Freie globale Geodaten

Dieser Überblick erhebt keinen Anspruch auf Vollständigkeit, jedoch soll hier versucht werden einen guten Überblick über die Vielfalt der Geodaten und dessen Formate zu geben.
Anbieter Internetadresse Datentyp Dateiformat Anmerkungen/
Besonderheiten
ESRI – Environmental Systems Research Institute, Inc. http://www.esri.com/data/free-data/index.html Vektor und Raster Shp, lyr, mxd, xls Kostenlos für ArcGis-User


NASA - National Aero- nautics and Space Administration http://visibleearth.nasa.gov/ Raster jpeg, tiff, pdf Auflösungen der Bilder unterschiedlich
OECD – Organization for Economic Cooperation and Development http://www.oecd.org/statsportal/ Sachdaten xls, doc, sav

Population Reference Bureau http://www.prb.org/DataFinder.aspx# Sachdaten pdf, xls

UNEP - United Nations Environment Programme http://geodata.grid.unep.ch/ Vektor, Raster und Sachdaten tiff, pdf, grid, shp, xls, csv, xml, html,
Statistiken und Datasets erhältlich in nationaler, subregionaler, regionaler und globaler form


University of Maryland - Dep. of Geography http://www.geog.umd.edu/landcover/1km-map/download.html Raster img
nur“ globale Landbedeckung
UNO - United Nations Or-ganisation http://www.un.org/popin/index.html Sachdaten csv, pdf
alle Länder der Erde einzeln – anschließendes Zusammenfügen der Daten notwendig
World Bank http://data.worldbank.org/data-catalog Sachdaten xls, csv, pdf, xml, sdmx, API

Natural Park Service http://www.naturalearthdata.com/ Vektor und Raster shp, tiff
Zusätzlich nützliche Angaben in den Attributtabellen
NOAA – National Oceanic and Atmospheric Administration http://www.ngdc.noaa.gov/ Raster tiff, img, pdf

Tab.17: Internetquellen für freie globale Geodaten


Wie man deutlich in der Tabelle sehen kann, ist die Auswahl freier globaler Geodaten mittlerweile sehr hoch. Das Angebot an verschiedensten verfügbaren Dateiformaten ist sehr hilfreich für die unterschiedlichsten Anwendungen. Die meisten Raster- und Vektordaten können aufgrund ihrer Größe meist nur in komprimierter Form geladen werden.

Auffallend bei der Recherche war die gute Verfügbarkeit von qualitativ hochwertigen Daten auf US-amerikanischen Internetseiten. Dies liegt am „Freedom of Information Act“ der USA, der dafür sorgt, dass mit Steuergeldern erstellte Daten öffentlich gemacht werden müssen und nur kostenneutral weitergegeben werden dürfen (z.B. Preis für eine CD-Rom). Als praktische Konsequenz sind alle wichtigen Geodaten in den USA in digitaler Form verfügbar. Diese Vorgehensweise wird auch sehr stark in anderen Ländern gefordert, konnte jedoch bis heute nicht gänzlich durchgesetzt werden. 
 
Abb.38: Hochaufgelöstes TIFF von der National Oceanic Atmospheric Administration bereitgestellt zum kostenlosem Download

A.8 Freie globale Realtime-Daten

Bei der in Tabelle 2 aufgelisteten Daten handelt es sich um statische Daten, die sehr lange im Netz zu verfügung stehen, bevor diese aktuallisiert werden. Realtime-Daten werden in kürzeren Abständen erfasst und zur Verfügung gestellt. Aufgrund der kurzen Zeitabstände handelt es sich bei diesen Daten meist um Rasterdaten in komprimierten Dateiformaten wie .gif oder .jpeg in eingeschränkter Qualität. Realtime-Sachdaten sind zudem oft nur in einfachen Textformaten erhältlich. Die Aufbereitung von Realtime-Daten im Vektorformat ist meistens viel zu zeit- und kostenintensiv und somit für den Anbieter nicht lohnenswert.
Eine Ausnahme bzw. einen neuen Trend bilden sogenannte KML-Dateien (Keyhole Markup Language). Diese Dateien beschreiben Geodaten für die Klient-Komponenten der Programme Google Earth und Google Maps. KML-Dateien können Geodaten sowohl in Vektor- als auch im Rasterformat beinhalten. Vektordaten werden dabei als Placemark-Elemente modelliert und können neben der Geometrie auch Daten wie Name, Beschreibung, Betrachtungswinkel, Zeit, Höhe etc. enthalten. Rasterdaten werden als Ground-Overlay-Elemente modelliert. Auch diese können zahlreiche andere Daten enthalten nur muss anstelle der Geometrie ein Koordinatenausschnitt zur Georeferenzierung der Rasterdaten definiert werden. Als geodätisches Referenzsystem wird in den KML-Dateien ausschließlich das WGS 1984 verwendet. KML ist mittlerweile ein Standard der gemeinnützigen Organisation Open Geospatial Consortium (OGC), welche sich zum Ziel gesetzt hat insbesondere für Geodaten allgemeingültige Standards festzulegen, damit eine bessere Interoperabilität gegeben ist.
Bei den globalen Realtime-Daten handelt es sich sehr häufig um Wetterdaten, Informationen über Ozeane, Vulkanaktivitäten, Erdbeben u.ä. Diese Daten werden bereits täglich ohne großen Aufwand automatisch erfasst und können somit auch kostendeckend weitergegeben werden. In der folgenden Tabelle sind einige Anbieter solcher Daten aufgelistet.

Anbieter Internetadresse Aktualisierungszyklus Datentyp Dateiformat Anmerkungen/
Besonderheiten
Oceanweather Inc. http://www.oceanweather.com/data/ mehrmals täglich Rasterdaten gif Wassertemperatur, Wellenbewegung, Wasserbeobachtungen
(siehe Abb.4)
SSEC - Space Science and Engineering Center http://www.ssec.wisc.edu/data/sst/ einmal täglich Rasterdaten gif, jpeg Wassertemperatur
University of Reading – Dep. of Meteorology http://www.met.rdg.ac.uk/Data/CurrentWeather/index.html täglich Rasterdaten, Sachdaten gif, jpg, txt Wetterdaten
USGS – U.S. Geological Survey http://earthquake.usgs.gov/earthquakes/catalogs/ teilweise mehrmals täglich Rasterdaten, Vektordaten, Sachdaten kml, csv, xml Erdbeben

Tab.18: Internetquellen für freie globale Realtime-Datenhandel 2010


A.9 Fazit und Zusammenfassung

Der Fortschritt im Bereich der Fernerkundung, des Internets, der Datenerfassung, der Globalisierung beschleunigen die steigenden Verfügbarkeiten von globalen Geodaten. Doch auch hier gilt das Sprichwort „Qualität ist nicht gleich Quantität“. Als Nutzer von Geodaten ist es wichtig, sein eigenes Vorhaben vor der Suche nach Geodaten genau zu definieren, um so die zwingend notwendigen Parameter und Anforderung an die Daten zu kennen. Dies ist vor allem deshalb wichtig, weil es zwar Bestrebungen in Richtung internationale Standards gibt, jedoch diese noch nicht umgesetzt. Eine gut funktionierende globale Geodatenbank konnte leider bis heute nicht realisiert werden. Die Datenvielfalt durch das Internet stellt somit auf der einen Seite ein Problem dar, ist aber andererseits auch ein großer Gewinn für die Geoinformation. Dadurch können endlich zahlreiche Projekte realisiert werden, die noch bis vor kurzem sehr aufwendig umzusetzen waren. Zudem stehen immer mehr Geodaten zur freien Verfügung und somit sind qualitativ gute Projekte nicht mehr nur von großen, finanziell gut gestellten Institutionen durchführbar. Heutzutage gibt es zahlreiche Themen, die mittels Geodaten dargestellt werden können. Allerdings werden diese in der Zukunft nicht vielfältiger, da sich nicht jedes Thema global erfassen lässt bzw. für eine globale Darstellung nicht relevant sind (z.B. Permafrost und dessen zeitliche Veränderung). Für viele Themen bietet sich ein größerer Maßstab als der globale an. Phänomene wie Wetter, Erdbeben, Migration, Meeresströmungen etc. hingegen sind sehr prädestiniert für globale Darstellungen. Mit Hilfe der digitalen Globen können sie z.B. animiert dargestellt und vom Betrachter auch gut erfasst und verstanden werden. Das Problem der besseren und leichteren Visualisierung von Realtime-Daten wurde bis heute mit Hilfe der KML-Dateien schon gut gelöst, steht jedoch noch ganz am Anfang seiner Entwicklung und lässt für die Zukunft noch viele neue Fortschritte in diesem Bereich erwarten.


Anhang B Quellen- und Abbildungsverzeichnis

Text Quellen:

Albertz, J.(1991): Grundlagen der Interpretation von Luft- und Satellitenbildern: Eine
Einführung in die Fernerkundung. Wiss. Buchgesellschaft, Darmstadt

Al-Shawabkah. T.; Khirfan M.(2009): The Role of Remote Sensing Techniques in Flood Monitoring
Aqaba Flash Flood Case Study. Jordanien Royal Jordanian Geographic Centre Remote Sensing Section

Backhaus R. (2009): UN-SPIDER: Raumfahrtgestützte Informationen für das Katastrophenmanagement in Katastrophen –Datenhintergrund und Informationen, DKKV Publikationenreihe . Bonn

Bernhard, O (2003): Einführung in die Fernerkundung, Eidg. Forschungsanstalt WSL.

Dehnhardt, A; Hirschfeld, J.; Drünkler, D; Peschow, U. (2008): Kosten-Nutzen-Analyse von Hochwasserschutzmaßnahmen. Dessau-Roßlau. Umweltbundesamt.

El-Sayed S. (2004): Flood Management using remote sensing. UNESCO Flood Management
http://www.unesco-ihe.org/Flood-Management-Education-Platform/Flood-Modelling-for-Management2/Flood-Management-using-Remote-Sensing (27.09.2010)

Geowissenschaftliche Gemeinschaftsforschung der Deutschen Forschungs Gesellschaft (2010): Hangrutschungen
http://www.geokommission.de/4.4_Hangrutschungen.html (16.09.2010)

Glade T.; Dikau R. (2002): Gefahren und Risiken durch Massenbewegungen. Erschienen in: Geographische Rundschau, 54 (1): 38-45

Glade, T.; Bell, R. (2004): Quantitative risk analysis for landslides – Examples from B´ıldudalur, NW-Iceland. Erschienen in: Natural Hazard and Earth System Science 4(1): 117-131

Harcke, R. (2009) Definition von Geodaten. München.
http://romanharcke.de/category/uni/gis/ (14.06.2010)

Heinrich, K. (2007): Verfahren der Fernerkundung und ihr Einsatz in der Gebirgsforschung. – In: Borsdorf, A. & G.Grabherr (Hg.): Internationale Gebirgsforschung. (= IGF-Forschungsberichte 1): 68-86.

Hermann, Jan (2007): Geo Web Services und Zugriffskontrolle im Katastrophenmanagement. München. LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN

Hildebrandt, G., 1996: Fernerkundung und Luftbildmessung. Wichmann Verlag, Heidelberg

Klinger, G. (2004): Kartographische Anforderungen an Visualisierung und Kombinationsfähigkeit globaler Thematiken. Wien

Kipfer, Andy (2005): Aspekte des integralen Risikomanagements in Zusammenhang mit Naturgefahren. Bern. Universität Bern.

Koska, Robert (2007): Die Geschichte der Fernerkundung. Graz. Karl Franzenuniversität Graz :
http://www.geoimaging.tugraz.at/download/inhalt_2.pdf (01.09.2010)

Köster, Christian (2003): Fernerkundung. Bonn. Universität Bonn:
http://www.geomanie.de/fileadmin/content/downloads/referate/Fernerkundung.pdf (31.08.2010)

Markau, Hans-Jörg (2008): Risikobetrachtung von Naturgefahren. Analyse, Bewertung und Management des Risikos von Naturgefahren am Beispiel der Sturmflutgefährdeten Küstenniederungen Schleswig-Holsteins. Kiel. Universität Kiel

Morsdorf, F. ; Koetz B. und Allgöwer B. (2008): LIDAR remote sensing and imaging spectrometry for wildfire risk assessment and forest management. Zürich University of Zürich , Department of Geography
http://www.academiaraetica.ch/pdf/symposien/YSC_abstracts_pdf/13_YSC_Morsdorf.pdf (31.08.2010)

Oesch, David (2001): Fernerkundung und Naturgefahren. Bern. Geographisches Institut der Universität Bern


OPEN GEOSPATIAL CONSORTIUM INC. (2007): KML 2.2 – An OGC Best Practice
Phillip, S (2007): ACTIVE FIRE DETECTION USING REMOTE SENSING BASED POLAR-ORBITING AND
GEOSTATIONARY OBSERVATIONS: AN APPROACH TOWARDS NEAR REAL-TIME FIRE MONITORING. Enschede. International Institute for Geo-Information Science and Earth Observation

Prinz,Torsten (2007): Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster:
http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/1_3.html (31.08.2010)

PPRS (Polyprojekt Risiko und Sicherheit), (1993): Terminologie – Definitionen für das Polyprojekt „Risiko und Sicherheit technischer Systeme“. ETH Zürich.

Riedel, A (2009): Skripte zu den Vorlesungen: Einführung in die Geoinformation, Methoden der Geoinformation und Angewandte Geoinformation. Wien Universität Wien

Sailer, R.; Schaffhauser, A. (2008): Lawinensimulationsmodelle im Risiko- und Krisenmanagement. BFW-Praxisinformation 15, Wien

Slobodan P. Simonovic (2002): ROLE OF REMOTE SENSING IN DISASTERMANAGEMENT. Erschienen in: ICLR Research Paper Series – No. 21

Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009): Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien.

Strecker, Manfred; Berger, Andreas (2009): Georisiken im globalem Wandel. Strategiekonzept (2009) Potsdamm. Universität Potsdamm

Tronin.A (2006): REMOTE SENSING FOR EARTHQUAKE EXPLORATION. St. Petersburg. Scientific Research Centre for Ecological Safety

WBGU - Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (1999): Welt
im Wandel: Strategien zur Bewältigung globaler Umweltrisiken. Jahresgutachten 1998.
http://www.wbgu.de (28. 08. 2010).

Wegamann, Mathias; Lietchy, Dani. (2009): Risikomanagement bei
Naturgefahren Gesetzmässigkeiten, Relevanz, Wahrnehmung und Umsetzung in der Praxis. Zürich. Sicherheitsinstitut | Institut de Sécurité | Istituto di Sicurezza

WSL-Institut für Schnee- und Lawinenforschung SLF (2010). Lawinengefahr.
http://www.slf.ch/ (03.10.10)

Abbildungen:

Abb. 1 Ballonphotographie. Quelle: Präsentation der Vorlesung: Fernerkundung 1 an der Universität Wien von Klaus Steinrocher 2008

Abb.2 Militärische Aufklärung WW1 Quelle: Präsentation der Vorlesung: Fernerkundung 1 an der Universität Wien von Klaus Steinrocher 2008

Abb. 3 Zeitliche Auflösung von ausgewählten Satelitten Quelle: Universität Bern. http://saturn.unibe.ch/rsbern/publication/fulltext/deza_bericht/bericht_DEZA_WWW/beri3.gif

Abb. 4 räumliche Abdeckung und räumliche Auflösung. Quelle: Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009) Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien.

Abb. 5 sepktrale Bandbreite und räumche Auflösung. Quelle: Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009) Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien.

Abb. 6 Vergleich Terra SAR X zu GeoEye1. Quelle: Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009) Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien.
Abb.7 radiometrische Auflösung. Quelle: Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009) Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien.
Abb.8 Elektomagnetische Spektrum. Quelle: Tipler, Paul (2009) Physik: für Ingenieure. 6 Auflage. Spektrum Verlag Tubingen
Abb. 9 Fernerkundungssysteme. Quelle: Prinz,Torsten (2007) Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster:
http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/1_3.html

Abb.10 Optoelektronischer Scanner. Quelle: Prinz,Torsten (2007) Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster:
http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/2_2.html

Abb.11 Opto-mechanischer Scanner. Quelle: Prinz,Torsten (2007) Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster: http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/2_2.html

Abb. 12 Schematische Darstellung des Aufnahmeprinzips eines hyperspektralen Scanners (hier: HyMap) Quelle: Prinz,Torsten (2007) Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster: http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/2_2.html

Abb. 13 Schematische Darstellung der Radaraufnahme eines SLAR. Quelle: Prinz,Torsten (2007) Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster: http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/2_2.html
Abb. 14 Reflexion von Radar. Quelle: Prinz,Torsten (2007) Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster: http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/2_2.html
Abb. 15 Hochauflösenden Systeme seit 1997. Quelle: Prinz,Torsten (2007) Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster: http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/2_2.html
Abb. 16 Geplante Systeme seit 2008 Quelle: Prinz,Torsten (2007) Digitale Fernerkundungsmethodik in den Geowissenschaften. Münster. Universität Münster: http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/2_2.html
Abb.17 Landsat 5. Quelle: http://www.geo-ag-wesel.de/images/landsat.jpg (20.09.2010)

Abb. 18 Segmente der Risikobetrachtung. Quelle: Markau, Hans-Jörg (2008), Risikobetrachtung von Naturgefahren. Analyse, Bewertung und Management des Risikos von Naturgefahren am Beispiel der Sturmflutgefährdeten Küstenniederungen Schleswig-Holsteins. Kiel. Universität Kiel

Abb. 19 integratives Paradigma. Quelle: Markau, Hans-Jörg (2008), Risikobetrachtung von Naturgefahren. Analyse, Bewertung und Management des Risikos von Naturgefahren am Beispiel der Sturmflutgefährdeten Küstenniederungen Schleswig-Holsteins. Kiel. Universität Kiel
Abb. 20. Potsdamer Forschungs- und Technologieverbund zu Naturgefahren, Klimawandel und Nachhaltigkeit Quelle: Georisiken im globalem Wandel. Strategiekonzept (2009) Potsdamm. Universität Potsdamm

Abb. 21 Risikomanagement. Quelle: Wegamann, Mathias; Lietchy, Dani. (2009) Risikomanagement bei
Naturgefahren Gesetzmässigkeiten, Relevanz, Wahrnehmung und Umsetzung in der Praxis. Zürich. Sicherheitsinstitut | Institut de Sécurité | Istituto di Sicurezza

Abb. 22 Aufteilung der Naturgefahren. Quelle: Kipfer, Andy (2005). Aspekte des integralen Risikomanagements in Zusammenhang mit Naturgefahren. Bern. Universität Bern

Abb. 23 Risikomanagement – Kreislauf für Naturrisiken Quelle: Kipfer, Andy (2005). Aspekte des integralen Risikomanagements in Zusammenhang mit Naturgefahren. Bern. Universität Bern.

Abb. 24 Analyse/Bewertung. Quelle: Kipfer, Andy (2005). Aspekte des integralen Risikomanagements in Zusammenhang mit Naturgefahren. Bern. Universität Bern.

.Abb. 25 Risikomanagement. . Quelle: Kipfer, Andy (2005). Aspekte des integralen Risikomanagements in Zusammenhang mit Naturgefahren. Bern. Universität Bern.

Abb. 26 Geodaten. Quelle: Lexikon der Fernerkundung. http://www.fe-lexikon.info/lexikon-k.htm#geodaten (31.08.2010)

Abb. 27 große Gebiete im kleinem Maßstab. Quelle: Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009) Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien

Abb. 28 Hotspot. Quelle: Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009) Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien

Abb. 29 Fernerkundliche Inventarisierung von Hangrutschungen. Quelle: Roessner, S (2010)
Fernerkundliche Untersuchung von Naturgefahren in Zentralasien im Rahmen von PROGRESS. Potsdam. Vortrag aus: Wissenschaft trifft Wirtschaft–Technologietransfer im Bereich Fernerkundung am 24.06.10
(www.geokomm.de/media/de/geokomm_roessner_pub.pdf)

Abb. 30 Risikokarte/Massenbewegung. Quelle: Glade, T.; Bell, R. (2004): Quantitative risk analysis for landslides – Examples from B´ıldudalur, NW-Iceland. Erschienen in: Natural Hazard and Earth System Science 4(1): 117-131

Abb. 31 The holistic concept of risk assessment. Quelle: Glade, T.; Bell, R. (2004): Quantitative risk analysis for landslides – Examples from B´ıldudalur, NW-Iceland. Erschienen in: Natural Hazard and Earth System Science 4(1): 117-131

Abb. 32 Optische Feuererfassung Quelle: Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009): Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien.

Abb. 33: Die Komponenten der lang-, mittel- und kurzfristigen Maßnahmen und Methoden. Quelle: Sailer, R.; Schaffhauser, A. (2008): Lawinensimulationsmodelle im Risiko- und Krisenmanagement. BFW-Praxisinformation 15, Wien,

Abb. 34 Schneekarte basierend auf NOAA. Quelle: Oesch, David (2001): Fernerkundung und Naturgefahren. Bern. Geographisches Institut der Universität Bern

Abb. 35 Schneehöhe gemessen mit Laserscanning Quelle: Sailer, R.; Schaffhauser, A. (2008): Lawinensimulationsmodelle im Risiko- und Krisenmanagement. BFW-Praxisinformation 15, Wien

Abb.36: Integration der Geodaten im Geoinformationssystem. Quelle: http://romanharcke.de/wp-content/uploads/2009/07/komponenten_gis.jpg


Abb.37: Vergleich zwischen Raster- und Vektordaten Quelle: Riedel, A (2009): Skripte zu den Vorlesungen: Einführung in die Geoinformation, Methoden der Geoinformation und Angewandte Geoinformation. Wien Universität Wien

Abb.38: Hochaufgelöstes TIFF von der National Oceanic Atmospheric Administration bereitgestellt zum kostenlosem Download. Quelle: NASA http://www.ngdc.noaa.gov/mgg/global/global.html,



Tabellen:

Tab. 1: Wellenlängen. Selbsterstellt nach Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009): Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien.
Tab. 2 bis 8 diverse Sateliten selbsterstellt nach: Steinrocher,K. ; Aubrecht,C. und Chlaupek,A. (2009) Bildverarbeitung und Fernerkundung. Materialien zur Vorlesung (WS 2009/2010). Wien. Geographisches Institut der Universität Wien.
Tab. 9 Examples of the Uses of Space Remote Sensing Quelle: Oesch, David (2001) Fernerkundung und Naturgefahren. Bern. Geographisches Institut der Universität Bern
Tab 10 Mindestanforderungen eigene Erstellung nach: OAS www.oas.org/en/cdmp/document/NHP/oea66e/ch04.htm
Tab. 11 Charakteristika einiger Satelliten. Quelle: Streit.U Universität Münster
http://ifgivor.uni-muenster.de/vorlesungen/Geoinformatik/kap/kap10/k10_01.htm

Tab 12 Einsatzmöglichkeiten von Fernerkundungstechniken im Katastrophenmanagement. Quelle: Lexikon der Fernerkundung. http://www.fe-lexikon.info/lexikon-k.htm#katastrophenmanagement (31.08.2010)

Tab. 13 Beispiele für im Katastrophenmanagement benötigte Daten Quelle: Hermann, Jan (2007) Geo Web Services und Zugriffskontrolle im Katastrophenmanagement. München. LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN
Tab. 14 Vor. und Nachteile der Systeme. Selbsterstellt nach: Mahmood H., Yasamin O. (2008) USING THE SATELLITE REMOTE SENSING TECHNOLOGY FOR EARTHQUAKE DISASTER EARLY WARNING. Shrivenham. Cranfield University,

Tab.15 Auslöser Massenbewegungen. Quelle: Glade T.; Dikau R. (2002): Gefahren und Risiken durch Massenbewegungen. Erschienen in: Geographische Rundschau, 54 (1): 38-45

Tab.16: Eigenschaften von Geodaten sortiert nach Anbieter. Quelle: eigene Darstellung, 2010

Tab.17: Internetquellen für freie globale Geodaten Quelle: eigene Darstellung, 2010

Tab.18: Internetquellen für freie globale Realtime-Datenhandel Quelle: eigene Darstellung, 2010

1 Diese Aufzählung ist wörtlich übernommen aus Markau, Hans-Jörg (2008), Risikobetrachtung von Naturgefahren. Analyse, Bewertung und Management des Risikos von Naturgefahren am Beispiel der Sturmflutgefährdeten Küstenniederungen Schleswig-Holsteins. Kiel. Universität Kiel


2 Bezüge auf die Fernerkundung finden sich nicht in der Dissertation von Andy Kipfer, sondern wurden vom Autor auf Basis des Literaturstudiums eingefügt. Dies gilt für das gesamte Unterkapitel.

3 In Österreich und in der Schweiz sind die Begriffe anders definiert, aber die Beschreibung nahezu Inhaltsgleich.


Kommentare