Im folgenden Kapitel werden die einzelnen GRASS-Module beschrieben, die von uns im Rahmen der morphometrischen Analyse entwickelt wurden. Es werden zunächst die prinzipiellen Fähigkeiten, d.h. die mit Hilfe der Module potentiell zu entwickelnden Datenstrukturen aufgeführt und die Möglichkeiten des jeweiligen Tools im Rahmen der Objekt- und Datenbearbeitung und der Regionalisierung erörtert. Desweiteren werden Sinn und Nutzen der von uns vorgenommenen AFS-Kopplung unserer Rechner dargelegt (siehe Kapitel 1.3).
Fähigkeiten/Möglichkeiten des Moduls
Syntax:
r.length.sh input=name output=name res=number
Kurzbeschreibung:
Erzeugte Datenstruktur:
Rasterkarte ('output') einer linaeren Datenstruktur, die als Information die
Länge der linearen Elemente im Pixel enthält.
Benötigte Datenstruktur:
Rasterkarte ('input') mit linearen Elementen; Gitterweite der Rasterkarte.
Das GRASS-Shellscript r.length.sh erzeugt aus einer vorliegenden Rasterkarte mit linearen Strukturen (z.B. Tiefenlinie, Straße) eine Rasterkarte die als Information zusätzlich die Längen dieser linearen Elemente in jedem Pixel enthält.
Für die eingehende Rasterkarte gelten folgende Bedingungen:
- Breite der linearen Strukturen: 1 Pixel
- Katergorie-Wert in den linearen Strukturen: 1; außerhalb der linearen Struktur: 0.
Für die Bereitstellung einer solchen Karte bietet GRASS folgende Hilfe:
r.thin
ist ein GRASS-alpha-Modul, das aus einem Rasterlayer mit linearen Strukturen, die zu breit sind, ein Rasterlayer erzeugt, in dem die linearen Strukturen auf die Breite eines Pixels ausgedünnt sind.
Syntax: r.thin input=name output=name
Das Ausgabe-Rasterlayer von r.length.sh enthält in jedem Pixel, das im Eingabe-Rasterlayer auf 1 gesetzt war, eine Längeninformation. Diese beschreibt die Summe der Verbindungslinien (bis zum Pixelrand) zu allen Nachbarpixeln, die ebenfalls auf 1 gesetzt sind. (Bei Diagonalen wird entsprechend der Faktor 0.5 * sqrt(2) berücksichtigt). Das bedeutet, daß jedes Pixel die Länge der linearen Elemente in diesem Pixel enthält, wobei die linearen Elemente jeweils von Pixelmittelpunkt zu Pixelmittelpunkt angenommen werden, z.B.:
Abbildung 5:Struktur und Arbeitsweise des Algorithmus
Das GRASS-Modul r.length.sh nutzt die Möglichkeiten des GRASS-alpha-Moduls r.mfilter. Mit Hilfe dieses Moduls ist es möglich, jedem Pixel eine gewichtete Summation der Nachbarn (beliebiger Ordnung) um dieses Pixel zuzuordnen.
r.length.sh läßt ein 3*3 Fenster mit binärer Gewichtungsstruktur über das Raster laufen. Diese Gewichtungstruktur macht es möglich jedem Zahlenwert im Pixel eine eindeutige Kombination von Nachbarn, in denen ebenfalls lineare Elemente vorkommen (= Inhalt '1'), zuzuordnen.Eine anschließende Reklassifikation ordnet jedem dieser Zahlenwerte eine Länge der linearen Elemente in diesem Pixel (siehe oben) zu (zunächst bezogen auf Pixellänge '1000'). Abschließend wird die errechnete Länge mit dem Parameter 'res' auf die tatsächliche Pixellänge umgerechnet. Entsprechend liefert der Algorithmus bei einer Pixellänge '1000' die größte Genauigkeit.
Möglichkeiten des Einsatzes dieses Moduls bieten sich in der Analyse linearer Strukturen, insbesondere in der Netzwerkanalyse. Es lassen sich aus den Längeninformationen im Pixel über entsprechende Operationen aufsummierte Längen in Objekten oder Dichten berechnen.
Durch das GRASS-Modul r.watershed läßt sich z.B. über die Option 'Streams' ein Tiefenliniennetzwerk erzeugen. Nach einer Reklassifikation und Ausdünnen (r.thin) kann dieses als Eingabe für r.length.sh dienen. Über das Ausgabelayer von r.length.sh läßt sich die Tiefenliniendichte in beliebigen Objekten berechnen (z.B. über r.statistics, r.density.sh).
Fähigkeiten/Möglichkeiten des Moduls
Syntax:
r.statistics [-c] base=name cover=name method=name [output=name]
Kurzbeschreibung:
Erzeugte Datenstruktur:
Einfache statistische Kenngrößen (Mittelwert, Modus, Abweichung, Schiefe, ...) werden aus den Daten einer Karte 'cover' innerehalb der Objekte gleicher Kategorie einer Karte 'base' berechnet. Diese statistischen Kenngrößen werden als Labels der Ausgabekarte 'output' (die dieselben Kategoriewerte hat wie die Karte 'base') gespeichert. Es werden die Häufigkeitsverteilungen der Daten einer Karte 'cover' innerhalb der Objekte einer Karte 'base' berechnet. Diese Häufigkeitsverteilungen für jedes Objekt werden auf 'standart.out' ausgegeben.
Benötigte Datenstruktur:
Karte 'cover': Karte einer räumlich verteilten Größe, für die die Statistik berechnet werden soll.
Karte 'base': Karte mit Objekten, innerhalb derer die Statistik gemacht werden soll.
Das GRASS-Modul 'r.statistics' dient zur statistischen Analyse von räumlich verteilten Daten (wie z.B. Hangneigung, Tiefenlinien, Bodenfeuchte) innerhalb von definierten Objekten. Hierbei können über den Parameter 'method' verschiedene statistische Kenngrößen der verteilten Daten berechnet werden. Mögliche Optionen sind:
distribution: Verteilung in Prozent
average: Durchschnitt
mode: Modalwert
median: Median
avedev: Durchschnittliche Abweichung
stddev: Standardabweichung
variance: Varianz
skewness: Schiefe der Verteilung
kurtosis: Relative Abflachung (-) oder Zuspitzung (+)
min: Minimum
max: Maximum
sum: Summe der Pixelwerte
area: Anzahl der Pixel
Die Berechnung der statistischen Kennwerte der verteilten Daten (Karte 'cover') erfolgt innerhalb von Objekten, die durch die Angabe einer Karte 'base' (wie z.B. Subeinzugsgebiete, Bodentypen) zu definieren sind.
Die eingehende Karte 'cover' kann eine beliebig verteilte Datenstruktur sein. Hierbei kann die statistische Analyse wahlweise für die Kategoriewerte (default) oder für die Label-Werte dieser Kategorie (Option '-c') berechnet werden.
Die eingehende Karte 'base' sollte sinnvollerweise eine Karte mit Objekten jeweils einheitlicher Kategoriewerte sein. r.statistics fasst nun alle Pixelwerte der Karte 'cover' in Pixeln gleicher Kategorie der Karte 'base' zusammen und führt für diese die statistische Analyse aus.
Das Ausgabeformat kann je nach gewählter Option zwei Formen annehmen:
Spalte 1 - Kategorie der Karte 'base'
Spalte 2 - vorkommende Kategorie- oder Labelwerte der Karte 'cover' innerhalb des Objektes der Kategorie aus Spalte 1
Spalte 3: - Häufigkeit (in %) des Wertes aus Spalte 2 im Objekt von Spalte 1.
Das GRASS - Modul r.statistics kann in folgenden Bereichen eingesetzt werden:
Durch die Möglichkeit der Durchführung von objektorientierter Statistik kann das Modul r.statistics besonders zur Analyse von Objekten oder Klassen einheitlicher Kategorien innerhalb von Rasterlayern dienen. Objekte oder Klassen können hierbei räumlich zusammenhängende Gebiete (z.B. Einzugsgebiete, Höhenschichten) oder aber auch verteilte Größen sein. Die statistischen Kennwerte können dem jeweiligen Objekt zugeordnet werden. Mit Hilfe der Kenngrößen können Objekte voneinander unterschieden, kategorisiert und weitergehend klassifiziert werden. Besonders sei hier auf die Bildung von höherskaligen Objekten hingewiesen, was einen Teilaspekt der Regionalisierung darstellt. Als konkretes Beispiel sei die Bildung des Mittelwertes von Neigungen in Einzugsgebieten genannt. Durch Klassifizierung der Mittelwerte und Regionalisierung der Einzugsgebiete ist die Bildung größerer Objekte ähnlicher Hangneigung möglich. Andererseits können die statistischen Größen zur Weiterverarbeitung in höherskalige Parameter und zur Objektcharakterisierung und -regionalisierung dienen, oder direkt in Modelle eingehen.
Ein besonders interessanter Aspekt bietet die Ausgabe der objektbezogenen Häufigkeitsverteilung als Tabelle: Hierdurch ist es möglich, die Daten direkt weiterzuverarbeiten (dies ist zum Beispiel notwendig, wenn andere als die durch den Befehlsapparat von r.statistics gegebenen statistischen Kenngrößen berechnet werden sollen). Diese Ausgabe wurde von uns genutzt, um höherskalige Parameter durch Kurven - Fitting zu gewinnen (siehe Kapitel 5.4).
Fähigkeiten/Möglichkeiten des Moduls
Syntax:
r.aggreg input=name output=name neibor=name [aggregation=value]
Kurzbeschreibung:
Erzeugte Datenstruktur:
Die erzeugte Rasterkarte 'output' beinhaltet Objekte mit eindeutiger Objektnummer, die den Pixeln des jeweiligen Objektes als Kategoriewert zugewiesen wird. Diese Objekte ergeben sich aus der eingehenden Rasterkarte 'input' durch flächenhaft zusammenhängende Pixel gleicher Kategoriewerte. Die Berechnung kann für 4 oder 8 (default) Nachbarn des jeweils untersuchten Pixels durchgeführt werden. Diese Angabe erfolgt über den Parameter 'aggregation'.
Die erzeugte Textdatei 'neibor' enthält Informationen über die Nachbarobjekte jedes Objektes von 'output' (Anzahl, Größe, Grenzlänge, etc.). Die Daten werden in einer bestimmten Form für jedes Objekt der Rasterkarte 'output' gespeichert (siehe unten). Die Textdatei kann zur Weiterverarbeitung genutzt werden.
Benötigte Datenstruktur:
Die benötigte Rasterkarte 'input' kann ein beliebiges GRASS-Rasterlayer sein. Allerdings sollte darauf geachtet werden, daß es auch sinnvolle Informationen enthält, d.h. flächenhaft zusammenhängende Pixel gleicher Kategoriewerte!
Das GRASS Modul r.aggreg dient zur Objektaggregation und Nachbarschaftsanalyse von Objekten.
Die Objektaggregation wird von r.aggreg durch folgende Systematik durchgeführt: Zusammenhängende Pixel gleicher Kategorie des Rasterlayers 'input' werden als neue Objekte zusammengefasst, die in der Ausgabekarte eine neue, eindeutige Objektnummer erhalten. Der Algorithmus überprüft für jedes Pixel der eingehenden Rasterkarte die Nachbarn auf Gleichheit der Kategoriewerte und fügt sie entsprechend dem neuen Objekt zu. Die Überprüfung der Nachbarpixel wird standardmäßig auf allen 8 Nachbarn durchgeführt, kann aber durch den Parameter 'aggregation' auf die 4 senkrechten Nachbarpixel eingeschränkt werden ('aggregation=4'). Das hat zur Folge, daß Objekte, die nur über Diagonalen verbunden sind, als getrennte Objekte betrachtet werden. Für die Zusammenfassung zweier Pixel gelten also zwei Bedingungen: (1) Es muß ein gleicher Kategoriewert der Pixel vorliegen, (2) die Pixel müssen räumlich benachtbart sein.
Die Bildung der neuen Objekte aufgrund dieser Bedingungen hat zur Folge, daß zwei Objekte durchaus dieselbe Ursprungskategorie haben können, aber räumlich getrennt vorliegen (keine Klassenbildung). Die auf diese Weise gebildeten Objekte werden als 'output' Rasterlayer gespeichert.
Die Nachbarschaftsanalyse wird für die Objekte der 'output' Karte durchgeführt. Jedes Objekt dieser Karte wird auf folgende Eigenattribute und Nachbarschaftsattribute untersucht:
Diese Attribute werden für jedes Objekt extrahiert und in eine Textdatei geschrieben, die beim Programmaufruf von r.aggreg als 'neibor' angegeben werden muß. Die Struktur dieser Textdatei hat folgende Form:
Für jedes Objekt wird ein durch Leerzeilen getrennter Block erzeugt. Die erste Zeile dieses Blockes enthält die Attribute des Objektes (mit Leerzeichen getrennt). Es folgt eine Zeile mit einer Trennungslinie. Die folgenden Zeilen enthalten die Objektattribute der Nachbarobjekte.
Entsprechend den verschiedenen Ausgabemöglichkeiten von r.aggreg ergeben sich zwei Einsatzgebiete:
Die ursprüngliche Motivation zur Beschäftigung mit Problemen der Anpassung theoretischer mathematischer Funktionen an empirische Datenreihen von Werten (=fitting), erwuchs aus der Beschäftigung mit dem Topographie-Parameter ln(a/tanß) aus TOPMODEL (siehe Kapitel 2.3). Einige Autoren hatten Vergleiche verschiedener Einzugsgebiete durch Analyse der gefitteten Häufigkeitsverteilungen zum Topographie-Parameter publiziert (z.B. SIVAPALAN, 1987).
Eine weitere Grundlage zum Fitting-Problem war das von uns entwickelte Modul r.statistics: Neben statistischen Parametern der Verteilung einer Größe in einem Gebiet wird auch die Häufigkeitsverteilung selbst als Wertepaare ausgegeben. Allerdings ist die topographische Beschreibung eines Gebietes durch statistische Parameter (z.B. Mittelwert der Neigung) eine sehr einschränkende Betrachtungsweise, da die Form der Verteilung vollkommen verloren geht! Unsere Überlegung ging davon aus, durch das Anpassen von theoretischen Kurven an eine empirische Häufigkeitsverteilung eine wesentlich bessere Informationsübertragung von räumlich verteiltem Gebietsparameter auf den effektiven geomorphometrischen Parameter zu ermöglichen. Die Art der theoretischen Verteilung und deren Gleichungskonstanten können damit als Parameter für die Gebietsbeschreibung verwendet werden!
Fähigkeiten/Möglichkeiten des Moduls
Syntax:
r.fit.sh base=name cover=name method=name output=name
r.fitmap.sh base=name cover=name method=name output=name
Kurzbeschreibung:
r.fit.sh:
Berechnet Fitparameter (die sich aus dem Fit der Werte der Coverkarte innerhalb der Objekte der Basekarte ergeben) in den Objekten der Basekarte. Es wird eine Ausgabedatei erzeugt, die Größe der Objekte und zugehörige bestimmte Fitparameter enthält.
r.fitmap.sh:
Erzeugte Datenstrukturen sind GRASS-Rasterlayer, die als Label Fitparameter enthalten
Benötigte Datenstruktur: GRASS-Rasterlayer 'base' mit Objekten, innerhalb derer der Fit durchgeführt werden soll, GRASS-Rasterlayer 'cover' mit den Daten für den Fit.
Berechnet Fitparameter (die sich aus dem Fit der Werte der Coverkarte innerhalb der Objekte der Basekarte ergeben) in den Objekten der Basekarte. Es werden Ausgabelayer erzeugt, die als Label die bestimmten Fitparameter in den jeweiligen Objekten enthalten.
Durch den Parameter 'method' kann die anzupassende theoretische Verteilung gewählt werden (bisher verfügbar: Gauss, Lorenz, Lognormal).
Die Algorithmen der entwickelten Module arbeiten nach folgendem Shema:
Exportieren der Daten aus Grass
Zum Export der Daten aus Grass (die ja dann als Verteilungen vorliegen müssen) benutzen wir das GRASS-Modul r.statistics, das die Verteilung einer cover-Größe innerhalb der Objekte einer base-Karte ermittelt.
Fitten mit dem Programm fit2
Zum Anpassen theoretischer Verteilungsfunktionen an die Häufigkeitsverteilungen wurde das Programm 'fit2' benutzt, das von Michael Courtney, USA geschrieben wurde. Das Programm fit2 bietet standardmäßig einige Alternativen als theoretische fit-Funktion an (lineare Regression, Gauss-Verteilung, Lorenz-Verteilung, ...), die mittels Chi-Quadrat-Minimum Methode an eine empirische Verteilung angepasst werden können. Darüber hinaus können eigene analytische Funktionen (die gewissen Kriterien genügen müssen, z.B. Differenzierbarkeit) in das Programm eingebaut werden.
Probleme ergeben sich beim Finden von Minima wegen der Nicht-Eindeutigkeit des absoluten Minimums, d.h. das Programm bestimmt iterativ ein Minimum aus der Ableitung der Chi-Quadrat-Funktion. Ein so gefundenes Minimum muss also im allgemeinen ein nur lokales, nicht aber das absolute Minimum sein. Da entsprechend der Datenmenge die Komplexität der Chi-Quadrat-Funktion steigt, steigt auch die Anzahl lokaler Minima. Entsprechend schwer wird es, das absolute Minimum zu finden, da fit2 auch in lokalen Minima 'hängenbleibt'!
Es ist daher notwendig, die Fit-Parameter möglichst genau vorzugeben (initialisieren), um nah am absoluten Minimum zu sein. Die Idee zur Lösung dieses Problem war es, aus analytischen Befunden eine theoretische Verteilung für einen topographischen Parameter in allen Größenordnungen als anwendbar anzuerkennen, um mit Hilfe der empirisch zu ermittelnden einfachen statitischen Kenngrößen eine Parameterinitialisierung vorzunehmen. Zur Realisierung der eben beschriebenen Methode wurden die statistischen Parameter (Mittelwert, Modus, Median, Varianz, Stddev.) der verschiedenen theoretischen Verteilungen bestimmt, um durch Vergleich mit den über r.statistics leicht zu bestimmenden Parametern eine Initialisierung der fit-Parameter zu ereichen. Dazu wurden die Gleichungssysteme für Mittelwert, Varianz und Maximalwert nach den Fit-Parametern aufgelöst. Diese Werte werden sodann für empirische Verteilungen bestimmt und aus diesen wiederum die Fit-Parameter errechnet.
Die Anwendung im Fitprogramm zeigte eine gute Übereinstimmung der theoretischen und empirischen Verteilung. Ein anschließendes fitten konnte denn Chi-Quadrat-Wert weiter senken. Die beschriebene Methode der Initialisierung der Fitparameter wird als 'method of moments' bezeichnet und wurde auch von SIVAPALAN (1987) verwendet, der eine Gamma-Verteilung an kummulierte ln(a/tanß) -Häufigkeitsverteilungen fittete.
Ausgabe der Daten
Die auf diese Weise gewonnenen Fitparameter sollen
1) in Bezug gesetzt werden zur Objektgröße um eine Schwellenwertanalyse zu erlauben
2) direkt als Label der Objekte in den Layern ausgegeben werden um eine weitere Verarbeitung (z.B. Klassifizierung der Objekte) zu ermöglichen
Nach den eben beschriebenen Methoden wurde ein Algorithmus zur Automatisierung des Fittens entwickelt. Dieser leistet folgendes:
Nach Eingabe von Basisparametern und Objekten passt das Programm mit Hilfe von r.statistics und fit2 die empirische Verteilung der Parameter in den Objekten an eine gewählte theoretische Verteilung an (verschiedene Fitkurven möglich). Die Fitparameter werden durch die besprochene Methode der Berechnung der empirischen statistischen Werte gewonnen. Weiteres fitten liefert die Fitparameter. Diese können in Bezug gesetzt werden zu der Objektgröße (Datensatz, der Objektgröße und Fitparameter enthält). Als weitere Möglichkeit werden die gewonnenen Fitparameter in Form einer Parametermatrix dargestellt.
Das Programm wurde durch zwei Shellscripte realisiert (r.fit.sh, r.fitmap.sh).
Die Weiterentwicklung beinhaltete:
Die beschriebenen Module sind für den Einsatz bei der Schwellenwertanalyse sowie bei der Objektcharakterisierung konzipiert. Es kann eine Objektcharakterisierung durch komplexere Parameter erreicht werden. Die Parameter sind in der Lage die gesamte Häufigkeitsverteilung eines Basisparameters zu beschreiben.
Im Arbeitsbericht zum Antrag Reliefhydrlogie III wurden Dichteanalysen vorgestellt. Es wurde die Dichte der Tiefenlinien durch die GRASS-Module r.length.sh und r.mapcalc im Filter erzeugt. Dadurch kann mit Hilfe von r.statistics eine Tiefenliniendichte im Objekt berechnet werden. Der Nachteil dieser Methode ist eine größere Ungenauigkeit durch Fehler der ganzzahligen Operationen durch GRASS. Um eine bessere Abschätzung der Tiefenliniendichte im Objekt zu erhalten, wurde das Shellscript 'r.density.sh' geschrieben, welches die notwendigen Dichteberechnungen außerhalb von GRASS ausführt und die Ergebnisse als Labels in ein seperates Layer zurückschreibt. Hierdurch kann die Tiefenliniendichte als exakte Fließkommazahl abgerufen werden.
Fähigkeiten/Möglichkeiten des Moduls
Syntax:
r.density.sh base=name covermap=name output=name
Kurzbeschreibung:
Erzeugte Datenstruktur:
Rasterkarte 'output', die als Label der Objekte der Rasterkarte 'base' die Dichten der Rasterkarte 'cover' innerhalb der Objekte von 'base' enthält.
Benötigte Datenstruktur:
Rasterkarte 'base' mit Objekten, für die Dichten berechnet werden
sollen.
Rasterkarte 'cover' mit den Werten, für die die Dichte berechnet werden
soll.
Das GRASS-Shellscript r.density.sh berechnet aus einer vorliegenden Rasterkarte mit Parameterwerten (z.B. Tiefenlinien) und einer vorliegenden Rasterkarte mit Objekten (z.B. Einzugsgebiete) die Dichte dieser Werte im Einzugsgebiet und speichert diese Dichtewerte als Label der erzeugten Rasterkarte ab.
Der Algorithmus arbeitet nach folgendem Schema:
Mithilfe des Moduls r.statistics werden die Werte der Rasterkarte 'cover' innerhalb der Objekte der Rasterkarte 'base' aufsummiert (r.statistics, method=sum). Das Modul r.stats berechnet die Flächen der Objekte der Rasterkarte 'base'. Die durch r.statistics berechneten Summen werden anschließend durch die jeweils zugehörige Fläche dividiert. Diese Operation wird außerhalb von GRASS durchgeführt, um Fließkommaergebnisse zu erlauben. Die als Fließkommazahlen berechneten Dichtewerte werden anschließend in die 'cats'-Datei der erzeugten Rasterkarte als Label der Kategorien übertragen. Hierdurch können die Dichtewerte als exaktere Zahlen ohne Rundungsfehler unter GRASS abgespeichert und dort weiterverarbeitet werden.
Das Modul wurde zur Berechnung von exakten, objektbezogenen Dichtewerten entwickelt, wie z.B. Tiefenliniendichte oder Flußdichte. Diese Dichtewerte können als repräsentative Parameter für geomorphometrische Objekte verwendet werden.
Das AFS - Andrews File System - ist ein kommerzielles Softwareprodukt der Firma Transarc Corporation , Pittsburg. Für die Universität Heidelberg wurde eine Campus- Lizenz erworben. Sämtliche Daten unter UNIX werden im Universitäts - Rechenzentrum (URZ ) von AFS verwaltet. Das URZ assistiert den Instituten der Universität bei der Installation von AFS. Nachdem wir dieses System auf unseren SUN-Workstations eingerichtet haben (im Juli 1994), existiert nun im Geographischen Institut der erste AFS-Server (Dateien können nicht nur importiert, sondern auch exportiert werden) außerhalb des Rechenzentrums.
Im Vergleich zum bisherigen Netzwerk bietet AFS die Möglichkeit, den direkten Dateizugriff auch auf andere AFS- Zellen auszudehnen. Das bedeutet konkret, daß Berechnungen, die auf Maschinen im Rechenzentrum laufen, auf Daten im Geographischen Institut zugreifen können und umgekehrt. Für den Benutzer entfällt der eigentlich überflüssige Vorgang des Kopierens von Ausgangs- und Ergebnisdateien zwischen den Rechnern der beiden Institute. Damit waren bisher Nachteile verbunden: eine Vielzahl der Dateien existierte mehrfach, da sonst der Aufwand für das Aussortieren und Transferieren der wirklich benötigten Daten zu groß war. Namenskonflikte beim Transfer der Ergebnisdateien waren vorprogrammiert. Rechenzeitintensive Prozesse wurden am Geographischen Institut gestartet, während am URZ Kapazitäten frei waren. Darunter litt die Performance einfacher Auswertungen am Institut.
Die grundsätzliche Motivation zur Einrichtung des AFS auf unseren Rechnern enstand bei der Bearbeitung sehr großer Datensätze (siehe Kapitel 3.2). Bei der Einzugsgebietsmodellierung des Neckar mußten wir wegen der notwendigen Rechenkapazität auf die Rechner des URZ ausweichen. Da die Daten (MilGeo-Datensatz) auf den Rechnern im Geographischen Institut lagen, war ein ständiger Datentransfer zwischen den Systemen notwendig (Basis- und Ergebnisdaten). Es können nun Prozesse, die auf einem der beiden Systeme laufen auf Daten beider Systeme unmittelbar zugreifen, was besonders im Hinblick auf die Modellierung des Einzugsgebiets der Weser das Prozeßhandling wesentlich vereinfacht.