Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
APPARATUS FOR DISPLAYING TERRAIN ON A DISPLAY APPARATUS OF AN AIRBORNE VEHICLE
Document Type and Number:
WIPO Patent Application WO/2012/006983
Kind Code:
A2
Abstract:
The invention relates to an apparatus for displaying terrain on a display apparatus of an airborne vehicle, comprising a synthetic vision system having a terrain and obstruction database, an enhanced vision system with sensors (1) for recording terrain data, a height and position sensor (5) for determining the flight state data, a display apparatus (6), a processor (3) for fusion of the data from the synthetic vision system and from the enhanced vision system, wherein the height information which is produced by the synthetic vision system and the enhanced vision system is stored as pixels in a two-dimensional grid network, a graphics processor (4, 8) which send the terrain data produced by means of the fusion processor (3) to the display apparatus (6), taking account of the flight state data determined by means of the height and position sensor (5), characterized in that the fusion processor (3) using an error function for insertion of a pixel into the two-dimensional grid network, wherein the error function provides an estimate of the size of the respective cell in which the pixel is stored, from the distance between the pixel and the sensor position.

Inventors:
SCHAFHITZEL TOBIAS (DE)
Application Number:
PCT/DE2011/001105
Publication Date:
January 19, 2012
Filing Date:
May 25, 2011
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
EADS DEUTSCHLAND GMBH (DE)
SCHAFHITZEL TOBIAS (DE)
International Classes:
G06T17/05
Domestic Patent References:
WO2008018906A22008-02-14
Foreign References:
US7148861B22006-12-12
EP1084380B12010-01-06
US20100026525A12010-02-04
US20070297696A12007-12-27
US20090040070A12009-02-12
Other References:
PAJAROLA R ED - EBERT D ET AL: "Large scale terrain visualization using the restricted quadtree triangulation", VISUALIZATION '98. PROCEEDINGS RESEARCH TRIANGLE PARK, NC, USA 18-23 OCT. 1998, PISCATAWAY, NJ, USA,IEEE, US, 18. Oktober 1998 (1998-10-18), Seiten 19-26,515, XP010321005, DOI: 10.1109/VISUAL.1998.745280 ISBN: 978-0-8186-9176-8
DUBET S ED - INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS: "Terrain, obstacle and airport databases for electronic flight bags", 22ND. DASC. THE 22ND. DIGITAL AVIONICS SYSTEMS CONFERENCE PROCEEDINGS. INDIANAPOLIS, IN, OCT. 12 - 16, 2003; [DIGITAL AVIONICS SYSTEMS CONFERENCE], NEW YORK, NY : IEEE, US, 12. Oktober 2003 (2003-10-12), Seiten 13.D.2-131, XP031961975, DOI: 10.1109/DASC.2003.1245956 ISBN: 978-0-7803-7844-5
Attorney, Agent or Firm:
EADS DEUTSCHLAND GMBH (DE)
Download PDF:
Claims:
Bewegungen und Richtungsänderungen nicht notwendigerweise mit der meist niedrigeren Frequenz der Sensordaten und damit auch der Bodenflächengenerie- rung dargestellt werden müssen.
Description:
Vorrichtung zur Darstellung von Gelände auf einer Anzeigevorrichtung eines Flugkörpers

Die Erfindung betrifft eine Vorrichtung zur Darstellung von Gelände auf einer Anzeigevorrichtung eines Flugkörpers gemäß den Merkmalen des Patentanspruchs 1.

Im Kontext sogenannter Pilotenassistenzsysteme kommen Anzeigegeräte für eine synthetische Außensicht immer dann zum Einsatz, wenn äußere Witterungsverhält- nisse, Dunkelheit oder auch sogenannte Brownout / Whiteout Phasen (das Aufwirbeln von Sand oder Schnee) dem Piloten die Sicht erschweren oder sogar komplett verdecken. Gängige Methoden für die Generierung einer synthetischen Außensicht sind sogenannte Synthetic Vision Systeme (SVS) oder Enhanced Vision Systeme (EVS). Während bei SVS die darzustellenden Daten aus einer Datenbank bezogen werden, d.h. Gelände und Hindernisinformation muss bereits vorhanden sein, werden bei ESV Systemen Kameras oder Sensoren genutzt um die während des Fluges aufgenommenen Daten direkt zu verarbeiten.

Der Stand der Technik beschränkt sich im Wesentlichen auf Synthetic Vision Systeme und Enhanced Viston Systeme, wobei hier meist das Sensorbild direkt, d.h. zweidimensional, dargestellt wird.

WO 2008/018906 beschreibt die Datenvalidierung von Terrain-Datenbankdaten mittels Sensordaten. Das beschriebene Verfahren geht von einer festen Anzahl an Stützstellen aus (gegeben durch die Datenbank) und wendet die Validierung durch die aufgenommenen Sensordaten darauf an. Als Ausgabe wird hier ein Punkt als "validated, not validated oder warning area" gekennzeichnet.

US 7,148,861 B2 beschreibt eine Datenfusion zweier Datenquellen auf 2D Pixelebene. Es wird neben den Koordinatensystemen der zwei Datenquellen ein weite- res, drittes Koordinatensystem eingeführt, welches den unterschiedlichen Perspektiven der Datenquellen entgegenwirken soll.

EP1 084 380 B1 beschreibt Visualisierungsmethoden von Datenbank- und Sensor- daten. Weitere Offenbarungen zur Sensordatenfusion finden sich in US

2010/0026525 A1 sowie Patent US 2007/0297696 A1.

Aus US 2009/0040070 A1 ist eine Vorrichtung zur Darstellung von Gelände auf einer Anzeigevorrichtung eines Flugkörpers gemäß den Oberbegriff des Patentan- spruchs 1.

Aufgabe der Erfindung ist es eine verbesserte Vorrichtung zur Darstellung von Gelände auf einer Anzeigevorrichtung eines Flugkörpers anzugeben. Diese Aufgabe wird mit der Vorrichtung gemäß den Merkmalen des geltenden

Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von Unteransprüchen.

Die erfindungsgemäße Vorrichtung umfasst ein Synthetic Vision System mit einer Gelände- und Hindernisdatenbank, ein Enhanced Vision System mit Sensoren zur Aufnahme von Geländedaten, ein Höhen- und Positionssensor zur Bestimmung der Flugzustandsdaten eine Anzeigevorrichtung, einen Prozessor zur Fusionierung der Daten des Synthetic Vtsion Systems und des Enhanced Vision Systems, wobei die von dem Synthetic Vision System und dem Enhanced Vision System erzeugten Höheninformationen als Pixel in einem zweidimensionalen Gitternetz gespeichert werden, einen Grafikprozessor, welcher die mittels des Fusionsprozessors erzeugten Geländedaten an die Anzeigevorrichtung sendet unter Berücksichtigung der mittels des Höhen- und Positionssensors bestimmten Flugzustandsdaten. Erfindungsgemäß verwendet der Fusionsprozessor beim Einfügen eines Pixels in das zweidimensionale Gitternetz eine Fehlerfunktion, wobei die Fehlerfunktion aus dem Abstand des Pixels zur Sensorposition eine Abschätzung für die Größe der jeweiligen Zelle liefert, in welche das Pixel gespeichert wird. Zusätzlich zum gemes- senen Abstand des Pixels zur Sensorposition können auch weitere bekannte Sensor- oder navigationsspezifischen Parameter berücksichtigt werden.

Vorteilhaft ist das zweidimensionale Gitternetz eine Parametrisierung der Tangenti- alfläche der Erdkugel darstellt mit einer hierarchischen, nicht-regulären Struktur und einer vorgebbaren maximalen Anzahl von Zellen, wobei das Zentrum des Gitternetzes die Position des Sensors des Enhanced Vision Systems abbildet. Die Anzahl der Zellen ist nicht konstant, da sie von der Verfeinerung der Zellstruktur abhängt. Für den Fall des maximalen Verfeinerungslevels einer Zelle, kann die daraus resultierende maximale Auflösung berechnet werden.

Der Prozessor zur Fusionierung der Daten des Synthetic Vision Systems und des Enhanced Vision Systems wird im Folgenden auch als Bodenpixelcontainer bezeichnet. Die erfindungsgemäße Idee befasst sich mit der Kombination aus beiden Systemen, einem sogenannten Enhanced Synthetic Vision System (ESVS), d.h. der Fusion von vorhandenen Terrain- und Hindemisinformationen, welche in Datenbanken abgelegt sind, und 3D Sensordaten (z.B. LADAR, RADAR), welche bereits durch vorherige Segmentierung in klassifizierter Form vorliegen.

Die vorliegende Erfindung kombiniert die Vorteile von Synthetic Vision Systemen und Enhanced Vision Systemen, indem von einem Sensor aufgenommene SD- Geländedaten in Echtzeit segmentiert und mit bestehenden Terrain- und Hindernisdaten aus einer Datenbank fusioniert werden. Die Segmentierung der Sensordaten entscheidet dabei auf Pixelbasis, ob das jeweilige Pixel als Teil des Terrains oder als Hindernis einzustufen ist. Die Segmentierung erfolgt dabei nach aus dem Stand der Technik bekannten Verfahren.

Während die als Hindernis klassifizierten Pixel als 3D Punktwolke behandelt werden, werden die sogenannten„Bodenpixel" in dem Bodenpixelcontainer gespei- chert. Dieser Bodenpixelcontainer repräsentiert ein adaptives Gitter (d.h. entsprechend der Genauigkeit eines Messpunktes), welches durch seine Zellen einer diskreten Abtastung der Erdoberfläche entspricht. Jede Zelle nimmt jeweils einen Datenwert auf, welcher dann als Höhenwert für die komplette räumliche Ausdehnung der Zelle zu betrachten ist. Dabei unterstützt der Bodenpixelcontainer das „See & Remember" Konzept, d.h. jeder räumliche Bereich, der einmal abgetastet wurde, wird erst im Bodenpixelcontainer und anschließend in einer Datenbank abgelegt.

Die Erfindung wird im Weiteren anhand von Zeichnungen näher erläutert. Es zeigen:

Fig. 1 einen schematischen Aufbau der erfindungsgemäßen Vorrichtung,

Fig. 2 eine beispielhafte Darstellung des Bodenpixelcontainers mit einer Raumunterteilungsstruktur,

Fig. 3 eine beispielhafte Darstellung des Bodenpixelcontainers, in welchen ein Bodenpixel eingefügt ist,

Fig. 4 eine beispielhafte Darstellung des Bodenpixelcontainers bei Positionsänderung des Sensors zur Aufnahme von Geländedaten,

Fig. 5 eine beispielhafte Darstellung eines Ausschnitts aus dem Bodenpixelcon- tainer mit einer Triangulation der Daten zur Visualisierung.

Fig. 1 zeigt einen schematischen Aufbau der erfindungsgemäßen Vorrichtung. Es ist ein Sensor 1 zur Erzeugung eines Rohdatenbildes sowie ein Modul 1a zur Segmentierung der Bodenpixel vorhanden. Außerdem ist eine Datenbank 2 zur Speicherung von Höhendaten vorhanden, im Weiteren auch als Elevationsdaten- bank bezeichnet.

Der Sensor 1 und die Datenbank 2 sind mit dem Bodenpixelcontainer 3 verbunden. Zwischen dem Bodenpixelcontainer 3 und der Datenbank 2 besteht eine lesende und schreibende Datenbankanbindung für den Austausch von Datenbankdaten und Sensordaten.

An den Bodenpixelcontainer 3 ist zudem über eine Schnittstelle ein Visualisie- rungsmodul 4 angeschlossen. Ein Modul 5 zur Messung der Flugzustandsdaten ist mit dem Bodenpixelcontainer 3 und dem Visualisierungsmodul 4 verbunden. Das Visualisierungsmodul 4 ist mit einer Anzeigevorrichtung 6 zur Darstellung des Geländes verbunden. Visualisierungsmodul 4 dient im Wesentlichen dazu, die Daten mit Hilfe bekannter Visualisierungsalgorithmen geeignet aufzubereiten, so dass die Daten auf der Anzeigevorrichtung 6 angezeigt werden können.

In Fig. 1 ist mit dem Bezugszeichen 7 das ESVS-Modul bekzeichnet. ESVS steht hierbei für Enhanced Synthetic Vision System. Das ESVS-Modul 7 beinhaltet den Bodenpixelcontainer 3, das Visualisierungsmodul 4 mit den Visualisierungs- (bzw. Triangulations-) algorithmen sowie die Anzeigevorrichtung 6. Als Eingabe existiert jeweils eine Anbindung an den Sensor 1 und an die Datenbank 2. Die Ausgabe entspricht einer Anbindung an die Datenbank 2, um Daten zurückzuschreiben, und einem Geometriespeicher 8, welcher die aus den Triangulationsalgorithmen resultierende Bodenflächengeometrie enthält. Die Daten des Geometriespeichers 8 werden direkt an die Anzeigevorrichtung 6 geleitet.

Die Verarbeitungskette des ESVS-Moduls 7 erhält als Eingabe die aus dem Sensor 1 gewonnenen Rohdaten, welche als Tiefenbild oder durch Berücksichtigung der Flugzustandsdaten auch als 3D Punktwolke interpretiert werden können. Diese Punktwolke durchläuft zunächst eine Klassifikation, d.h. es wird pro aufgenomme- nen Datenpunkt entschieden, ob dieser als Bestandteil des Bodens zu betrachten ist oder als daraufstehendes, nicht näher klassifiziertes Objekt.

In den weiteren Erläuterungen werden ausschließlich die als„BODEN" klassifizieren Datenpunkte betrachtet. Des Weiteren werden Flugzustandsdaten aus dem Modul 5 zur Messung der Flugzustandsdaten als Eingabe benötigt, wie sie von einem Navigationssystem geliefert werden, bestehend aus: der Position im WGS84 Koordinatensystem, der Flughöhe bezogen auf MSL und den Fluglagewinkeln. Die klassifizierten Sensorbilder, wie sie aus der Bodensegmentierung resultieren, werden zusammen mit den Flugzustandsdaten an den Bodenpixelcontainer 3 übergeben. Die Flugzustandsdaten werden außerdem in einem späteren Verarbeitungsschritt, d.h. bei der Visualisierung, ein weiteres Mal benötigt.

Der Bodenpixelcontainer 3 bildet das Kernmodul der Datenverarbeitungskette zur Fusionierung der vorhandenen Gelände- und Hindernisdaten mit den Sensorrohda- ten. Er ist zuständig für die Speicherung aller gesammelten Bodenpixeldaten innerhalb eines räumlich begrenzten Bereichs, sowie für die Weiterverarbeitung dieser Daten zum Einen für die darauffolgenden Visualisierungsalgorithmen im Visualisierungsmodul 4, und zum Anderen für das Abspeichern in einer Elevations- datenbank 2.

Der Bodenpixelcontainer entspricht einem räumlich konstant definierten Bereich um ein festgelegtes Zentrum. Fig. 2 veranschaulicht den Aufbau des Containers. Der Bodenpixelcontainer als räumliche Diskretisierung mit einer definierten Seitenlänge d (linke Darstellung in Fig. 2). Die Darstellung ist als Draufsicht zu betrachten, d.h. als Parametrisierung der Tangentialflache der Erde, wobei die Position des Sensors das Zentrum des Containers bildet. Die vom Container abgedeckte Fläche wird durch n Zellen mit Kantenlänge de diskretisiert, welche wieder als Raumunterteilungsstrukturen, hier Quadtrees, dienen {rechte Darstellung in Fig. 2). Ausgehend von zwei orthogonal aufeinander stehenden Tangentialvektoren in einem nordorientierten Koordinatensystem (lokal geodätisches Koordinatensystem) wird die vom Bodenpixelcontainer abgedeckte Fläche bezüglich eines zum Zeitpunkt tO festgelegten Ursprungs aufgespannt. Anschaulich lässt sich dieser Vor- gang als eine Draufsicht auf die Erdoberfläche verdeutlichen, in welcher die

Sensorposition (z.B. die GPS Position des Luftfahrzeugs, an welchem der Sensor angebracht ist) das Zentrum der Fläche bildet, die der Bodenpixelcontainer verarbeitet. Diese Fläche, mit einer Seitenlänge d, welche durchaus mehrere Kilometer betragen kann, wird in n Zellen unterteilt.

Die Grundidee des Bodenpixelcontainers ist dabei, in den Zellen Höhenwerte abzulegen, was mathematisch einem Höhenfeld f(x,y)— >z entspricht.

Um auftretenden Messunsicherheiten entgegenzuwirken, wurde die äquidistante, reguläre Struktur (d.h. eine konstante Zellgröße de) des Bodenpixelcontainers durch weitere Raumunterteilungsmechanismen erweitert. Die Messunsicherheiten wirken sich im Wesentlichen auf die dreidimensionale Positionen der Bodenpixel, welche aus der Vorverarbeitung an den Bodenpixelcontainer übermittelt werden, aus. So kann man sich vorstellen, dass mechanische Sensorungenauigkeiten sowie auch die Ungenauigkeit des verwendeten (inertialen) Navigationssystems (INS) dazu beitragen, dass die Position eines Bodenpixels nicht garantiert werden kann.

Mögliche Fehlerquellen sind hierbei:

• mechanische Sensorfehler im Inneren des Sensors

• Einbaufehler, z.B. durch Ungenauigkeiten bei der Montage

• INS Winkelfehler, d.h. Ungenauigkeiten der Fluglagewinkel

· INS Positionsfehler, d.h. eine ungenaue Position des Fluggerätes

Da sich die genannten Fehlerquellen nicht gleich auf jedes Bodenpixel auswirken sondern von bestimmten Faktoren abhängig sind, kann die Ungenauigkeit jedes Abtastpunktes individuell betrachtet werden. Hierzu können 2 zusammengehörige Mechanismen verwendet werden. Zum Einen kann das ein aus dem Stand der Technik bekannter Quadtree sein. Der Quadtree dient als Raumunterteilungsstruktur dient und ausgehend von der Zellgröße de diese in jeweils 4 gleichgroße Unterzellen zerteilt, und zum Anderen eine Fehler- funktion fe, welche die Fehleranfälligkeit eines Abtastpunktes in Abhängigkeit definierter Parameter ausdrückt. Ein einfaches Beispiel hierfür wäre

f s (dist) = f Sensür +4* a(e) ,

wobei hier ein distanzabhängiger Fehler in Abhängigkeit eines konstanten Sensorfehlers und des 4-Sigma Wertes, d.h. des maximales Winkelfehlers des INS, berechnet wird. Diese Fehlerfunktion würde sich linear verhalten und soll später noch einmal zur Verdeutlichung herangezogen werden.

Ausgehend von Fig. 2 (linke Darstellung) wird der Quadtree nun auf jede Zelle angewendet. Im Detail bedeutet dies, dass jede Zelle des Bodenpixelcontainers den gröbsten betrachteten Level, also der gröbsten Auflösung oder„LevelO", eines Quadtrees entspricht.

Möchte man nun eine Zelle um einen Level verfeinern, so wird die Zelle mit der Seitenlänge de in vier Zellen der Größe dc/4 unterteilt. Da es sich um ein rekursives Verfahren handelt, kann diese Unterteilung auf jede der vier neuen Zellen erneut angewendet werden, so dass schließlich eine Struktur ähnlich der rechten Darstellung in Fig. 2 entsteht. Diese veranschaulicht, dass durch die Verwendung eines Quadtrees die Erdoberfläche zu verschiedenen Detailgraden abgetastet werden kann, um z.B. die Fehleranfälligkeit eines Abtastpunktes zu berücksichtigen. An dieser Stelle kommt auch wieder die oben erwähnte Fehlerfunktion ins Spiel; diese dient als Kriterium für die Entscheidung welcher individuelle Quadtree-Level einem Bodenpixel zugeordnet werden muss.

Möchte man nun ein eingehendes Bodenpixel in den Quadtree abbilden, so wird ein Verfahren verwendet, welches aus Fig. 3 deutlich wird. Um ein Bodenpixels in den Bodenpixelcontainer einzufügen, wird ausgehend von der Sensorposition die Distanz zu dem jeweiligen Bodenpixel ermittelt. Diese dient als Eingabe für eine Fehlerfunktion, welche aus dem zugrunde liegenden Fehler eine angemessene Zellgröße, z.B. eine Quadtree-Zellgröße berechnet. In diesem Beispiel soll die Quadtreeauflösung Level2 betragen, d.h. die ursprüngliche Zelle wird zweimal unterteilt.

Der letzte Schritt, in der Fig. 3 oben rechts behandelt die Randzonen. Ist das Maß der jeweiligen Abweichung groß genug, dass das jeweilige Bodenpixel eben so gut in der Nachbarzelle liegen könnte, so wird dieser kopiert und auch dort eingefügt. Die jeweiligen Zahlen beschreiben die Anzahl der betroffenen Nachbarzellen, sollte sich das Bodenpixel in den markierten Zonen einordnen.

Das Maß der Abweichung entspricht im Wesentlichen dem räumlichen Messfehler (Angabe z.B. in Meter) des individuellen Bodenpixels und lässt sich aus der Fehlerfunktion fe ableiten. Der höchste Level des Quadtrees (d.h. die kleinste Zelle) sollte so gewählt werden, dass ausgehend von dem zu unterstützenden Feh lehnten/all (hier speziell der größte für diese Zelle noch zulässige Fehler) noch genügend Platz in der Zelle bleibt um ohne unnötiges Kopieren die Bodenpixel zu sammeln (siehe Abb. 3 rechts oben), denn eine zu kleine Wahl der Zelle führt zu teuren Kopien der Bodenpixel in die Nachbarzellen. D.h. eine sorgfältige Wahl einer diskreten Abbildung QuadtreeLevel = f level {f e {dist)) des Sensorfehlers zu den zu verwendenden

Zellgrößen ist unbedingt notwendig. Eine beispielhafte Implementierung dieser Abbildung wäre QuadtreeLevel = (L^ - 1) - log 2 (2* f e (dist)) , wobei L a dern maxi- mal unterstützten Quadtreelevel entspricht. Das Maß der Abweichung f e (dist) w\rd mit 2 multipliziert, da dieser Wert einem Positionierungsfehler gleich einem Radius um eine angenäherte Position entspricht. Die wahre Position eines Punktes kann jedoch irgendwo innerhalb eines Kreises mit dem Radius f e (dist) liegen, daher muss die Zellgröße auch mindestens den Durchmesser dieses Kreises berücksichtigen.

Auf eine detaillierte Ermittlung der Randbreite auf Basis von Verteilungen und Wahrscheinlichkeiten soll hier nicht eingegangen werden.

Ist einmal die zugehörige Zellgröße ermittelt so ist zwischen folgenden Fällen zu unterscheiden:

1. ) Die Zelle war ursprünglich leer: es wird entsprechend des Raumuntertei- lungsmechanismus unterteilt und der neue Wert eingefügt. Die Zelle kann im weiteren Verlauf weiter unterteilt werden, aber nur durch Einfügen eines neuen Wertes dessen Fehler (z.B. auf Grund kürzerer Distanz zum Sensor zum Zeitpunkt der Aufnahme) kleiner als der existierende ist. Der Abstand eines bereits gespeicherten Wertes zu einer neuen Position auf Grund der Gitterverschiebung spielt keine Rolle, da dadurch die Messgenauigkeit (d.h. der Fehler zum Zeitpunkt der Aufnahme) unverändert bleibt und im Nachhinein nicht korrigiert wird.

2. ) In der Zelle ist bereits ein Wert niedrigeren Levels: es wird unterteilt und der neue Wert eingefügt. Alle weiteren daraus entstehenden Zellen erhalten den alten Wert; es wird also top-down kopiert.

3. ) In der Zelle ist ein Wert gleichen Levels: es wird verglichen ob der neue Wert größer als der alte Wert ist. Falls ja, ersetzt dieser den alten Wert. Hiermit wird garantiert, dass die spätere Bodenfläche auch das höchste als Boden klassifizierte Hindernis berücksichtigt.

Wendet man dieses Verfahren auf alle Bodenpixel eines jeden Sensorbildes an dann kommt es automatisch zu einer Akkumulation der Werte über die Zeit;

räumlich jedoch wird nicht akkumuliert sondern nur das als höchsten Punkt gelten- de Bodenpixel abgespeichert. Dabei wird der jeweilige Wert zeilzentriert abgespei- chert, da seine exakte Position auf Grund der beschriebenen Messungenauigkeit nicht bekannt ist - es ist lediglich bekannt, dass er innerhalb der durch die Zelle vorgegebenen räumlichen Begrenzung liegen muss. Eine weitere Berücksichtigung der Positionsgenauigkeit eines Punktes erfolgt durch eine zetiliche Gewichtung der einzelnen Zelleinträge. Grund hierfür ist die Position des Luftfahrzeugs, dessen Genauigkeit sich im lokal-gedätischen System an der des INS orientiert. Als Beispiel soll ein Fehler von 0,2— angenommen werden, ein durchaus üblicher Positionierungsfehler einer INS. Dieser Wert drückt aus, dass nach bereits einer Sekunde die Position des Luftfahrzeugs bezüglich eines im Bodenpixelcotainer gespeicherten Punktes um 0,2m falsch sein kann. Um diesem

Verhalten entgegenzuwirken wird jeder gespeicherte Punkt mit einer Lebensdauer und einer Gewichtung versehen. Der zeitlich gewichtete Wert h w innerhalb einer

Quadtreezelle ermittelt sich damit aus h = , * h ; mit den diskretisierten Gewich- tungsfaktoren a t , den pro Sensorbild ermittelten Höhen werten h { und der maximalen Anzahl an gespeicherten Zeitpunkten . Die Wahl der Gewichtungsfunktion unterliegt der Bedingung ^or ; = 1 . Eine derartige Gewichtung führt eine räumliche

(=0

Verschiebung gemessener Punkte innerhalb des Bodenpixelcontainers mit sich und ist für eine Visualisierung des Höhenfeldes durchaus sinnvoll. Sollten diese Daten jedoch in eine georeferenzierte Datenbank zurückgeschrieben werden so ist eine Berücksichtigung dieser Gewichtung notwendig.

Eine zeitliche Akkumulation der Bodenpixel sowie die Tatsache, dass das Zentrum des Containers durch die quantifizierte Position des Sensors bestimmt wird (da mit einem diskreten Raster gearbeitet wird), impliziert letztendlich eine zeitliche Veränderung der Position des Bodenpixelcontainers. Da die Containergröße jedoch räumiich konstant ist, kommen im Falle eines Verschiebens des Containers jeweils neue Zellen hinzu, jedoch fallen auch alte Zellen heraus. Um einen Verlust dieser Daten zu vermeiden, werden diese im Falle einer Gitterbewegung in der angebundenen Elavationsdatenbank 2 gespeichert. Fig. 4 zeigt diese Situation, wobei sich das Gitter nach ausreichender Positionsänderung des Sensors mit der Schrittweite der vorgegebenen Diskretisierung bewegt, also der gröbsten Zellgröße nach LevelO. Während die dunkelgrau gefärbten Zellen in Fig 4a neu hinzukommen, fallen die weißen Zellen heraus und werden in Fig. 4b in der Elevationsdatenbank 2 gespeichert.

Die Elevationsdatenbank 2 wird neben dem Abspeichern der Daten aus dem

Bodenpixelcontainer ein zweites Mal herangezogen um die noch leer gebliebenen Zellen des Containers mit Elevationsdaten zu befüllen. Auf Grund der begrenzten Sicht eines Sensors, d.h. nicht nur in der Reichweite sondern auch in der Ausdeh- nung, d.h. im Öffnungswinkel, wird jeweils nur ein Bereich der Fläche, die der Bodenpixelcontainers darstellt, mit Sensordaten gefüllt werden. Dieser Bereich vergrößert sich zwar durch die zeitliche Akkumulation der Sensordaten, insbesondere durch die Bewegung des Luftfahrzeugs, dennoch ist es sehr wahrscheinlich, dass Bereiche der Fläche, die der Bodenpixelcontainers darstellt, leer bleiben. Um eine Unabhängigkeit des Öffnungswinkels für die Visualisierung von dem jeweiligen Sensoröffnungswinkel zu erreichen, werden leere Bereiche mit Elevationsdaten aus der Elevationsdatenbank 2 gefüllt, was später zu einer visuellen Datenfusion von Sensor- und Elevationsdatenbankdaten führen wird.

Man beachte, dass sich in der Elevationsdatenbank 2 auch schon bereits zu einem früheren Zeitpunkt abgespeicherte Sensordaten befinden können.

Die Daten des gefüllten Bodenpixelcontainers werden letztendiich an die Visualisie- rungsalgorithmen gesendet, welche dann für die Generierung von darstellbarer Geometrie und auch deren Visualisierung verantwortlich sind. Von Vorteil ist auch hier die Datenhaltung innerhalb des besprochenen Quadtrees; so lassen sich durch eine Restriktion des zu betrachtenden Quadtreelevels sehr einfach diverse Level-of- Detail (LOD) Algorithmen realisieren.

Die Elevationsdatenbank 2 nach Fig. 1 besteht zu Beginn einer Aufzeichnung nur aus bereits vorhandenen Elevationsdaten, welche in einer bestimmten Auflösung vorliegen. Während der Sensordatenaufzeichnung, d.h. während des Fluges, werden nun diese Daten herangezogen um mit dem Bodenpixelcontainers 3 zu interagieren. Sie dienen hier, wie bereits erläutert, zum Einen zur Vervollständigung des nur partiell gefüllten, vom Bodenpixelcontainer repräsentierten Gitters, und zum Anderen zum Abgleich und Update durch die Sensordaten.

Das Auslesen der Elevationsdaten aus der Datenbank wird durch den Bodenpixelcontainers veranlasst, d.h. für jede leere Zelle des Bodenpixelcontainers wird die zugehörige WGS84 Position berechnet, welche als Referenz für den Datenbank- Zugriff dient. Als Resultat der Datenbankabfrage erhält man einen Höhenwert, welcher entsprechend seiner Genauigkeit im Bodenpixelcontainer abgelegt wird. Auch hier wird den Elevationsdaten explizit gestattet das vorhandene Gitter des Bodenpixelcontainers weiter zu unterteilen um möglichst der Abtast- und Fehlerrate der Elevationsdatenbankdaten gerecht zu werden.

Das Schreiben der Elevationsdaten wird ebenfalls vom Bodenpixelcontainer gesteuert. Hier werden alle Sensordaten, welche entweder eine höheren Genauigkeit als der bisher in der Datenbank existierenden Werte aufweisen, oder bei gleicher Genauigkeit höher als die vorhandenen Punkte sind, in der Datenbank gespeichert. Die Gestaltung der Datenbank sei hierbei flexibel, d.h. ob die Daten ersetzt oder nur hinzugefügt werden soll dem Datenbankdesign überlassen sein.

Fällt der Sensor aus, so werden alle Zellen des Bodenpixelcontainers mit Elevationsdaten aus der Datenbank belegt, was einem sogenannten Synthetic Vision System entsprechen würde. Die Visualisierung besteht aus zwei Modulen und folgt nach Fig. 1 in der Verarbeitungskette direkt dem Bodenpixelcontainer 3. Bisher wurden die Daten gemäß ihrer Messgenauigkeit gespeichert, für eine Visualisierung jedoch ist diese Repräsentation ungeeignet, da für die Darstellung einer Bodenfläche möglichst eine geschlos- sene Fläche wünschenswert ist um den Piloten nicht mit hochfrequenten, sich verändernden Punktwolken abzulenken.

Der erste Schritt der Visualisierung sieht eine Vorverarbeitung der Daten des Bodenpixelcontainers, d.h. des Quadtrees, vor. In diesem Schritt wird aus den Elevationsdaten ein zusammenhängendes Dreiecksgitter erzeugt, welches bis auf Ausnahme gewollter Löcher eine geschlossene Fläche repräsentiert. Da es sich bei den Daten des Bodenpixelcontainers um einen sogenannten unbeschränkten Quadtree handelt, d.h. die Levels benachbarter Zellen können sich größer 1 unterscheiden, wird hier mit sogenannten Trianglefans gearbeitet. Ein Trianglefan besteht aus einem Mittelpunkt und verschiedenen umliegenden Eckpunkten, welche zur Dreiecksgenerierung herangezogen werden und eignet sich besonders gut um die aufgespannte Fläche einer Quadtreezelle zu repräsentieren. Fig. 5 illustriert diese Geometriegenerierung einer Triangulation der Daten des Bodenpixelcontainers. Die zellzentierten Werte bilden jeweils den Mittelpunkt eines Tri- anglefans. Die Geschlossenheit der Fläche wird durch Konnektivität aller benachbarten Zellen garantiert, wie z.B. der eingekreiste Vertex.

Der zweite Schritt besteht aus der Visualisierung der berechneten Bodenfiäche. Diese kann wahlweise als Dreicksnetz in der Drahtgitterdarstellung visualisiert werden oder, um bestehende Unebenheiten noch weiter hervorzuheben, auch als beleuchtete, eingefärbte Fläche.

Die Visualisierung erfolgt aus einer beliebigen Perspektive, wobei hier Flugzu- standsdaten getrennt von den Sensordaten behandelt werden. D.h. dass zu berücksichtigende Änderungen der Fluglagedaten des Luftfahrzeugs, wie z.B.