Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR PRODUCING A SENSOR-SUPPORTED, SYNTHETIC VISION FOR LANDING SUPPORT OF HELICOPTERS UNDER BROWN-OUT OR WHITE-OUT CONDITIONS
Document Type and Number:
WIPO Patent Application WO/2011/012102
Kind Code:
A1
Abstract:
The invention relates to a method for producing a sensor-supported, synthetic vision for landing support of helicopters (H) under brown-out or white-out conditions, wherein a virtual 3-D representation of the intended landing zone (L) is continuously created from 3-D data of the landing zone (L) recorded during the approach and wherein a monitoring routine is available to ensure that no 3-D data that were produced under brown-out or white-out conditions are considered in the representation. As soon as the monitoring routine detects that 3-D data were recorded under brown-out or white-out conditions, an additional radar sensor (S) is activated to continuously produce distance data and/or Doppler data of potential objects (O) entering the landing zone (L), said objects being displayed to a pilot of the landing helicopter (H) in the synthetic vision.

Inventors:
MUENSTERER THOMAS (DE)
WEGNER MATTHIAS (DE)
KIELHORN PETER (DE)
Application Number:
PCT/DE2010/000754
Publication Date:
February 03, 2011
Filing Date:
June 29, 2010
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
EADS DEUTSCHLAND GMBH (DE)
MUENSTERER THOMAS (DE)
WEGNER MATTHIAS (DE)
KIELHORN PETER (DE)
International Classes:
G01C23/00; G01S13/935; G01S17/93
Domestic Patent References:
WO2009081177A22009-07-02
WO2005015333A22005-02-17
Foreign References:
EP1906151A22008-04-02
US20090002220A12009-01-01
EP1650534A12006-04-26
DE102007014878A12008-10-02
DE10015164A12001-10-11
DE102004051625B42006-08-17
EP1906151A22008-04-02
Attorney, Agent or Firm:
EADS DEUTSCHLAND GMBH (DE)
Download PDF:
Claims:
Patentansprüche

1. Verfahren zur Erzeugung einer sensorgestützten, synthetischen Sicht zur

Landeunterstützung von Helikoptern (H) unter Brown-Out oder White-Out- Bedingungen, wobei aus während des Landeanflugs aufgenommenen 3D-

Daten der vorgesehenen Landezone (L) fortlaufend eine virtuelle SD- Repräsentation der Landezone (L) erstellt wird und wobei eine Kontrollroutine vor den ist zur Sicherstellung, dass bei der Repräsentation keine 3D-Daten berücksichtigt werden, welche unter Brown-Out oder White-Out-Bedingungen erzeugt wurden,

dadurch gekennzeichnet, dass

sobald die Kontrollroutine die Aufnahme von 3D-Daten unter Brown-Out oder White-Out-Bedingungen feststellt, ein zusätzlicher Radarsensor (S) aktiviert wird zur fortlaufenden Erzeugung von Entfemungs- und/oder Dopplerdaten von potentiellen in die Landezone (L) eindringenden Objekten (O), welche einem

Piloten des landenden Helikopters (H) in der synthetischen Sicht angezeigt werden.

2. Verfahren nach Anspruch 1 ,

dadurch gekennzeichnet, dass

die von dem Radarsensor (S) erzeugten Daten mit Hilfe der Positions- und Lagedaten des Helikopters (H) korrigiert werden.

3. Verfahren gemäß einem der vorangehenden Ansprüche,

dadurch gekennzeichnet, dass

zur Erzeugung der Entfemungs- und/oder Dopplerdaten ein scannendes Radar im Millimeterwellenbereich mit einer Strahldivergenz von 1-3° in horizontaler

Richtung und 15-50° in vertikaler Richtung eingesetzt wird.

4. Verfahren gemäß einem der vorangehenden Ansprüche,

dadurch gekennzeichnet, dass

der Radarsensor (S) ein elektronisch scannendes Radar darstellt.

5. Verfahren gemäß einem der vorangehenden Ansprüche,

dadurch gekennzeichnet, dass

ein von dem Radarsensor (S) detektiertes Objekt (O) dem Piloten in der syn- the hen Sicht als flächenhaftes oder linienartiges Symbol dargestellt wird.

6. Verfahren gemäß einem der vorangehenden Ansprüche,

dadurch gekennzeichnet, dass

ein von dem Radarsensor (S) detektiertes Objekt (O) dem Piloten in der synthetischen Sicht mittel Einfärbung eines Sektors oder eines Quadranten in Relation zur Hubschrauberlängsachse angezeigt wird.

7. Verfahren gemäß einem der vorangehenden Ansprüche,

dadurch gekennzeichnet, dass

zur Vermeidung von Fehlalarmen eine Prozessierung und Klassifizierung der

3D-Daten durchgeführt wird zur Identifizierung von Objekten in der Landezone (L) und dass anhand der gefundenen Objekte (O) synthetische Radardaten erzeugt werden, welche mit den gemessenen Radardaten korreliert werden.

Description:
Verfahren zur Erzeugung einer sensorgestützten, synthetischen Sicht zur Landeunterstützung von Helikoptern unter Brown-Out oder White-Out- Bedingungen

Die Erfin^"ng betrifft ein Verfahren zur Erzeugung einer sensorgestützten, synthetischen Sicht zur Landeunterstützung von Helikoptern unter Brown-Out oder White- Out-Bedingungen.

Bei Starts und Landungen von Hubschraubern in trockenen wüstenartigen oder schneebedeckten Gebieten kommt es in der Endphase der Landung zu einer plötzlichen starken Sichtbehinderung durch den aufgewirbelten Staub oder Schnee. Dieser Effekt wird Brown-Out, bzw. White-Out genannt. Die Sichtweiten können dabei innerhalb von Sekundenbruchteilen von VFR (Visual Flight Rules) Bedingungen auf unter einen Meter Sichtweite sinken. Der Pilot verliert die Orientierung über seine Fluglage, seine Flughöhe zum Boden und auch über Eigenbewegungen gegenüber dem Boden (Drift). Ein weiteres Problem ist, dass die Wahrnehmung der Umgebung (Situational Awareness) völlig verloren geht, sowohl was statische

Hindernisse betrifft, als auch im Bezug auf Hindernisse, die sich in der Staubwolke auf den Hubschrauber zu bewegen. Hieraus resultierende Unfälle sind die größte Einzelursache für Hubschrauberverluste im militärischen Bereich in diesen Gebieten.

DE10 2004 051 625 B4 beschreibt einen allgemeinen Ansatz zur generellen Lösung des Brown-Out-Problems. Dieses Konzept beinhaltet die Verwendung eines hochauflösenden 3D-Sensors zur Erzeugung einer 3D-Repräsentation der Landezone während des Landeanflugs. Nach Eintritt in die Brown-Out-Situation werden keine neuen Daten mehr aufgenommen. Vielmehr werden die bestehenden Daten als synthetische Sicht der Landezone mit der Hubschrauberbewegung dargestellt. Der Ansatz entspricht dem sog. "See-and-Remember Konzept", welches allerdings von den operativen Piloten oftmals deswegen kritisiert wird, weil Veränderungen in der Landezone nach Eintritt in die Staubwolke nicht mehr detektiert werden. So kam es, nach Aussagen von Piloten im Einsatz, bereits mehrfach zu Beinaheunfällen durch Fahrzeuge und Personengruppen, die in Richtung des noch in der Luft befindlichen Hubschraubers gefahren, bzw. gelaufen sind und durch die Staubwolke der Sicht des Piloten entzogen waren.

WO 2005/015333A3 beschreibt ein ähnliches Konzept wie DE 10 2004 051 625 B4. Jedoch wird hier das Konzept wesentlich stärker in Richtung einer technischen Realisierung mit einer Vielzahl von Sensor-Suiten im Gesamtzusammenhang des Systems Hubschrauber beschrieben. Inhalt der hier aufgezeigten Lösung ist hauptsächlich ein technisches Gesamtkonzept für ein Brown-Out Recovery System, wobei speziell die Anbindung dieses Systems an einenHubschrauber-intemen Datenbus und die Verbindung mit missionsspezifischen Informationen hervorgehoben wird.

EP 1 906 151 A1 beschreibt ebenfalls ein Verfahren zur Pilotenunterstützung durch "See and-Remember". Hier werden Bildsequenzen einer oder mehrerer 2D- Kameras als Datenbasis zur "See-and-Remember" Darstellung verwendet. Dies hat, neben den oben aufgeführten Nachteilen bei Veränderungen nach Eintritt ins Brown-Out, den zusätzlichen Nachteil, dass dreidimensionale Hindernisse unter ansonsten optimalen Bedingungen verzerrt, d.h. als Textur, dargestellt werden. Aufgabe der Erfindung ist es, dem Piloten in der letzten Phase des Landeanflugs innerhalb der Brown-Out- Wolke plötzliche in die Landezone eintretende Gefährdungen anzuzeigen.

Diese Aufgabe wird mit dem Verfahren gemäß Patentanspruch 1 gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von Unteransprüchen. Die Erfindung geht aus von einem Verfahren zur Pilotenunterstützung bei Landungen von Helikoptern im Sichtflug unter Brown-Out oder White-Out-Bedingungen wie es aus DE 10 2004 051 625 B1 bekannt ist. Gemäß der vorliegenden Erfindung wird, sobald die Kontrollroutine die Aufnahme von 3D-Daten unter Brown-Out oder White-Out-Bedingungen feststellt, ein zusätzlicher Radarsensor, z.B. ein elektronisch scannendes Radar, aktiviert. Dieser Radarsensor liefert fortlaufend Daten zur fortlaufe " n Erzeugung von Entfernungs- und/oder Dopplerdaten von potentiellen in die Landezone eindringenden Objekten. Diese Objekte werden dem Piloten des landenden Helikopters als Symbole in der synthetischen Sicht angezeigt.

Die Erfindung sowie vorteilhafte Ausgestaltungen werden im Folgenden anhand von Zeichnung erläutert. Es zeigen: Fig. 1 die Phasen einer typischen Landung unter Brown-Out-Bedingungen,

Fig. 2 eine Darstellung einer gemäß dem erfindungsgemäßen Verfahrens überwachten Landezone.

Der Landeanflug von Hubschraubern H unter Brown-Out oder White-Out Bedingun- gen lässt sich grob in 3 Phasen einteilen. Phase 1 ist die Annäherung an den Landeplatz L; in der Regel mit einer definierten Sinkrate auf einem definierten Gleitpfad, vergleichbar mit dem Sinkflug eines Flächenflugzeugs. Phase 2 besteht aus einem relativ abrupten Manöver zur Verringerung der Vorwärtsgeschwindigkeit in Flughöhen zwischen 20 und 100 ft. über Grund. Die Verringerung der Vorwärts- geschwindigkeit erfolgt normalerweise durch ein sog. "Nose-up-Manöver", in dem der Nickwinkel des Hubschraubers H kurzzeitig stark erhöht wird. Diverse Publikationen stellen diesen Zeitpunkt als denjenigen dar, in dem der Hubschrauber H von der Brown-Out-Wolke W überholt wird, die er in Phase 1 noch hinter sich hergeschleppt hat. Jetzt befindet sich der Hubschrauber H im Zustand des Brown-Outs mit stark eingeschränkter, zum Teil sogar vollständig verlorengegangener Außensicht sowie dem vollständigen Verlust der Bodenreferenz. Phase 3 ist der eigentliche Landevorgang mit keiner oder sehr geringer Vorwärtsgeschwindigkeit bis zum vollständigen Aufsetzen des Hubschraubers H. Die beschriebenen Phasen einer Brown-Out-Landung werden in Fig. 1 skizziert. Ein Verfahren zur Erzeugung einer hochaufgelösten, sensorgestützten, synthetischen Sicht zur Landeunterstützung, wie im Patent DE10 2004 051 625 B4 beschrieben, erzeugt in der Phase 1 und der beginnenden Phase 2 eine große Menge an 3D-D i der Landezone L, die nach Eintritt in die Brown-Out-Wolke und in Phase 3 lagekorrigiert, zeitlich und geometrisch korrekt dargestellt werden (See- and-Remember Konzept).

Die Erfindung erzielt eine Abdeckung der bestehenden Gefährdungen in den Phasen 2 und 3 durch einen zusätzlichen Sensor S (siehe Fig. 2). Dieser Sensor kann z.B. ein rundum scannendes Radar sein und ist zweckmäßig staubdurch- dringend. Durch diesen zusätzlichen Sensor S wird auch in den Phasen 2 und 3 vor vorher nicht im Landebereich L existenten Gefahren O gewarnt. Die Warnung kann dabei relativ grob erfolgen, ähnlich der Warnung wie sie eine Einparkhilfe für Autos gibt. Der zusätzliche Sensor S wird aktiviert, sobald die Kontrollroutine für den 3D-Sensor feststellt, dass die Aufnahme der 3D-Daten unter Brown-Out oder White-Out- Bedingungen stattfindet. Spätestens wird der zusätzliche Sensor also mit Eintritt in die Phase 2 aktiviert und nimmt Entfernungs- und gegebenenfalls Dopplerdaten auf. Dieser, im Wesentlichen als staubdurchdringender Sensor konzipierte zusätzliche Sensor ist z.B. ein scannendes Radar im Millimeterwellenbereich mit guter Auflösung in horizontaler Richtung (z.B. 1 ° bis 3° Strahldivergenz) und aufgeweitetem Strahl in vertikaler Richtung (z.B. 15° bis zu 50°).

Fig. 2 zeigt schematisch das Sichtfeld des zusätzlichen Sensors im Schnitt und ein mögliches Gefahrenszenario. Es ist dabei, wie in Fig. 2 gezeigt, nicht zwingend notwendig, dass der Bereich U direkt unterhalb des Hubschraubers H durch den zusätzlichen Sensor S überwacht wird. Der Grund hierfür liegt in der Tatsache begründet, dass der Pilot stets beim Endanflug vor Eintritt in die Phase 2 visuell überprüft, ob die Landezone frei von Hindernissen und Gefahren ist. Hierfür wird ein Bereich B im Bereich vor und hinter und jeweils unter dem Hubschrauber H über- wacht. Sollte der Bereich B nicht frei von Gefahren O sein, wird die Landung durch ein sog. "Go-around-Manöver" unmittelbar abgebrochen. Wenn also in Phase 2 oder 3 eine Gefährdung O in die Staubwolke W eintritt, so nähert sie sich dem landend Hubschrauber H vom Rand der Landezone L, wie in Fig. 2 dargestellt. Ebenso wird für das beschriebene Verfahren der vorliegenden Erfindung für den zusätzlichen Radarsensor S kein in zwei Dimensionen abbildender Sensor benötigt. Die Art der plötzlich eintretenden Gefährdung (Lkw, Pkw, Mensch, rollendes Kero- sinfass etc.) ist für den Piloten innerhalb der Brown-Out-Wolke ebenso unerheblich, wie die präzise Richtung aus der sich die Gefährdung O dem Hubschrauber H nähert. Aus diesem Grund erfolgt die Warnung im Rahmen der synthetischen Sicht vorteilhaft anhand eines einfachen, flächenhaften oder linienartigen Symbols in Richtung der Bedrohung (z.B. mittels Einfärbung eines Sektors oder eines Quadranten in Relation zur Hubschrauberlängsachse). Zur Reduktion der Arbeitsbelastung für den Piloten kann der laterale Abstand der Bedrohung zum Hubschrauber vorteilhaft durch eine veränderliche (zwei- oder mehrstufige) Blinkgeschwindigkeit des entsprechenden Warnsymbols veranschaulicht werden.

Ein System auf welchem das erfindungsgemäße Verfahren ablaufen kann, besteht neben dem Sensor zur Aufnahme der 3D-Daten (nicht dargestellt), einer Naviga- tionsanlage (nicht dargestellt) und dem zusätzlichem Sensor S noch aus einer Prozessoreinheit, die die jeweiligen Daten dieser Systeme verarbeitet.

Ein Problem bei der vollautomatischen Auswertung der Daten ist, dass die Radardaten signifikante Rückstreusignale vom Boden der Landezone sowie von kleinen Objekten enthalten, die den Hubschrauber bei der Landung nicht gefährden; deren Anzeige jedoch die Arbeitsbelastung des Piloten unnötig erhöhen würden. Um eine möglichst geringe Zahl von entsprechenden Falschalarmen zu erhalten, werden die Daten aufeinanderfolgender Scans des zusätzlichen Sensors mit Hilfe der Navigationsanlage, wie sie bereits für die synthetische Sicht im Dokument DE10 2004 051 625 B4 beschriebenen ist, entsprechend der Ortsänderung des Hubschraubers läge- und positionsgenau korrigiert. Dadurch werden Effekte durch die Eigenbewegung des Hubschraubers kompensiert.

Aus den Radardaten des zusätzlichen Sensors können Objekte extrahiert werden, die sich in die Landezone hinein oder innerhalb der Landezone fort bewegen. Die Prozessoreinheit erzeugt daraus eine Warnung an den Piloten. Zusätzlich kann die Dopplerinformation des Radars zur Identifizierung von sich bewegenden Objekten verwendet werden. Dazu müssen die Dopplersignale, die durch die Eigenbewegung des Hubschraubers erzeugt werden, mit Hilfe der Navigationsdaten innerhalb der Prozessoreinheit herausgerechnet werden.

Zur weiteren Unterdrückung von Falschalarmen durch Bodenreflexe können die für die synthetische Sicht erzeugten 3D-Daten ebenfalls prozessiert und klassifiziert werden, um so eine hochaufgelöste Hindernis-, bzw. Objektkarte der Landezone zu bekommen. Objekte in dieser Karte können jetzt mit den in der Regel grob und schlecht aufgelösten Echos des zusätzlichen Sensors korreliert werden. Dazu können anhand der Objektkarte synthetische Radarechos von diesen bekannten und zur Darstellung gebrachten Objekten berechnen werden. Dieses Ergebnis kann mit den tatsächlichen Daten des Radars verglichen werden, um so die Effizienz und Zuverlässigkeit bei der Unterdrückung von Fehlalarmen weiter zu erhöhen. Diese Kombination der 3D-lnformationen aus den Daten des Sensors zur Aufnahme der 3D-Daten und den Daten des zusätzlichen Radarsensors erlaubt es, eine sehr hohe Warnzuverlässigkeit mit einem relativ einfachen zusätzlichen Sensor (nur in einer Richtung scannend) zu erhalten.

Es kann auch von Vorteil sein, für jedes signifikante Echo des Radars innerhalb der Landezone zu überprüfen, ob man hierfür ein Objekt in den hochauflösenden 3D- Daten des 3D-Sensors findet. Das bedeutet, dass man das obige Verfahren, wenn es von Vorteil ist, umkehrt. Alternativ zu einem staubpenetrierenden Radar können auch andere grob auflösende Entfernungssensoren, wie z.B. Stereokameras oder Gated Viewing Kameras verwendet werden. Diese optischen Sensoren sind allerdings nur einsetzbar, wenn die Bro\Λ " ut-Wolke im verwendeten Wellenlängenbereich nicht zu stark absorbiert oder streut.