Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR DETERMINING AN OPTICAL FLOW ON THE BASIS OF AN IMAGE SEQUENCE CAPTURED BY A CAMERA OF A VEHICLE
Document Type and Number:
WIPO Patent Application WO/2019/016104
Kind Code:
A1
Abstract:
The invention relates to a method for determining an optical flow on the basis of an image sequence captured by a camera (104) of a vehicle (100). At least one input signal (108), which represents a vehicle environment detected by using at least one sensor (110) of the vehicle (100) and/or a driving situation of the vehicle (100) and/or a result of a prior determination of the optical flow, and an image signal (106) representing the image sequence are received. A time difference value is determined by using the input signal (108). At least two individual images of the image sequence that are offset to each other by the time difference value are selected by using the image signal (106). Finally, corresponding pixels are detected in the individual images in order to determine the optical flow by using the corresponding pixels.

Inventors:
DORNBUSCH DANIEL (DE)
HERBON CHRISTOPHER (DE)
Application Number:
PCT/EP2018/069161
Publication Date:
January 24, 2019
Filing Date:
July 13, 2018
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BOSCH GMBH ROBERT (DE)
International Classes:
B60W40/02; B60W40/10; G06K9/00
Foreign References:
US20170186169A12017-06-29
EP1617376A22006-01-18
EP2899692A12015-07-29
Other References:
None
Download PDF:
Claims:
Ansprüche

1. Verfahren (400) zum Ermitteln eines optischen Flusses anhand einer von einer Kamera (104) eines Fahrzeugs (100) aufgenommenen Bildsequenz, wobei das Verfahren (400) folgende Schritte umfasst:

Empfangen (410) zumindest eines Eingangssignals (108), das eine unter Verwendung zumindest eines Sensors (110) des Fahrzeugs (100) erkannte Fahrzeugumgebung und/oder Fahrsituation des

Fahrzeugs (100) und/oder ein Ergebnis einer vorherigen Ermittlung des optischen Flusses repräsentiert, und eines die Bildsequenz

repräsentierenden Bildsignals (106);

Bestimmen (420) eines Zeitdifferenzwertes (At) unter Verwendung des Eingangssignals (108);

Auswählen (430) von zumindest zwei um den Zeitdifferenzwert (Ät) zueinander versetzten Einzelbildern (502; 602; 702; 900) der

Bildsequenz unter Verwendung des Bildsignals (106); und

Detektieren (440) übereinstimmender Pixel in den Einzelbildern (502; 602; 702; 900), um den optischen Fluss unter Verwendung der übereinstimmenden Pixel zu ermitteln.

2. Verfahren (400) gemäß Anspruch 1, bei dem im Schritt des

Bestimmens (420) der Zeitdifferenzwert (Ät) durch Verringern eines Ausgangswertes bestimmt wird, wenn das Eingangssignal (108) eine erkannte automatische Notbremsung des Fahrzeugs (100) und/oder eine einen Schwellenwert überschreitende Nickrate des Fahrzeugs (100) repräsentiert. Verfahren (400) gemäß Anspruch 2, bei dem im Schritt des

Bestimmens (420) der Zeitdifferenzwert (Ät) durch Halbieren des Ausgangswertes bestimmt wird.

Verfahren (400) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Bestimmens (420) das Eingangssignal (108) verwendet wird, um den Zeitdifferenzwert (Ät) abhängig von einer Rollrate des Fahrzeugs (100) und/oder einer Relativgeschwindigkeit zwischen dem Fahrzeug (100) und zumindest einem weiteren Fahrzeug zu bestimmen.

Verfahren (400) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Änderns einer Bildwiederholrate der Kamera (104) unter Verwendung des Zeitdifferenzwertes (Ät), um das Bildsignal (106) zu empfangen.

Verfahren (400) gemäß Anspruch 5, bei dem im Schritt des Änderns die Bildwiederholrate derart geändert wird, dass die Einzelbilder (502; 602; 702; 900) der Bildsequenz um den Zeitdifferenzwert (Ät) zueinander versetzt sind.

Verfahren (400) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Detektierens (440) ein Teilausschnitt der

Einzelbilder (502; 602; 702; 900) durchsucht wird, um die

übereinstimmenden Pixel zu detektieren.

Verfahren (400) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Bestimmens (420) zumindest ein von dem

Zeitdifferenzwert (Ät) abweichender weiterer Zeitdifferenzwert unter Verwendung des Eingangssignals (108) bestimmt wird, wobei im Schritt des Auswählens (430) zumindest zwei um den weiteren

Zeitdifferenzwert zueinander versetzte weitere Einzelbilder der

Bildsequenz ausgewählt werden, wobei im Schritt des

Detektierens (440) übereinstimmende weitere Pixel in den weiteren Einzelbildern detektiert werden, um den optischen Fluss unter

Verwendung der übereinstimmenden weiteren Pixel zu ermitteln.

Verfahren (400) gemäß Anspruch 8, bei dem im Schritt des Auswertens die Einzelbilder (502; 602; 702; 900) ausgewertet werden, um den optischen Fluss in einem ersten Bereich (902) der Fahrzeugumgebung zu ermitteln, und die weiteren Einzelbilder verwendet werden, um den optischen Fluss in einem zweiten Bereich (904) der Fahrzeugumgebung zu ermitteln.

Vorrichtung (102) mit Einheiten (210, 220), die ausgebildet sind, um das Verfahren (400) gemäß einem der Ansprüche 1 bis 9 auszuführen und/oder anzusteuern.

Computerprogramm, das ausgebildet ist, um das Verfahren (400) gemäß einem der Ansprüche 1 bis 9 auszuführen und/oder anzusteuern.

Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 11 gespeichert ist.

Description:
Beschreibung Titel

Verfahren und Vorrichtung zum Ermitteln eines optischen Flusses anhand einer von einer Kamera eines Fahrzeugs aufgenommenen Bildsequenz

Stand der Technik

Die Erfindung geht aus von einem Verfahren oder einer Vorrichtung nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.

Moderne Fahrzeuge können mit Videokameras zum Zweck der Fahrerassistenz oder des autonomen Fahrens ausgestattet sein. Die von den Videokameras aufgenommenen Bildsequenzen können beispielsweise verarbeitet werden, um einen optischen Fluss zu berechnen.

Offenbarung der Erfindung

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Ermitteln eines optischen Flusses anhand einer von einer Kamera eines Fahrzeugs aufgenommenen Bildsequenz, eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.

Es wird ein Verfahren zum Ermitteln eines optischen Flusses anhand einer von einer Kamera eines Fahrzeugs aufgenommenen Bildsequenz vorgestellt, wobei das Verfahren folgende Schritte umfasst: Empfangen zumindest eines Eingangssignals, das eine unter Verwendung zumindest eines Sensors des Fahrzeugs erkannte Fahrzeugumgebung und/oder Fahrsituation des Fahrzeugs und/oder ein Ergebnis einer vorherigen Ermittlung des optischen Flusses repräsentiert, und eines die Bildsequenz

repräsentierenden Bildsignals;

Bestimmen eines Zeitdifferenzwertes unter Verwendung des Eingangssignals; Auswählen von zumindest zwei um den Zeitdifferenzwert zueinander versetzten

Einzelbildern der Bildsequenz unter Verwendung des Bildsignals; und

Detektieren übereinstimmender Pixel in den Einzelbildern, um den optischen Fluss unter Verwendung der übereinstimmenden Pixel zu ermitteln.

Unter optischem Fluss kann die Beschreibung einer Bewegung eines Pixels in einer Bildebene zwischen zwei Einzelbildern einer Bildsequenz oder zwischen einem linken Bild und einem rechten Bild einer Stereokamera verstanden werden. Der optische Fluss ist dabei abhängig von den jeweiligen zeitlichen Abständen zwischen den Einzelbildern. Bei dem Sensor kann es sich

beispielsweise um die Kamera, einen Beschleunigungs-, Lenkraddreh-,

Raddreh-, Radar-, Lidar-, Ultraschall-, GPS-, Licht- oder Regensensor handeln. Unter einer Fahrsituation kann eine durch bestimmte Fahrzeugparameter wie etwa Geschwindigkeit, Beschleunigung, Nickrate oder Rollrate charakterisierter Zustand des Fahrzeugs verstanden werden. Das Eingangssignal kann beispielsweise durch direkte oder indirekte Rückkopplung mit einer

Fahrerassistenzfunktion des Fahrzeugs oder mit einer vorangehenden

Berechnung des optischen Flusses erzeugt worden sein. Bei dem

Eingangssignal kann es sich etwa um ein abhängiges oder unabhängiges Signal oder eine Kombination aus zumindest einem abhängigen Signal und einem unabhängigen Signal handeln. Abhängige Signale führen beispielsweise aufgrund ihrer Rückkopplung zu einem Regelkreis, bei dem das Ergebnis des optischen Flusses zu einem Zeitpunkt t das Ergebnis zu einem Zeitpunkt t+Ät beeinflusst. Unter einem Zeitdifferenzwert kann eine Zeitdauer, insbesondere im Millisekundenbereich, verstanden werden. Unter einer Bildsequenz kann eine Folge zumindest zweier Einzelbilder verstanden werden. Unter einem Pixel kann ein Bildelement eines Einzelbilds verstanden werden. Die Bewegung eines Pixels zwischen zwei Einzelbildern kann als ein den optischen Fluss repräsentierender Flussvektor ermittelt werden. Die Bewegung einer Mehrzahl von Pixeln zwischen zwei Einzelbildern kann beispielsweise in Form zumindest eines Flussfeldes aus je einer Mehrzahl von Flussvektoren ermittelt werden. Dabei können die

Flussvektoren gleich oder unterschiedlich lang sein.

Der hier vorgestellte Ansatz beruht auf der Erkenntnis, dass ein optischer Fl einer von einer Fahrzeugkamera aufgenommenen Bildsequenz auf einer situationsabhängig variierbaren Zeitbasis ermittelt werden kann.

Im Gegensatz zu herkömmlichen Verfahren, bei denen unabhängig vom Inhalt einer aufgenommenen Szene und einer Eigenbewegung der Kamera eine konstante Zeitdifferenz bei der Berechnung des optischen Flusses verwendet wird, kann mittels des hier vorgestellten Ansatzes durch Wahl des zeitlichen Versatzes zwischen den Kamerabildern anhand einer Menge bestimmter Eingangssignale verhindert werden, dass es bei einer Szene mit hoher Dynamik zum Verlust des optischen Flusses kommt. Gleichzeitig kann das

Genauigkeitspotenzial bei der Eigenbewegungsschätzung bei einer Szene und Kamerapose mit geringer Änderung voll ausgeschöpft werden. Die Verwendung einer dynamischen statt einer statischen Zeitdifferenz führt somit

situationsabhängig zu bestmöglichen Flussdaten.

Gemäß einer Ausführungsform kann im Schritt des Bestimmens der

Zeitdifferenzwert durch Verringern eines Ausgangswertes bestimmt werden, wenn das Eingangssignal eine erkannte automatische Notbremsung des

Fahrzeugs oder, zusätzlich oder alternativ, eine einen Schwellenwert

überschreitende Nickrate des Fahrzeugs repräsentiert. Dadurch kann der Verlust des optischen Flusses in Fahrsituationen mit hoher Dynamik verhindert werden.

Dabei kann im Schritt des Bestimmens der Zeitdifferenzwert durch Halbieren des Ausgangswertes bestimmt werden. Dadurch kann der Zeitdifferenzwert mit besonders geringem Rechenaufwand verringert werden. Gemäß einer weiteren Ausführungsform kann im Schritt des Bestimmens das Eingangssignal verwendet werden, um den Zeitdifferenzwert abhängig von einer Rollrate des Fahrzeugs oder, zusätzlich oder alternativ, von einer

Relativgeschwindigkeit zwischen dem Fahrzeug und zumindest einem weiteren Fahrzeug zu bestimmen. Dadurch kann der Verlust des optischen Flusses bei schwankendem Fahrzeug oder schwankender Kamera vermieden werden und beispielsweise auch bei niedrigen Relativgeschwindigkeiten eine ausreichend genaue Abtastung der Einzelbilder gewährleistet werden.

Das Verfahren kann einen Schritt des Änderns einer Bildwiederholrate der Kamera unter Verwendung des Zeitdifferenzwertes umfassen, um das Bildsignal zu empfangen. Dadurch können die Einzelbilder der Bildsequenz mit einer vom Zeitdifferenzwert abhängigen Bildwiederholrate aufgenommen werden.

Besonders vorteilhaft ist es, wenn im Schritt des Änderns die Bildwiederholrate derart geändert wird, dass die Einzelbilder der Bildsequenz um den

Zeitdifferenzwert zueinander versetzt sind. Dadurch kann der Rechenaufwand zum Ermitteln des optischen Flusses möglichst gering gehalten werden.

Von Vorteil ist auch, wenn im Schritt des Detektierens ein Teilausschnitt der Einzelbilder durchsucht wird, um die übereinstimmenden Pixel zu detektieren. Unter einem Teilausschnitt kann ein Suchfenster verstanden werden, das einen lokal eingegrenzten Suchbereich um einen Ausgangspunkt herum beschreibt. Dadurch kann vermieden werden, dass die kompletten Einzelbilder nach einer Übereinstimmung der Pixel durchsucht werden. Somit kann zum einen der Ressourcenverbrauch reduziert werden und zum anderen eine eindeutige Detektion der Übereinstimmung gewährleistet werden. Des Weiteren kann dadurch geometrisches Vorwissen bezüglich einer Bewegung des Bildinhalts, der meist nach oben hin begrenzt ist, abhängig von der Bewegung der Objekte im Bild und der Eigenbewegung der Kamera mit einbezogen werden.

Es kann im Schritt des Bestimmens gemäß einer weiteren Ausführungsform zumindest ein von dem Zeitdifferenzwert abweichender weiterer Zeitdifferenzwert unter Verwendung des Eingangssignals bestimmt werden. Im Schritt des

Auswählens können zumindest zwei um den weiteren Zeitdifferenzwert zueinander versetzte weitere Einzelbilder der Bildsequenz ausgewählt werden. Dementsprechend können im Schritt des Detektierens übereinstimmende weitere Pixel in den weiteren Einzelbildern detektiert werden, um den optischen Fluss unter Verwendung der übereinstimmenden weiteren Pixel zu ermitteln. Dadurch kann der optische Fluss in einem gegebenen Szenario in unterschiedlichen

Flussfeldern mit je einer anderen Zeitbasis ermittelt werden.

Dabei können im Schritt des Auswertens die Einzelbilder ausgewertet werden, um den optischen Fluss in einem ersten Bereich der Fahrzeugumgebung zu ermitteln, und die weiteren Einzelbilder verwendet werden, um den optischen Fluss in einem zweiten Bereich der Fahrzeugumgebung zu ermitteln. Dadurch kann der optische Fluss gleichzeitig in unterschiedlichen Bereichen der

Fahrzeugumgebung mit je einer anderen, an den jeweiligen Bereich angepassten Zeitbasis ermittelt werden.

Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware, beispielsweise in einem Steuergerät, implementiert sein.

Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in

entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.

Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine

Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.

Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.

In einer vorteilhaften Ausgestaltung erfolgt durch die Vorrichtung eine Steuerung des Fahrzeugs. Hierzu kann die Vorrichtung beispielsweise auf Sensorsignale wie Beschleunigungs-, Druck-, Lenkwinkel- oder Umfeldsensorsignale zugreifen. Die Ansteuerung erfolgt über Aktoren wie Brems- oder Lenkaktoren oder ein Motorsteuergerät des Fahrzeugs.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend

beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird. Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:

Fig. 1 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel;

Fig. 2 eine schematische Darstellung einer Vorrichtung aus Fig. 1;

Fig. 3 ein Blockschaltbild zur Beschreibung eines Ablaufs eines Verfahrens gemäß einem Ausführungsbeispiel;

Fig. 4 ein Ablaufdiagramm eines Verfahrens gemäß einem

Ausführungsbeispiel;

Fig. 5 eine schematische Darstellung eines optischen Flusses in zwei

Einzelbildern, aufgenommen von einer Kamera aus Fig. 1;

Fig. 6 eine schematische Darstellung eines optischen Flusses in zwei

Einzelbildern, aufgenommen von einer Kamera aus Fig. 1;

Fig. 7 eine schematische Darstellung eines optischen Flusses in zwei

Einzelbildern, aufgenommen von einer Kamera aus Fig. 1;

Fig. 8 eine schematische Darstellung eines optischen Flusses in einem

Einzelbild, aufgenommen von einer Kamera aus Fig. 1;

Fig. 9 eine schematische Darstellung eines optischen Flusses in einem

Einzelbild, aufgenommen von einer Kamera aus Fig. 1; und

Fig. 10 eine schematische Darstellung eines optischen Flusses in zwei

Einzelbildern, aufgenommen von einer Kamera aus Fig. 1.

In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren

dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche

Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird. Fig. 1 zeigt eine schematische Darstellung eines Fahrzeugs 100 mit einer

Vorrichtung 102 gemäß einem Ausführungsbeispiel. Die Vorrichtung 102 ist an eine Kamera 104 des Fahrzeugs 100 angeschlossen. Die Kamera 104 ist ausgebildet, um ein Bildsignal 106, das eine Bildsequenz aus einer Mehrzahl von Einzelbildern einer Fahrzeugumgebung des Fahrzeugs 100 repräsentiert, an die Vorrichtung 102 zu übertragen. Ferner empfängt die Vorrichtung 102 über eine geeignete Schnittstelle zumindest ein Eingangssignal 108, das in Fig. 1 lediglich beispielhaft von Raddrehzahlsensoren 110 des Fahrzeugs 100 bereitgestellt wird und somit eine Raddrehzahl bzw. eine Geschwindigkeit des Fahrzeugs 100 repräsentiert. Je nach Ausführungsbeispiel handelt es sich bei dem

Eingangssignal 108 um unter Verwendung unterschiedlicher Sensoren des Fahrzeugs 100 bereitgestellte Signale zur Erkennung der Fahrzeugumgebung oder einer Fahrsituation des Fahrzeugs 100, wie dies nachfolgend näher beschrieben ist. Alternativ oder zusätzlich repräsentiert das Eingangssignal 108 auch zwischengespeicherte Daten aus einer vorherigen Auswertung von Bilddaten der Kamera 104. Die Vorrichtung 102 ist ausgebildet, um unter Verwendung des Eingangssignals 108 eine Zeitdifferenz zur Ermittlung eines optischen Flusses anhand der Bildsequenz zu bestimmen. Die Vorrichtung 102 wählt zumindest zwei Einzelbilder aus der Bildsequenz aus, deren zeitlicher Abstand gleich der vorangehend bestimmten Zeitdifferenz ist, und durchsucht diese auf übereinstimmende Pixel. Anhand der übereinstimmenden Pixel ermittelt die Vorrichtung 102 einen optischen Fluss der Bildsequenz und stellt diesen in Form entsprechender Flussdaten 112 bereit. Die Flussdaten 112 werden beispielsweise von einem Steuergerät des Fahrzeugs 100 zur

Ansteuerung verschiedener Fahrerassistenzfunktionen ausgewertet.

Gemäß einem Ausführungsbeispiel ist die Vorrichtung 102 ausgebildet, um eine Bildwiederholrate der Kamera 104 unter Verwendung der anhand des

Eingangssignals 108 bestimmten Zeitdifferenz zu variieren, d. h., die zeitliche Bildwiederholrate ist variabel einstellbar. Insbesondere passt die Vorrichtung 102 die Bildwiederholrate dabei derart an, dass die Einzelbilder der durch das Bildsignal 106 repräsentierten Bildsequenz einen der Zeitdifferenz

entsprechenden zeitlichen Abstand zueinander aufweisen. Zur Ermittlung des optischen Flusses ist es vorteilhaft, wenn eine gewisse Anzahl an Videobildern aus der Vergangenheit gespeichert wurde und der Zugriff auf jedes dieser Bilder unabhängig erfolgt.

Somit können unterschiedliche Situationen des Fahrzeugs 100 bei der Ermittlung des optischen Flusses durch dynamische Anpassung der Zeitdifferenz berücksichtigt werden. Je größer der zeitliche Abstand wird, desto größer wird die Bewegung im Bild, desto schwieriger ist jedoch auch die Zuordnung von korrespondierenden Bildpunkten. Bei großem Zeitabstand können beispielsweise im Stillstand des Fahrzeugs 100 langsam bewegte Objekte, beispielsweise Fußgänger, erkannt werden. In einem Szenario, in dem sich das Fahrzeug 100 auf einer

mehrspurigen Fahrbahn zusammen mit anderen Fahrzeugen in die gleiche Richtung bewegt, wie etwa auf einer Autobahn, können die anderen Fahrzeuge vom optischen Fluss erfasst werden, während die Bewegung des Hintergrunds nicht mehr erkennbar sein kann. Zusätzlich vergrößert sich in der Regel bei größerem Zeitabstand die Größe des Flussvektors und somit dessen Signal-

Rausch- Verhältnis (SNR), was beispielsweise bei der

Eigenbewegungsschätzung von Vorteil ist.

Je kleiner der zeitliche Abstand ist, desto höher ist die Wahrscheinlichkeit, dass Objekte mit großer Eigengeschwindigkeit erfasst werden. Dies gilt auch für den

Fall, dass sich die Position der Kamera 104 mit hoher Geschwindigkeit ändert, etwa durch Translation oder Rotation. In Fahrszenarien mit hoher Dynamik wie einer starken Bremsung, einer engen Kurvenfahrt oder einer Fahrt auf unebenem Untergrund wählt die Vorrichtung 102 vorteilhafterweise einen geringeren zeitlichen Abstand. So kann ein Verlust des optischen Flusses verhindert werden. Verschiedene Kriterien für die Wahl einer oder mehrerer

unterschiedlicher Zeitdifferenzen für die Ermittlung des optischen Flusses bzw. Vorschriften zur Ableitung der Zeitdifferenz werden nachfolgend näher beschrieben.

Fig. 2 zeigt eine schematische Darstellung einer Vorrichtung 102 aus Fig. 1. Die Vorrichtung 102 umfasst eine Empfangseinheit 210 zum Empfangen des Eingangssignals 108 oder auch einer Menge unterschiedlicher Eingangssignale 108 sowie des Bildsignals 106. In einer Auswerteeinheit 220 erfolgt die

Auswertung des Eingangssignals 108 zur Bestimmung eines die Zeitdifferenz repräsentierenden Zeitdifferenzwertes sowie die Auswertung des Bildsignals 106 zur Auswahl von zumindest zwei um den Zeitdifferenzwert zueinander versetzten Einzelbildern der durch das Bildsignal 106 repräsentierten Bildsequenz. Ferner ist die Auswerteeinheit 220 ausgebildet, um die um den Zeitdifferenzwert zueinander versetzten Einzelbilder nach übereinstimmenden Pixeln zu durchsuchen und anhand dieser Pixel den optischen Fluss der Bildsequenz zu ermitteln. Hierbei werden beispielsweise lediglich relevante Teilausschnitte der Einzelbilder nach übereinstimmenden Pixeln untersucht, um den Rechenaufwand möglichst gering zu halten. Als Ergebnis dieser Auswertung gibt die

Auswerteeinheit 220 die Flussdaten 112 zur weiteren Verarbeitung aus.

Fig. 3 zeigt ein Blockschaltbild zur Beschreibung eines Ablaufs eines Verfahrens gemäß einem Ausführungsbeispiel. Der in Fig. 3 dargestellte Ablauf entspricht beispielsweise dem Ablauf eines durch eine vorangehend anhand der Figuren 1 und 2 beschriebene Vorrichtung ausgeführten Verfahrens.

Dargestellt sind ein Block 302, der unabhängige Eingangssignale repräsentiert, sowie ein Block 304, der abhängige Eingangssignale repräsentiert. Die abhängigen und unabhängigen Eingangssignale werden in einem Block 306 ausgewertet und zur Bestimmung optimaler Zeitdifferenzen Ati... n verwendet. In einem weiteren Block 308 erfolgt die Berechnung der optischen Flüsse zwischen Bild l t und Bild I t -At. Dabei kennzeichnet„ üblicherweise das aktuelle Bild und t- Ät ein vorheriges Bild. Das Ergebnis der Berechnung wird beispielsweise in einem Block 310 von verschiedenen Messprogrammen oder Funktionen des Fahrzeugs weiterverarbeitet. Die Ergebnisse der Messprogramme sowie eine Statistik des optischen Flusses können wiederum als Eingangssignale verwendet werden. Dabei werden die Ergebnisse der Messprogramme über indirekte Rückkopplung in den Block 306 ein, während die Ergebnisse der im Block 308 durchgeführten Berechnung, beispielsweise in Form von Statistiken, über direkte Rückkopplung in den Block 306 eingehen. Die direkte bzw. indirekte

Rückkopplung ist durch eine gestrichelte Linie gekennzeichnet.

Unabhängige Eingangssignale repräsentieren beispielsweise folgende

Informationen:

- Detektion von Fußgängern, Radfahrern, Fahrzeugen oder sonstigen

Objekten, beispielsweise mittels Klassifikation;

- (Stereo-)Tiefeninformationen; - Eigenbewegung des Fahrzeugs, ermittelt durch externe Bewegungssensoren wie beispielsweise Beschleunigungs-, Lenkraddrehoder Raddrehsensoren;

- Eigenbewegung des Fahrzeugs, ermittelt durch Bildinformationen,

beispielsweise durch Bildkorrelation, jedoch nicht anhand des optischen Flusses;

- Eigenbewegung des Fahrzeugs, ermittelt durch externe Sensoren wie Radar-, Lidar-, Ultraschall-, GPS-, Licht- oder Regensensoren;

- Bildbasierte Spurerkennung;

- Verfügbare Genauigkeit von Kalibrierungsergebnissen, beispielsweise intrinsische Parameter der Kamera wie Brennweite oder Bildmittelpunkt, extrinsische Parameter mit Bezug zu Weltkoordinaten, relative extrinsische Parameter (relativer Bezug zweier Kameras) oder Region-of-Interest;

- Belichtungssteuerung;

- Blindheitserkennung;

- Verkehrsschilderkennung (bei Erkennung eines Tempolimits wird das Fahrzeug automatisch abgebremst).

Abhängige Eingangssignale repräsentieren beispielsweise folgende

Informationen:

- Statistik aus vorheriger Berechnung des optischen Flusses;

- Flussbasierte Eigenbewegungsschätzung;

- Flussbasierte Objektdetektion;

- Flussbasierte Oberflächenschätzung.

Fusionierte Eingangssignale sind beispielsweise:

- AEB-Signale einer automatischen Notbremsfunktion für kritische,

nachklassifizierte Stereoobjekte, basierend auf Disparität und optischem Fluss;

- Prefill-Signale zur Vorbereitung der Bremse für eine schnellere Auslösung der Notbremsung. Ein derartiges Verfahren ermöglicht es, situationsabhängig eine oder mehrere optimale Zeitdifferenzen zur Berechnung des optischen Flusses zu bestimmen. Die optimale Zeitdifferenz ist hierbei definiert als längste mögliche Zeit, in der die Verfügbarkeit des optischen Flusses gewährleistet ist, unter Berücksichtigung der Anforderungen nachfolgender Messprogramme. So ist beispielsweise in

Hochdynamiksituationen die optimale Zeitdifferenz kurz, um hochfrequente Änderungen des Bildinhalts einfangen zu können. Bei stetiger, langsamer Geradeausfahrt ist hingegen eine längere Zeitdifferenz besser geeignet, um eine genauere Eigenbewegungsschätzung durchzuführen.

Bei eingeschränkten Ressourcen sollten nicht alle möglichen optischen Flüsse berechnet werden, sondern lediglich diejenigen, die aufgrund der

Eingangssignale als besonders vielversprechend eingeschätzt werden. Auf diese Weise können Rechenzeit und Hardwareressourcen reduziert werden. Im

Ergebnis bleibt mehr Zeit für andere Berechnungen, die Wärmeentwicklung ist geringer und es kann günstigere Hardware genutzt werden.

Die Menge der benötigten Zeitdifferenzen Ati..., kann wie folgt bestimmt werden:

Dabei sind die enthaltenen Elemente und Operatoren wie im Folgenden beschrieben definiert: a Vektor der Eingangswerte mit k Elementen

W j * k Gewichtungsmatrix zur Gewichtung der Eingangswerte, wobei j die Anzahl der gewünschten Bedingungen ist Vektor mit k Einsen zur zeilenweisen Summation von Wa t Vektor mit j Werten, die der jeweiligen Zeile eine definierte

Zeitdifferenz zur Flussberechnung zuweist thresh(a, Ti, T u ) Wendet die Schwellwertvektoren Ti und T u elementweise auf α an und gibt einen binären Vektor zurück, bei dem

Element 1 ist, wenn Τι,, < a, < T u ,i und 0 andernfalls

o Hadamard-Produkt (elementweise Multiplikation) unique(v) Gibt alle einzigartigen Elemente in einem Vektor γ zurück, die ungleich Null sind

Der optische Fluss wird für kontinuierliche Eingangssignale beispielsweise folgendermaßen berechnet.

Wenn die Geschwindigkeit beispielsweise größer als 90 km/h ist, soll ein Fluss mit At = 33 ms berechnet werden, andernfalls mit At = 66 ms. Existiert aber mindestens ein erkanntes Fahrzeug im Bild, soll zusätzlich ein Fluss mit At = 200 ms berechnet werden, jedoch nur, wenn die Nickrate betragsmäßig kleiner als l,5°/s ist. Daraus folgt:

mit

x = [0, 250] (Geschwindigkeit)

a 2 e {0, 1) (Binarisierter Wert: Es wurden Fahrzeuge erkannt: ja/nein)

a 3 = [—oo, co] (Nickrate, theoretisch nach oben und unten unbegrenzt)

Die Gewichtungsmatrix soll zwei Bedingungen für die Geschwindigkeit zweimal auswerten (für die Fälle größer und kleiner 90 km/h, die ersten beiden Zeilen der Gewichtungsmatrix), somit wird sie wie folgt gewählt. Die dritte Zeile besagt, dass das Vorhandensein von Objekten und die Nickrate in die dritte Bedingung einfließen sollen:

1 0 0

w = 1 0 0

.0 1 1.

Die Schwellwerte werden wie folgt gewählt:

Gegeben sei beispielsweise eine Geschwindigkeit von αι = 115 km/h. Es weitere Fahrzeuge erkannt, somit ist 0:2 = 1. Die aktuelle Nickrate betrage

03 = -0,7 °/s.

Wendet man nun die Schwellwertfunktion range((Wa)l, Ti, T u ) an, so ergibt sich:

T u < 115 < T u i

rznge{{Wa)I, T h T u ) = T 2 < 115 < T Ui2

T 3 < 0,3 < T u>3

Der Ausdruck range((Wa)l, Ti, T u ) liefert nun also einen Vektor mit Nullen und Einsen, der besagt, ob die Bedingung der jeweiligen Spalte von W erfüllt ist oder nicht. In diesem Beispiel ist die Bedingung, dass die Geschwindigkeit zwischen 0 und 90 km/h liegt, nicht erfüllt. Die Bedingung, dass sie größer als 90 km/h ist, ist wahr und das Vorhandensein von Fahrzeugen bei gleichzeitig geringer Nickrate ist ebenfalls wahr.

Durch die elementweise Multiplikation mit t werden nun diejenigen Vektoreinträge mit Einsen mit der jeweiligen Zeitdifferenz zugeordnet:

Im letzten Schritt werden nun doppelte Einträge und Nullen im Vektor entfernt und eine Menge von Zeiten zurückgegeben:

At 1 i = unique = {66ms, 200ms)

Rechenbeispiel für binäre Eingangssignale Werden binäre Eingangssignale verwendet, ergeben sich einige

Vereinfachungen. Die unteren Schwellwerte reduzieren sich beispielsweise auf die Zahl der mindestens benötigten Signale.

Ziel: Bei einer automatischen oder einer manuellen Bremsung soll At = 33 ms sein, andernfalls soll At = 66 ms sein. Daraus folgt:

mit

x e {0, 1) (automatische Bremsung ja/nein) und

a 2 e {0, 1) (manuelle Bremsung ja/nein)

Die Gewichtungsmatrix soll nur zwei Bedingungen enthalten:

1. Ist die Summe der Nicht-Null-Elemente größer oder gleich 1?

2. Ist die Summe der Nicht-Null-Elemente kleiner 1?

Im Fall, dass beispielsweise eine automatische Notbremsung ausgeführt wird und der Fahrer nicht manuell bremst, ergibt das Produkt aus der

Gewichtungsmatrix und den Eingangssignalen das folgende Ergebnis:

Die Schwellwerte werden wie folgt gewählt, sodass mindestens eine der Bedingungen wahr sein muss (der Schwellwert liegt bei 0,5). Zusätzlich ist die obere Schwelle unendlich, sodass es keine maximale Anzahl von wahren Bedingungen gibt.

Die Auswertung der Schwellwerte liefert das folgende Ergebnis: rznge{{Wa)I, T h T u )

Bei der elementweisen Multiplikation mit dem Zeitdifferenzenvektor ergibt sich nur ein von Null verschiedener Wert:

Im letzten Schritt werden nun doppelte Einträge im Vektor entfernt

Menge von Zeiten zurückgegeben:

At 1 i = unique ([ 33 0 mS ]) = {33ms}

Alternativ zur mathematischen Notation ist auch eine logische Notation denkbar. Der Kerngedanke besteht darin, die Eingangsgrößen durch logische Operationen zu verknüpfen. Handelt es sich um nichtbinäre Eingangsgrößen, sollte zusätzlich ein unterer und oberer Schwellwert definiert werden und das Ergebnis der Schwellwerte dann mit logischen Operationen verknüpft werden.

Ziel ist es, die Zeitdifferenz des optischen Flusses an die

Fahrbahngegebenheiten und die Statistik des letzten optischen Flusses anzupassen.

Gegeben sei ein kontinuierliches Signal für Fahrbahnebenheit (0 sehr glatte Fahrbahn, 1 sehr unebene Fahrbahn) a t = [0, 1] sowie ein die Anzahl der Flussvektoren, die die maximale Länge von 31 Pixeln erreicht haben (Maß dafür, dass die Zeitdifferenz zu lang ist). 2 = [0, ]

Zunächst werden die kontinuierlichen Eingangsgrößen in binäre Werte überführt: range(a x , Τ Ι , T u i

α * )

range(a 2 , T li2 , T u 2 )

Mit den Beispielwerten α χ =0,3 und a 2 =634 ergibt sich der folgende Vektor mit Binärwerten:

Eine denkbare logische Notation, bei der die beiden Eingangsgrößen im ersten Fall verundet (&) und im zweiten Fall verodert (|) werden, während im dritten Fall das Fehlschlagen beider Bedingungen abgefangen wird, sieht beispielsweise folgendermaßen aus:

Ati = t a & a 2 * )

At 2 = t 2 (al I a 2 * )

Im konkreten Fall ergeben sich somit die Werte

33ms (0 & 1)

66ms (0 I 1)

100ms (1 & 0)

und

At = {66ms)

Fig. 4 zeigt ein Ablaufdiagramm eines Verfahrens 400 gemäß einem

Ausführungsbeispiel. Das Verfahren 400 zum Ermitteln eines optischen Flusses kann beispielsweise von einer vorangehend anhand der Figuren 1 bis 3 beschriebenen Vorrichtung ausgeführt werden. Dabei werden in einem Schritt 410 das Eingangssignal und das Bildsignal empfangen. In einem Schritt 420 wird der Zeitdifferenzwert unter Verwendung des Eingangssignals bestimmt. In einem weiteren Schritt 430 werden zumindest zwei um den Zeitdifferenzwert zueinander versetzte Einzelbilder der Bildsequenz unter Verwendung des Bildsignals ausgewählt. In einem Schritt 440 werden übereinstimmende Pixel in den

Einzelbildern detektiert und zur Ermittlung des optischen Flusses verwendet.

Fig. 5 zeigt eine schematische Darstellung eines optischen Flusses in zwei Einzelbildern 500, 502, aufgenommen von einer Kamera aus Fig. 1. Die

Einzelbilder 500, 502 zeigen je ein eine Fahrbahn 504 querendes Kind 506. Zum besseren Vergleich sind die Einzelbilder 500, 502 nebeneinander dargestellt, wobei das linke Einzelbild 500 den optischen Fluss bei einer Zeitdifferenz von Ät = 66 ms (t-4 auf t-3) zeigt und das rechte Einzelbild 502 den optischen Fluss bei einer Zeitdifferenz von Ät = 33 ms (t-3 auf t-2) zeigt. Beide Flussfelder sind brauchbar. Die Anzahl der Flussvektoren ist in etwa gleich. Die Länge der Flussvektoren im Einzelbild 500 ist etwa halb so groß wie im Einzelbild 502.

Der optische Fluss ist schematisch durch schraffierte Bereiche in den

Einzelbildern 500, 502 angedeutet.

Fig. 6 zeigt eine schematische Darstellung eines optischen Flusses in zwei Einzelbildern 600, 602, aufgenommen von einer Kamera aus Fig. 1. Gezeigt ist der optische Fluss einen Zeitschritt später als in Fig. 5. Das linke Einzelbild 600 zeigt den optischen Fluss bei Ät = 66 ms (t-2 auf t). Im rechten Einzelbild 602 ist der optische Fluss bei Ät = 33 ms (t-1 auf t) dargestellt. Wie aus Fig. 6 ersichtlich, geht der optische Fluss auf dem Objekt bei einer zu großen Zeitdifferenz verloren. Ein rechtzeitiges Umschalten auf die kürzere Zeitdifferenz bringt ein deutlich besseres Verhalten.

Fig. 7 zeigt eine schematische Darstellung eines optischen Flusses in zwei Einzelbildern 700, 702, aufgenommen von einer Kamera aus Fig. 1. Gezeigt sind Aufnahmen der Fahrbahn 504 bei hoher Nickrate des Fahrzeugs. Im Flussfeld des linken Einzelbildes 700 (Ät = 66 ms) fehlt der untere Teil des Bildes aufgrund zu großer Flussvektoren, die außerhalb des Suchbereichs liegen. Das Flussfeld des rechten Einzelbildes 702 (Ät = 33 ms) ist vollständig vorhanden. Der spärlichere optische Eindruck in der Visualisierung erklärt sich durch die kürzeren Flussvektoren.

Fig. 8 zeigt eine schematische Darstellung eines optischen Flusses in einem Einzelbild 800, aufgenommen von einer Kamera aus Fig. 1. Der optische Fluss konzentriert sich in dem in Fig. 8 gezeigten Einzelbild 800 auf eine Bildmitte. An den zeitlichen Randbereichen des Einzelbildes 800 fehlt der optische Fluss aufgrund einer starken Rollbewegung des Fahrzeugs.

Fig. 9 zeigt eine schematische Darstellung eines optischen Flusses in einem Einzelbild 900, aufgenommen von einer Kamera aus Fig. 1. Das Einzelbild 900 zeigt eine Straße 902 mit einem dem Fahrzeug vorausfahrenden Fahrzeug 904. Die Flussvektoren auf der Straße 902 sind groß, während die Flussvektoren auf dem vorausfahrenden Fahrzeug 904 kurz sind. Ein dem vorausfahrenden Fahrzeug 904 zugeordnetes weiteres Flussfeld mit größerer Zeitdifferenz führt hier zu einer genaueren Berechnung der Relativgeschwindigkeit zwischen den beiden Fahrzeugen.

Fig. 10 zeigt eine schematische Darstellung eines optischen Flusses in zwei Einzelbildern 1000, 1002, aufgenommen von einer Kamera aus Fig. 1. Wie aus Fig. 10 ersichtlich, geht der optische Fluss in einem bestimmten Bildbereich verloren, sodass von einer zu hohen Eigenbewegung des Fahrzeugs

auszugehen ist.

Beispielsweise ist aus dem linken Bild 1000 ein Flussfeld bekannt, das während einer Notbremsung auf einen Kinderdummy entstanden ist. Im Vergleich zu dieser vorherigen Berechnung des Flussfelds fehlt im nächsten Bild 1002 an der Stelle in der Mitte des Bildes, an der sich der Kinderdummy befindet, jegliches Flussergebnis. Dabei handelt es sich nicht um Flussvektoren der Länge null, sondern um eine nichtvorhandene Detektion von Flussmessungen. Daher kann darauf geschlossen werden, dass die Relativbewegung des Objekts zu groß für den Suchbereich des optischen Flusses war. In diesem Fall erfolgt gemäß einem Ausführungsbeispiel der hier beschriebenen Erfindung eine Aufteilung in zwei Flussfelder mit unterschiedlichen Zeitdifferenzen. Nachfolgend werden verschiedene Anwendungsfälle des hier vorgestellten Ansatzes beschrieben.

Beispielsweise kann der optische Fluss während einer Notbremsung auf einen Kinderdummy unter gewissen Umständen im Nahbereich verloren gehen. Dies hat zwei Gründe.

Erstens wandert der Kinderdummy durch die Annäherung des Egofahrzeugs an den relativ kleinen Kinderdummy im Bild immer weiter nach unten. Die resultierenden Flussvektoren zeigen somit immer stärker nach unten.

Dazu kommt die Nickbewegung des Fahrzeugs nach Auslösung der

Notbremsung, die den gesamten Bildinhalt in vertikaler Richtung verschiebt. Nach einem initialen Einnicken kommt es zu einer Gegenbewegung nach oben, die die Flussvektoren auf dem Dummy noch länger werden lässt, bis diese nicht mehr in den aus technischen Gründen stark begrenzten Suchbereich passen, wodurch die Flussdetektion auf dem Kinderdummy fehlschlägt. Durch die Halbierung der Zeitdifferenz zwischen den Bildern, beispielsweise von 66 auf 33 ms, kann das Flussergebnis erheblich verbessert werden. Generell ist es jedoch nicht wünschenswert, alle Messung auf einer 33-ms-Basis durchzuführen. Daher wird beispielsweise nur im Fall einer automatischen Notbremsung anhand eines entsprechenden Notbremssignals eine solche Umschaltung der Zeitbasis durchgeführt. Das Notbremssignal basiert dabei auf einer Situationsanalyse von Objekten, die durch eine Auswertung von Disparität und Fluss erkannt wurden und mit einem Klassifikator bestätigt wurden, etwa durch eine bildbasierte Nachklassifikation als bremsrelevantes Objekt wie Auto, LKW, Fußgänger oder Radfahrer.

Die bildbasierte Nickrate des Fahrzeugs wird beispielsweise unabhängig vom optischen Fluss berechnet. Ist diese sehr groß, wird die Zeitbasis verringert, sodass die hohe Dynamik der Bewegung kompensiert wird.

Insbesondere bei hohen Fahrzeugen wie Lastkraftwagen kann es auf unebener Fahrbahn, etwa durch Schlaglöcher, zu hohen Rollraten kommen. Dies führt dazu, dass das Flussfeld an den Rändern des Bildes zusammenbricht, da der optische Fluss den Suchbereich verlässt. In der Mitte des Bildes wird jedoch noch Fluss gefunden, aus dem auch die Rollrate geschätzt werden kann. In einem solchen Fall wird beispielsweise anhand der Rollrate und der bekannten Größe des Suchbereichs die größte sinnvolle Zeitdifferenz für die Berechnung des optischen Flusses ermittelt.

Liefern die Fahrzeugsensoren und die unabhängig vom optischen Fluss bestimmte Rotation der Kamera kleine Ergebnisse und ist die Geschwindigkeit des Fahrzeugs gleichzeitig gering, kann auf eine ruhige Fahrt geschlossen werden. In diesem Fall wird die Zeitbasis beispielsweise verlängert, um die Genauigkeit der flussbasierten Eigenbewegungsschätzung zu erhöhen.

Während einer Autobahnfahrt ist eine hohe Geschwindigkeit auf Basis der Raddrehzahlsensoren bekannt. Gleichzeitig werden durch Klassifikatoren unabhängig vom optischen Fluss weitere Fahrzeuge vor und neben dem

Egofahrzeug erkannt. In diesem Fall wird beispielsweise eine kurze

Zeitdifferenz Äti zur Berechnung des optischen Flusses auf der Fahrbahn für die Eigenbewegungs- und Oberflächenschätzung bestimmt. Zusätzlich lässt sich eine zweite, längere Zeitdifferenz ΔΪ2 ableiten, mit deren Hilfe die relative

Geschwindigkeit zwischen Egofahrzeug und vorausfahrenden Fahrzeugen sehr genau flussbasiert geschätzt wird.

Bei eingelegtem Rückwärtsgang kann von einem Parkmanöver ausgegangen werden. Als Zeitbasis des optischen Flusses wird hier beispielsweise ein mittlerer Wert gesetzt, was gleichzeitig eine adäquate Genauigkeit der

Eigenbewegungsschätzung und hinreichend kurze Latenzen bis zum Eintreffen der Flussergebnisse gewährleistet.

Wenn die bildbasierte, vom optischen Fluss abhängige Oberflächenschätzung eine unebene Fahrbahn prädiziert, wird die Zeitdifferenz beispielsweise kurz gewählt, um die hohe Dynamik abzufangen. Ist jedoch gleichzeitig eine adaptive Ansteuerung des Fahrwerks zur Kompensation unebener Oberflächen aktiv, auch Magic Carpet genannt, wird die Zeitdifferenz wiederum entsprechend verlängert. Umfasst ein Ausführungsbeispiel eine„und/oder"- Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.