Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD, COMPUTER PROGRAM, MACHINE-READABLE STORAGE MEDIUM, AND DEVICE FOR DATA PREDICTION
Document Type and Number:
WIPO Patent Application WO/2020/126597
Kind Code:
A1
Abstract:
A method for data prediction on the basis of an input datum (Y) by means of a machine learning method (ML-function), wherein, in parallel with the data prediction, the input datum (Y) is mapped onto an encoder datum (Z) by means of a variational autoencoder (VAE), and a distance criterion is determined according to the encoder datum (Z) and an expected distribution (Z'), the distance criterion representing a measure of plausibility of the data prediction.

Inventors:
WILLERS OLIVER (DE)
SUDHOLT SEBASTIAN (DE)
Application Number:
PCT/EP2019/084172
Publication Date:
June 25, 2020
Filing Date:
December 09, 2019
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BOSCH GMBH ROBERT (DE)
International Classes:
G06N3/04; G06N3/08
Foreign References:
DE202017102238U12017-05-12
DE202017102235U12017-05-12
Other References:
AMINI ALEXANDER ET AL: "Variational Autoencoder for End-to-End Control of Autonomous Driving with Novelty Detection and Training De-biasing", 2018 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS), IEEE, 1 October 2018 (2018-10-01), pages 568 - 575, XP033491655, DOI: 10.1109/IROS.2018.8594386
MENGSHI ZHANG ET AL: "DeepRoad: GAN-based metamorphic testing and input validation framework for autonomous driving systems", PROCEEDINGS OF THE 33RD ACM/IEEE INTERNATIONAL CONFERENCE ON AUTOMATED SOFTWARE ENGINEERING , ASE 2018, ACM PRESS, NEW YORK, NEW YORK, USA, 3 September 2018 (2018-09-03), pages 132 - 142, XP058415235, ISBN: 978-1-4503-5937-5, DOI: 10.1145/3238147.3238187
YUCHI TIAN ET AL: "DeepTest : automated testing of deep-neural-network-driven autonomous cars", SOFTWARE ENGINEERING, 1 January 2018 (2018-01-01), 2 Penn Plaza, Suite 701New YorkNY10121-0701USA, pages 303 - 314, XP055572164, ISBN: 978-1-4503-5638-1, DOI: 10.1145/3180155.3180220
CARL DOERSCH: "Tutorial on Variational Autoencoders", 16 August 2016 (2016-08-16), pages 1 - 23, XP055623700, Retrieved from the Internet [retrieved on 20190918]
D. AMODEIC. OLAHJ. STEINHARDTP. F. CHRISTIANOJ. SCHULMAND. MANE: "Concrete problems in AI safety", CORR, vol. abs/1606.06565, 2016
S. BURTONL. GAUERHOFC. HEINZEMANN: "Computer Safety, Reliability, and Security", 2017, SPRINGER INTERNATIONAL PUBLISHING, article "Making the case for safety of machine learning in highly automated driving", pages: 5 - 16
G. E. HINTONR. R. SALAKHUTDINOV: "Reducing the dimensionality of data with neural networks", SCIENCE, vol. 313, no. 5786, 2006, pages 504 - 507
Download PDF:
Claims:
Ansprüche

1. Verfahren (300) zur Datenvorhersage basierend auf einem Eingabedatum (y) mittels eines Verfahrens des maschinellen Lernens (2),

dadurch gekennzeichnet, dass

parallel zu der Datenvorhersage (301) das Eingangsdatum (y) mittels eines Variational Autoencoders (10) auf ein Encoderdatum (z‘) abgebildet (302) wird, wobei ein Distanzkriterium (23) in Abhängigkeit von dem Encoderdatum (z‘) und einer erwarteten Verteilung (z) ermittelt (303) wird, wobei das Distanzkriterium (22) ein Plausibilitätsmaß (23) für die Datenvorhersage repräsentiert.

2. Verfahren (300) nach Anspruch 1, wobei das Distanzkriterium (22) mittels einer Plausibilitätsfunktion, insbesondere einer logarithmischen Plausibilitätsfunktion, des Encoderdatums (z‘) ermittelt wird.

3. Verfahren (300) nach Anspruch 1 oder 2, wobei zur Bestimmung der Plausibilität das ermittelte Distanzkriterium (22) und/oder das Ergebnis der Ermittlung mittels der logarithmischen Plausibilitätsfunktion mit einem vorgegebenen Schwellenwert verglichen wird.

4. Verfahren (300) nach Anspruch einem der vorhergehenden Ansprüche, wobei das Verfahren des maschinellen Lernens (2) und der Variational Autoencoder (10) auf der gleichen und/oder einer ähnlichen Verteilung der Eingabedaten trainiert sind.

5. Verfahren (300) nach einem der vorhergehenden Ansprüche, wobei das

Verfahren des maschinellen Lernens (2) ein Verfahren zur Objektklassifikation und/oder Objekterkennung, insbesondere aus dem Bereich des zumindest teilweise automatisierten Fahrens, ist.

6. Computerprogramm, das eingerichtet ist, alle Schritte eines Verfahrens (300) gemäß einem der vorhergehenden Ansprüche auszuführen.

7. Maschinenlesbares Speichermedium, auf das Computerprogramm nach Anspruch 6 gespeichert ist.

8. Vorrichtung, die eingerichtet ist, alle Schritte eines Verfahrens (300) gemäß einem der Ansprüche 1 bis 5 auszuführen.

Description:
Beschreibung

Titel

Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie

Vorrichtung zur Datenvorhersage

Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogramm, ein maschinenlesbares Speichermedium sowie eine Vorrichtung zur

Datenvorhersage mittels eines Verfahrens des maschinellen Lernens (eng.: ML function).

Stand der Technik

Der Einsatz von Verfahren des maschinellen Lernens ermöglicht eine Reihe von neuen und spannenden Anwendungen. Ein bekanntes Einsatzgebiet für

Verfahren des maschinellen Lernens ist das Feld des Automatisierten Fahrens. Mit dem Übergang vom zumindest teilweise manuellen Fahrens (sog. Level 1, 2 Fahren) zum teilweise automatisierten Fahren (sog. Level 3, 4 und 5) entstehen grundsätzliche Probleme für die Systemsicherheit. Insbesondere der Einsatz von Verfahren des maschinellen Lernens für bzw. in sicherheitsrelevanten Funktionen erzeugt vollständig neue Probleme hinsichtlich der Systemsicherheit.

Aus D. Amodei, C. Olah, J. Steinhardt, P. F. Christiano, J. Schulman, and D. Mane,“Concrete Problems in AI safety,” CoRR, vol. abs/1606.06565, 2016. [Online], sind„Unfälle“ als Probleme des maschinellen Lernens bekannt.

Demnach sind Unfälle unerwünschtes oder schädigendes Verhalten, das auf ein mangelhaftes Design von Systemen der künstlichen Intelligenz mit Bezug zur realen Welt zurückzuführen ist. Das Paper kategorisiert die auftretenden

Probleme in fünf Klassen, Verhinderung von Seiteffekten (engl.: avoiding side effects), Vermeidung von Reward Hacking (eng.: avoiding reward hacking), skalierbare Überwachung (eng.: scalable supervision), sicheres Erforschen (eng.: safe exploration) und Verteilungsverschiebung (eng.: distributional shift).

Aus S. Burton, L. Gauerhof, and C. Heinzemann,“Making the case for safety of machine learning in highly automated driving,” in Computer Safety, Reliability, and Security, S. Tonetta, E. Schoitsch, and F. Bitsch, Eds. Cham: Springer International Publishing, 2017, pp. 5-16. sind Herausforderungen bekannt, die auftreten, wenn Verfahren des maschinellen Lernens im Bereich des zumindest teilweise automatisierten Fahrens angewendet werden. Das Paper legt einen besonderen Fokus auf funktionelle Unzulänglichkeiten bei der

Erkennungsfunktion basierend auf faltenden künstlichen neuronalen Netzen (eng.: Convolutional Neural Networks). Ferner stellt das Paper Möglichkeiten zur Abwehr der sich daraus ergebenden Risiken vor.

Aus G. E. Hinton and R. R. Salakhutdinov,“Reducing the dimensionality of data with neural networks,” Science, vol. 313, no. 5786, pp. 504-507, 2006. [Online], ist bekannt, dass höher-dimensionale Daten in nieder-dimensionale Codes konvertiert werden können, indem ein mehrschichtiges künstliches neuronales Netz mit einer kleinen zentralen Schicht darauf trainiert wird, einen höher- dimensionalen Eingabevektor zu rekonstruieren. Der Gradientenabstieg (eng.: gradient descent) kann für die Feinabstimmung der Gewichte in einem

künstlichen neuronalen Netz, das auch„Autoencoder“ genannt wird, angewendet werden.

Aus C. Doersch,“Tutorial on Variational Autoencoders,” ArXiv e-prints, Jun.

2016. ist bekannt, sogenannte Autoencoder zum unüberwachten Lernen von künstlichen neuronalen Netzen einzusetzen. Insbesondere wenn komplizierte Verteilungen der Eingabe- bzw. Trainingsdaten vorliegen. Zeigt der Einsatz von Autoencoder beim unüberwachten Lernen besondere Stärken.

Ein grundsätzliches Problem beim Einsatz von Verfahren des maschinellen Lernens für sicherheitsrelevante Funktionen ist, dass eine Datenvorhersage nur dann verlässlich ist, wenn die Eingangsdaten eine adäquate Qualität aufweisen und die gleiche bzw. ähnliche Verteilung aufweisen, wie der Datensatz, der zum Training des Verfahrens des maschinellen Lernens eingesetzt wurde. Insbesondere für den Einsatz in offenen Szenarien (eng.: open context scenarios), wie bspw. bei dem zumindest teilweise automatisierten Fahren, birgt dies große Herausforderungen. Daher sind Plausibilitätsprüfungen der

Eingangsdaten, die mittels des Verfahrens des maschinellen Lernens verarbeitet wurden, erforderlich.

Im Kontext des Automatisierten Fahrens, beschränken sich die aktuellen Plausibilitätsprüfungen auf den Vergleich der Ausgabedaten mehrerer Sensoren oder auf die Analyse der Eingangsdaten ausgehend von Expertenwissen (bspw. auf die Erkennung von schwierigen Umfeldbedingungen wie Nebel oder reduzierte Datenqualität durch Bewegungsunschärfe).

Offenbarung der Erfindung

Vor diesem Hintergrund schafft die vorliegende Erfindung ein Verfahren zur Datenvorhersage basierend auf einem Eingabedatum Y mittels eines Verfahrens des maschinellen Lernens (eng.: ML function). Sowie ein entsprechendes Computerprogramm, ein entsprechendes maschinenlesbares Speichermedium sowie eine entsprechende Vorrichtung.

Vorteile der Erfindung

Ein Aspekt der vorliegenden Erfindung ist ein Verfahren zur Datenvorhersage basierend auf einem Eingabedatum mittels eines Verfahrens des maschinellen Lernens (eng.: ML function).

Die Erfindung basiert auf der Erkenntnis, dass parallel zu der Datenvorhersage das Eingangsdatum mittels eines Variational Autoencoders auf ein

Encoderdatum abzubilden. In Abhängigkeit von dem Encoderdatum und einer erwarteten Verteilung wird ein Distanzkriterium ermittelt. Das ermittelte

Distanzkriterium repräsentiert ein Plausibilitätsmaß für die Datenvorhersage mittels des Verfahrens des maschinellen Lernens (eng.: ML function).

Unter einem Verfahren zur Datenvorhersagen ist vorliegend ein Verfahren aus dem Bereich der künstlichen Intelligenz zu verstehen. Unter einem Verfahren des maschinellen Lernens ist vorliegend ein Verfahren zur künstlichen Generierung von Wissen aus Erfahrung zu verstehen. Diese Verfahren basieren auf der Erkenntnis, dass aus Beispielen (d.h. aus bekannten Daten) erlernte Muster verallgemeinerbar sind und dadurch in unbekannten neuen Daten die erlernten Muster erkannt werden können. Dadurch entsteht künstliches Wissen aus den unbekannten neuen Daten.

Unter einem Datum, insbesondere unter einem Eingangsdatum oder

Encoderdatum ist vorliegend eine multidimensionale Datenrepräsentation zu verstehen. Im Bereich der Bildverarbeitung mittels eines Verfahrens aus dem Bereich der künstlichen Intelligenz kann dies bspw. die Repräsentation eines Bilds als Tensor nach Farbkanälen bspw. RGB und ggf. weiteren Kanälen. Das Encoderdatum kann dabei auch eindimensional sein und bspw. eine Menge von Klassen repräsentieren, denen das Eingangsdatum zugeordnet wird.

Unter einem Variational Autoencoder ist vorliegend ein Modell des maschinellen Lernens zu verstehen. Ein Variational Autoencoder ist eine Ausprägung des allgemeineren Modells eines Autoencoders. Ein Autoencoder weist einen Encoder- und einen Decoder-Teil auf. Der Encoder-Teil q Q (z|x) bildet

Eingabedaten x eines ersten Merkmalsraums (eng.: feature space) auf einen kleineren Merkmalsraum (eng.: smaller feature space) z ab. Der kleinere Merkmalsraum z wird latenter Raum (eng.: latent space) genannt. Dazu kann bspw. ein künstliches neuronales Netz eingesetzt werden. Für diese Aufgabe muss der Encoder-Teil trainiert werden, um Parameter 0 zu ermitteln, die erforderlich sind, um die Eingabedaten beim Abbilden auf den kleiner dimensionalen latenten Raum z effizient zu komprimieren. Im Decoder-Teil r f (c|z) werden die komprimierten Eingabedaten aus dem kleiner dimensionalen latenten Raum z in den Merkmalsraum mit der ursprünglichen Dimensionsgröße mittels den ebenfalls erlernten Parametern F rekonstruiert.

Zum Training eines Autoencoders wird die nachstehende Verlustfunktion minimiert: Dabei ist N die Anzahl der für das Training verwendeten Datenpunkte. Die Verlustfunktion ist die erwartete negative logarithmische Plausibilitätsfunktion (eng.: expected negative log-likelihood function) des i-ten Datenpunkts. Der Term fördert den Decoder-Teil die Eingangsdaten korrekt zu rekonstruieren.

Im Unterschied zu einem Autoencoder sagt ein Variational Autoencoder die Parameter der Verteilung des latenten Merkmalraums z voraus. Typischerweise ist das der Erwartungswert und die Varianz der Normalverteilung. Zusätzlich wird das Trainingsverfahren eines Variational Autoencoders durch die Minimierung der Kullback-Leibler-Divergenz zwischen der vorhergesagten Verteilung

(repräsentiert durch Mittelwert und Varianz) und einer vorgegebenen Verteilung, typischerweise der Standard Normalverteilung, regularisiert. Diese

Regularisierung zwingt die Einbettungen (eng.: embedings) auf einer

verbundenen Mannigfaltigkeit ohne„Löcher“ zu liegen. Nach dem Training kann die erlernte Mannigfaltigkeit des latenten Merkmalsraum gesampelt werden, um neue Ausgabedaten zu generieren.

Zum Training eines Autoencoders wird die nachstehende Verlustfunktion minimiert:

Dabei ist N die Anzahl der für das Training verwendeten Datenpunkte. KL(·) ist die Kullback-Leibler-Divergenz. p(-) ist die vorgegebene Verteilung,

typischerweise die Standard Normalverteilung. Der erste Term ist die erwartete negative logarithmische Plausibilitätsfunktion (eng.: expected negative log- likelihood function) des i-ten Datenpunkts. Der Term fördert den Decoder die Eingangsdaten korrekt zu rekonstruieren. Der zweite Term berechnet die Kullback-Leibler-Divergenz zwischen der Verteilung des Encoders und der vorgegebenen Verteilung.

Unter einem künstlichen neuronalen Netz ist vorliegend ein Netz aus künstlichen Neuronen zur Informationsverarbeitung zu verstehen. Künstliche neuronale Netze durchleben im Wesentlichen drei Phasen. In einer initialen Phase wird eine Basistopologie, meist abhängig von der Aufgabenstellung, vorgegeben. Danach folgt eine Trainingsphase, in der die Basistopologie zur effizienten Lösung der Aufgabenstellung mittels Trainingsdaten angelernt wird. Innerhalb der

Trainingsphase kann auch die Topologie des Netzes angepasst werden.

Trainingsdaten zeichnen sich dadurch aus, dass typischerweise zu den

Eingabedaten die gewünschten Ausgabedaten vorliegen. Schließlich folgt eine Anwendungsphase, in der das angelernte Netz auf Eingabedaten angesetzt wird, zu denen es keine gewünschten Ausgabedaten gibt. Die Ausgabedaten des angelernten Netzes stellen dann gemäß der Aufgabenstellung gesuchten Ausgabedaten dar.

Durch den Einsatz von künstlichen neuronalen Netzen lassen sich höher dimensionale Daten effizient in nieder dimensionale Räume abbilden und so auf einfach und schnelle Art und Weise komprimieren.

Unter einem Plausibilitätsmaß ist vorliegend ein Maß zu verstehen, das die Abweichung zwischen den Eingabedaten und den Trainingsdaten repräsentiert. Über dieses Maß kann festgestellt werden, ob die Eingabedaten eine zu den Trainingsdaten passende Verteilung aufweisen.

Das Verfahren gemäß der vorliegenden Erfindung weist den Vorteil auf, dass integral über das ermittelte Plausibilitätsmaß entschieden wird, ob das durch das Verfahren des maschinellen Lernens zu verarbeitende Eingangsdatum der gleichen Verteilung zugeordnet werden kann, wie die ursprünglich eingesetzten Trainingsdaten.

Nach einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung wird das Distanzkriterium mittels einer logarithmischen Plausibilitätsfunktion (eng.: log-likelihood function) des Encoderdatums ermittelt.

Diese Ausführungsform basiert auf der Erkenntnis, dass der Variational

Autoencoder darauf trainiert wird eine komprimierte Repräsentation der multidimensionalen Eingabedaten zu finden. Demnach stellen die Variablen des latenten Merkmalsraums die gewünschte Verteilung dar. Dies führt dazu, dass die Komprimierung von neuen unbekannten Eingabedaten zu Ergebnissen innerhalb der gewünschten Verteilung führen muss, wenn die Eingabedaten der gleichen bzw. einer ähnlichen Verteilung entstammen, wie die Trainingsdaten, mit denen der Variational Autoencoder trainiert wurde. Im Umkehrschluss zeigen Ergebnisse der Komprimierung, die außerhalb der gewünschten Verteilung laden, dass die Eingabedaten einer Verteilung entstammen, die nicht der Verteilung der Trainingsdaten gleicht oder dieser zumindest ähnlich ist. Dies kann ein Anzeichen für eine Verteilungsverschiebung der Eingabedaten sein und wirkt sich auf das Plausibilitätsmaß für die Datenvorhersage des parallel ablaufenden Verfahrens des maschinellen Lernens aus.

Ausgehend von dieser Erkenntnis kann auf eine Rekonstruktion der

komprimierten Eingabedaten verzichtet werden.

Nach einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung wird zur Bestimmung der Plausibilität das ermittelte Distanzkriterium bzw. die Abbildung mittels der logarithmischen Plausibilitätsfunktion (eng.: log-likelihood function) mit einem vorgegebenen Schwellenwert verglichen. Denkbar ist es ebenso anstelle eines vorgegebenen Schwellenwerts eine kontinuierliche Funktion als Plausibilitätsmaß vorzugeben.

Das Distanzkriterium dist kann bestimmt werden z.B. durch die Kullback-Leibler- Divergenz (KL-Divergenz) zwischen der Verteilung im latenten Merkmalsraum (eng.: latent space) und der angenommen Verteilung gegeben durch

KC(£? Q (z|c ί ) ||r(z)). Da der Encoder so trainiert wurde, dass die KL-Divergenz für die Trainingsdaten möglichst klein ist, wird diese für neue Daten ansteigen, sofern diese aus einer anderen Verteilung als die Trainingsdaten stammen. In diesem Fall kann die Konfidenz z.B. berechnet werden durch Konfidenz g- dist( z '| z )t ^ yyobej der Parameter t basierend auf den Trainingsdaten so bestimmt wird, dass auf den Trainingsdaten Werte nahe 1 berechnet werden). Wenn die Distanz dist zwischen neuen Daten und Trainingsdaten steigt, vergrößert sich der Wert dist(z‘|z) und damit sinkt die geschätzte Konfidenz der Ausgabe des Netzes.

Alternativ kann z.B. auch die logarithmische Plausibilitätsfunktion (eng.: log- likelihood function) I benutzt werden. Im Falle einer Normalverteilung mit

Mittelwert m und Varianz s2: 1(m, o 2 , z' it ... , z' n ) = - ΐh(2p) - ΐh(s 2 ) -

- m) 2 , wobei hier n die Anzahl der Dimensionen des latenten Merkmalsraumes ist. Für die Berechnung eines kontinuierlichen Konfidenzwertes muss hier dann ebenfalls basierend auf den Ergebnissen für die Trainingsdaten eine Skalierung vorgenommen werden. Anstatt für m und o 2 die Werte der erwarteten Verteilung zu benutzen, können auch die hier durchschnittlich berechneten Werte auf den Trainingsdaten benutzt werden, falls diese noch stark von den Werten der erwarteten Verteilung abweichen. Die Formel ist dann entsprechend anzupassen.

Diese Ausführungsform führt ein einfaches und leicht einstellbares Kriterium für das Plausibilitätsmaß ein. So kann abhängig von der Anwendung des Verfahrens des maschinellen Lernens der Schwellenwert für das Plausibilitätsmaß angepasst werden.

Nach einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung sind das Verfahren des maschinellen Lernens und der Variational Autoencoder auf der gleichen bzw. auf einer ähnlichen Verteilung der Eingabedaten trainiert.

Nach einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung, ist das Verfahren des maschinellen Lernens ein Verfahren zur

Objektklassifizierung bzw. Objekterkennung.

Das Verfahren kann aus dem Bereich des zumindest teilweise automatisierten Fahrens sein.

Die vorliegende Erfindung eignet sich in besonderem Maße zu der Verwendung in einem Steuerungssystem für ein Aktorsystem. Unter einem Aktorsystem kann vorliegend ein Aktor in seiner Umgebung verstanden werden.

Ein Steuerungssystem nimmt typischerweise über mindestens einen Sensor den Zustand des Aktorsystems, d.h. des Aktors und dessen Umgebung auf und ermittelt entsprechende Ansteuersignale für den Aktor, um das übergeordnete Steuerungsziel zu erreichen.

Zur Ermittlung der entsprechenden Ansteuerungssignale können Sensorsignale des mindestens einen Sensors oder davon abgeleitete Signale, d.h. nachbearbeitete, insbesondere ausgewählte Sensorsignale, einem Verfahren zur Datenvorhersage gemäß der vorliegenden Erfindung zugeführt werden.

Über das Verfahren des maschinellen Lernens des Verfahrens der vorliegenden Erfindung wird (künstliches) Wissen generiert, das zur Steuerung des

Aktorsystems, d.h. das zur Ermittlung entsprechender Ansteuersignale, herangezogen werden kann.

Gemäß der vorliegenden Erfindung wird für dieses Wissen ein Plausibilitätsmaß erzeugt. Dieses Plausibilitätsmaß kann herangezogen werden, um die

Vertrauenswürdigkeit des erzeugten Wissens zu kennzeichnen und

entsprechend dem ermittelten Plausibilitätsmaß das Wissen bei der Ermittlung entsprechender Ansteuersignale zu berücksichtigen. Bspw. das Wissen mit einer anpassten Gewichtung zu berücksichtigen oder, je nach Ausgestaltung, das Wissen als unplausibel zu verwerfen und dementsprechend nicht zu

berücksichtigen.

Das Steuerungssystem kann insbesondere zur Steuerung eines zumindest teilweise automatisiert gesteuerten Roboters eingesetzt werden. Ein solcher zumindest teilweise automatisiert gesteuerte Roboter kann dabei ein zumindest teilweise automatisiert gesteuertes Fahrzeug, insbesondere Kraftfahrzeug, sein.

In einer solchen Ausgestaltung kann es sich bei dem mindestens einen Sensor um einen Umfeldsensor aus dem Automobilbereich, wie bspw. einem Video-, Radar-, Ultraschall-, Lidar-, Positionssensor (bspw. GNSS-Sensor) udgl., handeln. Ferner kann es sich bei dem mindestens einen Sensor um einen Zustandssensor aus dem Automobilbereich, wie bspw. einem Beschleunigungs-, Drehraten-, Druck-, Kraft-, Rotations-, Temperatur-, chemischen Sensor (bspw. Lambda-Sonde) udgl. handeln.

In einer solchen Ausgestaltung kann es sich bei dem Aktor um ein System zur Längs- (Brems-, Antriebssystem) oder Querbeschleunigung (Lenkungssystem) sowie um ein Sicherheitssystem, wie bspw. einem Airbagsystem oder einem System zum Schutz von Verkehrsteilnehmern (bspw. Fußgänger) oder ein Komfortsystem, wie bspw. der Entertainmentanlage, der Klimaanlage, der Fenstersteuerung, der Sitzsteuerung, des Beleuchtungssystems udgl., des Fahrzeugs handeln.

Ein weiterer Aspekt der vorliegenden Erfindung ist ein Computerprogramm, das eingerichtet ist, alle Schritte einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung auszuführen.

Ein weiterer Aspekt der vorliegenden Erfindung ist ein maschinenlesbares Speichermedium, auf dem das Computerprogramm gemäß der vorliegenden Erfindung gespeichert ist.

Zeichnungen

Ein weiterer Aspekt der vorliegenden Erfindung ist eine Vorrichtung, die eingerichtet ist, alle Schritte einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung auszuführen. Dazu weist die Vorrichtung entsprechende Mittel auf, um die jeweiligen Schritte des Verfahrens auszuführen. Bei diesen Mitteln kann es sich um entsprechend gestaltete bzw. eingerichtete Schnittstellen zur Ein- und Ausgabe, Recheneinheiten (Prozessoren, Mikroprozessoren, ASIC udgl.) und Speichereinheiten (RAM, ROM etc.) handeln.

Zeichnungen

Weitere Merkmale und Vorteile der Aspekte der vorliegenden Erfindung werden nachfolgend anhand von Ausführungsformen mit Bezug auf die Figuren erläutert.

Es zeigen:

Fig. 1 eine schematische Darstellung eines Autoencoders;

Fig. 2 eine schematische Darstellung einer Datenvorhersage gemäß der vorliegenden Erfindung;

Fig. 3 ein Ablaufdiagramm einer Ausführungsform eines Verfahrens gemäß der

vorliegenden Erfindung. Figur 1 zeigt eine schematische Darstellung eines Variational Autoencoders 1.

Ein Variational Autoencoder 1 weist einen Encoder-Teil 11 und einen Decoder- Teil 12 auf. Der Encoder-Teil 11 q Q (z |x) bildet Eingabedaten x eines ersten Merkmalsraums (feature space) auf einen kleineren Merkmalsraum (smaller feature space) z ab. Der kleinere Merkmalsraum z wird latenter Raum (latent space) genannt. Dazu kann bspw. ein künstliches neuronales Netz eingesetzt werden. Für diese Aufgabe muss der Encoder-Teil 11 trainiert werden, um die Parameter 0 zu ermitteln, die erforderlich sind, um die Eingabedaten x beim Abbilden auf den kleiner dimensionalen latenten Raum z effizient und entsprechend einer vorgegebenen Verteilung p zu komprimieren. Im Decoder- Teil 12 r f (c|z) werden die komprimierten Eingabedaten aus dem kleiner dimensionalen latenten Raum z in den Merkmalsraum mit der ursprünglichen Dimensionsgröße mittels den erlernten Parametern F rekonstruiert.

Zum Training eines Variational Autoencoders 1 wird die nachstehende

Verlustfunktion minimiert:

Dabei ist N die Anzahl der für das Training verwendeten Datenpunkte. KL(S) ist die Kullback-Leibler-Divergenz. p(-) ist die vorgegebene Verteilung,

typischerweise die Standard Normalverteilung. Der erste Term ist die erwartete negative logarithmische Plausibilitätsfunktion (eng.: expected negative log- likelihood function) des i-ten Datenpunkts. Der Term fördert den Decoder die Eingangsdaten korrekt zu rekonstruieren. Der zweite Term berechnet die Kullback-Leibler-Divergenz zwischen der Verteilung des Encoders und der vorgegebenen Verteilung.

Figur 2 zeigt eine schematische Darstellung einer Datenvorhersage gemäß der vorliegenden Erfindung. In der Darstellung werden Eingabedaten y sowohl einer Funktion des maschinellen Lernens 2 als auch einem Variational Autoencoder 10 gemäß der vorliegenden Erfindung zugeführt. Während die Funktion des maschinellen Lernens 2 die Eingabedaten gemäß ihrem Modell verarbeitet und eine entsprechende Datenvorhersage erfolgt. Werden die Eingabedaten y mittels des Variational Autoencoders 10 im Encoder-Teil 11 des Variational

Autoencoders 10 auf den latenten Merkmalsraum z‘ abgebildet. Ferner liegt der Erfindung die gelernte Verteilung des Encoder-Teils 11 in Form einer Datenquelle 24 vor. Die Datenquelle 24 kann bspw. eine Datenbank oder ein geeigneter Datenspeicher sein. In Abhängigkeit von den abgebildeten Daten z‘ und der gelernten Verteilung z wird ein Distanzkriterium 22 ermittelt. Auf Basis des ermittelten Distanzkriteriums 22 wird ein Plausibilitätsmaß 23 für die

Datenvorhersage des Verfahrens des maschinellen Lernens 2 bestimmt bzw. eine Plausibilitätsprüfung der Datenvorhersage durchgeführt.

In der dargestellten Ausführungsform ist der Variational Autoencoder 10 parallel zu der Funktion des maschinellen Lernens 2 dargestellt. Es ist ebenso denkbar, dass der Variational Autoencoder 10 ganz oder teilweise in die Funktion des maschinellen Lernens 2 intergiert ist. Das bedeutet, dass ein Teil der Funktion des maschinellen Lernens 2 (bspw. ein Merkmalsextraktor) verwendet wird, um die Merkmale für den Variational Autoencoder 10 zu extrahieren.

Figur 3 zeigt ein Ablaufdiagramm einer Ausführungsform eines Verfahrens gemäß der vorliegenden Erfindung. Das Verfahren beginnt im Schritt 301. In Schritt 302 erfolgt eine Datenvorhersage für Eingabedaten y mittels einer Funktion des maschinellen Lernens 2. Parallel zu der Datenvorhersage erfolgt die Abbildung 303 der Eingabedaten y auf den latenten Merkmalsraum z‘ des Variational Autoencoders 10 gemäß der vorliegenden Erfindung. In Schritt 304 wird ein Distanzkriterium 23 in Bezug auf die komprimierten Eingabedaten z‘ und die gelernte Verteilung z des Encoder-Teils 11 des Variational Autoencoders 10 gemäß der vorliegenden Erfindung ermittelt. Dieses Distanzkriterium 22 repräsentiert ein Plausibilitätsmaß 23 für die Datenvorhersage basierend auf den Eingabedaten y mittels der Funktion des maschinellen Lernens 2. In Schritt 305 kann die Ausgabe der vorhergesagten Daten zusammen bzw. in Abhängigkeit des Plausibilitätsmaßes 23 bzw. abhängig von dem Ergebnis einer

Plausibilitätsprüfung basierend auf dem ermittelten Distanzkriterium 22 erfolgen.