Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR PROCESSING DATA
Document Type and Number:
WIPO Patent Application WO/2013/182681
Kind Code:
A1
Abstract:
The invention relates to a method for processing data with parameters of a vehicle, powertrain, or powertrain component of different origins. The method has the steps of reading the data and carrying out a statistical analysis in order to ascertain the minimum and maximum axis values of the data corresponding to the same parameters. The data is subsequently converted and compressed into a standard format, and the data corresponding to the same parameters is provided with standard axes and the same number of interpolation nodes, wherein the initial and end value of the axes result from the minimum and maximum axis values. The data prepared in this manner can then undergo further processing.

Inventors:
STORFER GERHARD (AT)
THAMERL STEFAN (AT)
SCHUCH NIKOLAS (AT)
Application Number:
PCT/EP2013/061796
Publication Date:
December 12, 2013
Filing Date:
June 07, 2013
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
AVL LIST GMBH (AT)
International Classes:
G05B13/02
Foreign References:
DE102007021592A12008-08-07
Other References:
None
Attorney, Agent or Firm:
WEISS, Christian et al. (AT)
Download PDF:
Claims:
Patentansprüche

1 . Verfahren zur Verarbeitung von Daten mit Parametern eines Fahrzeugs, Triebstranges oder einer Triebstrangkomponente unterschiedlicher Herkunft, umfassend

- das Auslesen von aus früheren Kalibrierungen von Fahrzeugen, Triebsträngen oder

Triebstrangkomponenten gewonnenen Daten aus einer Datenbank

die Durchführung einer statistischen Analyse zur Ermittlung der minimalen und maximalen Achsenwerte der zu gleichen Parametern eines Fahrzeugs, Triebstranges oder einer Triebstrangkomponente gehörigen Daten,

- die Umwandlung und Komprimierung der aus früheren Kalibrierungen von Fahrzeugen, Triebsträngen oder Triebstrangkomponenten gewonnenen Daten in ein einheitliches Format,

das Versehen der zu gleichen Parametern eines Fahrzeugs, Triebstranges oder einer Triebstrangkomponente gehörigen Daten mit einheitlichen Achsen und gleicher Anzahl an Stützstellen, wobei sich der Start- und Endwert der Achsen aus den minimalen und maximalen Achsenwerten ergibt, und

die Verwendung der derart umgewandelten Daten als Basis für eine nachfolgende Verarbeitung.

2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Daten in Bezug auf deren Achsen normalisiert werden.

3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass eine Anzahl von Stützstellen für die Achsen festgelegt wird und diese Anzahl von Stützstellen über den Achsenbereich gleichverteilt werden.

4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Mi- nimum der jeweiligen Daten auf die Nulllinie verschoben wird.

5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Daten auf einen festgelegten Bereich, vorzugsweise Null bis 232-2, skaliert werden.

6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Daten in ein Zahlensystem zur Basis 64 übergeführt werden.

7. Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass die normalisierten Daten mit einer Prüfsumme hinterlegt werden.

8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass für einen Parameter ein Reifegrad bestimmt wird.

9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass Parameter mit einem Reifegrad unterhalb einer bestimmten Grenze ausgefiltert werden.

10. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die umgewandelten Daten zur Kalibrierung eines Fahrzeugs, Triebstranges oder Triebstrang- komponente verwendet werden.

1 1 . Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die umgewandelten Daten zur Bewertung der aus früheren Kalibrierungen gewonnenen Daten verwendet werden.

Description:
Verfahren zur Verarbeitung von Daten

Die Erfindung betrifft ein Verfahren zur Verarbeitung von Daten mit Parametern eines Fahrzeugs, Triebstranges oder einer Triebstrangkomponente unterschiedlicher Herkunft, umfas- send das Auslesen von aus früheren Kalibrierungen von Fahrzeugen, Triebsträngen oder Triebstrangkomponenten gewonnenen Daten aus einer Datenbank.

Aus Test- und Prüfläufen von Fahrzeugen oder deren Teilsystemen fällt eine enorme Menge von Kalibrierdaten an, die jedoch im Moment völlig unabhängig zueinander gespeichert und nicht miteinander in Relation gebracht werden. Daher kann indirekt in diesen historischen Datenständen gespeichertes Wissen nicht genutzt werden.

Beispiele für sogenanntes„Data Mining" zur Auswertung von historischen Daten sind etwa die Extraktion/Ranking bei Suche durch Suchmaschinen, die Klassifizierung in Spamfiltern, die Warenkorbanalyse bei Online-Warenhäusern, aber auch die Mängelbehebung von Schadensfällen bei Autobauern.

Die Problematik des„Data Mining" speziell im Bereich der Kalibrierdaten, z.B. für die Entwicklung bzw. Kalibrierung eines Motorsteuergeräts eines Verbrennungsmotors, eines Fahrzeugs, Triebstranges oder einer Triebstrangkomponente, wird aus folgendem Beispiel deutlich:

Ein Datenstand beinhaltet zwischen 15.000 und 30.000 verschieden Label (Parameter). Pro Entwicklungsprojekt gibt es ca. 100 Datenstände für jede Fahrzeug / Motor / Getriebe - Variante (Ausprägung). Wird außerdem noch die zeitliche Abhängigkeit berücksichtigt, dann ergibt dies bei einem einzigen Projekt, welches über zwei Jahre läuft, eine Anzahl von ca. 300 Mio. Label (30.000 Label * 100 Varianten * 50 Wochen * 2 Jahre).

Kalibirierung eines Fahrzeugs, Triebstranges oder einer Triebstrangkomponente bedeutet allgemein, dass alle Motorparameter, Steuerparameter, Karosserieparameter, Triebstrangparameter, Steuergeräteparameter, etc., die sich auch gegenseitig beeinflussen können, so konfiguriert werden, dass das Fahrzeug, der Triebstrang oder eine Triebstrangkomponente einwandfrei läuft. Kalibrierung bedeutet auch, dass der Verbrennungsmotor so eingestellt wird, insbesondere durch Steuerparameter im Motorsteuergerät, dass die Verbrennung op- timal durchgeführt wird und die Abgaswerte einer Gesetzesrichtlinie entsprechen. Z.B. muss ein neuer Motor, der vom Fließband geliefert wird, mittels einer Steuereinheit geregelt werden, d.h. es müssen Zündzeitpunkte, Einspritzmenge an Brennstoff, Zündwinkel, etc. optimal aufeinander abgestimmt sein, so dass für den Motor kein Schaden entsteht und doch das maximal mögliche an Energie bei minimalen Abgaswerten rausgeholt wird. Kalibrierung be- deutet auch, dass das Fahrgefühl vermittelt wird, das für das Fahrzeug gewünscht wird. Kalibrierung bedeutet auch, dass das Ansprechverhalten des Fahrzeugs, Triebstranges oder l einer Triebstrangkomponente, also z.B. wenn der Fahrer auf das Gaspedal oder Bremspedal steigt, ausgewogen ist. Auch das vermittelt einen Eindruck über die Menge an Parametern und damit verbundenen Daten, die bei einer solchen Kalibrierung anfallen.

Herkömmliche Vergleiche oder Auswertungen scheitern an der großen Datenmenge, an ei- ner fehlenden Visualisierung und an leistungsfähigen Vergleichen. Die aktuell verfügbaren Algorithmen (>200) für„Data Mining" scheitern an Kennlinien (2D) bzw. Kennfeldern (3D), die einen wesentlichen Bestandteil insbesondere von Kalibrierdaten bilden.

Die Aufgabe der vorliegenden Erfindung war es daher, aus Daten mit Parametern eines Fahrzeugs, Triebstranges oder einer Triebstrangkomponente beliebiger Herkunft und in be- liebigem Format technisch relevantes Wissen zu extrahieren und für die weitere Anwendung bereitzustellen.

Zur Lösung dieser Aufgabe ist das eingangs beschriebene Verfahren dahingehend verbessert, dass zuerst eine statistische Analyse zur Ermittlung der minimalen und maximalen Achsenwerte der zu gleichen Parametern gehörigen Daten durchgeführt wird, danach die Daten in ein einheitliches Format umgewandelt und komprimiert werden, die zu gleichen Parametern gehörigen Daten mit einheitlichen Achsen und gleicher Anzahl an Stützstellen versehen werden, wobei sich der Start- und Endwert der Achsen aus den ermittelten minimalen und maximalen Achsenwerten ergibt, und die derart umgewandelten Daten als Basis für eine nachfolgende Verarbeitung verwendet werden. Damit können vorteilhafterweise allfällige Korrelation zwischen Parameter der Daten aufgezeigt werden, es kann eine Vorbedatung von neuen Projekten auf Basis historischer Informationen durchgeführt werden, ein Clus- tering bzw. die Gruppierung von Parametern kann erfolgen (Label A hat immer dieselben Werte in Variante A,B,C), es gibt die Möglichkeit für Zeitreihenanalysen (Aussagen über Termin, Aufwand und Qualität eines Datenstandes), für Plausibilitätskontrolle und/oder Feh- lererkennung (Ist der Wert eines Parameters plausibel im Zusammenhang mit historischen Datenständen), als auch eine Kalibrierprozessoptimierung durch Aufdecken von Schwachstellen im Prozess kann durchgeführt werden. Um die Parameterdaten vergleichbar zu machen, werden die zu gleichen Parametern gehörigen Daten mit einheitlichen Achsen und gleicher Anzahl an Stützstellen versehen. Damit - und in weiter verbesserten Ausführungs- formen wie nachfolgend erläutert - kann der Vergleich unabhängig von Typ/Einheit/Achse der Parameter der Daten weniger aufwendig und rascher durchgeführt werden.

Vorzugsweise werden dazu die Daten in Bezug auf die Achsen normalisiert, vorteilhafterweise indem eine Anzahl von Stützstellen für die Achsen festgelegt wird und diese Anzahl von Stützstellen über den Achsenbereich gleichverteilt werden.

Eine weitere vorteilhafte Ausführungsvariante sieht vor, dass das Minimum der jeweiligen, vorzugsweise normalisierten Daten auf die Nulllinie verschoben wird. Dabei kann eine weitere Vereinfachung und damit schneller Verarbeitung dadurch erreicht werden, dass die Daten auf einen festgelegten Bereich, vorzugsweise Null bis 2 32 -2 skaliert werden.

Durch das weitere optionale Merkmal, dass die Daten in ein Zahlensystem zur Basis 64 übergeführt werden, ergibt sich eine Einsparung an notwendigem Speicherplatz.

Eine weitere vorteilhafte Ausführungsform der Erfindung ist dadurch gekennzeichnet, dass die normalisierten Daten mit einer Prüfsumme hinterlegt werden, wodurch ein schnellerer Vergleich ermöglicht ist.

Eine weitere optionale Möglichkeit sieht vor, dass für einen Parameter ein Reifegrad ermittelt wird. Damit können unterschiedliche Analysen anhand des Reifegrades durchgeführt werden. Z.B. können Parameter mit zu geringem Reifegrad ausgefiltert werden. Oder es kann die zeitliche Entwicklung der Reifegrade analysiert werden. Ebenso kann für eine Gruppe von Parameter ein Gesamtreifegrad bestimmt werden. Damit können sowohl eine Datenreduktion als auch die Steigerung der Qualität der Daten erzielt werden.

In der nachfolgenden Beschreibung soll die Erfindung anhand der beigefügten Zeichnungen und am Beispiel von Kalibrierdaten noch näher erläutert werden.

Dabei zeigen die Fig. 1 a bis 1 c beispielhaft ein-, zwei- und dreidimensionale Kalibrierdaten, und die Fig. 2a und 2b zeigen zwei Diagramme zur Verdeutlichung von Aussagen über die Qualität von Kalibrierdaten auf Grund der Änderungen über die Zeit.

Aus einer großen Menge von Kalibrierdaten, welche wie in den Fig. 1 a bis 1 c beispielhaft gezeigt ist, in unterschiedlicher Dimensionalität vorliegen können, sollen in möglichst einfacher Weise Information gewonnen und für aktuelle Datenstände genutzt werden. Ein herkömmlicher Vergleich ist oftmals nicht möglich, da er sehr zeitintensiv wäre und sich die Kalibrierdaten außerdem hinsichtlich der Dimension, der Achsenwerte, der Anzahl der Stütz- stellen und Einheiten unterscheiden können. Daher werden die aus einer Beschreibungsdatei und einem Datenteil bestehenden Kalibrierdaten in einem ersten Schritt nur aus der Datenbank ausgelesen, in das erfindungsgemäße System eingelesen und es wird eine grundlegende statistische Analyse durchgeführt. Üblicherweise sind Daten eines Motorsteuergeräts in Form einer Datendatei (hex-File) und einer Beschreibungsdatei (A2l-File) abgelegt. In diesen Dateien befinden sich alle relevanten Informationen über den in Form eines Kennfeldes oder einer Kennlinie vorliegenden Parameter. Die Beschreibungsdatei dient als Beschreibung für die Datendatei, wobei die beiden immer ein Paar bilden. Daher werden bei der Analyse von Kalibrierdaten sowohl Beschreibungsdatei, als auch Datendatei aus der Datenbank gelesen. Bei anderen Daten kann das Einlesen einer Datendatei ausreichen. Die statistische Analyse umfasst zumindest eine Minimum/Maximum-Analyse und die Ermittlung eines„Reifegrades" anhand bestimmter Marker. Der Reifegrad für einen Parameter (Label) wird dabei vom Anwender festgelegt, z.B. aus Erfahrung oder Projektstand. Der Reifegrad kann z.B. als Wert zwischen Null und Eins angegeben werden oder auch als Prozen- tangabe. Üblich sind z.B. Schritte von 0, 25, 50 oder 100% Reifegrad. Aus diesen Reifegraden kann ein Gesamtreifegrad für eine Gruppe von Labels bestimmt werden, z.B. durch Addieren der einzelnen Reifegrade der zugehörigen Labels.

Anschließend wird in einem nächsten Schritt eine Umwandlung und Komprimierung des Datenteils der Kalibrierdaten in ein einheitliches Format durchgeführt. Dazu werden die gleichen Parameter mit einheitlichen Achsen und derselben Anzahl an Stützstellen versehen. Gleiche Parameter können in unterschiedlichen Datenständen unterschiedliche Achsen und Anzahl an Stützstellen haben. Z.B. ein Label A im Datenstand 1.0 Achse von 0-1000 und 8 Stützstellen und dasselbe Label A im Datenstand 1 .1 eine Achse von 50-909 und 17 Stützstellen. Zusätzliche Stützstellen können z.B. durch Interpolation gewonnen werden. Dabei ergibt sich der Start- bzw. Endwert für die Achsen aus den minimalen bzw. maximalen Achsenwerten aller gleichen Labels, die aus der statistischen Analyse erhalten werden. Die Anzahl der Stützstellen kann vorteilhafterweise statisch auf einen bestimmten Wert, beispielsweise 25, festgelegt werden. Danach werden dann die Parameterwerte passend zu den neuen Achsen normalisiert. Dazu können die die festgelegte Anzahl der Stützstellen auf den Achsbereich (minimaler und maximaler Achsenwert) gleichverteilt werden. Durch diese Verarbeitung ist nun erstmals ein performanter Vergleich möglich, der unabhängig von den ursprünglichen Achsen, Typen und/oder Einheiten ist.

Da man es üblicherweise mit einer enorm großen Menge an Daten zu tun hat, werden gemäß einer vorteilhaften Weiterführung der Erfindung diese Daten vor dem Einfügen in die Datenbank noch weiterverarbeitet, um Speicherplatz zu sparen. Zuerst werden die Werte so verschoben, dass das Minimum genau am Nullpunkt liegt und man nur mit positiven Werten arbeiten muss. Schließlich erfolgt noch eine Skalierung der Parameterwerte, sodass nur mehr Ganzzahlen von 0 bis 2 32 -2 vorliegen. Dazu wird z.B. ein Faktor festgelegt, mit dem die Parameterwerte multipliziert werden, um zu den Ganzzahlen zu kommen.

Über die normalisierten und skalierten Werte jedes Parameters wird vorzugsweise auch eine Prüfsumme (z.B. CRC32) erstellt. Diese eindeutige Prüfsumme ermöglicht die Prüfung von Gleichheit von zwei Kennfeldern (3D) oder Kennlinien (2D) mit nur einem einzigen Befehl und es erlaubt auch die Clusterung von Werten.

Dabei kann als weiterer Schritt noch vorgesehen sein, diese Ganzzahlen in ein eigenes Zah- lensystem überzuführen, was nachfolgend noch genauer beschrieben wird. Es sei zuvor noch erwähnt, dass es bei den Parameterdaten einige Kennlinien (2D) bzw. Kennfeldern (3D) gibt, die immer denselben Wert haben. Dies wäre eine Gerade bzw. eine ebene Fläche. In diesem Fall wird nur ein einziger z-Wert gespeichert, da sich dieser immer wiederholt, was unnötigen Speicherverbrauch vermeiden lässt.

Zu weniger Speicherplatzbedarf trägt auch die Umwandlung der Daten in ein Zahlensystem mit gegenüber dem Dezimalsystem größerer Anzahl an Zeichen, vorzugsweise aus 64 Zeichen, bei. Derartige Zahlensysteme verbrauchen im Vergleich zum Dezimalsystem weniger Speicher, da große Zahlen mit weniger Zeichen dargestellt werden können. Vorzugsweise wird die Basis 64 gewählt, weil die Umrechnung zwischen Dezimal-System und einem Zahlensystem zur Basis 2 n mit schnellen Bitshifting-Operationen durchgeführt werden kann (sie- he Tabelle 1 ).

Tabelle 1 :

Die umgewandelten und komprimierten Daten werden vorzugsweise in einem„Data- warehouse" zentral abgelegt und ermöglichen die schnelle Generierung komplexer Analy- sen. Ein Beispiel dafür ist in den Fig. 2a und 2b erläutert. In der Fig. 2a ist über die Zeit die Häufigkeit und/oder das Ausmaß von Veränderungen in den Kalibrierdaten aufgetragen. Erkennbar ist, dass nach einer Anlaufphase des jeweiligen Projektes in den frühen Phasen starke Veränderungen stattfinden, bis schließlich zu Ende des Projektes nur mehr geringe Anpassungen, das„Fine Tuning", erfolgen. Wenn sich also bei einer Analyse von Kalibrier- daten ein Diagramm wie in Fig. 2b ergibt, das einen genau gegenteiligen Änderungsverlauf zeigt, kann daraus auf schlechten Projektablauf und/oder fehlerhafte Daten rückgeschlossen werden.

Um die Datenmengen zu reduzieren und zwecks Verbesserung der Datenqualität wird der Reifegrad jedes Labels herangezogen. Der Reifegrad wird für jedes Label angegeben und liegt zwischen 0% (initial) und 100% (fertig). Bei der Erstellung des oben bereits angesprochenen„Datawarehouse" kann eine Art Filterung erfolgen, in dem nur jene Labels herangezogen werden, welche einen Reifegrad > n% besitzen. Auch kann eine Gewichtung mittels des Reifegrades erfolgen. Dabei werden etwa bei der Erstellung eines Reports oder einer Auswertung jene Labels mit einem höheren Reifegrad bevorzugt behandelt.

Für die Erkennung von Ausreißern sowie für die Darstellung der Verteilungsfunktion (siehe Abbildung: Normalverteilungskurve) werden jene Labels mit einem Score=0% nicht berücksichtigt.