Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
COMPUTER-IMPLEMENTED METHOD AND SYSTEM FOR DETECTING ANOMALIES DURING THE OPERATION OF A TECHNICAL DEVICE
Document Type and Number:
WIPO Patent Application WO/2023/237205
Kind Code:
A1
Abstract:
Computer-implemented method for processing a set of computing tasks by means of a system, comprising at least one first computing apparatus (ELC1-ELCN) and at least two second computing apparatuses (EAC1-EACN), wherein the following steps are carried out: i) determining a weight function (w11-w13, wN1-wN3) for each computing task from the set of computing tasks between the at least one first computing apparatus (ELC1-ELCN) and the at least two second computing apparatuses (EAC1-EACN), ii) determining the execution capacity with regard to communication, storage and execution properties of the at least two second computing apparatuses (EAC1-EACN), iii) sorting the previously determined weight functions (w11-w13, wN1-wN3), and determining a subset of the sorted weight functions that are within a predetermined range of values of the determined execution capacity, iv) distributing the subset of computing tasks assigned to the subset of sorted weight functions to the at least two second computing apparatuses (EAC1-EACN), executing the subset of computing tasks and deleting the associated weight function, v) increasing the sequence factor for the computing tasks which were not distributed in the preceding step on account of the execution capacity, vi) continuing with step ii) as long as there are weight functions, and otherwise terminating the method.

Inventors:
SCHALL DANIEL (AT)
Application Number:
PCT/EP2022/065756
Publication Date:
December 14, 2023
Filing Date:
June 09, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SIEMENS AG OESTERREICH (AT)
International Classes:
G06F9/50; G06N3/0464; G06N3/088
Domestic Patent References:
WO2021050790A12021-03-18
Foreign References:
US20090254914A12009-10-08
EP0652513A11995-05-10
Other References:
JINWON AN ET AL: "SNU Data Mining Center 2015-2 Special Lecture on IE Variational Autoencoder based Anomaly Detection using Reconstruction Probability", 27 December 2015 (2015-12-27), XP055688241, Retrieved from the Internet
Attorney, Agent or Firm:
MAIER, Daniel (DE)
Download PDF:
Claims:
Patentansprüche

1 . Computer-implementiertes Verfahren zur Bearbeitung einer Menge an Rechenaufgaben durch ein System, umfassend zumindest eine erste Rechenvorrichtung (ELC1-ELCN) und zumindest zwei zweite Rechenvorrichtungen (EAC1-EACN) , j eweils mit einem Prozessor und einem Speicher, wobei die zumindest eine erste Rechenvorrichtung (ELC1-ELCN) mit den zumindest zwei zweiten Rechenvorrichtungen (EAC1-EACN) durch j eweilige Kommunikationsverbindungen verbunden sind und folgende Schritte ausgeführt werden : i ) Bestimmen j eweils einer Gewichts funktion (wl l-wl 3 , wNl-wN3 ) für j ede Rechenaufgabe aus der Menge an Rechenaufgaben zwischen der zumindest einen ersten Rechenvorrichtung (ELC1-ELCN) und den zumindest zwei zweiten Rechenvorrichtungen (EAC1-EACN) , wobei die Gewichts funktion aufweist :

• eine Priorität der Rechenaufgabe ,

• einen Kommunikations-Parameter bezüglich der Kommunikations Verbindung,

• einen Reihungs faktor für die Bearbeitung der Rechenaufgabe , vorzugsweise beginnend bei null ,

• einen Speicher-Parameter für den benötigten Speicherbedarf bei der Aus führung der Rechenaufgabe ,

• einen Aus führungs-Parameter für den benötigten Rechenbedarf bei der Aus führung der Rechenaufgabe , ii ) Ermitteln der Aus führungskapazität hinsichtlich Kommunikations- , Speicher- und Aus führungs-Eigenschaften der zumindest zwei zweiten Rechenvorrichtungen (EAC1- EACN) , iii ) Sortieren der zuvor bestimmten Gewicht funktio- nen (wl l-wl 3 , wNl-wN3 ) , und Festlegen einer Teilmenge der sortierten Gewichts funktionen, welche innerhalb eines vorbestimmen Wertebereichs der ermittelten Ausführungskapazität liegen, iv) Verteilen der Teilmenge der Rechenaufgaben, welche der Teilmenge der sortierten Gewichts funktionen zugeordnet ist , an die zumindest zwei zweiten Rechenvorrichtungen (EAC1-EACN) , Aus führen der Teilmenge an Rechenaufgaben und Löschen der zugehörigen Gewichtsfunktion, v) Erhöhen des Reihungs faktors für die Rechenaufgaben, die im vorhergehenden Schritt aufgrund der Aus führungskapazität nicht verteilt wurden, vi ) Solange Gewichts funktionen vorliegen, Fortsetzen mit Schritt ii ) , sonst Beenden .

2 . Verfahren nach dem vorhergehenden Anspruch, wobei j eweils die Gewichts funktion bestimmt wird, indem die Priorität , der Kommunikations-Parameter und der Reihungs faktor j eweils in einem Wertebereich zwischen 0 und 1 liegen und deren Summe einen Rechen-Parameter bilden, und der Speicher- Parameter und der Aus führungs-Parameter j eweils in einem Wertebereich zwischen 0 und 1 liegen und deren Summe einen Berechnungs-Parameter bilden, und die Di f ferenz von Rechen- Parameter und Berechnungs-Parameter die Gewichts funktion bilden .

3 . Verfahren nach dem vorhergehenden Anspruch, wobei nach Schritt i ) geprüft wird, ob die j eweilige Gewichts funktion gleich null ist , und falls j a, die zugehörige Rechenaufgabe in Teil-Rechenaufgaben unterteilt wird und die Teil- Rechenaufgaben der Menge an Rechenaufgaben hinzugefügt wird und die aktuelle Rechenaufgabe aus der Menge an Rechenaufgaben entfernt wird und das Verfahren mit Schritt i ) fortgesetzt wird .

4 . Verwendung der Verfahrens nach einem der vorhergehenden Ansprüche zur Anomalie-Erkennung beim Betrieb eines techni- sehen Geräts ( TD1 ) , welches von einem Klienten-Server-

System ( CSS ) mit einem Server ( S ) und einen Klienten (Kl ) mit der zumindest einen ersten Rechenvorrichtung (ELC1-ELCN) betrieben wird und zusätzlich folgende Verfahrens-Schritte ausgeführt werden : a ) Erfassen aus dem Betrieb des technischen Geräts ( TD1 ) und Bereitstellen von ersten Trainings-Daten ( DT ) vom Klienten (Kl ) an den Server ( S ) , Erzeugen und Trainieren eines ersten Modells in Form eines Auto-Encoders durch den Server, und Bereitstellen des ersten Modells in Form von ersten Gewichten vom Server ( S ) an den Klienten (Kl ) , sowie Laden und Speichern des ersten Modells in der zumindest einen ersten Rechenvorrichtung (ELC1-ELCN) , b ) Erfassen von Betriebs-Daten des technischen Geräts ( TD1 ) und Bestimmen einer Anomalie-Kenngröße hinsichtlich der Übereinstimmung mit dem ersten Modell durch die zumindest eine erste Rechenvorrichtung (ELC1-ELCN) , c ) Prüfen, ob die Anomalie-Kenngröße innerhalb eines vorbestimmten Werte-Bereichs liegt , wenn j a, fortfahren mit Schritt b ) , sonst fortfahren mit Schritt d) , d) Bereitstellen der ersten Modell-Gewichte des Auto- Encoders und Speichern mit der Anomalie-Kenngröße im Speicher durch die zumindest eine erste Rechenvorrichtung (ELC1-ELCN) , e ) Prüfen, ob eine vorbestimmte Anzahl an gespeicherten ersten Modell-Gewichte des Auto-Encoders für j eweilige Anomalie-Kenngrößen erreicht ist , wenn j a, dann Fortfahren mit Schritt b ) , sonst Fortfahren mit Schritt f ) , f ) Übermitteln der gespeicherten ersten Modell-Gewichte für j eweilige Anomalie-Kenngrößen an die zumindest zwei zweiten Rechenvorrichtungen (EAC1-EACN) , welche vom Klienten (Kl ) umfasst ist und Berechnen eines zweiten Modells in Form eines Auto-Encoders mit zweiten Modell-Gewichten durch Bestimmen der Inferenz durch eine der zumindest zwei zweiten Rechenvorrichtungen (EAC1-EACN) , g) Übermitteln der zweiten Modell-Gewichte des zuvor berechneten zweiten Modells an die zumindest eine erste Rechenvorrichtung (ELC1-ELCN) , und Löschen der im Schritt f ) übermittelten ersten Modell-Gewichte aus dem Speicher der zumindest einen ersten Rechenvorrichtung (ELC1-ELCN) , und Fortfahrten mit Schritt b ) ,

5. Verwendung nach dem vorhergehenden Anspruch, wobei die Anomalie-Kenngröße der Rekonstruktions-Fehler des Auto- Encoders ist .

6. Verwendung nach einem der Ansprüche 4 oder 5 , wobei die Größe der Speicherbelegung des Speichers der zumindest einen ersten Rechenvorrichtung (ELC1-ELCN) zum Speichern der im Schritt e ) vorbestimmte Anzahl an gespeicherten ersten Modell-Gewichte des Auto-Encoders proportional zur Bandbreite der Kommunikations-Verbindung ( C ) zwischen der zumindest einen ersten Rechenvorrichtung (ELC1-ELCN) und der zumindest zwei zweiten Rechenvorrichtungen (EAC1-EACN) vorgesehen ist .

7 . Verwendung nach einem der Ansprüche 4 bis 6 , wobei die im Schritt f ) berechneten zweiten Modell-Gewichte vom Klienten (Kl ) dem Server ( S ) bereitgestellt werden, und das Klien- ten-Server-System vorzugsweise einen weiteren Klienten (K2 ) mit einem weiteren technischen Gerät ( TD2 ) aufweist und der Server ( S ) dazu eingerichtet ist , die zweiten Modell-Gewichte dem weiteren Klienten (K2 ) durch föderiertes Lernen bereitzustellen .

8 . Rechen-System zur Bearbeitung einer Menge an Rechenaufgaben, umfassend zumindest eine erste Rechenvorrichtung (ELC1-ELCN) und zumindest zwei zweite Rechenvorrichtungen (EAC1-EACN) , j eweils mit einem Prozessor und einem Speicher, wobei die zumindest eine erste Rechenvorrichtung (ELC1- ELCN) j eweils mit den zumindest zwei zweiten Rechenvorrichtungen (EAC1-EACN) durch eine Kommunikationsverbindung verbunden ist und das Rechen-System dazu eingerichtet ist , das Verfahren nach einem der Ansprüche 1 bis 3 aus zuführen . 9. Computerprogramm, umfassend Befehle , welche bei deren

Aus führung durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 3 aus zuführen .

10 . Elektronisch lesbarer Datenträger mit darauf gespeicherten lesbaren Steuerinformationen, welche zumindest das Compu- terprogramm nach dem vorhergehenden Anspruch umfassen und derart ausgestaltet sind, dass sie bei Verwendung des Datenträgers in einer Recheneinrichtung das Verfahren nach einem der Ansprüche 1 bis 3 durchführen .

11 . Datenträgersignal , welches das Computerprogramm nach An- spruch 9 überträgt .

Description:
Computer- Implementiertes Verfahren und System zur Anomalie- Erkennung beim Betrieb eines technischen Geräts

Die Erfindung betri f ft ein computer-implementiertes Verfahren und ein Rechen-System zur Bearbeitung einer Menge an Rechenaufgaben durch ein System, umfassend zumindest eine erste Rechenvorrichtung und zumindest zwei zweite Rechenvorrichtungen, j eweils mit einem Prozessor und einem Speicher, wobei die zumindest eine erste Rechenvorrichtung mit den zumindest zwei zweiten Rechenvorrichtungen durch j eweilige Kommunikationsverbindungen verbunden sind .

Die Erfindung betri f ft auch eine Verwendung des Verfahrens zur Anomalie-Erkennung beim Betrieb eines technischen Geräts .

Ferner betri f ft die Erfindung ein Computerprogramm, einen elektronisch lesbaren Datenträger und ein Datenträgersignal .

Typische Systeme künstlicher Intelligenz ( kurz „KI" ) passen Modelle des maschinellen Lernens ( kurz „ML" ) nur sehr langsam an neue Daten oder Umgebungsänderungen an . Der typische ML- Lebens zyklus umfasst drei Phasen : i ) Datenerfassung und Datenaufbereitung, ii ) Modellerstellung und iii ) Modellbereitstellung und Inferenz .

Das Schließen von Daten auf (hypothetische ) Modelle wird als statistische Inferenz bezeichnet .

ML-Modelle können sich j edoch häufig nicht schnell an Live- Daten oder neue Eingabedaten anpassen .

Ferner sind nicht alle Daten in einem Cloud-Edge-Kontext in der Cloud verfügbar . Das Senden aller Daten an die Cloud umgeht den Vorteil des Edge-Computing .

In einem Klienten-Server-System liegt eine Rechenvorrichtung mit einem Prozessor und einem Speicher an der Edge . Außerdem verfügen Edge-Geräte häufig nicht über ausreichende Fähigkeiten, um ein vollständiges Training von ML-Modellen durchzuführen .

In modernen Cloud-Edge-Umgebungen nach dem Stand der Technik wird beispielsweise das Training und die Inferenz nur in der Cloud durchgeführt . Dies hat den Vorteil , dass alle Daten an einem Ort verarbeitet und gespeichert werden . Klienten rufen diese Daten von einer zentralen Stelle ab . Jedoch ist keine Echt zeitinteraktion mit einem Prozess , welcher an einem Klienten ausgeführt wird, möglich .

Alternativ wird im Stand der Technik Training in der Cloud und die Inferenz an der Edge durchgeführt . Dies führt dazu, dass performantes Training in der Cloud und Prozessinteraktion in Echtzeit an der Edge ausgeführt wird . Jedoch werden dabei Daten über die Cloud und die Edge verstreut verarbeitet oder gespeichert , was nachteilig ist , da das Aktualisieren von Modellen typischerweise nur in der Cloud möglich ist .

Soll ein ML-Verfahren j edoch auf einem verteilten System ausgeführt werden, kann sich zusätzlich eine höhere Komplexität ergeben, nämlich insofern, als ein initiales Modell zur Anomalie-Erkennung in der Cloud trainiert werden muss , und anschließen an diverse Edge-Vorrichtungen verteilt werden muss .

Dabei ist es oft schwierig, eine geeignete Verteilung von Rechen-Aufgaben, wie ML-Modell-Aktualisierungen durch erneutes Training, an mehrere performante Rechen-Vorrichtungen durchzuführen und eine vorteilhafte Auslastung des gesamten Rechen-Systems an der Edge zu erreichen .

Im Kontext von maschinellem Lernen wird häufig ein Initiales Modell in der Cloud erzeugt , trainiert und verteilten Klienten bereitgestellt .

Eine Berechnung and er Edge kann aus Datenschutz-Gründen bevorzugt werden . Eine Anwendung dieses ML-Modells erfolgt daher vorteilhaft an der Edge , wobei ML-Modell-Aktualisierungen aus dem Betrieb beziehungsweise der Anwendung des ML-Modells aus denselben Gründen ebenfalls an der Edge durchgeführt werden, was j edoch eine sehr hohe Rechen-Kapazität , wie beispielsweise mit einem hoch parallelisierten Rechen-Kern wie einer GPU ( engl- „graphic processing unit" ) , erfordern kann .

Die reine Anwendung eines ML-Modells kann meistens auf Rechenvorrichtungen mit einfacherer Komplexität und Kapazität ausgeführt werden . Dies umfasst beispielsweise auch Datenerfassung durch Sensoren wie Kameras oder von einer PLC ( engl . „programmable logic controller" ) oder anderen Sensor-Mitteln .

Es ist daher Aufgabe der Erfindung eine Lösung bereitzustellen, mittels welcher eine vorteilhafte Verteilung von Rechenaufgaben auf mehrere Rechenvorrichtungen durchgeführt werden kann .

Die erfindungsgemäße Aufgabe wird durch ein Verfahren eingangs genannter Art gelöst , wobei folgende Schritte ausgeführt werden : i ) Bestimmen j eweils einer Gewichts funktion für j ede Rechenaufgabe aus der Menge an Rechenaufgaben zwischen der zumindest einen ersten Rechenvorrichtung und den zumindest zwei zweiten Rechenvorrichtungen, wobei die Gewichts funktion aufweist :

• eine Priorität der Rechenaufgabe ,

• einen Kommunikations-Parameter bezüglich der Kommunikations Verbindung,

• einen Reihungs faktor für die Bearbeitung der Rechenaufgabe , vorzugsweise beginnend bei null ,

• einen Speicher-Parameter für den benötigten Speicherbedarf bei der Aus führung der Rechenaufgabe , • einen Aus führungs-Parameter für den benötigten Rechenbedarf bei der Aus führung der Rechenaufgabe , ii ) Ermitteln der Aus führungskapazität hinsichtlich Kommunikations- , Speicher- und Aus führungs-Eigenschaften der zumindest zwei zweiten Rechenvorrichtungen, iii ) Sortieren der zuvor bestimmten Gewicht funktionen, und Festlegen einer Teilmenge der sortierten Gewichtsfunktionen, welche innerhalb eines vorbestimmen Wertebereichs der ermittelten Aus führungskapazität liegen, iv) Verteilen der Teilmenge der Rechenaufgaben, welche der Teilmenge der sortierten Gewichts funktionen zugeordnet ist , an die zumindest zwei zweiten Rechenvorrichtungen, Aus führen der Teilmenge an Rechenaufgaben und Löschen der zugehörigen Gewichts funktion, v) Erhöhen des Reihungs faktors für die Rechenaufgaben, die im vorhergehenden Schritt aufgrund der Aus führungskapazität nicht verteilt wurden, vi ) Solange Gewichts funktionen vorliegen, Fortsetzen mit Schritt ii ) , sonst Beenden .

Dadurch wird erreicht , dass die Rechen-Aufgaben auf besonders ef fi ziente Weise im Rechen-System abgearbeitet werden können und eine Edge-Vorrichtung, welche die Rechen-Vorrichtungen umfasst , für die entsprechende Verwendung optimal angepasst ausgelegt werden kann .

In einer Weiterbildung der Erfindung ist es vorgesehen, dass j eweils die Gewichts funktion bestimmt wird, indem die Priorität , der Kommunikations-Parameter und der Reihungs faktor j eweils in einem Wertebereich zwischen 0 und 1 liegen und deren Summe einen Rechen-Parameter bilden, und der Speicher- Parameter und der Aus führungs-Parameter j eweils in einem Wertebereich zwischen 0 und 1 liegen und deren Summe einen Berechnungs-Parameter bilden, und die Di f ferenz von Rechen- Parameter und Berechnungs-Parameter die Gewichts funktion bilden .

Dadurch wird erreicht , dass die Gewichts funktion auf eine einfache Weise bestimmt werden kann und welche besonders repräsentative Parameter zur Lösung der erfindungsgemäßen Aufgabe verwendet .

In einer Weiterbildung der Erfindung ist es vorgesehen, dass nach Schritt i ) geprüft wird, ob die j eweilige Gewichts funktion gleich null ist , und falls j a, die zugehörige Rechenaufgabe in Teil-Rechenaufgaben unterteilt wird und die Teil- Rechenaufgaben der Menge an Rechenaufgaben hinzugefügt wird und die aktuelle Rechenaufgabe aus der Menge an Rechenaufgaben entfernt wird und das Verfahren mit Schritt i ) fortgesetzt wird .

Dadurch wird erreicht , dass auch große Rechenaufgaben beziehungsweise deren zugeordneten Gewichts funktionen - beispielsweise mit hohem Rechenbedarf oder hohem Speicherbedarf - durch das Verfahren ef fi zient abgearbeitet werden können und zugleich andere Rechenaufgaben nicht zu lange unbearbeitet bleiben .

Eine Rechenaufgabe ist einer Gewichts funktion zugeordnet und durch diese abgebildet , wonach eine Teilmenge einer Gewichtsfunktion auch einer Teilmenge einer Rechenaufgabe entspricht . Dementsprechend können Teil-Rechenaufgaben auch Teil- Gewichts funktionen zugeordnet werden .

In einer Weiterbildung der Erfindung ist es vorgesehen, dass das Verfahren eine Verwendung zur Anomalie-Erkennung beim Betrieb eines technischen Geräts findet , welches von einem Kli- enten-Server-System mit einem Server und einen Klienten mit der zumindest einen ersten Rechenvorrichtung betrieben wird und zusätzlich folgende Verfahrens-Schritte ausgeführt werden : a ) Erfassen aus dem Betrieb des technischen Geräts und Bereitstellen von ersten Trainings-Daten vom Klienten an den Server, Erzeugen und Trainieren eines ersten Modells in Form eines Auto-Encoders durch den Server, und Bereitstellen des ersten Modells in Form von ersten Gewichten vom Server an den Klienten, sowie Laden und Speichern des ersten Modells in der zumindest einen ersten Rechenvorrichtung, b ) Erfassen von Betriebs-Daten des technischen Geräts und Bestimmen einer Anomalie-Kenngröße hinsichtlich der Übereinstimmung mit dem ersten Modell durch die zumindest eine erste Rechenvorrichtung, c ) Prüfen, ob die Anomalie-Kenngröße innerhalb eines vorbestimmten Werte-Bereichs liegt , wenn j a, fortfahren mit Schritt b ) , sonst fortfahren mit Schritt d) , d) Bereitstellen der ersten Modell-Gewichte des Auto- Encoders und Speichern mit der Anomalie-Kenngröße im Speicher durch die zumindest eine erste Rechenvorrichtung, e ) Prüfen, ob eine vorbestimmte Anzahl an gespeicherten ersten Modell-Gewichte des Auto-Encoders für j eweilige Anomalie-Kenngrößen erreicht ist , wenn j a, dann Fortfahren mit Schritt b ) , sonst Fortfahren mit Schritt f ) , f ) Übermitteln der gespeicherten ersten Modell-Gewichte für j eweilige Anomalie-Kenngrößen an die zumindest zwei zweiten Rechenvorrichtungen, welche vom Klienten umfasst ist und Berechnen eines zweiten Modells in Form eines Auto- Encoders mit zweiten Modell-Gewichten durch Bestimmen der Inferenz durch eine der zumindest zwei zweiten Rechenvorrichtungen, g) Übermitteln der zweiten Modell-Gewichte des zuvor berechneten zweiten Modells an die zumindest eine erste Rechenvorrichtung, und Löschen der im Schritt f ) übermittelten ersten Modell-Gewichte aus dem Speicher der zumindest ei- nen ersten Rechenvorrichtung, und Fortfahrten mit Schritt b ) .

Dadurch ist ein Modell-Training in der Cloud vorgesehen, die Inferenz wird j edoch an der Edge berechnet , außerdem erfolgt ein erneutes Trainieren ( engl . „re-training" ) an der Edge .

Dadurch ist es möglich ein performantes Training in der Cloud aus zuführen, sowie eine Prozess- Interaktion in Echtzeit zu erlauben, und ferner ein Re-Training von ML-Modellen wiederum an der Edge durchzuführen, um beispielsweise die Modellgenauigkeit aufgrund neuer Trainings-Daten, welche aus dem vorhergehenden Betrieb eines technischen Geräts mit dem vorhergehenden ML-Modell gewonnen wurden, zu verbessern .

Die Daten liegen zwar über Klienten und Server verteilt , j edoch kann durch Anwendung föderierten Lernens das neue ML- Modell an andere Klienten verteilt werden, ohne die Rohdaten selbst im verteilten Klienten-Server-System zu verteilen, was zu einer verbesserten Datensicherheit und Privatsphäre führt .

In einer Weiterbildung der Erfindung ist es vorgesehen, dass die Anomalie-Kenngröße der Rekonstruktions-Fehler des Auto- Encoders ist .

Dadurch kann auf besonders einfache Weise eine besonders aussagekräftige Anomalie-Kenngröße ermittelt werden .

In einer Weiterbildung der Erfindung ist es vorgesehen, dass die Größe der Speicherbelegung des Speichers der zumindest einen ersten Rechenvorrichtung zum Speichern der im Schritt e ) vorbestimmte Anzahl an gespeicherten ersten Modell- Gewichte des Auto-Encoders proportional zur Bandbreite der Kommunikations-Verbindung zwischen der zumindest einen ersten Rechenvorrichtung und der zumindest zwei zweiten Rechenvorrichtungen vorgesehen ist . Dadurch wird erreicht , dass erst bei Überschreiten einer vorgegebenen Anzahl an Rekonstruktions-Fehlern eine Aktualisierung des Modells erfolgt .

In einer Weiterbildung der Erfindung ist es vorgesehen, dass die im Schritt f ) berechneten zweiten Modell-Gewichte vom Klienten dem Server bereitgestellt werden, und das Klienten- Server-System vorzugsweise einen weiteren Klienten mit einem weiteren technischen Gerät aufweist und der Server dazu eingerichtet ist , die zweiten Modell-Gewichte dem weiteren Klienten durch föderiertes Lernen bereitzustellen .

Dadurch kann erreicht werden, dass das aktualisierte zweite Modell auf einfache Weise von weiteren Klienten genutzt werden können, ohne selbst dafür nötige Rechenoperationen aus zuführen . Somit ist für weitere Klienten eine Bauart mit reduzierter Komplexität und geringeren Kosten möglich, und es können insbesondere Prinzipen föderierten Lernens angewendet werden .

Die erfindungsgemäße Aufgabe wird durch ein Rechen-System eingangs genannter Art gelöst , umfassend zumindest eine erste Rechenvorrichtung und zumindest zwei zweite Rechenvorrichtungen, j eweils mit einem Prozessor und einem Speicher, wobei die zumindest eine erste Rechenvorrichtung j eweils mit den zumindest zwei zweiten Rechenvorrichtungen durch eine Kommunikationsverbindung verbunden ist und das Rechen-System dazu eingerichtet ist , das erfindungsgemäße Verfahren aus zuführen .

Die erfindungsgemäße Aufgabe wird durch ein Computerprogramm gelöst , umfassend Befehle , welche bei deren Aus führung durch einen Computer diesen veranlassen, das erfindungsgemäße Verfahren aus zuführen .

Die erfindungsgemäße Aufgabe wird durch einen elektronisch lesbaren Datenträger mit darauf gespeicherten lesbaren Steuerinformationen gelöst , welche zumindest das erfindungsgemäße Computerprogramm umfassen und derart ausgestaltet sind, dass sie bei Verwendung des Datenträgers in einer Recheneinrichtung das erfindungsgemäße Verfahren durchführen .

Die erfindungsgemäße Aufgabe wird durch ein Datenträgersignal gelöst , welches das erfindungsgemäße Computerprogramm überträgt .

Die Erfindung wird nachfolgend anhand eines in den beigeschlossenen Zeichnungen dargestellten Aus führungsbeispiels näher erläutert . In den Zeichnungen zeigt :

Fig . 1 ein Aus führungsbeispiel des erfindungsgemäßen Verfahrens als Ablauf diagramm,

Fig . 2 ein Aus führungsbeispiel des erfindungsgemäßen Systems als Blockschaltbild,

Fig . 3 ein Aus führungsbeispiel einer Verwendung des erfindungsgemäßen Verfahrens als Ablauf diagramm,

Fig . 4 ein Aus führungsbeispiel einer Verwendung des erfindungsgemäßen Systems als Blockschaltbild .

Fig . 1 stellt ein Aus führungsbeispiel des erfindungsgemäßen Verfahrens als Ablauf diagramm dar, wobei das Verfahren auf einem in der Fig . 2 dargestellten System ablaufen kann .

Das Verfahren zur Bearbeitung einer Menge an Rechenaufgaben durch ein System ist zumindest in Teilen computerimplementiert .

Ein Rechen-System umfasst zumindest eine erste Rechenvorrichtung ELC1-ELCN und zumindest zwei zweite Rechenvorrichtungen EAC1-EACN, j eweils mit einem Prozessor und einem Speicher .

Die zumindest eine erste Rechenvorrichtung ELC1-ELCN ist mit den zumindest zwei zweiten Rechenvorrichtungen EAC1-EACN durch j eweilige Kommunikationsverbindungen verbunden .

Folgende Verfahrens-Schritte werden ausgeführt : i) Bestimmen jeweils einer Gewichtsfunktion wll-wl3, wNl- wN3 für jede Rechenaufgabe aus der Menge an Rechenaufgaben zwischen der zumindest einen ersten Rechenvorrichtung ELC1-ELCN und den zumindest zwei zweiten Rechenvorrichtungen EAC1-EACN, wobei die Gewichtsfunktion aufweist:

• eine Priorität der Rechenaufgabe,

• einen Kommunikations-Parameter bezüglich der Kommunikations Verbindung,

• einen Reihungsfaktor für die Bearbeitung der Rechenaufgabe, vorzugsweise beginnend bei null,

• einen Speicher-Parameter für den benötigten Speicherbedarf bei der Ausführung der Rechenaufgabe,

• einen Ausführungs-Parameter für den benötigten Rechenbedarf bei der Ausführung der Rechenaufgabe, ii) Ermitteln der Ausführungskapazität hinsichtlich Kommunikations-, Speicher- und Ausführungs-Eigenschaften der zumindest zwei zweiten Rechenvorrichtungen EAC1- EACN, iii) Sortieren der zuvor bestimmten Gewicht funktionen wll- wl3, wNl-wN3, und Festlegen einer Teilmenge der sortierten Gewichtsfunktionen, welche innerhalb eines vorbestimmen Wertebereichs der ermittelten Ausführungskapazität liegen, iv) Verteilen der Teilmenge der Rechenaufgaben, welche der Teilmenge der sortierten Gewichtsfunktionen zugeordnet ist, an die zumindest zwei zweiten Rechenvorrichtungen EAC1-EACN, Ausführen der Teilmenge an Rechenaufgaben und Löschen der zugehörigen Gewichtsfunktion, v) Erhöhen des Reihungsfaktors für die Rechenaufgaben, die im vorhergehenden Schritt aufgrund der Ausführungskapazität nicht verteilt wurden, vi) Solange Gewichtsfunktionen vorliegen, Fortsetzen mit Schritt ii) , sonst Beenden.

Optional kann die Gewichtsfunktion jeweils bestimmt werden, indem die Priorität, der Kommunikations-Parameter und der Reihungsfaktor jeweils in einem Wertebereich zwischen 0 und 1 liegen und deren Summe einen Rechen-Parameter bilden, und der Speicher-Parameter und der Ausführungs-Parameter jeweils in einem Wertebereich zwischen 0 und 1 liegen und deren Summe einen Berechnungs-Parameter bilden, und die Differenz von Rechen-Parameter und Berechnungs-Parameter die Gewichtsfunktion bilden .

Beispielsweise kann die Priorität P (engl. „priority factor") für eine aktuelle Rechenaufgabe, welche durch eine erste Rechenvorrichtung ausgewählt ist, im Werte-Bereich 0% ... 100% liegen .

Ein hoher Wert wie 100% bedeutet, dass das Modell eine dringende Aktualisierung benötigt, und ein niedriger Wert wie 1% bedeutet, dass eine Aktualisierung nicht notwendig ist.

Der Kommunikations-Parameter E (engl. „communication efficiency factor") kann ebenso im Werte-Bereich 0% ... 100% liegen, wobei hoher Wert wie 100% bedeutet, dass eine sehr gute Netzwerk-Qualität vorliegt, und ein niedriger Wert wie 1% bedeutet, dass die Verbindung eine schlechte Übertragungs- Qualität aufweist.

Der Reihungsfaktor S (engl. „starvation factor") kann ebenso im Werte-Bereich 0% ... 100% liegen, wobei der Reihungsfaktor bei jedem Iterationsdurchgang erhöht wird, beispielsweise um 10%. Dies dient dazu, die Dringlichkeit der Abarbeitung einer Rechenaufgabe schrittweise zu erhöhen, um die Rechenaufgabe nicht „verhungern" zu lassen.

Der Speicher-Parameter U (engl. „utilization factor") kann auch im Werte-Bereich 0% ... 100% liegen, wobei der Speicher- Parameter eine Speicher-Belegung des Arbeitsspeichers und/oder des Festplattenspeichers abbilden kann . Der Speicher kann benötigt werden, um beispielsweise temporär oder dauerhaft einen Datensatz auf einer zweiten Rechenvorrichtung zu speichern .

Ein hoher Wert wie 100% bedeutet , dass das Modell einen hohen Speicherbedarf aufweist , und ein niedriger Wert wie 1 % bedeutet , dass das Modell einen niedrigen Speicherbedarf aufweist .

Der Aus führungs-Parameter C ( engl . „computational factor" ) kann auch im Werte-Bereich 0% ... 100% liegen, wobei der Ausführungs-Parameter eine Rechenkapazität abbilden kann . Die Rechenkapazität kann benötigt werden, um beispielsweise eine Rechenaufgabe auf einer zweiten Rechenvorrichtung aus zuführen .

Ein hoher Wert wie 100% bedeutet , dass das Modell einen hohen Rechenbedarf aufweist - beispielsweise durch eine hohe Anzahl parallel organisierter Rechenkerne , wie bei einer GPU - , und ein niedriger Wert wie 1 % bedeutet , dass das Modell einen niedrigen Rechenbedarf aufweist

Der Rechen-Parameter wird durch die Summe der Priorität , des Kommunikations-Parameters und des Reihungs faktors gebildet .

Der Berechnungs-Parameter wird durch die Summe des Speicher- Parameters und des Aus führungs-Parameters gebildet .

Wird der Berechnungs-Parameter von dem Rechen-Parameter subtrahiert , erhält man die Gewichts funktion w AB = (P + E + 5) - ((/ + C) wobei A eine erste Rechenvorrichtung und B eine zweite Rechenvorrichtung ist .

Für j ede Rechenaufgabe mit einer Gewichts funktion von mehr als 100% können diese „ausgehende" Kanten sortiert werden, wenn zur Veranschaulichung eine Analogie zu einem bipartiten Graphen wie nach Fig . 2 hergestellt wird .

Nach der Neusortierung werden all j ene Kanten entfernt , welche im aktuellen Durchlauf nicht abgearbeitet werden können und der verbleibende Graph wird zur weiteren Bearbeitung herangezogen .

Anschließend werden die noch nicht abgearbeiteten Rechenaufgaben erfasst und als neue Iterationsschlei fe wie zuvor ausgeführt bearbeitet , bis alle Rechenaufgaben erledigt sind .

Beispielsweise können P=100% , E=80% , S=0% sowie U=50% , C= 50% gewählt werden, sodass die Gewichts funktion w=80% beträgt .

In diesem Beispiel bedeutet das für eine Rechenaufgabe , dass sie eine hohe Priorität aufweist , eine gute Netzwerk- Bandbreite vorliegt , die Rechenaufgabe erstmalig zur Abarbeitung vorgesehen ist , eine moderate Größe des Datensatzes vorliegt und ein moderater Rechenbedarf vorgesehen ist . Daher ist es wahrscheinlich, dass eine Anforderung zur Abarbeitung der Rechenaufgabe erfolgreich erledigt wird, auch wenn aktuell eine hohe Last bei einer zweiten Rechenvorrichtung vorliegt . Es kann ferner erwogen werden, ob zur Abarbeitung der Rechenaufgabe durch die zweite Rechenvorrichtung eine Modell- Aktualisierung angefordert wird, um die Parameter zur Bestimmung der Gewichts funktion zu verbessern .

Fernern kann optional nach Schritt i ) geprüft werden, ob die j eweilige Gewichts funktion gleich null ist , und falls j a, die zugehörige Rechenaufgabe in Teil-Rechenaufgaben unterteilt wird und die Teil-Rechenaufgaben der Menge an Rechenaufgaben hinzugefügt wird und die aktuelle Rechenaufgabe aus der Menge an Rechenaufgaben entfernt wird und das Verfahren mit Schritt i ) fortgesetzt wird .

Beispielsweise können P=80% , E=50% , S=0% sowie U=80% , C= 0% gewählt werden, sodass die Gewichts funktion w=-30% beträgt . In diesem Beispiel bedeutet das für eine Rechenaufgabe , dass sie eine hohe Priorität aufweist , eine eher moderate Netzwerk-Bandbreite vorliegt , die Rechenaufgabe erstmalig zur Abarbeitung vorgesehen ist , eine große Größe des Datensatzes vorliegt und ein hoher Rechenbedarf vorgesehen ist . Daher ist es unwahrscheinlich, dass eine Anforderung zur Abarbeitung der Rechenaufgabe erfolgreich erledigt wird, wenn aktuell eine hohe Last bei einer zweiten Rechenvorrichtung vorliegt , solange der Reihungs faktor S erhöht wird oder eine erste Rechenvorrichtung die Rechenaufgabe in kleinere Teil- Rechenaufgaben mit kleineren Datensätzen unterteilt .

Mit anderen Worten kann anhand des Vorliegens einer negativen Gewichts funktion erkannt werden, dass eine Rechenaufgabe vorteilhafterweise in kleinere Teilrechenaufgaben unterteilt werden soll , um eine ef fi ziente Abarbeitung zu erreichen .

Eine vorteilhafte Verwendung des Verfahrens zur Anomalie- Erkennung beim Betrieb eines technischen Geräts ist in Fig . 3 dargestellt , wofür das System der Fig . 4 verwendet werden kann .

Ein Klienten-Server-System CSS zur Anomalie-Erkennung beim Betrieb eines technischen Geräts TD1 umfasst einen Server S und einen Klienten Kl mit einer ersten Rechenvorrichtung 1 und einen weiteren, in diesem Beispiel baugleichen Klienten K2 mit einem weiteren technischen Gerät TD2 .

Es können j edoch auch weitere Klienten im System eingesetzt werden, welche eine einfachere Bauart vorweisen und das das Modell mithil fe föderierten Lernens beziehen .

Die erste Rechenvorrichtung 1 weist einen Prozessor und einen Speicher auf .

Der Klient Kl umfasst ferner eine zweite Rechenvorrichtung 2 , welche mit der ersten Rechenvorrichtung 1 über eine Kommuni- kations-Verbindung C verbunden ist , wobei die Kommunikations- Verbindung C eine vordefinierte Bandbreite aufweist .

Der Klient Kl erfasst vorzugsweise mithil fe der ersten Rechenvorrichtung 1 während eines Referenzbetriebs des technischen Geräts TD1 Testdaten DT , welche einen zulässigen, gültigen Betrieb technischen Geräts TD1 repräsentieren .

Die Datenerfassung kann beispielsweise mit einem Sensor- Mittel wie einer Kamera erfolgen und die Testdaten DT können Kamera-Aufnahmen sein .

Mithil fe dieser Testdaten DT kann im Server durch Anwendung eines Auto-Encoders ein globales Modell auf Basis maschinellen Lernens für das technische Geräts TD1 erzeugt und trainiert werden .

In weiterer Folge kann das globale Modell an Klienten Kl , K2 zum Betrieb des technische Geräts TD1 in Form von Gewichten des globalen Modells bereitgestellt werden .

Das Verfahren ist computer-implementiert , das heißt ein oder mehrere Schritte werden von einem Computer ausgeführt .

Das Verfahren kann besonders vorteilhaft zur Anomalie- Erkennung beim Betrieb eines technischen Geräts TD1 , welches von einem Klienten-Server-System CSS mit einem Server S und einen Klienten Kl mit der zumindest einen ersten Rechenvorrichtung ELC1-ELCN betrieben wird, verwendet werden, und zusätzlich folgende Verfahrens-Schritte ausgeführt werden : a) Erfassen aus dem Betrieb des technischen Geräts TD1 und Bereitstellen von ersten Trainings-Daten DT vom Klienten Kl an den Server S , Erzeugen und Trainieren eines ersten Modells in Form eines Auto-Encoders durch den Server, und Bereitstellen des ersten Modells in Form von ersten Gewichten vom Server S an den Klienten Kl , sowie Laden und Speichern des ersten Modells in der zumindest einen ersten Rechenvorrichtung ELC1-ELCN, b) Erfassen von Betriebs-Daten des technischen Geräts TD1 und Bestimmen einer Anomalie-Kenngröße hinsichtlich der Übereinstimmung mit dem ersten Modell durch die zumindest eine erste Rechenvorrichtung ELC1-ELCN, c) Prüfen, ob die Anomalie-Kenngröße innerhalb eines vorbestimmten Werte-Bereichs liegt , wenn j a, fortfahren mit Schritt b ) , sonst fortfahren mit Schritt d) , d) Bereitstellen der ersten Modell-Gewichte des Auto- Encoders und Speichern mit der Anomalie-Kenngröße im Speicher durch die zumindest eine erste Rechenvorrichtung ELC1-ELCN, e ) Prüfen, ob eine vorbestimmte Anzahl an gespeicherten ersten Modell-Gewichte des Auto-Encoders für j eweilige Anomalie-Kenngrößen erreicht ist , wenn j a, dann Fortfahren mit Schritt b ) , sonst Fortfahren mit Schritt f ) , f ) Übermitteln der gespeicherten ersten Modell-Gewichte für j eweilige Anomalie-Kenngrößen an die zumindest zwei zweiten Rechenvorrichtungen EAC1-EACN, welche vom Klienten Kl umfasst ist und Berechnen eines zweiten Modells in Form eines Auto-Encoders mit zweiten Modell-Gewichten durch Bestimmen der Inferenz durch eine der zumindest zwei zweiten Rechenvorrichtungen EAC1-EACN, g) Übermitteln der zweiten Modell-Gewichte des zuvor berechneten zweiten Modells an die zumindest eine erste Rechenvorrichtung ELC1-ELCN, und Löschen der im Schritt f ) übermittelten ersten Modell-Gewichte aus dem Speicher der zumindest einen ersten Rechenvorrichtung ELC1-ELCN, und Fortfahrten mit Schritt b ) ,

Die Größe der Speicherbelegung des Speichers der zumindest einen ersten Rechenvorrichtung ELC1-ELCN zum Speichern der im Schritt e ) vorbestimmte Anzahl an gespeicherten ersten Modell-Gewichte des Auto-Encoders ist proportional zur Bandbreite der Kommunikations-Verbindung C zwischen der zumindest einen ersten Rechenvorrichtung ELC1-ELCN und der zumindest zwei zweiten Rechenvorrichtungen EAC1-EACN vorgesehen .

Die zumindest zwei zweiten Rechenvorrichtungen EAC1-EACN sind vorzugsweise Grafikprozessoren ( engl . „graphics processing unit" , kurz GPU) , welche auf ef fi ziente Berechnung spezialisierte und optimierte Prozessoren sind und für künstliche Intelligenz und maschinelles Lernen verwendet werden kann . Weil GPUs außerordentlich viel Rechenleistung bieten, können sie beispielsweise aufgrund von Parallelverarbeitung eine enorme Beschleunigung bei Rechenaufgaben erzielen .

Ein Grafik-Prozessor kann integrierter Teil der ersten Rechenvorrichtung sein, wie eine integrierte Grafikkarte eines Edge-Computers .

Das Bereitstellen der ersten Modell-Gewichte des Auto- Encoders im Schritt d) wird auch als „embedding" komprimierter Merkmale beziehungsweise eines komprimierten Merkmalsraums , welcher durch die Modell-Gewichte gebildet wird, bezeichnet .

Es ist klar, dass im gesamten Verfahren ein oder mehrere Anomalie-Kenngrößen angewendet werden können .

Die im Schritt f ) berechneten zweiten Modell-Gewichte können vom Klienten Kl dem Server S bereitgestellt werden .

Der Server S kann sein globales ML-Modell nun aktualisieren .

Wenn das Klienten-Server-System CSS zumindest einen weiteren Klienten K2 mit einem weiteren technischen Gerät TD2 aufweist , kann das System dem weiteren Klienten K2 durch föderiertes Lernen die zweiten Modell-Gewichte bereitstellen . Bezugszeichenliste :

C Datenverbindung mit Übertragungskapazität, (engl.

„communication line")

CSS Klienten-Server-System (engl. „client-server- system" )

D, DT Daten, Trainings-Daten

EAC Rechenvorrichtung mit Prozessor und Speicher,

Klient mit hoher Verarbeitungs- Kapazität (engl. „edge advanced compute")

ELC Rechenvorrichtung mit Prozessor und Speicher ,

Klient mit geringer Verarbeitungs- Kapazität (engl. „edge limited computing")

Kl, Kl Klient, Edge-Vorrichtung

S Server

TD1, TD2 technisches Gerät, z.B. Motor einer Produktionsanlage wll-wl3, wNl-wN3 Gewicht, Gewichtsfunktion