Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
REDUNDANT CONTROL LOGIC FOR SAFETY-CRITICIAL AUTOMATION SYSTEMS BASED ON ARTIFICIAL NEURAL NETWORKS
Document Type and Number:
WIPO Patent Application WO/2021/233552
Kind Code:
A1
Abstract:
A method (100) for generating one or more manipulated variables (12) for at least one actuator (3) of an automation system (1), comprising the following steps:. one or more input variables (11) are obtained (110) from the automation system (1);. the input variables (11) are processed (120) by a first control logic (4a) to give a first suggestion (12a) for the one or more manipulated variables (12);. the input variables (11) are processed (130) by a second control logic (4b), which is independent of the first control logic (4a), to give a second suggestion (12b) for the one or more manipulated variables (12);. the two suggestions (12a, 12b) for the one or more manipulated variables (12) are checked against one another for plausibility (140); and. in response to the two suggestions (12a, 12b) being found to be plausible with respect to one another (150) in this check, an end result of the one or more manipulated variables (12) is determined (160) from the two suggestions (12a, 12b), wherein a second control logic (4b) is selected with an artificial neural network, ANN (4b*), which is trained to predict a suggestion (12b) for the manipulated variables (12) for given values of the input variables (11), which suggestion matches the suggestion (12a) of the first control logic (4a) with regard to these values of the input variables (11).

Inventors:
GERLACH ALFRED (DE)
APEL GÜNTHER (DE)
Application Number:
PCT/EP2020/064295
Publication Date:
November 25, 2021
Filing Date:
May 22, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
TSU GMBH GES FUER TECHNIK SICHERHEIT UND UMWELTSCHUTZ MBH (DE)
International Classes:
G05B9/03; G05B19/042; G05B19/05
Domestic Patent References:
WO2020092635A12020-05-07
Other References:
JIMMY W. KEY: "Neural networks in process control: Neural network training, implementation", CONTROL ENGINEERING WEBSITE, 29 April 2016 (2016-04-29), XP055767186, Retrieved from the Internet [retrieved on 20210120]
Attorney, Agent or Firm:
MAIWALD PATENTANWALTS- UND RECHTSANWALTS GMBH (DE)
Download PDF:
Claims:
Ansprüche

1. Verfahren (100) zur Erzeugung einer oder mehrerer Stellgrößen (12) für mindestens einen Aktor (3) eines Automatisierungssystems (1) mit den Schritten:

• aus dem Automatisierungssystem (1) werden eine oder mehrere Eingangsgrößen (11) bezogen (110);

• die Eingangsgrößen (11) werden durch eine erste Steuerlogik (4a) zu einem ersten Vorschlag (12a) für die eine oder mehreren Stellgrößen (12) verarbeitet (120);

• die Eingangsgrößen (11) werden durch eine zweite Steuerlogik (4b), die von der ersten Steuerlogik (4a) unabhängig ist, zu einem zweiten Vorschlag (12b) für die eine oder mehreren Stellgrößen (12) verarbeitet (130);

• die beiden Vorschläge (12a, 12b) für die eine oder mehreren Stellgrößen (12) werden gegeneinander plausibilisiert (140); und

• in Antwort darauf, dass sich hierbei die beiden Vorschläge (12a, 12b) als zueinander plausibel erweisen (150), wird aus den beiden Vorschlägen (12a, 12b) ein Endergebnis der einen oder mehreren Stellgrößen (12) ermittelt (160), wobei eine zweite Steuerlogik (4b) mit einem künstlichen neuronalen Netzwerk, KNN (4b*), gewählt wird, welches darauf trainiert ist, zu gegebenen Werten der Eingangsgrößen (11) einen Vorschlag (12b) für die Stellgrößen (12) vorherzusagen, der mit dem Vorschlag (12a) der ersten Steuerlogik (4a) bezüglich dieser Werte der Eingangsgrößen (11) übereinstimmt.

2. Verfahren (100) nach Anspruch 1, wobei die beiden Vorschläge (12a, 12b) gegeneinander plausibilisiert werden (140), indem sie miteinander verglichen werden (141), und wobei die beiden Vorschläge (12a, 12b) als zueinander plausibel gewertet werden (142), wenn eine bei diesem Vergleich (141) ermittelte Abweichung innerhalb einer vorgegebenen Toleranz liegt.

3. Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei die beiden Vorschläge (12a, 12b) zusätzlich zu Zeiten geliefert werden müssen (143), die um höchstens eine vorgegebene Toleranz voneinander abweichen, um als zueinander plausibel gewertet zu werden.

4. Verfahren (100) nach einem der Ansprüche 1 bis 3, wobei in Antwort darauf, dass die beiden Vorschläge (12a, 12b) sich als nicht zueinander plausibel erweisen

(150), die Ausgabe von Stellgrößen unterdrückt (170) und/oder eine sonstige Maßnahme eingeleitet wird (180), um eine von dem Automatisierungssystem (1) gesteuerte Maschine oder Anlage, bzw. einen von dem Automatisierungssystem (1) gesteuerten Prozess, in einen sicheren Zustand zu versetzen oder dort zu belassen.

5. Verfahren (100) nach einem der Ansprüche 1 bis 4, wobei die Eingangsgrößen (11), die beiden Steuerlogiken (4a, 4b) zugeführt werden, dem Automatisierungssystem (1) auf zwei voneinander unabhängigen Wegen entnommen werden.

6. Verfahren (200) zur Prüfung einer Steuerlogik (4a), die eine oder mehrere aus einem Automatisierungssystem (1) bezogene Eingangsgrößen (11) zu einer oder mehreren Stellgrößen (12) verarbeitet, mit den Schritten:

• es wird ein künstliches neuronales Netzwerk, KNN (4b*), bereitgestellt (210), das darauf trainiert ist, zu gegebenen Werten der Eingangsgrößen (11) einen Vorschlag (12b) für die Stellgrößen (12) vorherzusagen, der mit dem Vorschlag (12a) der Steuerlogik (4a) bezüglich dieser Werte der Eingangsgrößen (11) übereinstimmt;

• dem KNN (4b*) werden Test-Werte (11 *) der Eingangsgrößen (11) zugeführt (220), die sich auf vorgegebene Prüfungsszenarien beziehen; • die Test-Werte (11*) der Eingangsgrößen (11) werden von dem KNN (4b*) auf Test-Werte (12*) der Stellgrößen (12) abgebildet (230);

• das durch die Test-Werte (12*) der Stellgrößen (12) jeweils charakterisierte Antwortverhalten des KNN (4b*) wird anhand vorgegebener Kriterien dahingehend geprüft (240), ob es im Kontext der beabsichtigten Verwendung der Steuerlogik (4a) in einem konkreten Automatisierungssystem (1) angemessen wäre;

• in Antwort darauf, dass das Antwortverhalten des KNN (4b*) insgesamt als angemessen erkannt wird (250), wird festgestellt (260), dass die Prüfung der Steuerlogik (4a) bestanden ist.

7. Verfahren (200) nach Anspruch 6, wobei die vorgegebenen Kriterien Randbedingungen für die Werte der Stellgrößen (12) beinhalten, die durch das konkrete Automatisierungssystem (1) vorgegeben sind.

8. Verfahren (300) zur Prüfung einer Steuerlogik (4a), die eine oder mehrere aus einem Automatisierungssystem (1) bezogene Eingangsgrößen (11) zu einer oder mehreren Stellgrößen (12) verarbeitet, mit den Schritten:

• es werden eine Vielzahl von Lern-Werten (11#) der Eingangsgrößen (11) sowie jeweils zugehörige Lern-Werte (12#) der Stellgrößen (12) bereitgestellt

(310);

• ein künstliches neuronales Netzwerk, KNN (4b*), wird dahingehend trainiert (320), dass es die Lern-Werte (11#) der Eingangsgrößen (11) auf die jeweils zugehörigen Lern-Werte (12#) der Stellgrößen (12) abbildet; · Test-Werte (11 *) der Eingangsgrößen (11), die sich auf vorgegebene

Prüfungsszenarien beziehen, werden sowohl der Steuerlogik (4a) als auch dem KNN (4b*) zugeführt (330);

• Vorschläge (12a, 12b) für Werte der Stellgrößen (12), auf die die Steuerlogik (4a) einerseits und das KNN (4b*) andererseits die Test-Werte (11*) der Eingangsgrößen (11) jeweils abbilden, werden gegeneinander plausibilisiert (340);

• in Antwort darauf, dass sich hierbei für einen vorgegebenen Anteil der Prüfungsszenarien jeweils die beiden Vorschläge (12a, 12b) als zueinander plausibel erweisen (350), wird festgestellt (360), dass die Prüfung der

Steuerlogik (4a) bestanden ist.

9. Verfahren (400) zum Trainieren eines künstlichen neuronalen Netzwerks, KNN (4b*), für den Einsatz in einem Verfahren (100, 200) nach einem der Ansprüche 1 bis 7, mit den Schritten:

• einer Steuerlogik (4a), deren Verhalten in einem konkreten Automatisierungssystem (1) das KNN (4b*) Vorhersagen soll, wird eine Vielzahl von im Kontext dieses Automatisierungssystems (1) realistischen Lern-Werten (11#) der Eingangsgrößen (11) zugeführt (410);

• die Lem-Werte (11#) der Eingangsgrößen (11) werden von der Steuerlogik (4a) jeweils auf Lem-Werte (12#) von Stellgrößen (12) des Automatisierungssystems (1) abgebildet (420);

• die Lem-Werte (11#) der Eingangsgrößen (11) werden dem KNN (4b*) zugeführt (430);

• das KNN (4b*) bildet die Lern-Werte (11#) der Eingangsgrößen (11) auf Werte der Stellgrößen (12) ab (440);

• Parameter (4b#), die das Verhalten des KNN (4b*) charakterisieren, werden optimiert (450) mit dem Ziel, dass die Werte der Stellgrößen (12), auf die das KNN (4b*) die Lern-Werte (11#) der Eingangsgrößen (11) abbildet, zu den Lern-Werten (12#) der Ausgangsgrößen (12) plausibel sind.

10. Verfahren (400) nach Anspruch 9, wobei das Optimieren (450) darauf gerichtet ist (451), dass die Werte der Stellgrößen (12), auf die das KNN (4b*) konkrete Lem-Werte (11#) der Eingangsgrößen (11) abbildet, nach Maßgabe einer Kostenfunktion möglichst gut mit den zugehörigen Lern-Werten (12#) der Stellgrößen (12) übereinstimmen.

11. Verfahren (400) nach einem der Ansprüche 9 bis 10, wobei das Optimieren (450) darauf gerichtet ist (452), durch die Lem-Werte (11#) der Eingangsgrößen (11) in Kombination mit den zugehörigen Lern-Werten (12#) der Ausgangsgrößen (12) definierte Datenpunkte zu clustem und/oder durch eine komprimierte Repräsentation auszudrücken. 12. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, ein Verfahren (100, 200, 300, 400) nach einem der Ansprüche 1 bis 11 auszuführen. 13. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem

Computerprogramm nach Anspruch 12.

14. Automatisierungssystem (1) für die Steuerung einer Maschine und/oder eines Prozesses (2), umfassend: · mindestens ein Leitsystem (5a), mindestens eine Peripherie (5b), und/oder mindestens einen Signalgeber (5c), die dazu ausgebildet sind,

Zustandsgrößen und/oder Sollwerte der Maschine bzw. des Prozesses (2) als Eingangsgrößen (11) zur Verfügung zu stellen;

• eine erste Steuerlogik (4a), die dazu ausgebildet ist, die Eingangsgrößen (11) zu einem ersten Vorschlag (12a) für eine oder mehrere Stellgrößen (12) zu verarbeiten;

• eine zweite Steuerlogik (4b) mit einem künstlichen neuronalen Netzwerk, KNN (4b*), welches darauf trainiert ist, zu gegebenen Werten der Eingangsgrößen (11) einen Vorschlag (12b) für die Stellgrößen (12) vorherzusagen, der mit dem Vorschlag (12a) der ersten Steuerlogik (4a) bezüglich dieser Werte der Eingangsgrößen (11) übereinstimmt;

• Mittel (6) zur Plausibilisierung des Vorschlags (12a) der ersten Steuerlogik (4a) gegen den Vorschlag (12b) der zweiten Steuerlogik (4b); sowie · eine Auswerteeinheit (7) zum Ermitteln eines Endergebnisses der Stellgrößen

(12) aus Vorschlägen (12a, 12b), die von den besagten Mitteln (6) als zueinander plausibel gewertet werden.

Description:
Redundante Steuerlogik für sicherheitskritische Automatisierungssysteme auf der Basis künstlicher neuronaler Netze Die Erfindung betrifft Automatisierungssysteme, deren Steuerlogik redundant ausgeführt ist, damit Fehlfunktionen der Steuerlogik erkannt und Gegenmaßnahmen eingeleitet werden können.

Stand der Technik

Automatisierungssysteme steuern Maschinen oder Prozesse anhand übergeordneter Vorgaben, die von einem Leitsystem und/oder von einer Sensorik bezogen werden. Eine Steuerlogik setzt diese Vorgaben in konkrete Stellgrößen um. Mit diesen Stellgrößen werden Aktoren angesteuert, die physikalisch auf die Maschine, bzw. den Prozess, einwirken.

Automatisierungssysteme kommen zunehmend auch in sicherheitskritischen Bereichen zum Einsatz, in denen Sach- oder Personenschäden verursacht werden können, wenn die Steuerlogik eine der aktuellen Betriebs Situation nicht angemessene Stellgröße ausgibt und diese Stellgröße durch den Aktor in eine in der aktuellen Situation nachteilige Aktion übersetzt wird. Da eine Steuerlogik wie jedes andere technische Gerät prinzipiell fehlfunktionieren oder ausfallen kann, werden für sicherheitskritische Anwendungen zwei oder mehr redundante Steuerlogiken eingesetzt, deren Ausgaben gegeneinander plausibilisiert werden, bevor sie dem jeweiligen Aktor zugeführt werden. Hierhinter steckt die Überlegung, dass die Wahrscheinlichkeit für eine gleichzeitige und gleichartige Fehlfunktion beider Steuerlogiken, die sich in gleicher Weise auf die Ausgaben beider Steuerlogiken auswirkt, sehr gering ist. Aufgabe und Lösung

Es ist die Aufgabe der vorliegenden Erfindung, eine redundante Erzeugung von Stellgrößen in einem Automatisierungssystem mit einem besonders günstigen Verhältnis von Kostenaufwand zu Betriebssicherheit zu realisieren.

Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren gemäß Hauptanspruch sowie durch ein Automatisierungssystem gemäß Nebenanspruch. Weitere vorteilhafte Ausgestaltungen ergeben sich aus den darauf rückbezogenen Unteransprüchen.

Offenbarung der Erfindung

Im Rahmen der Erfindung wurde ein Verfahren zur Erzeugung einer oder mehrerer Stellgrößen für mindestens einen Aktor eines Automatisierungssystems entwickelt.

Im Rahmen dieses Verfahrens werden aus dem Automatisierungssystem eine oder mehrere Eingangsgrößen bezogen. Diese Eingangsgrößen können beispielsweise von einem Leitsystem, einer zugehörigen Peripherie, und/oder von einer Sensorik oder beliebigen anderen Signalgebern, stammen. Bei den Eingangsgrößen kann es sich beispielsweise um Sollwerte handeln, auf die eine oder mehrere für den Betrieb der Maschine, bzw. des Prozesses, relevante Größen zu regeln sind. Beispiele für derartige Größen sind Temperaturen, Drücke, Spannungen, Ströme, chemische Konzentrationen, Positionen und Geschwindigkeiten.

Die Eingangsgrößen werden durch eine erste Steuerlogik zu einem ersten Vorschlag für die eine oder mehreren Stellgrößen verarbeitet. Diese erste Steuerlogik kann beispielsweise ein Regler („Low-Level-Controller“) sein, der dazu ausgebildet ist, eine oder mehrere der genannten für den Betrieb der Maschine, bzw. des Prozesses, relevanten Größen auf Sollwerte zu regeln. Alternativ oder auch in Kombination hierzu kann die erste Steuerlogik beispielsweise Bewegungen von Maschinenteilen oder Fahrzeugen dahingehend steuern, dass Kollisionen mit anderen Maschinenteilen bzw. Fahrzeugen vermieden werden. Die Eingangsgrößen werden zusätzlich durch eine zweite Steuerlogik, die von der ersten Steuerlogik unabhängig ist, zu einem zweiten Vorschlag für die eine oder mehreren Stellgrößen verarbeitet. Diese Unabhängigkeit kann insbesondere beispielsweise auch beinhalten, dass die Eingangsgrößen der ersten Steuerlogik einerseits und der zweiten Steuerlogik andererseits auf so weit wie möglich verschiedenen Wegen zugeführt werden. Die Eingangsgrößen können also insbesondere beispielsweise dem Automatisierungssystem auf zwei voneinander unabhängigen Wegen entnommen werden.

Die beiden Vorschläge für die Stellgrößen werden gegeneinander plausibilisiert. In Antwort darauf, dass sich hierbei die beiden Vorschläge als zueinander plausibel erweisen, wird aus den beiden Vorschlägen ein Endergebnis der einen oder mehreren Stellgrößen ermittelt. Beispielsweise kann geprüft werden, ob beide Steuerlogiken zur gleichen Zeit eine gleiche oder zumindest ähnliche Aktion des Aktors vorschlagen.

Es wird eine zweite Steuerlogik mit einem künstlichen neuronalen Netzwerk, KNN, gewählt. Dieses KNN ist darauf trainiert, zu gegebenen Werten der Eingangsgrößen einen Vorschlag für die Stellgrößen vorherzusagen, der mit dem Vorschlag der ersten Steuerlogik bezüglich dieser Werte der Eingangsgrößen übereinstimmt.

Es wurde erkannt, dass auf diese Weise die Redundanz bei der Erzeugung der Stellgrößen mit einem geringeren Kostenaufwand realisiert werden kann. Es ist nicht notwendig, die Hardware der ersten Steuerlogik komplett zu duplizieren. Stattdessen ist lediglich Standard-Hardware nötig, die die Inferenzberechnung des KNN durchführen, also Eingangsgrößen auf einen Vorschlag für Stellgrößen übersetzen, kann. Diese Hardware muss nicht einmal an dem Ort vorgehalten werden, wo die erste Steuerlogik physisch realisiert ist. Vielmehr kann die zweite Steuerlogik auch beispielsweise in einer Cloud realisiert sein. Indem für die Inferenzberechnung zwangsläufig ganz andere Hardware und Software zum Einsatz kommt als in der ersten Steuerlogik, wird automatisch eine Diversität zwischen der ersten Steuerlogik und der zweiten Steuerlogik geschaffen. Ist die zweite Steuerlogik ein Duplikat der ersten Steuerlogik, ist die Plausibilität besonders einfach zu prüfen, weil zu erwarten ist, dass die Ausgaben beider Steuerlogiken immer gleich sind. Dafür hat das Duplikat auch Fehlerquellen mit dem Original gemeinsam, was die Wahrscheinlichkeit für gleichzeitige und gleichartige Ausfälle beider Steuerlogiken erhöht. So kommt genau typgleiche Hardware und insbesondere eine typgleiche CPU zum Einsatz, möglicherweise sogar aus der gleichen Produktionscharge. Wenn beispielsweise beide CPUs von ein und demselben Material- oder Fabrikationsfehler betroffen sind und nach einer bestimmten Anzahl

Betriebsstunden eine CPU versagt, sieht es in der anderen CPU, die genau das gleiche Last-Zeit-Profil erfahren hat, möglicherweise physikalisch genauso aus, so dass die zweite CPU zur gleichen Zeit oder wenig später versagen könnte. Entsprechende leidvolle Erfahrungen haben in der Computertechnik bereits viele Nutzer von RAID-Systemen gesammelt, die die Daten zum Schutz vor Verlust in einem redundanten Array aus mehreren Festplatten ablegen: Fast gleichzeitig fielen mehr baugleiche Festplatten aus als von der Redundanz verkraftet werden konnte.

Eine diversitäre Lösung, bei der zwei herkömmliche Steuerlogiken von unterschiedlichen Herstellern bezogen werden, kann die Wahrscheinlichkeit für solche gleichzeitigen Ausfälle deutlich verringern. Gegenüber einer solchen Lösung ist der Einsatz einer zweiten Steuerlogik mit einem trainierten KNN nicht nur im Hinblick auf die Hardware deutlich preiswerter. Es fällt auch der Zusatzaufwand weg, der erforderlich wäre, um das Know-How für den Umgang mit einer weiteren Steuerlogik zu erwerben und diese weitere Steuerlogik laufend zu warten und zu pflegen. Weiterhin ist bei hinreichendem Trainingsstand des KNN damit zu rechnen, dass im fehlerfreien Zustand die Ausgaben des KNN näher an den Ausgaben der ersten Steuerlogik liegen als die Ausgaben der zweiten Steuerlogik. Wird also die Ausgabe des KNN mit der Ausgabe ersten Steuerlogik verglichen, ist dies aussagekräftiger als wenn die Ausgabe der zweiten Steuerlogik mit der Ausgabe der ersten Steuerlogik verglichen wird.

Somit werden in einer besonders vorteilhaften Ausgestaltung die beiden Vorschläge gegeneinander plausibilisiert, indem sie miteinander verglichen werden. Die beiden Vorschläge werden als zueinander plausibel gewertet, wenn eine bei diesem Vergleich ermittelte Abweichung innerhalb einer vorgegebenen Toleranz liegt. Weiterhin kann zusätzlich gefordert werden, dass die beiden Vorschläge zusätzlich zu Zeiten geliefert werden müssen, die um höchstens eine vorgegebene Toleranz voneinander abweichen, um als zueinander plausibel gewertet zu werden. Auch diese zeitliche Dimension lässt sich in das Training des KNN einbeziehen. Beim Training des KNN kann also beispielsweise nicht nur bewertet werden, ob das KNN bestimmte Werte der Eingangsgrößen auf die gleichen Stellgrößen abbildet wie es die erste Steuerlogik tut, sondern auch, ob das KNN diese Werte zur gleichen Zeit liefert wie die erste Steuerlogik.

Sofern sich die beiden Vorschläge als nicht zueinander plausibel erweisen, können beliebige Gegenmaßnahmen ergriffen werden. Insbesondere kann beispielsweise die Ausgabe von Stellgrößen unterdrückt werden, und/oder es kann eine sonstige Maßnahme eingeleitet werden, um eine von dem Automatisierungssystem gesteuerte Maschine oder Anlage, bzw. einen von dem Automatisierungssystem gesteuerten Prozess, in einen sicheren Zustand zu versetzen oder dort zu belassen.

Beispielsweise können die beiden Vorschläge in einen Vergleicher geführt sein, der nur dann eine Stellgröße an den Aktor ausgibt, wenn die beiden Vorschläge zueinander plausibel sind, also beispielsweise hinreichend ähnlich sind. Die beiden Vorschläge können auch beispielsweise in eine Failsafe-Vorrichtung geführt sein, die in Antwort darauf, dass die beiden Vorschläge nicht zueinander plausibel sind, die Energieversorgung der Maschine bzw. des Prozesses unterbricht oder die Maschine bzw. den Prozess auf andere Weise in einen sicheren Zustand zwingt.

Der Vorzug des KNN liegt insbesondere in dessen Kraft zur Verallgemeinerung. Das KNN lässt sich beispielsweise anhand einer endlichen Zahl von Situationen trainieren, die eine hinreichende Variabilität aufweisen. Es ist dann in der Lage, auch in einer großen Bandbreite von durch Werte der Eingangsgrößen verkörperten Situationen, die nicht Gegenstand des Trainings gewesen sind, einen Vorschlag für die Stellgrößen vorherzusagen, der mit dem Vorschlag der ersten Steuerlogik bezüglich dieser Werte der Eingangsgrößen übereinstimmt.

Diese Kraft zur Verallgemeinerung kann nicht nur genutzt werden, um den laufenden Betrieb der Steuerlogik abzusi ehern. Bevor eine Steuerlogik in sicherheitsrelevanten Anwendungen überhaupt eingesetzt werden kann, ist sie in der Regel zu prüfen und abzunehmen. Bei dieser Prüfung muss die Steuerlogik in einer Vielzahl von Situationen beweisen, dass sie der jeweiligen Situation angemessene Werte der Stellgrößen ausgibt. Hierzu wird die Steuerlogik mit einer Vielzahl von Werten der Eingangsgrößen beaufschlagt, die jeweils eine Situation repräsentieren, und die von der Steuerlogik erhaltenen Werte der Stellgrößen werden dahingehend geprüft, ob sie eine im Kontext der beabsichtigten Verwendung der Steuerlogik in einem konkreten Automatisierungssystem angemessene Reaktion repräsentieren.

Es wurde erkannt, dass mit einem trainierten KNN, das das Verhalten der Steuerlogik gelernt hat und insofern ein „digitaler Zwilling“ dieser Steuerlogik ist, der für eine solche Prüfung erforderliche Zeitaufwand deutlich reduziert werden kann. Zu diesem Zweck stellt die Erfindung ein Verfahren zur Prüfung einer Steuerlogik, die eine oder mehrere aus einem Automatisierungssystem bezogene Eingangsgrößen zu einer oder mehreren Stellgrößen verarbeitet, bereit. Im Rahmen dieses Verfahrens wird ein künstliches neuronales Netzwerk, KNN, bereitgestellt, das darauf trainiert ist, zu gegebenen Werten der Eingangsgrößen einen Vorschlag für die Stellgrößen vorherzusagen, der mit dem Vorschlag der Steuerlogik bezüglich dieser Werte der Eingangsgrößen übereinstimmt. Dem KNN werden Test-Werte der Eingangsgrößen zugeführt, die sich auf vorgegebene Prüfungsszenarien beziehen. Die Test-Werte der Eingangsgrößen werden von dem KNN auf Test-Werte der Stellgrößen abgebildet. Dabei können die Test-Werte der Eingangsgrößen insbesondere Werte umfassen, die nicht zu den beim Training verwendeten Lern-Werten der Eingangsgrößen gehören. Idealerweise ist die Menge der Lem-Werte der Eingangsgrößen disjunkt zur Menge der Test-Werte der Eingangsgrößen.

Das durch die Test-Werte der Stellgrößen jeweils charakterisierte Antwortverhalten des KNN wird nun anhand vorgegebener Kriterien dahingehend geprüft, ob es im Kontext der beabsichtigten Verwendung der Steuerlogik in einem konkreten Automatisierungssystem angemessen wäre. In Antwort darauf, dass das

Antwortverhalten des KNN insgesamt als angemessen erkannt wird, wird festgestellt, dass die Prüfung der Steuerlogik bestanden ist.

Das KNN verhält sich auf Grund seines Trainings wie die zu prüfende Steuerlogik, liefert also Test-Werte der Stellgrößen, die gleich oder zumindest sehr ähnlich zu den Werten der Stellgrößen sind, die die Steuerlogik an seiner Stelle geliefert hätte. Das KNN kann jedoch auf viel schnellerer Hardware betrieben werden als die Steuerlogik. Daher können die Test-Werte der Stellgrößen vom KNN wesentlich schneller erhalten werden als die Steuerlogik sie liefern könnte. Im normalen Betrieb der Steuerlogik werden die Werte der Stellgrößen nicht derart schnell benötigt. Bei der Prüfung werden jedoch solche Werte in viel größerer Zahl benötigt als im normalen Betrieb, so dass die Verarbeitungsgeschwindigkeit der Steuerlogik bei der Prüfung ein Engpass wäre. Dieser Engpass lässt sich beheben, indem das KNN temporär auf schnellerer Hardware, wie etwa Grafikprozessoren (GPUs), ausgeführt wird. Beispielsweise können GPUs stunden- oder gar minutenweise bei Cloud-Anbietern angemietet werden, wenn eine Prüfung der Steuerlogik ansteht. Die GPUs können auch verwendet werden, um das KNN auf das Verhalten der zu prüfenden Steuerlogik zu trainieren.

Insbesondere können beispielsweise komplette Sollwertkurven der Eingangsgrößen und/oder Stellgrößen, an denen die Maschine und/oder der Prozess entlangfahren soll, mit Hilfe des KNN als „digitalem Zwilling“ mit sehr kleiner Schrittweite durchgefahren werden. Dadurch wird die Prüfung deutlich vollständiger gegenüber dem bisherigen Stand der Technik, bei dem aus Zeitgründen eine relativ große Schrittweite gewählt werden musste.

Die Prüfung, ob das Antwortverhalten des KNN angemessen ist, kann nach beliebigen Kriterien erfolgen. Diese Kriterien können insbesondere beispielsweise Randbedingungen für die Werte der Stellgrößen beinhalten, die durch das konkrete Automatisierungssystem vorgegeben sind. Wenn die Test-Werte der Stellgrößen diese Randbedingungen nicht einhalten, kann das Antwortverhalten des KNN so, wie es ist, nicht in dem konkreten Automatisierungssystem umgesetzt werden.

Ein alternativ oder auch in Kombination zu der vorgenannten Prüfung nutzbarer Ansatz misst, inwieweit sich das Verhalten der Steuerlogik von einem KNN erlernen lässt. Wenn sich das Verhalten gut erlernen lässt, deutet dies daraufhin, dass es in sich konsistent ist. Wenn sich das Verhalten hingegen schlecht erlernen lässt, deutet dies daraufhin, dass es Anteile enthält, die im Kontext des Automatisierungssystems nicht plausibel sind. Wenn beispielsweise in der Steuerlogik in bestimmten Situationen ein Integer-Üb erlauf auftritt, so dass ein zu hoch angestiegener Integer- Wert plötzlich auf Null gekappt wird und von dort wieder hochzählt, so ist dieses Verhalten völlig überraschend und folgt keinem erkennbaren Muster, das ein KNN beim Training erfassen könnte.

Daher stellt die Erfindung ein weiteres Verfahren zur Prüfung einer Steuerlogik, die eine oder mehrere aus einem Automatisierungssystem bezogene Eingangsgrößen zu einer oder mehreren Stellgrößen verarbeitet, bereit.

Im Rahmen dieses Verfahrens werden eine Vielzahl von Lern-Werten der Eingangsgrößen sowie jeweils zugehörige Lem-Werte der Stellgrößen bereitgestellt. Die Lern-Werte der Stellgrößen können beispielsweise Werte der Stellgrößen sein, die die zu prüfende Steuerlogik für die Lem-Werte der Eingangsgrößen vorschlägt. Die Lern-Werte der Stellgrößen können aber alternativ oder auch in Kombination hierzu beispielsweise auch aus Vorwissen über das konkrete Automatisierungssystem erzeugt werden.

Ein künstliches neuronales Netzwerk, KNN, wird dahingehend trainiert, dass es die Lern-Werte der Eingangsgrößen auf die jeweils zugehörigen Lern-Werte der

Stellgrößen abbildet. Nach diesem Training werden Test-Werte der Eingangsgrößen, die sich auf vorgegebene Prüfungsszenarien beziehen, sowohl der Steuerlogik als auch dem KNN zugeführt. Dabei können die Test-Werte der Eingangsgrößen insbesondere Werte umfassen, die nicht zu den beim Training verwendeten Lem- Werten der Eingangsgrößen gehören. Idealerweise ist die Menge der Lem-Werte der Eingangsgrößen disjunkt zur Menge der Test-Werte der Eingangsgrößen.

Vorschläge für Werte der Stellgrößen, auf die die Steuerlogik einerseits und das KNN andererseits die Test-Werte der Eingangsgrößen jeweils abbilden, werden gegeneinander plausibilisiert. In Antwort darauf, dass sich hierbei für einen vorgegebenen Anteil der Prüfungsszenarien jeweils die beiden Vorschläge als zueinander plausibel erweisen, wird festgestellt, dass die Prüfung der Steuerlogik bestanden ist. Insbesondere der zuvor erwähnte Integer-Üb erlauf oder andere sporadisch auftretende Probleme werden von dem KNN mit hoher Wahrscheinlichkeit entweder gar nicht mitgelernt oder auch auf andere Situationen verallgemeinert. Beides führt beim Vergleich der Vorschläge für Werte der Stellgrößen, die das KNN einerseits und die Steuerlogik andererseits ausgeben, zu größeren Abweichungen.

Das Verfahren zur Erzeugung von Stellgrößen im laufenden Betrieb des Automatisierungssystems sowie das zuerst erwähnte Verfahren zur Prüfung einer Steuerlogik setzen jeweils ein KNN voraus, das bereits trainiert ist. Die Erfindung stellt auch ein Verfahren für das Training eines KNN zum Einsatz in einem dieser Verfahren bereit.

Bei diesem Verfahren wird einer Steuerlogik, deren Verhalten in einem konkreten Automatisierungssystem das KNN Vorhersagen soll, eine Vielzahl von im Kontext dieses Automatisierungssystems realistischen Lem-Werten der Eingangsgrößen zugeführt. Diese Lern-Werte der Eingangsgrößen werden von der Steuerlogik jeweils auf Lem-Werte von Stellgrößen des Automatisierungssystems abgebildet. Auf diese Weise werden also die Lern-Werte der Eingangsgrößen dahingehend „gelabelf ‘, welche Werte der Stellgrößen das KNN aus diesen Lem-Werten erzeugen sollte. Die Lern-Werte der Eingangsgrößen werden dem KNN zugeführt. Das KNN bildet die Lem-Werte der Eingangsgrößen auf Werte der Stellgrößen ab. Parameter, die das Verhalten des KNN charakterisieren, werden optimiert mit dem Ziel, dass die Werte der Stellgrößen, auf die das KNN die Lem-Werte der Eingangsgrößen abbildet, zu den Lern-Werten der Ausgangsgrößen plausibel sind. Diese Parameter können insbesondere beispielsweise Gewichte sein, mit denen Eingaben, die Neuronen des KNN zugeführt werden, zu Aktivierungen der jeweiligen Neuronen summiert werden.

Dieses Training des KNN ist ein überwachtes Training, wobei das Verhalten der Steuerlogik als „ground truth“ dient, anhand derer das KNN lernt.

Das Optimieren kann insbesondere beispielsweise darauf gerichtet sein, dass die Werte der Stellgrößen, auf die das KNN konkrete Lern-Werte der Eingangsgrößen abbildet, nach Maßgabe einer Kostenfunktion möglichst gut mit den zugehörigen Lern-Werten der Stellgrößen übereinstimmen.

Alternativ oder auch in Kombination hierzu kann das Optimieren darauf gerichtet sein, durch die Lern-Werte der Eingangsgrößen in Kombination mit den zugehörigen Lern-Werten der Ausgangsgrößen definierte Datenpunkte zu clustern und/oder durch eine komprimierte Repräsentation auszudrücken.

Die Verfahren können insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, eines der beschriebenen Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen. Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann. Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.

Die Erfindung bezieht sich auch auf ein Automatisierungssystem für die Steuerung einer Maschine und/oder eines Prozesses. Dieses Automatisierungssystem umfasst mindestens ein Leitsystem, mindestens eine Peripherie, und/oder mindestens einen Signalgeber, die dazu ausgebildet sind, Zustandsgrößen und/oder Sollwerte der Maschine bzw. des Prozesses als Eingangsgrößen zur Verfügung zu stellen. Es ist eine erste Steuerlogik vorgesehen, die dazu ausgebildet ist, die Eingangsgrößen zu einem ersten Vorschlag für eine oder mehrere Stellgrößen zu verarbeiten.

Es ist eine zweite Steuerlogik mit einem künstlichen neuronalen Netzwerk, KNN, vorgesehen. Das KNN ist darauf trainiert ist, zu gegebenen Werten der Eingangsgrößen einen Vorschlag für die Stellgrößen vorherzusagen, der mit dem Vorschlag der ersten Steuerlogik bezüglich dieser Werte der Eingangsgrößen übereinstimmt.

Weiterhin sind Mittel zur Plausibilisierung des Vorschlags der ersten Steuerlogik gegen den Vorschlag der zweiten Steuerlogik und eine Auswerteeinheit zum Ermitteln eines Endergebnisses der Stellgrößen aus Vorschlägen, die von den besagten Mitteln als zueinander plausibel gewertet werden, vorgesehen. Die besagten Mittel und die Auswerteeinheit können insbesondere beispielsweise auch in einem Gerät oder in einer Baugruppe zusammengefasst sein.

Anwendungsbereiche, in denen sicherheitsrelevante Automatisierungssysteme betrieben werden und die von den beschriebenen Verfahren und dem Automatisierungssystem profitieren können, sind beispielsweise • Förderanlagen im Bergbau; · Aufzugsysteme; • Prozessindustrie, beispielsweise Steuerung und Überwachung exothermer Prozesse;

• Automatisierungsaufgaben in der Bahnindustrie, wie beispielsweise die Fernsteuerung von Zugsystemen im Güterumschlag;

• Automatisierungsaufgaben in Fahrzeugen, wie beispielsweise autonomes Fahren oder die Erkennung von Situationen, in denen der Airbag auszulösen ist;

• Automatisierungsaufgaben in Flugzeugen, wie beispielsweise Autopiloten oder automatische Landesysteme;

• Werkzeugmaschinen, bei denen etwa das Einrichten, die Störungsbeseitigung, der Sonderbetrieb oder der Automatikbetrieb mit erhöhten Geschwindigkeiten zu automatisieren ist;

• Umformmaschinen, bei denen etwa der Werkzeugwechsel, die Überwachung von Bewegungsbereichen oder die Vermeidung unzulässige Achspositionen zu automatisieren ist;

• Verpackungsmaschinen, bei denen ein sicherer Betriebshalt bei einer Prozessstörung zu gewährleisten ist; sowie

• Druck- und Verarbeitungsmaschinen, bei denen Überwachen von Schutzbereichen sowie das Einhalten reduzierter Geschwindigkeiten und sicherer Drehrichtungen zu automatisieren ist.

Spezieller Beschreibungsteil

Nachfolgend wird der Gegenstand der Erfindung anhand von Figuren erläutert, ohne dass der Gegenstand der Erfindung hierdurch beschränkt wird. Es ist gezeigt:

Figur 1: Ausführungsbeispiel des Verfahrens 100 zur Erzeugung von Stellgrößen 12; Figur 2: Ausführungsbeispiel des Verfahrens 200 zur Prüfung einer Steuerlogik 4a; Figur 3: Ausführungsbeispiel des Verfahrens 300 zur Prüfung einer Steuerlogik 4a; Figur 4: Ausführungsbeispiel des Trainingsverfahrens 400;

Figur 5: Ausführungsbeispiel des Automatisierungssystems 1;

Figur 6: Weg-Geschwindigkeits-Diagramm in einer beispielhaften Anwendung des Automatisierungssystems 1 im Bergbau.

Figur 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zur Erzeugung von Stellgrößen 12. In Schritt 110 werden aus dem Automatisierungssystem 1 eine oder mehrere Eingangsgrößen 11 bezogen.

Diese Eingangsgrößen 11 werden in Schritt 120 durch eine erste Steuerlogik 4a zu einem ersten Vorschlag 12a für die eine oder mehreren Stellgrößen 12 verarbeitet.

Parallel hierzu werden die Eingangsgrößen 11 auch in Schritt 130 durch eine zweite Steuerlogik 4b, die ein KNN 4b* enthält, zu einem zweiten Vorschlag 12b für die eine oder mehreren Stellgrößen 12 verarbeitet. Das KNN 4b* ist darauf trainiert, zu gegebenen Werten der Eingangsgrößen 11 einen Vorschlag 12b für die Stellgrößen 12 vorherzusagen, der mit dem Vorschlag 12a der ersten Steuerlogik 4a bezüglich dieser Werte der Eingangsgrößen 11 übereinstimmt.

In Schritt 140 werden die beiden Vorschläge 12a, 12b für die eine oder mehreren Stellgrößen 12 gegeneinander plausibilisiert. In Antwort darauf, dass sich hierbei die beiden Vorschläge 12a, 12b als zueinander plausibel erweisen (Wahrheitswert 1 bei Diamant 150), wird in Schritt 160 aus den beiden Vorschlägen 12a, 12b ein Endergebnis der einen oder mehreren Stellgrößen (12) ermittelt. Wenn die beiden Vorschläge 12a, 12b sich hingegen als nicht zueinander plausibel erweisen (Wahrheitswert 0 bei Diamant 150), wird in Schritt 170 die Ausgabe von Stellgrößen unterdrückt und/oder in Schritt 180 eine sonstige Maßnahme eingeleitet, um eine von dem Automatisierungssystem 1 gesteuerte Maschine oder Anlage, bzw. einen von dem Automatisierungssystem 1 gesteuerten Prozess, in einen sicheren Zustand zu versetzen oder dort zu belassen.

Innerhalb des Kastens 140 ist beispielhaft eingezeichnet, wie die Vorschläge 12a, 12b gegeneinander plausibilisiert werden können. Gemäß Block 141 können die

Vorschläge 12a, 12b miteinander verglichen werden. Wenn die bei diesem Vergleich 141 ermittelte Abweichung innerhalb einer vorgegebenen Toleranz liegt (Wahrheitswert 1 bei Diamant 142), und optional auch die beiden Vorschläge 12a, 12b zu Zeiten geliefert werden, die um höchstens eine vorgegebene Toleranz voneinander abweichen (Wahrheitswert 1 bei Diamant 143), können die beiden Vorschläge 12a, 12b als plausibel zueinander gewertet werden.

Figur 2 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 200 zur Prüfung einer Steuerlogik 4a. In Schritt 210 wird das trainierte KNN 4b* bereitgestellt. In Schritt 220 werden dem KNN 4b* Test-Werte 11* der Eingangsgrößen 11 zugeführt, die sich auf vorgegebenen Prüfungsszenarien beziehen. Die Test-Werte 11* werden in Schritt 230 von dem KNN 4b* auf Test- Werte 12* der Stellgrößen 12 abgebildet. Das durch die Test-Werte 12* der Stellgrößen 12 jeweils charakterisierte

Antwortverhalten des KNN 4b* wird in Schritt 240 anhand vorgegebener Kriterien dahingehend geprüft, ob es im Kontext der beabsichtigten Verwendung der Steuerlogik 4a in einem konkreten Automatisierungssystem 1 angemessen wäre. Ist dies der Fall (Wahrheitswert 1 bei Diamant 250), wird in Schritt 260 festgestellt, dass die Prüfung der Steuerlogik 4a bestanden ist.

Figur 3 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 300 zur Prüfung einer Steuerlogik 4a. In Schritt 310 werden eine Vielzahl von Lem-Werten 11# der Eingangsgrößen 11 sowie jeweils zugehörige Lern-Werte 12# der Stellgrößen 12 bereitgestellt. In Schritt 320 wird ein künstliches neuronales Netzwerk, KNN 4b*, dahingehend trainiert, dass es die Lern-Werte 11# der Eingangsgrößen 11 auf die jeweils zugehörigen Lern-Werte 12# der Stellgrößen 12 abbildet. In Schritt 330 werden Test-Werte 11* der Eingangsgrößen 11, die sich auf vorgegebene Prüfungsszenarien beziehen, sowohl der Steuerlogik 4a als auch dem KNN 4b* zugeführt. Die Steuerlogik 4a und das KNN 4b* liefern daraufhin Vorschläge 12a bzw. 12b für die Stellgrößen 12. Diese Vorschläge 12a, 12b werden in Schritt 340 gegeneinander plausibilisiert. In Antwort darauf, dass sich hierbei für einen vorgegebenen Anteil der Prüfungsszenarien jeweils die beiden Vorschläge 12a, 12b als zueinander plausibel erweisen (Wahrheitswert 1 bei Diamant 350), wird in Schritt 360 festgestellt, dass die Prüfung der Steuerlogik 4a bestanden ist.

Figur 4 ist ein schematisches Ablaufdiagramm des Verfahrens 400 zum Trainieren des KNN 4b* in einem der zuvor beschriebenen Verfahren 100, 200. In Schritt 410 wird einer Steuerlogik 4a, deren Verhalten in einem konkreten Automatisierungssystem 1 das KNN 4b* Vorhersagen soll, eine Vielzahl von im Kontext dieses Automatisierungssystems 1 realistischen Lem-Werten 11# der Eingangsgrößen 11 zugeführt. Diese Lern-Werte 11# der Eingangsgrößen 11 werden in Schritt 420 von der Steuerlogik 4a jeweils auf Lern-Werte 12# von Stellgrößen 12 des Automatisierungssystems 1 abgebildet. Das heißt, die Steuerlogik 4a ist die Quelle für die Lern-Werte 12# der Stellgrößen 12.

Die Lern-Werte 11# der Eingangsgrößen 11 werden in Schritt 430 dem KNN 4b* zugeführt, so dass das KNN 4b* in Schritt 440 die Lern-Werte 11# der

Eingangsgrößen 11 auf Werte der Stellgrößen 12 abbildet. In Schritt 450 werden Parameter 4b#, die das Verhalten des KNN 4b* charakterisieren, optimiert mit dem Ziel, dass die Werte der Stellgrößen 12, auf die das KNN 4b* die Lern-Werte 11# der Eingangsgrößen 11 abbildet, zu den Lern-Werten 12# der Ausgangsgrößen 12 plausibel sind. Das Abbruchkriterium dieser Optimierung 450 ist beliebig. Gemäß Block 451 kann das Optimieren 450 beispielsweise darauf gerichtet sein, dass die Werte der Stellgrößen 12, auf die das KNN 4b* konkrete Lern-Werte 11# der Eingangsgrößen 11 abbildet, nach Maßgabe einer Kostenfunktion möglichst gut mit den zugehörigen Lem-Werten 12# der Stellgrößen 12 übereinstimmen.

Gemäß Block 452 kann das Optimieren 450 darauf gerichtet sein, durch die Lern- Werte 11# der Eingangsgrößen 11 in Kombination mit den zugehörigen Lem-Werten 12# der Ausgangsgrößen 12 definierte Datenpunkte zu clustem und/oder durch eine komprimierte Repräsentation auszudrücken.

Figur 5 zeigt ein Ausführungsbeispiel des Automatisierungssystems 1 für die Steuerung einer Maschine und/oder eines Prozesses 2. Die Steuerung erfolgt über mindestens einen Aktor 3, der bei Ansteuerung mit Stellgrößen 12 auf die Maschine und/oder den Prozess 2 einwirkt. Das Automatisierungssystem 1 umfasst mindestens ein Leitsystem 5a, mindestens eine Peripherie 5b, und/oder mindestens einen Signalgeber 5c, die dazu ausgebildet sind, Zustandsgrößen und/oder Sollwerte der Maschine bzw. des Prozesses 2 als Eingangsgrößen 11 zur Verfügung zu stellen. Die Eingangsgrößen 11 können insbesondere zuvor als Feedback 2a von der Maschine bzw. dem Prozess 2 oder als Feedback 3a vom Aktor 3 bezogen worden sein.

Die erste Steuerlogik 4a ist dazu ausgebildet, die Eingangsgrößen 11 zu einem ersten Vorschlag 12a für eine oder mehrere Stellgrößen 12 zu verarbeiten. Die zweite Steuerlogik 4b enthält ein künstliches neuronales Netzwerk, KNN 4b*. Dieses KNN 4b* ist darauf trainiert, zu gegebenen Werten der Eingangsgrößen 11 einen

Vorschlag 12b für die Stellgrößen 12 vorherzusagen, der mit dem Vorschlag 12a der ersten Steuerlogik 4a bezüglich dieser Werte der Eingangsgrößen 11 übereinstimmt;

Es sind Mittel 6 zur Plausibilisierung des Vorschlags 12a der ersten Steuerlogik 4a gegen den Vorschlag 12b der zweiten Steuerlogik 4b vorgesehen. Aus als plausibel zueinander geweitete Vorschläge 12a und 12b wird von der Auswerteeinheit 7 ein Endergebnis der Stellgrößen 12 ermittelt.

Figur 6 zeigt ein beispielhaftes Diagramm der maximal zulässigen Geschwindigkeit v eines Förderkorbs in einem Bergwerk über der Position s entlang eines Fahrweges, der von 0 % bis 100 % reicht. Die Antriebsmaschine (Fördermittel) des Förderkorbs wird von dem Automatisierungssystem 1 gesteuert, das hier als Fahrtregler dient.

Fahrtregler, Bremseinrichtung und Signalanlage sind die wesentlichen Komponenten der Fördermaschinensteuerung einer Schachtförderanlage. Der Fahrtregler steuert den Antrieb der Fördermaschine und überwacht die der Personen- und Materialbeförderung dienenden meist seilgeführten Fördermittel auf dem gesamten Fahrweg auf Einhaltung der maximal zulässigen Fahrgeschwindigkeiten. Bei Überschreitungen bewirkt der Fahrtregler das Stillsetzen der Fördermittel · durch elektrisches Absteuern des Antriebsmotors oder

• durch Einfall der mechanischen Bremse und Abschalten des Antriebsmotors.

Eine von mehreren Steuerungsfunktionen des Fahrtreglers realisiert die sogenannte „punktweise Geschwindigkeitsüberwachung“. In Abhängigkeit von der Position der Fördermittel im Schacht und der Fahrtrichtung darf die Fahrgeschwindigkeit bestimmte Grenzwerte nicht überschreiten. Nach Figur 6 darf beispielsweise die maximale Fahrgeschwindigkeit bei der Fahrt in Richtung 100% im Bereich 0 bis 20% den vorgegebenen Wert von vl nicht überschreiten. Gängige Steuerlogiken 4a, die in dieser Anwendung zum Einsatz kommen und gemäß der Erfindung mit dem KNN 4b* abgesichert und/oder geprüft werden können, sind programmierbare elektronische Komponenten in Form von speicherprogrammierbaren Steuerungen, SPS. Die Funktionsweise der punktweisen Geschwindigkeitsüberwachung lässt sich gemäß Figur 6 für Fahrten von der Position 0 % bis zur Position 100 % wie folgt beschreiben: (1) Zwischen 0 % < Position < 20 % und 80 % < Position < 100 % darf die aktuelle Geschwindigkeit den Wert vl nicht überschreiten.

(2) Zwischen 20 < Position < 40 % und 60 % < Position < 80 % darf die aktuelle Geschwindigkeit den Wert v2 nicht überschreiten.

(3) Zwischen 40 < Position < 60 % darf die aktuelle Geschwindigkeit den Wert v3 nicht überschreiten.

(4) Werden eine oder mehrere der Anforderungen (1) bis (3) nicht erfüllt, wird der Antrieb der Fördermaschine elektrisch stillgesetzt.

(5) Wird die Anforderung (4) nicht erfüllt, wird der Antrieb abgeschaltet und die mechanische Bremse aktiviert.

Diese Funktionalität wird von der Steuerlogik 4a einerseits und von der Steuerlogik 4b mit dem KNN 4b* andererseits gleichermaßen realisiert, so dass die Stellgröße 12 auf redundantem Wege (Vorschläge 12a bzw. 12b) erzeugt wird. Durch die Verschiedenartigkeit von KNN und SPS im Hinblick auf Engineering und Technologie wird das Prinzip der „Diversitäf ‘ realisiert. Somit stellt die KNN- basierte Redundanz eine geeignete Maßnahme zur Vermeidung und Beherrschung von systematischen Fehlern dar. Einem bereits im Planungs- und Entwurfsstadium auf die Anforderungen eines zu steuernden Prozesses trainierten KNN 4b* können die bereits bekannten Kriterien als Eingangsinformationen vor und während der Inbetriebnahme zur Verfügung gestellt werden.

Anlagen- und/oder prozessbezogen kann zur Plausibilisierung der bekannten Anforderungen sowie zwischenzeitlich erfolgter Modifikationen das Antwortverhalten des KNN 4b* simultan als Vorhersage für das reale Verhalten des in Betrieb zu nehmenden Prozesses genutzt werden, um ein unbeabsichtigtes oder gar gefährliches Fehl verhalten zu vermeiden.

Dem Inbetriebnehmer werden mit Hilfe des KNN 4b* Zusatzinformationen gegeben, die ihn bei seiner Anlagenparametrierung zeitsparend unterstützen und damit das Potential für betriebswirtschaftlichen Nutzen bieten.

Bezugszeichenliste

1 Automatisierungssystem

11 Eingangsgrößen 11* Test-Werte der Eingangsgrößen 11

11# Lern-Werte der Eingangsgrößen 11 12 Stellgrößen 12* Test-Werte der Stellgrößen 12 12# Lern-Werte der Stellgrößen 12 12a Vorschlag für Stellgrößen von Steuerlogik 4a

12b Vorschlag für Stellgrößen von Steuerlogik 4b 2 Maschine und/oder Prozess

2a Feedback von Maschine und/oder Prozess 2

3 Aktor 3a Feedback von Aktor 3 4a erste Steuerlogik, erzeugt Vorschlag 12a 4b zweite Steuerlogik, erzeugt Vorschlag 12b 4b* KNN in zweiter Steuerlogik 4b 4b# Parameter, charakterisieren Verhalten des KNN 4b* 5a Leitsystem in Automatisierungssystem 1 5b Peripherie in Automatisierungssystem 1 5c Signalgeber in Automatisierungssystem 1 6 Mittel zum Plausibilisieren der Vorschläge 12a, 12b 7 Auswerteeinheit, bildet Endergebnis für Stellgrößen 12 100 Verfahren zur Erzeugung der Stellgrößen 12

110 Beziehen der Eingangsgrößen 11 120 Erzeugen des ersten Vorschlags 12a 130 Erzeugen des zweiten Vorschlags 12b 140 Plausibilisieren der Vorschläge 12a, 12b 141 Vergleichen der Vorschläge 12a, 12b 142 Prüfen einer Abweichung aus Vergleich 141

143 Prüfen derZeitpunkte, zu denen Vorschläge 12a, 12b eintreffen 150 Entscheidung, ob Vorschläge 12a, 12b zueinander plausibel 160 Ermitteln des Endergebnisses für Stellgrößen 12 170 Unterdrücken der Ausgabe von Stellgrößen 12 180 Einleiten sonstiger Maßnahmen 200 Verfahren zur Prüfung der Steuerlogik 4a 210 Bereitstellen des KNN 4b* 220 Zuführen von Test-Werten 11* an KNN 4b* 230 Erzeugen von Test-Werten 12* durch KNN 4b* 240 Prüfen des Antwortverhaltens des KNN 4b* 250 Entscheidung, ob Antwortverhalten angemessen 260 Feststellen, dass Prüfung der Steuerlogik 4a bestanden 300 Verfahren zur Prüfung der Steuerlogik 4a 310 Bereitstellen von Lern-Werten 11#, 12# 320 Trainieren des KNN 4b* 330 Zuführen von Test-Werten 11* an Steuerlogik 4a und KNN 4b* 340 Plausibilisieren der Vorschläge 4a, 4b 350 Entscheidung, ob Vorschläge 4a, 4b plausibel 360 Feststellen, dass Prüfung der Steuerlogik 4a bestanden 400 Verfahren zum Trainieren des KNN 4b* 410 Zuführen von Lern-Werten 11# an Steuerlogik 4a 420 Erzeugen von Lern-Werten 12# durch Steuerlogik 4a 430 Zuführen der Lern- Werte 11# an KNN 4b* 440 Erzeugen von Werten der Stellgrößen 12 durch KNN 4b*

450 Optimieren der Parameter 4b# des KNN 4b

451 Optimieren mit Kostenfunktion

452 Optimieren durch Clustern s Weg

V Geschwindigkeit