Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR SIGNAL ANALYSIS, PROCESS IDENTIFICATION AND MONITORING OF A TECHNICAL PROCESS
Document Type and Number:
WIPO Patent Application WO/1994/015268
Kind Code:
A2
Abstract:
The invention concerns a method for enhancing the reliability of damage diagnosis which can be used with any technical process in which one or more measured variables suitable for use in monitoring are available and the process dynamics are determined by so-called operational parameters. In particular the invention concerns a processor for calculating the consistent, expanded and rapid progressive multiple regression. This method can be used in process identification and signal analysis.

Inventors:
BALEANU MICHAEL-ALIN (DE)
Application Number:
PCT/EP1993/003674
Publication Date:
July 07, 1994
Filing Date:
December 23, 1993
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BALEANU MICHAEL ALIN (DE)
International Classes:
G01M7/00; G06F17/18; G01M7/02; G06F17/10; G06F19/00; G07C3/00; (IPC1-7): G06F15/46
Foreign References:
DE3725123A11988-04-28
DE3133222A11983-03-03
US5099436A1992-03-24
Other References:
INTERNATIONAL JOURNAL OF BIOMEDICAL COMPUTING, ELSEVIER SCIENTIFIC PUBLISHERS Bd. 33, Nr. 1 , Juli 1993 , SHANNON, CO. CLARE, IRL Seiten 1 - 23 XP000397977 AMY M. FUREY ET AL 'A PC PROGRAM TO AID IN THE CHOICE OF THE DESIGN MATRIX IN MULTIPLE LINEAR REGRESSION'
NTIS FOREIGN TECHNOLOGY SERIES, US DEPARTMENT OF COMMERCE Bd. PB82, Nr. 9707 , 1982 'REGPAC A STATISTICAL REGRESSION PACKAGE'
IEEE TRANSACTIONS ON INFORMATION THEORY Bd. 38, Nr. 4 , Juli 1992 , NEW YORK US Seiten 1323 - 1338 XP000287141 A.KRZYZAK 'GLOBAL CONVERGENCE OF THE RECURSIVE KERNEL REGRESSION ESTIMATES WITH APPLICATIONS IN CLASSIFICATION AND NONLINEAR SYSTEM ESTIMATION'
PROCEEDINGS OF THE 1991 IEEE INTERNATIONAL SYMPOSIUM ON INFORMATION THEORY, IEEE PRESS NEW YORK US Juni 1991 , BUDAPEST, HUNGARY Seite 161 XP000365548 M.PAWLAK ET AL 'ON NON PARAMETRIC ESTIMATION OF A CASCADE NONLINEAR SYSTEM BY THE KERNEL REGRESSION ESTIMATE'
PROCEEDINGS OF ICASSP 92, IEEE PRESS NEW YORK US Bd. 5 , M{rz 1992 , SAN FRANSISCO US Seiten 529 - 532 XP000341475 A.SPANIAS ET AL 'BLOCK TIME AND FREQUENCY DOMAIN MODIFIED COVARIANCE ALGORITHMS'
INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS, IEEE PRESS NEW YORK US Bd. 1 , Juli 1991 , SEATTLE, US Seiten 79 - 84 XP000238272 V.CHERKASSKY ET AL 'SELF-ORGANIZING NETWORK FOR REGRESSION: EFFICIENT IMPLEMENTATION AND COMPARATIVE EVALUATION'
PROCEEDINGS OF IEEE CONFERENCE ON INSTRUMENTATION AND MEASUREMENT TECHNOLOGY Mai 1991 , ATLANTA, US Seiten 315 - 318 XP000295361 RISTO SUORANTA ET AL 'UTILIZING MULTIVARIATE AUTOREGRESSIVE MODEL TO REVEAL INTERNAL DEPENDECIES IN MULTICHANNEL MEASUREMENT DATA'
See also references of EP 0676070A1
Download PDF:
Claims:
PATENTANSPRÜCHE
1. Schaltungsanordnung zur Durchführung der konsistenten, schnellen, erweiterten und kollinearitätsfreien multiplen Regression in rekursiver Form, unter Verwen¬ dung der Korrelationsmatrix 123, die über 132 aus der Kovarianzmatrix erhalten werden kann, und der Regressorvarianzen aus 115 die zur Korrektur der Diago¬ nalelemente der Korrelationsmatrix verwendet werden, dadurch gekennzeichnet daß die von der Steuer und Addressiereinheit 101 busgesteuerte Regres¬ sionseinheit 102 in der Rekursionsebene p anhand der Diagonal und Matri¬ xelemente der abhängigen Variable aus 111 und den Regressomummern aus 114 die Regressoren ermittelt, die einen geringen Beitrag zum Modell haben und gegebenenfalls die ausscheidenden Variablen in 110 sperrt, die neuen Matrixelemente in 111 berechnet, den Offset fürl 13 in 112 speichert, die Re¬ gressorzeilen des neuen Modells in 113 berechnet und die Regressomum¬ mern in 114 speichert, daß mit Hilfe der Regressorvarianzen(115), die mit dem Regressionsraum kol¬ lineare Regressoren ermittelt und gesperrt(110) werden, daß signifikante Regressoren aus den verbliebenen gesucht werden und bei erfolgloser Suche die aktuelle Varianzminderung durch das Modell zur Klassi¬ fikation zwischen den besten Q Modelle in 116 genutzt wird, mit anschließen¬ der Rückkehr in der darüberliegenden Rekursionsebene, wobei der Kontext aus 110 bis 114 geladen wird, ansonsten die Regressorvariable die die größte Varianzminderung der abhängigen Variable verursacht, ausgewählt wird, daß mit den Regressorvarianzen aus 115, der Satz, der mit dem besten Re¬ gressor kollinearen Variablen ermittelt wird, daß nacheinander jeder der Regressoren aus dem Satz der untereinander kollinearen Regressoren einzeln im Modell aufgenommen wird, während die restlichen, zum kollinearen Satz gehörenden, gesperrt bleiben, und unter der Voraussetzung, daß keines der bereits ermittelten Regressionskoeffizienten ein Vorzeichenwechsel erfährt, werden die Zeilen für den neuen Regressor(113) und die neuen Matrixelemente(111) berechnet und die nächsttiefere Rekursionsebene angewählt, daß bei Beendigung des kollinearen Variablensatzes in die nächsthöhere Rekursionsebene gewechselt wird wobei die entsprechenden Register der Speicher 110 bis 114 geladen werden.
2. Schaltunganordnung nach Anspruch 1, dadurch gekennzeichnet daß aus der Eingangsmatrix U im Speicher 121 mit L Zeilen entsprechend der Zahl der Eingangskanäle und V Spalten entsprechend des Stichprobenum fanges, der Funktionengenerator 131 eine Vielzahl von zusätzlichen, linearen und nichtlinearen Funktionen der Regressoren zur Verfügung stellt, und damit eine Zwischenmatrix mit N Zeilen (N»L) und gleicher Spaltenzahl erzeugt womit die Kovarianzmatrix XX' berechnet wird.
3. Schaltungsanordnung nach Anspruch 1 oder 2, dadurch gekennzeichnet , daß mehrere Regressionseinheiten 102 mit zugehörigem Speicher parallel betrieben werden.
4. Schaltungsanordnung nach Anspruch 1 oder 2, dadurch gekennzeichnet , daß mehrere Regressionseinheiten 102 mit zugehörigem Speicher in mehreren Ebe¬ nen (Baumstruktur) parallel betrieben werden.
5. Verfahren zur Überwachung eines technischen Prozesses oder von Schwingun¬ gen einer Maschine oder Bauteilen davon, insbesondere Maschinen mit rotieren¬ den Bauteilen, unter Verwendung von Sensoren zur Aufnahme von zu messen¬ den Überwachungsvariablen, z. B. Schwingungsamplitude, und von Parametern, die den Prozeß beschreiben oder den Lastzustand und die relativen Positionen der Bauteile der überwachten Maschine charakterisieren, sowie einer Meßdaten¬ verarbeitungsanlage, die einem Rechner zeitgieich die Überwachungsvariablen und die Parameterwerte in digitaler Form zur Verfügung stellt, dadurch gekennzeichnet, daß nach einer Normaizustandsprüfung und einer Prüfung auf Vollständigkeit im Parameterraum bei Auftreten neuer Betriebszustände für die jeweilige Überwachungsvariable eine individuelle Modellbildung neu gestartet wird, so¬ weit keine Alarme anstehen, daß mit der Einrichtung aus Anspruch 2, aus dem aktuellen Meßwert der Überwachungsvariablen und den vorgegebenen Parameterfunktionen des Funktionengenerators eine auf den letzten Stand gebrachte und somit Lern werte enthaltende Kovarianzmatrix gebildet wird und das neue Regressions¬ modul ermittelt wird, daß mit den ermittelten Koeffizienten und Parameterfunktionen aus den Para¬ metermeßwerten ein Schätzwert der Überwachungsvariablen gebildet wird, der vom aktuellen Meßwert der Überwachungsvariablen abgezogen wird und daß dieses Residuum als neue Überwachungsvariable, besonders zu Alarmzwecken, herangezogen wird.
6. 5 Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß während der Überwachung eine ständige Modellbildung mittels des glei¬ chen Verfahrens zu Kontrollzwecken durchgeführt wird, wobei die in Anspruch 4 bereits ermittelten signifikanten Parameterfunktionen berücksich¬ tigt werden, um neu hinzukommende oder abgehende Parameterfunktionen und/oder Beitragsänderungen der alten Parameterfunktionen rechtzeitig zu erkennen.
7. Einrichtung zur Durchführung des Verfahrens nach einem der Ansprüche 4 bis 5, dadurch gekennzeichnet, daß zur Erfassung der Überwachungsvariablen eine Meßwerterfassungsein¬ heit (A) und zur Erfassung der Parameter ein Prozeßerfassungssystem (B) vorgesehen ist, daß mit der Meßwerterfassungseinheit (A) und dem Prozeßerfassungssystem (B) eine busgesteuerte Überwachungseinheit (C) mit Rechner (5) verbunden ist, daß die Überwachungseinheit (C) eine Steuer und Zustandsanalyseeinheit (1), eine Regressionseinheit (2), eine Regressionskontrolleinheit (3) und eine Schätzwert und Komparatoreinheit (4) aufweist, daß die Steuer und Zustandsanalyseeinheit (1) zum einen mit einem Be triebszustandskontrollspeicher (11) und zum anderen mit einem Alarmspei¬ cher (51) verbunden ist, daß die Regressionseinheit (2) mit einem Kovarianzmatrix (122) und einem KorrelationsmatrixSpeicher(123) und einem Koeffizienten und Funktions¬ nummernspeicher (116) verbunden ist, der außerdem noch die Schätzwert und Komparatoreinheit (4) sowie die Regressionskontrolleinheit (3) versorgt, daß die Regressionskontrolleinheit (3) mit einem Kontrollkovarianzmatrix Speicher (31) und einem Ringspeicher (32) für die Modellkontrolle (Koeffizienten und Funktionsnummert.) verbunden ist und daß der Rechner (5) mit dem Alarmspeicher (51) verbunden ist.
8. Verfahren und Einrichtung nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, daß das Residuum der Überwachungsvariable einer Stellvorrichtung zuge¬ führt wird, die eine oder mehrere Prozeßeingangsgrößen verändern kann, zwecks Regelung des Prozesses.
Description:
Verfahren und Einrichtung zur Signalanalyse, Prozessidentifikation

und Überwachung eines technischen Prozesses

Zusammenfassung

Die Erfindung betrifft ein Verfahren zur Erhöhung der Schadensdiagnosesicherheit das überall da anwendbar ist, wo ein technischer Prozeß abläuft, bei dem eine oder mehrere zur Überwachung geeigneten Meßgrößen vorhanden sind, und die Proze߬ dynamik von sogenannten Betriebsparametern bestimmt wird. Insbesondere betrifft die Erfindung einen Prozessor zur Berechnung der konsistenten, erweiterten und schnellen schrittweisen multiplen Regression, das bei Prozeßidentifikation und Signal¬ analyse eingesetzt werden kann.

Technisches Gebiet

In der Signalanalyse wird ein zu analysierendes Signal y(t) in einer (endlichen) Reihe von Zeit-Funktionen (z. B. Fourier-Transformation) entwickelt, oder als eine lineare Kombination verschiedener gemessener oder vorgegebener Anregungs- oder Zusatz¬ funktionen (z. B. autoregressive modeliing, multiple Regression) ausgedrückt:

= 5(?) ?(r) + e (1)

y(t) = abhängige Variable (das zu analysierende Zeitsignal)

— » x (0 = Vektor der unabhängigen Variablen, Regressoren (Dimension N)

B(p) = Koeffizienten-Vektor (Dimension N) p = Parameter -Vektor (Dimension M) ε = Fehler

Der Parameter-Vektor p beschreibt die "betrieblichen" Einflüsse (z. B. hängt der drehfrequente Anteil einer Lagerbockschwingung einer Turbine von der Wirkleistung ab).

Ziel der Signalanalyse (1) ist die möglichst vollständige Beschreibung der Zeit¬ abhängigkeit von y(t) unter bestimmten Betriebsbedingungen. Die Betriebsabhängig¬ keiten der Koeffizienten B werden in der Signalanalyse meistens nicht berück¬ sichtigt.

In vielen technischen Bereichen wird das dynamische Verhalten eines Systems oder eines Prozesses durch S Gleichungen des Typs (1) beschrieben:

Dabei bedeuten im Einzelnen: x t) = Anregungs- oder Eingangsvektor (Dimension N) y (t) = Vektor der abhängigen Ausgangssignale ( Dimension S)

A(p) = Systemmatrix ( Dimension N * S )

Solche Problemstellungen trifft man in der Chemie, Regelungstechnik, Modalanalyse, usw. Die Gleichungen (2) ergeben sich aus theoretischen Überlegungen. Der Ver¬ gleich mit der Praxis führt zu Korrekturen der Elemente der Systemmatrix, da z. B. fertigungsbedingte Toleranzen zu Abweichungen vom theoretisch erwarteten Wert führen.

Dabei werden die Koeffizienten in (1) oder (2) mittels der Methode der kleinsten Qua¬ drate aus experimentell ermittelten Daten berechnet. Ein Sonderfall der Anwendung der Methode der kleinsten Quadrate ist die Fourier-Transformation, da hierbei die un¬ abhängigen Funktionen in (1) orthogonal zueinander sind. Die Orthogonalität der un¬ abhängigen Funktionen erlaubte die Entwicklung einfacher Verfahren zur Berechnung der diskreten Fourier-Transformation mittels spezieller FFT-Koprozessoren. Für den allgemeinen Fall nichtorthogonaler Funktionen - z. B. multiple Regression, autoregre- sive modelling - wurden keine Prozessoren entwickelt, aufgrund der bestehenden nu¬ merischen und nicht zuletzt methodischer Schwierigkeiten.

Eine der Hauptanwendungen der Gleichungen (1) und (2) ist die System- oder Pro¬ zeßüberwachung zwecks einer Schadensfrüherkennung. Dabei werden als Scha¬ densfrühindikator entweder die Abweichungen der gemessenen Ausgangssignale von

der Modellvorhersage oder die Änderungen der Modellkoeffizienten in (1) oder (2) benutzt.

Stand der Technik

Die Überwachungsaufgabe eines technischen Prozesses beinhaltet eine Reihe von Teilaufgaben:

Signalanalyse, Signalvalidierung

- System- / Prozeßidentifikation (mit Lernen des Modells über verschiedene Be- triebszustände) um auf

- betriebliche oder stochastische Störungen (z. B. durch Regelung)

- Anomalien im Prozeßablauf/Systemverhalten(Diagnose, Schadensdiagnose)

zu antworten. Die mathematische Behandlung einer jeden Teilaufgabe kann auf die Form (1) oder (2) zurückgeführt werden. Daher wird der Stand der Technik anhand der Problematik der Schwingungsüberwachung erläutert.

Eine Standardschwingungsüberwachung von rotierenden Bauteilen (z. B. Pumpen¬ oder Turbinenwellen) beschränkt sich auf die Überwachung des Effektiv- oder Spit¬ zenwertes eines Schwingsignals.

Eine wesentlich verfeinerte Schwingungsinformation erhält man durch frequenzselek¬ tive Verfahren. Dabei überwacht man üblicherweise die Amplitude, Frequenziage und/oder Phasenlage (im folgenden Überwachungsfunktionen y genannt) einer deter¬ ministischen oder stochastischen Systemresonanz.

Das Problem, das bei dieser Art der Überwachung auftritt, ist die starke Abhängigkeit dieser Überwachungsfunktionen von dem jeweiligen Lastzustand der Maschine. Die relativen Positionen der Maschinenbauteile beeinflussen zusätzlich die Steifigkeits- und Dämpfungskoeffizienten der betrachteten mechanischen Struktur (insbesondere bei gleitgelagerten Wellen der Abstand Welle - Lagerbock).

Um diesem Tatbestand gerecht zu werden, wurden viele Versuche unternommen, das Verhalten der Überwachungsfunktionen y phänomenologisch anhand der vorhande- nen Betriebsparameter JC (Z. B. Wirk- und Blindleistung im Falle einer Turbine) zu beschreiben.

Die üblichste Art ist die Einführung von Klassen im Betriebsparameterraum. Dabei werden für jede Klasse und überwachte Systemresonanz statistische Kennwerte für die Überwachungsfunktionen gebildet und anhand dieser Kennwerte wird überprüft, ob die Überwachungsvariablen klassenspezifische zulässige Grenzen überschreiten.

Der Nachteil dieser Verfahren ist die mit der Zahl der Parameter und mit der Zahl der für einen Parameter gewählten Bereiche, schnell wachsende Klassenzahl. Da auch die Grenzwerte klassenspezifisch sind, führt dies schnell zur Unübersichtlichkeit, selbst für den Schwingungsexperten.

Eine analytische Lösung bietet sich durch die Anwendung der multiplen Regression bei der Bestimmung der Überwachungsfunktionen y als Funktion der gemessenen

— » Parameter JC .

Die bisherigen Versuche scheiterten aber bis jetzt einerseits an der unvollständigen Beschreibung des Prozesses und andererseits an der Instabilität der multiplen Re¬ gression in der Form, in der es bis jetzt angewendet wurde IM ,121. Aufgrund des gro¬ ßen Identifikations- und Rechenaufwandes ist die Zahl der im Modell aufgenommenen Parametervariablen gering und die Modellstruktur hängt sehr stark von der Erfahrung des Spezialisten ab /13/.

Dabei ist die unvollständige Beschreibung nicht als Fehlen wichtiger Parameter (diese können jederzeit mitgemessen werden), sondern als Nichtberücksichtigung mancher Parameterwerte oder -kombinationen zu verstehen. Die Stichprobe, die zum Lernen der Regressionskoeffizienten herangezogen wird, kann nicht alle im Betrieb auftauchenden Parameterwerte bzw. - kombinationen enthalten/13/, wodurch später u. U. erhebliche systematische Fehler auftauchen.

Dadurch ergibt sich die Notwendigkeit eines lernenden Systems zur Prozeßmodellie¬ rung. Die in der Literatur bekannten lernende Regelkreise /3/, haben den Vorteil,

beliebige nichtlineare Zusammenhänge durch einfache tabellarische Datenablage zu modellieren. Dem steht der große Speicherbedarf und die nicht parametrische Form des Modells gegenüber. Um im Bedarfsfall, eine bessere Schadensdiagnose zu errei¬ chen, bedarf es aber einer parametrischen Form (1).

Zur unvollständigen Beschreibung trägt auch der lineare Ansatz bei, der, aus Gründen der Minimierung des Rechenaufwandes, immer wieder gemacht wird. Dabei sind aber die meisten technischen Abhängigkeiten nichtlinear, d. h. auch höhere Ordnungen ei¬ ner Taylor-Reihenentwicklung bzw. weitere funktionale Abhängigkeiten müssen be¬ rücksichtigt werden.

Zur Instabilität dieses Verfahrens trägt die Überbestimmung, d. h. die Verwendung von an sich äquivalenten Regressoren bei der Beschreibung der funktionalen Para¬ meterabhängigkeit (Gleichung 1) einer Überwachungsvariablen bei. Die multiple Re¬ gression liefert dann falsche Koeffizienten, die außerhalb der zur Koeffizientenbe¬ stimmung herangezogenen Stichprobe zu kaum reproduzierbaren Schätzwerten führen. Diese Instabilität ist in der Literatur als Multikollinearität, manchmal auch als Entartung /4/ bekannt und ist der Hauptgrund dafür, daß der Einsatz der multiplen Re¬ gression zur Schwingungsüberwachung (und zur Überwachung allgemein) fast un¬ möglich war. Um die Überbestimmung aufzuheben, wurden verschiedene Verfahren

•— zur Selektion der Modellvariablen x (Regressoren) entwickelt /12/. Sie haben alle den

Nachteil, daß im Falle einer großen Anzahl von Regressoren numerische Instabilitäten auftreten.

Auch bei der in der Literatur zur multiplen Regression oft angegebenen schrittweisen Regression, wie z. B. /4/,/5/pp.307-313, die den Vorteil der Auswahl signifikanter Pa¬ rameterfunktionen bietet, wird keine konsequente Überprüfung der Multikollinearität durchgeführt. Wie in der Literatur mehrfach ausgeführt 161,17/, ist der Test auf Multi¬ kollinearität eigentlich nur ein Test der numerischen Stabilität bei einer Matrixinver¬ sion, ohne die statistischen Eigenschaften des Datenmaterials zu berücksichtigen. Außerdem finden die bekannten Effekte der Multikollinearität /8/,/9/ - Vorzeichenwech¬ sel bzw. großer Wert eines Koeffizienten bei der Aufnahme eines neuen Regressors in das Modell - ebenfalls keine Beachtung /4/.

Die Berücksichtigung der stochastischen Natur der Regressoren x (t) findet in den sogenannten Modelle mit Fehler in den Variablen statt /10/, /11/. Dieser Ansatz ist mit der Ridge-Regression (z. B. /5/,pp. 313-325) verwandt, und führt zu einer konsisten¬ ten Schätzung der Regressions-Koeffizienten. Für größere N in Gl. (1), ist die letzte Methode aufgrund des Rechenaufwandes, bzw. der numerischen Instabilitäten nicht, oder nur bedingt zur Selektion der Regressorvariablen geeignet.

Demgegenüber bietet die schrittweise Regression eine kostengünstige Alternative durch geringe Rechenzeiten. Allerdings erhielt man bisher, durch diesen Algorithmus /4/,/5/pp.307-313, nur ein Regressionsmodell. Die so erhaltene Modelle waren für gro¬ ße N nur selten mit Modelle vergleichbar, die man mit anderen Selektions-Methoden erhält /12/,/5/pp. 312-313.

Aufgabe der Erfindung

Der Erfindung liegt die Aufgabe zugrunde, die Instabilität der Schätzwerte (Prädiktoren) der Überwachungsvariable y in (1) zu vermeiden, ohne auf ausschlie߬ lich lineare Abhängigkeiten und auf eine geringe Zahl von Regressoren x und Zu-

— » satzparametern p in (1) beschränkt zu sein. Dabei sollen im Signaianalyseteil, die

Regressionskoeffizienten mittels der, in einem Prozessor implementierten Konsisten¬ ten, Erweiterten, Schnellen, Schrittweisen multiplen Regression(KESSR) mittels eines rekursiven Algorithmus berechnet werden, um Echtzeit-Anwendungen zu ermöglichen.

Das Problem der Ausreißer wird durch die von KESSR gelieferten Regressionsmodel- - le der Regressoren untereinander gelöst, indem bei Regressorwerte die außerhalb der durch die Methoden der Statistik erhaltene Vertrauensbereiche liegen, keine Be¬ rücksichtigung finden. Bei neu hinzukommende Parameterbereiche, bzw. Parameter¬ kombinationen wird die Kovarianz- und Korrelationsmatrix auf den letzten Stand ge- bracht(Lemen). Zusammen mit den nichtlinearen Regressorfunktionen, führt dies zur Minimierung der systematischen Schätzfehler.

Für die Prozeß-Überwachungsaufgabe sollen hierbei vornehmlich die schadensbe¬ dingten Änderungen der Anlage oder des Prozesses erkannt werden. Dies geschieht

einerseits über die zeitliche Entwicklung der Residuen bei Vergleich mit dem Refe¬ renzmodell, andererseits durch kontinuierliche Prozeßidentifikation (Kontroll- Modellbildung) mit KESSR, über die zeitliche Entwicklung der Regressionskoeffizien¬ ten, bzw. der Modelländerungen .

Um Fehlalarme durch meßtechnische Veränderungen zu vermeiden, wird das Über¬ wachungssystem durch ein Signalvalidierungsteil erweitert, das die Kollinearität der Regressoren und die von KESSR gelieferten äquivalenten Modelle der Regressoren untereinander ausnutzt.

Vorteilhafte Auswirkungen der Erfindung

Das erfindungsgemäße Verfahren KESSR bietet den Vorteil langzeitstabiler Schätz¬ werte der Überwachungsvariable y in (1), d. h. man hat für diese Variable ein physika¬ lisch belastbares Prozeßmodell gefunden.

Die Implementation des Verfahrens in ein Prozessor, wird zur deutlichen Verbesse¬ rung der Signalanalyse (ähnlich wie bei den FFT-Prozessoren) führen. Dadurch, daß hier beliebige, nichtorthogonale Funktionen vorgegeben werden können (die aller¬ dings in irgendeiner Weise mit dem untersuchten Prozeß zu tun haben müssen), kann die Modellordnung erheblich reduziert werden.(FFT-typischerweise1024 Komponen¬ ten). Man erhält für eine Variable y mehrere, redundante und einfache analytische Pro¬ zeßmodelle mit typischerweise 2 bis 12 Komponenten. Damit lassen sich die verschie¬ denen Einflußfaktoren, die das Prozeßverhalten an einer bestimmten Stelle (z. B. in einem bestimmten Lager) der überwachten Maschine (Anlage) beschreiben, separie¬ ren und deren Bedeutung für den Prozeß besser beurteilen.

Dieses Verfahren kann auch zu einer wesentlichen Beschleunigung der Datenanalyse führen, wenn das Problem der schnellen Berechnung der Korrelationsmatrix mittels schneller Prozessoren gelöst wird. Für ein Prozeß-Überwachungssystem entschärft sich dieses Problem, da hier die Kovarianzmatrix nur für neue Werte der Regressoren auf den neuesten Stand gebracht wird, d. h. es sind nur wenige Multiplikationen notwendig.

In Zusammenhang damit sei die "Autoregressive Modelling'-Methode erwähnt, die in der Form (1) geschrieben werden kann. Gegenüber der FFT hat sie den Vorteil, daß sie mit einem kleinen Datensatz arbeitet. Kurzfristige Änderungen des Signals lassen sich damit besser verfolgen. Durch das hier vorgestellte Verfahren werden die Krite¬ rien genannt, nach welchen einzelne der vergangenen Schritte des gleichen oder ei¬ nes zusätzlich im Modell aufgenommenen Signals ausgewählt werden. Die Modellord¬ nung hängt allein von den eingestellten Werte für den F-Test, und die Verwendung nichtkollinearer Funktionen garantiert die Stabilität des Modells.

Falls ein Prozeßmodell keine gaußverteilten Residuen liefert (d. h. kein gutes Modell), läßt sich sehr schnell feststellen, ob die Ordnung der nichtlinearen Funktionen zu klein ist, oder ob einfach weitere Parameter fehlen, die den Prozeß besser beschreiben. Dabei können komplizierte nichtlineare Polynomabhängigkeiten und auch Relaxati¬ onseffekte (wie z. B. thermische Ausgleichseffekte) sehr leicht beschrieben werden.

Die parallel zum Selbstlernen verlaufende Kontrolle der Modellbildung gibt eine Reihe von Diagnose-Zusatzhilfen:

• Bei Abweichungen vom gelernten Prozeßmodell gibt die Kontrollmodellbildung an, ob neue Einflußfaktoren hinzugekommen sind oder bereits im Modell vorhan¬ dene ihren Beitrag geändert haben oder weggefallen sind. Bei entsprechenden Prozeß- bzw. Anlagenstrukturkenntnissen wird dadurch eine erhöhte Diagnosesi¬ cherheit und -tiefe erreicht.

• Durch die Kontrollmodellbildung wird auch der Fall abgedeckt, bei dem gegenläu¬ fige Entwicklungen der Beiträge zweier oder mehrerer Einflußfaktoren die Über¬ wachungsvariable unverändert lassen. Dadurch können schadensbedingte Ände¬ rungen erkannt und bewertet werden, lange bevor sie sich in den Überwachungs¬ variablen bemerkbar machen.

Die Wahl der Residuen als Überwachungsvariable bringt ebenfalls eine Reihe prakti¬ scher Vorteile. Wenn man die gemessenen Residuen über die Zeit darstellt (Langzeittrend), so ergibt sich eine nullsymmetrische Darstellung.Anderungen in der funktionalen Parameterabhängigkeit der Überwachungsvariablen sind aus einer Lang¬ zeittrenddarstellung der Residuen leicht zu erkennen.

Ausführungsbeispiel der Erfindung

Erläutert werden die vorteilhaften Auswirkungen der Erfindung anhand eines Beispiels aus der Schwingungsüberwachung einer Maschine, insbesondere einer Maschine mit rotierenden Bauteilen. Meßtechnische Voraussetzung dafür ist das Vorhandensein ausreichend vieler Schwingungsaufnehmer. Deren Zeitsignale werden entsprechend der Gleichung (1), mittels FFT im Spektralbereich transformiert.

Ziel des Verfahrens ist es, das Betriebsverhalten bestimmter, für die Überwachung als wichtig erachteten Spektralkomponenten, so genau wie nur möglich zu modellieren. Dafür werden zusätzliche Meßgrößen - Betriebsparameter- benötigt, die, zeitgleich mit den Signalspektren, den Lastzustand und die relativen Positionen der Bauteile der überwachten Maschine beschreiben. Eine erneute Anwendung der Gleichung (1) auf die vorher ermittelten Spektralkoeffizienten, wobei diesmal die Betriebsparameter die Regressoren darstellen, ergibt das gesuchte, experimentell ermittelte Modell. Dabei werden die Modellkoeffizienten zunächst mittels KESSR ermittelt.

Anhand der Zeichnungen wird die Erfindung beispielsweise näher eriäutertZunächst wird das Verfahren der konsistenten, erweiterten und schnellen multiplen Regres¬ sion erläutert. Es zeigt

Fig. 1 die Diagramme einer abhängigen Variable Y, einmal als Funktion des Re¬ gressors X, und einmal als Funktion des Regressors X 2 .Die Kollinearität der beiden Regressoren ist durch die lineare Beziehung untereinander belegt.

Fig. 2 die Regression der Variable Y über X., und X 2 , dargestellt im Stichproben¬ raum als Projektion auf die Regressionsebene.

Fig. 3 Effekt einer kleinen Richtungsänderung des Vektors X 2 auf die Regres¬ sionskoeffizienten der Variable Y

Fig. 4 Zwei Stichproben mit gleichem Korrelationkoeffizient zwischen X 1 und X 2 .

Fig. 5 Modell und Vorhersage für die in Fig. 4 angegebenen Stichproben

Fig. 6 Kollinearitätskegel und Auswahl äquivalenter Regressionsmodelle

Fig. 7 Speicher 113 und seine Belegung für die Zeile des neu einzuführenden Regressors in der Rekursionsebene p

Fig. 8 Schema einer Schaltungsanordnung zur Berechnung der schnellen, erwei¬ terten schrittweisen Regression in rekursiver Form.

Fig.9 Schema einer Einrichtung zur Schwingungs- oder Prozeßüberwachung

Konsistente, Erweiterte, Schnelle und Schrittweise multiple Regression(KESSR)

• Theoretische Grundlagen

Um die nun folgende Begriffe zu erklären, wird die geometrische Darstellung der Va¬ riablen im Stichprobenraum (z. B. 151 pp. 201ff. ) gewählt. Dabei stellt die Stichprobe (vom Umfang L) einer abhängigen oder unabhängigen Variable einen L-dimen- sionalen Vektor in diesem Raum dar. Der Korrelationskoeffizient zwischen zwei Varia¬ blen ist demnach der Cosinus des Winkels der beiden Vektoren im Stichprobenraum.

Mit Xι wird der Stichproben-Vektor der Komponente / ' des Vektors x in (1) bezeich¬ net. Gleichzeitig wird anhand der Figuren die erfindungsgemäße Realisierung der Me¬ thode angegeben.

• Multikollinearität

a) Prozeßidentifikation mit kollinearen Regressoren

In Fig. 1 ist der Fall einer abhängigen Variablen Y mit zwei kollineare Regressoren X., und X 2 dargestellt. Die Modelle mit nur einem Regressor, ergeben jeweils positive Koeffizienten. Wie aus der Darstellung im Stichprobenraum in Fig. 2 ersichtlich, ändert sich das Vorzeichen der Variablen X., , was in Gegensatz zu den physikalischen Reali¬ täten in Fig.1 steht. Da es sich hierbei um zwei äquivalente Variablen handelt, sind die beiden Modelle mit nur einem Regressor gleichberechtigt. Der Versuch beide Regres¬ soren in das Modell aufzunehmen, führt zu falsche Vorzeichen und Werte der Koeffizienten.

b) Prozeßidentifikation mit fehlerbehafteten kollinearen Regressoren

Die übliche Annahme in der multiplen Regression ist, daß nur die abhängige Variable fehlerbehaftet ist(ε in Gleichung 1).Die erweiterte Annahme, daß auch die unabhängi¬ gen Variablen fehlerbehaftet sind /10/./11/, läßt sich im Stichprobenraum durch die

Variation des Winkels zwischen zwei Parametervektoren anschaulich verdeutlichen. In

Fig. 3 sind zwei Stichproben dargestellt, wobei angenommen wird, daß X \ die gleiche Ausrichtung hat, während Xi zwei unterschiedliche Ausrichtungen relativ zuX \ ein¬ nimmt: .¥21 und J. 22 • Für die Modellidentifikation bedeutet dies, daß die Koeffizien¬ ten, große Variationen Δ bi und Δ b 2 erfahren, wenn die Richtungen zweier kolli¬ nearer Regressoren aufgrund von Meßfehler von einer Stichprobe zur anderen, ge¬ ringfügigen Schwankungen unterliegen.

c) Modell mit fehlerbehaftete, kollineare Regressoren: Prädiktionsfehler

— > — >

Fig. 4 zeigt _¥_> als Funktion von X \ für zwei Stichproben gleicher Korrelation zwi¬ schen den beiden Variablen (gleicher Cosinus im Stichprobenraum). Das Modell wur¬ de über die Stichprobe S ή gelernt, der, in Fig. 5, die Konfiguration X\ mit X2 und}>_j

entspricht. Der Stichprobe S 2 in Fig. 4 entspricht in Fig. 5 die Konfiguration X \ mit X 2 und der Vorhersage yp . Der dabei gemachte Fehler wurde mit Ep bezeichnet.

• Je größer die stochastischen Fehler eines Regressors sind, umso schwieriger wird es, die oben genannten Effekte b) und c) zu vermeiden. Daher müssen bei der De¬ finition der Multikollinearität die Fehler der Regressoren berücksichtigt werden. Zwei fehlerbehaftete Regressoren sind kollinear, wenn deren Vektoren im Stich¬ probenraum (für Stichproben gleicher Länge) aufgrund der stochastischen Fehler keine stabile Hyperebene definieren.

• Für Regressorpaare gleicher Varianz der Richtung im Stichprobenraum ist somit die Kollinearität kleiner, wenn der mittlere Winkel zwischen den Regressoren grö¬ ßer ist. Bei gleichem mittleren Winkel nimmt die Kollinearität mit wachsender Rich¬ tungsvarianz der beteiligten Regressoren zu. Die in der Literatur bekannte Defini¬ tion, wonach zwischen den kollinearen Regressoren eine lineare Beziehung beste¬ hen muß/4/, gilt nur für (fast) fehlerfreie Regressoren.

• Kollinearitä tskegel

Falls die mittlere Richtung einer Regressorvariable im Stichprobenraum sowie deren

Varianz bekannt ist, läßt sich in diesem Raum um den betrachteten Vektor ein Kegel

— » definieren, mit der Öffnung αcoi (Fig. 6 für X3 ). Sobald dieser Regressor im Modell berücksichtigt wird, darf kein weiterer Regressor dessen Richtung innerhalb des Kolli- nearitätskegels liegt, im Regressionsmodell aufgenommen werden: in Fig. 6 z. B., darf der Regressor X \ nicht mehr aufgenommen werden, da es mit X3 ein instabiles Mo¬ dell bilden würde. Es sei ausdrücklich darauf hingewiesen, daß der Toleranztest in 141 einem Winkel c-c o i von max. 1 ,82 (Grad) entspricht /4/, /6/, 171. Für die meisten An¬ wendungen ist dieser Wert völlig unbrauchbar.

• Auswahl äquivalenter Modelle

Da in Fig. 6 die Regressoren X \ und X 2 in derselben Ebene im Stichprobenraum lie¬ gen wie die abhängige Variable Y, bilden sie die ideale Lösung für das gestellte Pro¬ blem. Die schrittweise Regression hingegen startet mit dem Regressor, der die beste

Korrelation mit der abhängigen Variable hat, und das wäre im vorliegenden Fall 3 .

Aufgrund des Kollinearitätskegels wird der Regressor X \ nie im Modell aufgenommen und das "beste" Modell wird somit nicht gefunden. Sobald aber alle Regressoren die im Koliinearitätskegel liegen, als äquivalente Startvariablen angesehen werden und der Reihe nach getestet werden, wird auch das "beste" Modell gefunden. Damit wer¬ den die Hauptnachteile der schrittweisen Regression (nur ein Modell und nicht un¬ bedingt das "beste") beseitigt. Durch das beschriebene Auswahlverfahren bietet sich eine rekursive Form der Modellberechnung.

• Schnelle Matrixberechnung

Der Methode in 141 folgend, werden alle Variablen auf ihr Mittelwert zentriert. Damit enthält die dort angegebene Matrix S (Korrelationsmatrix,Speicher 123 in Fig. 8) in den nichtdiagonalen Elemente nur paarweise Korrelationskoeffizienten. Die Diagona¬ lelemente stellen die Längen der Einheitsvektoren im Stichprobenraum dar. Bei einer abhängigen Variable und N Regressoren hat die Matrix S die Dimension (N+1)*(N+1).

Die schrittweise Regression ist eigentlich nichts anderes als das Gauß'sche Verfahren zur Inversion einer Matrix, wobei nach dem unten angegebenen Verfahren eine be¬ stimmte Reihenfolge der Pivot-Elemente vorgegeben wird. Dabei werden/4/ lediglich die Elemente der Spalte der abhängigen Variable (für den F-Test und für die Berech¬ nung der Regressionskoeffizienten) und die Diagonalelemente (für den Kollinearitäts- test) benötigt. Für eine Rekursionsebene ergibt sich damit ein Speicherbedarf von 2N+1 Werte im Speicher 111, Fig. 8.

In der Rekursionsebene p wird der Regressor Xj gewählt. Die Matrixelemente des Speichers 111 in Fig. 8 in der Rekursionsebene p, haben nach der Aufnahme dieses Regressors die Form(k=1,2,...N):

SJp Jp-l — J2 Jl ς,Jp-l J-j Jl .Jp-1 — J2 J l ^ Jp-1 — -2 J l «^ kk ~ ^kk Ä kj p x s kj p KP)

SJp Jp-l - " - J 2 J 1 ς-Jp-1 - J2 J 1 -Jp-1 - J2 J l r . Jp-1 - J2 J 1 , *, ky - ∑ k>- ö kj p x s yj p KV

Die oberen Indizes geben die Nummern der Regressoren die bereits im Modell aufge¬ nommen wurden. Mitsl -TJp 1 "J2 Jl werden die auf S J XP J )P 2 1 normierten Matrixelemente gleichen Indizes bezeichnet. Die Matrixelemente rechts des Gleichheitszeichens wur¬ den in der Rekursionsebene p-1 , Speicher 111, Fig. 8, berechnet. Die Matrixelemente SJ H 1 2 ' der aktuellen Rekursionsebene p werden aus den darüberliegenden Zeilen der Matrix in Fig. 7(Speicher 113 in Fig.8) berechnet, wobei das Element in den Speichern 111 und 113 mit seinem Kehrwert ersetzt wird :

= S kj _ - ∑A(2 xi-l,k)xA(2xij p ) (5)

Der Zeilenindize i in (5) nimmt die Werte von 1 bis p-1 ein.Skj ist ein Element der Kor¬ relationsmatrix S im Speicher 123 in Fig. 8. Sobald ein Regressor aus dem Modell herausgenommen wird, weil sein Beitrag vernachlässigbar geworden ist, muß die Ma¬ trix A in Fig. 7 (Speicher 113 in Fig. 8) neu gerechnet werden. Wie aus Fig.7 ersicht¬ lich, wurde hier die Variable j 2 aus dem Modell herausgenommen, so daß für die Re¬ kursionsebene p in (5) die Variable i die Werte von 1 bis p-2 annimmt, mit einem Off¬ set von 2*p, der nun im Offset-Speicher bei der Rekursionsebene p abgelegt wird.

Bei einer Regressorenzahl N=100 und 7 berücksichtigte Rekursionsebenen reduziert sich der Rechenaufwand (Multiplikationen) um ca. 90%, verglichen mit der üblichen Methode unter Berücksichtigung der Symmetrie der Korrelationsmatrix S.

• Konsistente Schätzung

Im Laufe der Modellidentifikation stellen die Diagonalelemente der Variablen die noch nicht im Modell aufgenommen wurden, den Quadrat der Länge des Residuenvektors der jeweiligen Variablen dar ( Abstand der ursprünglichen Einheitsvektorspitze zum aktuellen Regressionsraum). Dieses Diagonalelement darf den Wert sin (c_coi) nicht unterschreiten, wenn der zugehörige Regressor in das Modell aufgenommen werden soll. Damit stellt sich das Problem der Schätzung des Kollinearitätswinkels c-coi und in Zusammenhang dazu auch das Problem der konsistenten Schätzung.

Wenn die realistische Annahme eines fehlerbehafteten Regressors Xj gemacht wird:

mit j als wahrer Wert des Regressors j p und δ j als der zugehörige Fehler, sowie unter den in der Literatur üblichen Annahmen der Fehlerunabhängigkeit, erhält man für das Diagonalelement S j j in 123 Fig. 8, ein Korrekturterm der mit der normierten Varianz des Regressors j p gleich ist. Damit erhält man eine Ridge-Regression mit zei¬ lenspezifische Korrekturterme der Diagonalelemente. Unter der Zusatzannahme der Isotropie der Fehler im Stichprobenraum, läßt sich damit auch der Kollinearitätswinkel für den betrachteten Regressor angeben:

wobei q >=3 sein sollte und σ Jp die normierte Varianz des Regressors j D darstellt.

Die Varianz der einzelnen Regressoren läßt sich aus dem vorhandenen Datenmaterial schätzen, indem man die multiple Regression auf die einzelnen Regressoren als ab¬ hängige Variable anwendet, unter der vereinfachenden Annahme der Fehlerfreiheit der restlichen Regressoren. Wenn zwischen den Regressoren Kollinearität besteht,

läßt sich ein Regressionsmodell ermitteln und die sich ergebenden Residuen geben eine Schätzung der Varianz .

• Erweiterte schrittweise Regression

In Anlehnung an 141 kann nun die Vorgehensweise bei der erweiterten schrittweisen Regression angegeben werden die in der Regressionseinheit 102, Fig. 8 implemen¬ tiert wird. Die Steuerung des Datentransfers sowie die Ablaufsteuerung wird durch die Steuereinheit 101 kontrolliert. In Kursivschrift werden die Erweiterungen zu 141 angege¬ ben. Es handelt sich um ein rekursives Verfahren und die hier angegebene Schritte beziehen sich auf die Rekursionsebene p.

• zunächst werden die Regressoren aus dem Modell entfernt, deren Beitrag zur Varianz-Reduktion der abhängigen Variable, im Beisein der neu hinzugekomme¬ nen Regressoren, vemachiässigbar gewprden sind. Diese Regressoren werden für die nachfolgenden Rekursionsebenen gesperrt. Dadurch wird nebst Rechenzeit¬ einsparung, auch eine Wiederaufnahme im Regressionsmodell verhindert.Ωer Offset-Speicher 112 wird für die Rekursionsebene p aktualisiert. Die Zeile p im Speicher 110 -Sperrmaskenmatrix - wird auf den neuesten Stand gebracht und die Zeilen u+1 bis u+2p' Modellordnung) im Speicher 113 werden gemäß (5) neu gerechnet und im Speicher 113 abgelegt. Die Zeile p-1 in 111 muß ebenfalls neu gerechnet werden ohne aber auf die Zeile p-2 des gleichen Spei¬ chers zurückzugreifen.

die Modellordnung und Regressornυmmern werden im Speicher 114 abgelegt.

die Regressoren, deren Richtung im Stichprobenraum einen Winkel mit dem Re¬ gressionsraum bilden, der kleiner ist als αcoi , werden für die aktuelle und die dar¬ unterliegenden Rekursionsebenen gesperrt.Dies spart RechenzeitDie Zeile p im

Speicher 110 wird auf den neuesten Stand gebracht.

die übriggebliebenen Regressoren werden einem F-Test unterzogen, um die Re¬ gressoren zu finden, die die Varianz der abhängigen Variable in signifikanter Wei¬ se reduzieren.

• falls kein signifikanter Regressor gefunden wurde, wird die Suche abgebrochen, und die bisher erreichte Varianzverminderung der abhängigen Variable, zur

Klassifikation des gefundenen Modells zwischen den ersten Q "besten" Modelle genutzt. Die im Speicher 116 abgelegten Residuenvarianzen der bisher gefunde¬ nen Modelle werden mit der Residuenvarianz des aktuellen Modells verglichen und wenn es zu den besten Q Modelle gehört, wird im Speicher 116 die Residuen¬ varianz sowie die Modellkoeffizienten mit Regressorennummem abgelegt. Danach kehrt das System in die nächsthöhere Rekursionsebene zurück. Dabei wird der Kontext der Rekursionsebene p-1 aus den Speichern 110 bis 114 geladen.

• aus den übriggebliebenen Regressorvariablen wird die Variable X jM ausgewählt, deren Aufnahme in das Regressionsmodell die größte Varianzverminderung brin¬ gen würde.

• alle übriggebliebenen Regressorvariablen deren Winkel mit X jM innerhalb des Kollinearitätskegels dieser Variable liegen, werden als äquivalente Variablen aus- gewählt.Dafür wird aus Speicher 115 diö vorher berechnete Residuenvarianz des ausgewählten Regressors gelesen und daraus wird der Kollinearitätswinkel be¬ rechnet. Die äquivalenten Variablen werden der Reihe nach in das Modell aufge¬ nommen, während die anderen äquivalenten Variablen für die nächste Rekur¬ sionsebene gesperrt werdeπ(Zeile p im Speicher 110 wird auf den neuesten Stand gebracht).Dabei wird:

a) die Regressionmatrix mit dem neu gewählten Regressor gerechnet, wobei die gesperrten Zeilen nicht mehr gerechnet werden müssen, und zuerst geprüft wird:

- ob der neu aufzunehmende Regressor, ein Vorzeichenwechsel eines Re¬ gressionskoeffizienten (Effekt a))verursacht. Wenn ja, dann wird diese Wahl verworfen und in 110 gesperrt und der nächste äquivalente Regressor wird angewählt und in 110 freigeschaltet ; weiter bei a).

- ansonsten

- wird die nächsttiefere Rekursionsebene angewählLBei Rückkehr aus dieser Ebene weiter bei a) unter den entsprechenden Änderungen in 110.

• Wenn alle äquivalente Regressoren der vorliegenden Rekursionsebene getestet wurden, kehrt das System in die nächsthöhere Rekursionsebene zurückDabei wird der Kontext der Rekursionsebene p-1 aus den Speichern 110 bis 114 geladen.

Modellvorgabe

Dem Regressionsmodul oder -Prozessor liegt eine Daten-Eingangsmatrix U vor (121, Fig. 8) mit L Zeilen für die L Eingangskanäle einschließlich des zu überwachenden Si¬ gnals. Jede Zeile hat hat V Werte(Stichprobenlänge). Zwecks einer besseren Model¬ lierung werden dem Funktionengenerator (131, Fig. 8) verschiedene nichtlineare Funk¬ tionen vorgegeben (höhere Potenzen, Logarithmen, Kreuzprodukte zwischen den Re¬ gressoren, Gradienten .einfache Verschiebungen der Zeilen, usw.). Dadurch werden zusätzliche Zeilen generiert, so daß eine Zwischenmatrix X mit N Zeilen und V Spal¬ ten entsteht. Dabei können die Zusatzfunktionen entweder durch theoretische Überle¬ gungen bezüglich das zu untersuchende Signal(Prozeß), oder empirisch zwecks der Identifikation eines empirischen Modells.

Schwingungsüberwachungssystem

Nachdem die Grundlagen für ein langzeitstabiles Prozeßmodell geschaffen wurde, kann man jetzt die vorhin beschriebene erfindungsgemäße Schaltungsanordnung z. B. in der Schwingungsüberwachung anwenden.Mit dem erhaltenen Regressionsmo¬ dell einer Spektralkomponente kann man nun zwecks einer Schadensfrüherkennung sowohl die Abweichungen der Spektralkomponente vom Modell, als auch die Verän¬ derungen der Koeffizienten der ermittelten Modelle überwachen. Dabei kommt der Überwachung die Redundanz der Q Regressionsmodelle zugute.

Um die Wirkungsweise des erfindungsgemäßen Verfahrens zu erläutern, wird die Vor¬ richtung in Fig. 9 anhand einer Anwendung zur Schadensfrüherkennung durch Schwingungsüberwachung erläutert.

Ein handelsübliches Meßdatenerfassungssystem (Fig. 9, A) stellt der Überwachungs¬ einheit (Fig. 9, C) die Überwachungsgrößen zur Verfügung. Ein weiteres

handelsübliches Prozeßerfassungssystem (Fig. 9, B) stellt der Überwachungseinheit (Fig. 9, C) zeitgleich mit den Überwachungsgrößen eine bestimmte Auswahl an Pro¬ zeßparameter zur Verfügung. Im Falle eines Schwingungsüberwachungssystems wer¬ den als Prozeßparameter solche Signale aufgezeichnet, die den Lastzustand der An¬ lage und die wichtigen Relativpositionen der Anlagenbauteile (z. B. im Falle einer Tur¬ bine die Relativpositionen Welle - Lagerschale) beschreiben. Als Überwachungsgrö¬ ßen werden z. B. die Schwingamplituden bei bestimmten Frequenzen aufgezeichnet.

In der Überwachungseinheit (z. B. eine Einsteckkarte für ein PC) wird zunächst der Betriebszustand der Anlage im Zustandsanalysemodul untersucht (Fig.9 , C). Hierbei wird mit Hilfe der Daten im Speicher 11, Fig. 9 entschieden, ob ein noch nicht hinrei¬ chend (im statistischen Sinne) gelernter Betriebszustand vorliegt. Ist das der Fall, so wird zunächst der Betriebszustandskontrollspeicher (Fig. 9, 11) auf den neuesten Stand gebracht, wonach die Prozeßidentifikation durch die oben beschriebene Re¬ gressionseinheit (Fig. 9, 2) durchgeführt wird. Dabei werden die Speicher für die Ko- varianzmatrix, die Korrelationsmatrix und der für die Regressionskoeffizienten und Funktionsnummer auf den neuesten Stand gebracht (Fig. 9, 122,123 bzw. 116). Die¬ ser Vorgang wird als "Selbstlernen" definiert und dient der vollständigen Prozeßi¬ dentifikation und somit der Reduktion systematischer Fehler. Er wird nur unter der Voraussetzung angeregt, daß bei bereits gelernten Betriebszuständen keine Grenz¬ wertüberschreitungen anstehen oder sonstige Alarmkriterien erfüllt sind (Fig. 9, Pfad

Nachdem der Selbstlernprozeß abgeschlossen ist, oder wenn kein neuer Betriebszu¬ stand vorliegt, wird die Kontrollprozeßidentifikation (Fig. 9, 3) durchgeführt. Dabei wer¬ den die Kontrollwerte der Koeffizienten und die sich durch die Kontrolle ergebenden Funktionsnummern unter Berücksichtigung der in 116 gespeicherten Werte ermittelt und im Speicher 32 abgelegt. Die Werte des Speichers 32 (als Ringspeicher ausge¬ legt) können dann jederzeit über die Zeit dargestellt werden und mit den Werten im Speicher 116 zwecks einer verfeinerten Schadensfrüherkennung verglichen werden.

Sobald die Lern- und/oder Kontrollrechnung abgeschlossen ist, generiert die Komparatoreinheit (Fig. 9,4) aus den Daten des Speichers 116 die Schätzwerte der zu überwachenden Signale. Bei einem Schaden, der sich im überwachten

Frequenzband bemerkbar macht, wird der geschätzte Wert im Laufe der Zeit immer stärker vom aktuellen Wert abweichen. Daher bietet sich als Überwachungsfunktion die Differenz zwischen dem aktuellen Wert der Überwachungsvariable und dem Schätzwert, Residuum genannt, an. Das im Komparator gebildete Residuum wird ei¬ ner nachgeschalteten Alarmeinrichtung oder einem Rechner (Fig. 9, 5) zugeführt, wo nach vorgegebenen Alarmkriterien die Grenzwertüberschreitungen im Speicher 51 re¬ gistriert werden.

Die Darstellung der Überwachungsergebnisse und Diagnosehilfen werden vom Rech¬ ner bereitgestellt.

Kern der Überwachungseinheit (Fig. 9, C) ist die Regressionseinheit (Fig. 8 und 9,2) in der die für die Schadensfrüherkennung wichtige Prozeßidentifikation stattfindet. Die Kontrollprozeßidentifikation (Fig. 9,3) ist baugleich mit Fig. 9,2. Im Gegensatz zu Ein¬ heit 2 in Fig. 9 werden in der Einheit 3 in Fig. 9 die Daten des Speichers 116 ge¬ nutzt^, h. es werden nur die Regressorfunktionen zur Verfügung gestellt, die in den Q Modelle gefunden wurden, um vergleichbare Kontrollwerte zu erhalten.

IM Offenlegungsschrift Deutschland 3725123 A1

121 Rechnergestützte schwingungsdiagnostische Überwachung von Kraftwerks¬ turbosätzen, M. Weigel, J. Boetius, VDI-Berichte Nr. 846, 1990 /3/ M. Seitz, A. Kunz, H. Tolle, Lernende Regelung von Totzeitprozessen ,Auto matisierungstechnik 41, Vol. 9 , pp. 323-331, 1993 141 M. A. Efroymson, Mehrfache Regressionsanalyse, Kapitel 17 in A.Ralston,

H.S. Wilf, Ed., Mathematische Methoden für Digitalrechner, R. Oldenbourg

Verlag 1967, pp. 345-362 /5/ Applied regression analysis, N.R. Draper, H. Smith, John Wiley & Sons 1981 /6/ Tolerance and Condition in Regression Computations, Kenneth N, Berk,

Journal of the American Statistical Association, Dec. 1977, Vol. 72, No. 360, pp. 863-866 171 A Note on Checking Tolerance in Matrix Inversion and Regression, James W.

Frane, Technometrics, Vol. 19. No. 4 Nov. 1977, pp. 513-514 /8/ G. M. Mullet, Why Regression Coefficients Have the Wrong Sign, Journal of

Quality Technology, Vol. 8, No.3, pp. 121-126,July 1976

/9/ G. E. P. Box, Use and Abuse of Regression, Technometrics, Vol. 8, No. 4 pp. 625 -629, Nov 1966 /10/ H. Schneeweiß, H.-J. Mittag, Lineare Modelle mit fehlerbehafteten Daten,

Physica-Verlag Heidelberg Wien, 1986 /11/ H. Bunke, O. Bunke, Ed., Nonlinear Regression, Functional Relations and

Robust Methods, Vol II, Kap. 3, John Wiley & Sons /12/ R.R.Hocking, The Analysis and Selection of Variables in Linear Regression,

Biometrics 32, pp. 1-49, March 1976 /13/ S. Drobniak, W. Eisner, The Multiregression Identification Algorithm for the

Condition Monitoring of Turbomachinery, 8th International IMEKO Symposi um on Technical Diagnostics, Sept. 23-25, 1992, Dresden, pp. 319-328