Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR THE COMPUTER-AIDED ANALYSIS OF AT LEAST ONE SECOND INPUT VECTOR OF A TARGET SYSTEM
Document Type and Number:
WIPO Patent Application WO/2018/019355
Kind Code:
A1
Abstract:
The invention relates to a method for the computer-aided analysis of at least one second input vector of a target system. The method comprises a step for providing (210) the second input vector for the target system. The method comprises a step for providing (220) a trained deep neural network, wherein the deep neural network is a feedforward network that comprises an input layer for inputting the second input vector for the target system, a plurality of consecutive hidden layers, which model the target system, and an output layer for outputting a second output vector for the target system. The method comprises a step for evaluating (230) the second input vector, wherein the second input vector is transmitted by means of the input layer to one of the hidden layers as a second processing vector, wherein the second processing vector is transmitted between the hidden layers, wherein a first data transformation of the transmitted second processing vector is performed for each hidden layer in question, wherein, in each first data transformation, a dimension reduction of the second processing vector is performed for the hidden layer in question, wherein the second output vector is determined on the basis of a dimension-reduced second processing vector. The method comprises a step for providing (240) the second output vector.

Inventors:
GIGLER ALEXANDER MICHAEL (DE)
GROTHMANN RALPH (DE)
VOGL STEFANIE (DE)
ZIMMERMANN HANS-GEORG (DE)
Application Number:
PCT/EP2016/067627
Publication Date:
February 01, 2018
Filing Date:
July 25, 2016
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SIEMENS AG (DE)
International Classes:
G06N3/04
Domestic Patent References:
WO2015054666A12015-04-16
Foreign References:
DE102011081197A12013-02-21
DE102007001026A12008-07-03
US6477516B12002-11-05
EP3016033A12016-05-04
Download PDF:
Claims:
Patentansprüche

Verfahren zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems mit folgenden Verfahrensschritten:

Bereitstellen (110) von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem;

Bereitstellen (120) des tiefen neuronalen Netzes, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches

eine Eingabeschicht zur Eingabe der ersten Eingabevektoren umfasst,

eine Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems umfasst;

Trainieren (130) des tiefen neuronalen Netzes anhand der Trainingsdaten, wobei

die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden, die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen ersten Verarbeitungsvektoren durchgeführt wird, bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht erfolgt,

die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren konfiguriert werden.

2. Verfahren nach Anspruch 1, wobei die ersten Eingabevektoren gemessene Spektren des Trainingssystems sind, und wobei die ersten Ausgabevektoren bereits durchgeführte Analyseergebnisse für die Spektren sind.

3. Verfahren nach Anspruch 2, wobei

die gemessene Spektren, Spektren von Gewebe umfassen, und

die durchgeführte Analyseergebnisse angeben, ob ein Spektrum gesundem Gewebe zuzuordnen ist oder Tumorgewebe zuzuordnen ist.

4. Verfahren nach Anspruch 2, wobei

die gemessene Spektren, Spektren von Ölen oder Schmiermitteln umfassen und

die durchgeführte Analyseergebnisse eine Qualität der Öle oder Schmiermittel umfassen.

5. Verfahren nach einem der vorhergehenden Ansprüche, wobei für die dimensionsreduzierten ersten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ursprünglicher erster Verarbeitungsvektor für jeweils eine betreffende versteckte Schicht mittels ei¬ ner zweiten Datentransformation rekonstruiert wird, ein Fehler zwischen dem rekonstruierten ursprünglichen ersten Verarbeitungsvektor und dem übertragenen ersten Verarbeitungsvektor für die jeweilige betreffende versteckte Schicht ermittelt wird.

6. Verfahren nach Anspruch 5, wobei der ermittelte Fehler für das Konfigurieren der jeweiligen betreffenden versteckten Schicht oder der jeweiligen nachfolgenden versteckten Schicht, welcher der dimensionsreduzierte erste Verarbeitungsvektor übermittelt wird, berücksichtigt wird .

7. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Anzahl von versteckten Schichten von einer zu erreichenden Dimension des dimensionsreduzierten ersten Eingabevektors bestimmt wird. Verfahren zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems mit fol¬ genden Verfahrensschritten:

Bereitstellen (210) des zweiten Eingabevektors für das Zielsystem;

Bereitstellen (220) eines trainierten tiefen neuronalen Netzes, wobei

das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches

eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem umfasst, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten umfasst, die das Zielsystem modellieren, und

eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem umfasst, Auswerten (230) des zweiten Eingabevektors, wobei

der zweite Eingabevektor jeweils über die Eingabe¬ schicht an eine der versteckten Schichten als zweiter Verarbeitungsvektor übertragen wird,

der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird,

jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird,

bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte

Schicht erfolgt,

der zweite Ausgabevektor anhand eines dimensionsre¬ duzierten zweiten Verarbeitungsvektors ermittelt wird;

Bereitstellen (240) des zweiten Ausgabevektors.

Verfahren nach Anspruch 8, wobei der zweite Eingabevektor ein gemessenes Spektrum des Zielsystems ist.

10. Verfahren nach Anspruch 9, wobei das gemessene Spektrum ein Spektrum von Gewebe ist, wobei der zweite Ausgabe¬ vektor insbesondere angibt, ob es sich um gesundes Gewe¬ be oder Tumorgewebe handelt.

11. Verfahren nach Anspruch 9, wobei das gemessene Spektrum ein Spektrum von Ölen und/oder Schmiermitteln ist, wobei der zweite Ausgabevektor insbesondere eine Qualität der Öle oder Schmiermittel angibt.

12. Verfahren nach einem der Ansprüche 8 - 11, wobei

für die dimensionsreduzierten zweiten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ursprünglicher zweiter Verarbeitungsvektor für jeweils eine betreffende versteckte Schicht mittels einer zweiten Datentransformation rekonstruiert wird, ein Fehler zwischen dem rekonstruierten ursprünglichen zweiten Verarbeitungsvektor und dem übertragenen zweiten Verarbeitungsvektor für die jeweilige betreffende ver- steckte Schicht ermittelt wird.

13. Verfahren nach Anspruch 12, wobei der ermittelte Fehler, für eine Konfigurieren der jeweiligen betreffenden versteckten Schicht oder der jeweiligen nachfolgenden ver- steckten Schicht, welcher der dimensionsreduzierte erste

Verarbeitungsvektor übermittelt wird, berücksichtigt wird .

14. Verfahren nach einem der Ansprüche 8 - 13, wobei eine Anzahl von versteckten Schichten von einer zu erreichenden Dimension des dimensionsreduzierten zweiten Verarbeitungsvektors bestimmt wird.

15. Konfigurationsvorrichtung zum rechnergestützten Konfigu- rieren eines tiefen neuronalen Netzes anhand eines Trai¬ ningssystems aufweisend:

ein erstes Bereitstellungsmodul (410) zum Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevekto- ren und vorgegebenen ersten Ausgabevektoren für das TrainingsSystem,·

ein zweites Bereitstellungsmodul (420) zum Bereitstellen des tiefen neuronalen Netzes, wobei

das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches

eine Eingabeschicht zur Eingabe der ersten Eingabevektoren umfasst,

eine Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems umfasst;

ein erstes Trainingsmodul (430) zum Trainieren des tie¬ fen neuronalen Netzes anhand der Trainingsdaten, wobei die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden, die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen ersten Verarbeitungsvektoren durchgeführt werden,

bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht erfolgt,

die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren konfiguriert werden.

Analysevorrichtung zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsys¬ tems aufweisend:

eine drittes Bereitstellungsmodul (510) zum Bereitstel¬ len des zweiten Eingabevektors für das Zielsystem;

ein viertes Bereitstellungsmodul (520) zum Bereitstellen eines trainierten tiefen neuronalen Netzes, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches

eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem umfasst, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten umfasst, die das Zielsystem modellieren, und

eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem umfasst, ein erstes Auswertemodul (530) zum Auswerten des zweiten

Eingabevektors, wobei

der zweite Eingabevektor jeweils über die Eingabe¬ schicht an eine der versteckten Schichten als zweiter Verarbeitungsvektor übertragen wird, der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird,

jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird,

bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte

Schicht erfolgt,

der zweite Ausgabevektor anhand eines dimensionsre¬ duzierten zweiten Verarbeitungsvektors ermittelt wird;

ein fünftes Bereitstellungsmodul (540) zum Bereitstellen des zweiten Ausgabevektors.

Computerprogrammprodukt mit Programmbefehlen zur Durch¬ führung des Verfahrens nach einem der Ansprüche 1 - 7 und/oder zur Durchführung des Verfahrens nach einem der Ansprüche 8 - 14. 18. Computerprogrammprodukt mit Programmbefehlen für ein

Erstellungsgerät, das mittels der Programmbefehle konfi¬ guriert wird, die Konfigurationsvorrichtung nach An- spruch 15 und/oder die Analysevorrichtung nach Anspruch 16 zu erstellen.

Bereitstellungsvorrichtung für das Computerprogrammprodukt nach Anspruch 17 oder 18, wobei die Bereitstel¬ lungsvorrichtung das Computerprogrammprodukt speichert und/oder bereitstellt.

Description:
Beschreibung

Verfahren und Vorrichtung zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems

Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems. In einer Vielzahl von Anwendungsgebieten ist es wünschenswert einen Eingabevektor eines Zielsystems rechnergestützt zu ana ¬ lysieren, um hierdurch bestimmte Eigenschaften des Zielsystems zu bestimmen. Zum Beispiel ist es im medizinischen Bereich oft notwendig, eine Aussage über (biologisches) Gewebe treffen zu können. Insbesondere ist es bei der Operation bös ¬ artiger Tumore von entscheidender Wichtigkeit, tatsächlich alle befallenen Zellen aus dem betroffenen Bereich zu entfernen, um das Streuen bzw. die erneute Entstehung des Tumors zu verhindern. Dabei ist beispielsweise das Zielsystem das Gewe- be und der Eingabevektor umfasst erfasste Informationen über das Gewebe. Da jedoch eine Analyse oder eine Auswertung eines solchen Eingabevektors schwierig und kompliziert ist, ist es wünschenswert anhand des Eingabevektors Eigenschaften des Zielsystems, beispielsweise ob es sich um Tumorgewebe handelt oder nicht, möglichst einfach zu bestimmen.

Eine Aufgabe der vorliegenden Erfindung ist es, ein Verfahren und eine Vorrichtung bereitzustellen, die es erlauben, einen Eingabevektor eines Zielsystems möglichst einfach zu model- lieren.

Die Aufgabe wird durch die in den unabhängigen Ansprüchen angegebenen Merkmale gelöst. In den Unteransprüchen sind vorteilhafte Weiterbildungen der Erfindung dargestellt.

Gemäß einem ersten Aspekt betrifft die Erfindung ein Verfahren zum rechnergestützten Konfigurieren eines tiefen neurona- len Netzes anhand eines Trainingssystems mit folgenden Ver ¬ fahrensschritten :

Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem;

Bereitstellen des tiefen neuronalen Netzes, wobei

das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches

eine Eingabeschicht zur Eingabe der ersten Eingabevektoren umfasst,

eine Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems umfasst;

Trainieren des tiefen neuronalen Netzes anhand der Trai- ningsdaten, wobei

die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden, die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen ersten Verarbeitungsvektoren durchgeführt werden, bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht erfolgt,

die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der je- weiligen zugehörigen ersten Ausgabevektoren konfiguriert werden.

Sofern es in der nachfolgenden Beschreibung nicht anders angegeben ist, beziehen sich die Begriffe "durchführen", "berechnen", "rechnergestützt", "rechnen", "feststellen", "gene rieren", "konfigurieren", "rekonstruieren" und dergleichen, vorzugsweise auf Handlungen und/oder Prozesse und/oder Verar beitungsschritte, die Daten verändern und/oder erzeugen und/oder die Daten in andere Daten überführen, wobei die Daten insbesondere als physikalische Größen dargestellt werden oder vorliegen können, beispielsweise als elektrische Impul ¬ se. Insbesondere sollte der Ausdruck "Computer" möglichst breit ausgelegt werden, um insbesondere alle elektronischen Geräte mit Datenverarbeitungseigenschaften abzudecken. Computer können somit beispielsweise Personal Computer, Server, Handheld-Computer-Systeme, Pocket-PC-Geräte, Mobilfunkgeräte und andere Kommunikationsgeräte, die rechnergestützt Daten verarbeiten können, Prozessoren und andere elektronische Geräte zur Datenverarbeitung sein.

Unter „rechnergestützt" kann im Zusammenhang mit der Erfindung beispielsweise eine Implementierung des Verfahrens ver- standen werden, bei dem insbesondere ein Prozessor mindestens einen Verfahrensschritt des Verfahrens ausführt.

Unter einem Prozessor kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schal- tung verstanden werden. Bei einem Prozessor kann es sich insbesondere um einen Hauptprozessor (engl. Central Processing Unit, CPU) , einen Mikroprozessor oder einen Mikrokontroller, beispielsweise eine anwendungsspezifische integrierte Schal ¬ tung oder einen digitaler Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen, etc. handeln. Bei einem Prozessor kann es sich beispielsweise auch um einen IC (integrierter Schaltkreis, engl. Integrated Circuit), insbesondere einen FPGA (engl. Field Programmable Gate Array) oder einen ASIC (anwendungs- spezifische integrierte Schaltung, engl. Application-Specific Integrated Circuit) , oder einen DSP (Digitaler Signalprozes ¬ sor, engl. Digital Signal Processor) handeln. Auch kann unter einem Prozessor ein virtualisierter Prozessor oder eine Soft- CPU verstanden werden. Es kann sich beispielsweise auch um einen programmierbaren Prozessor handeln, der mit Konfigurationsschritten zur Ausführung des genannten erfindungsgemäßen Verfahrens ausgerüstet wird oder mit Konfigurationsschritten derart konfiguriert ist, dass der programmierbare Prozessor die erfindungsgemäßen Merkmale des Verfahrens, der Komponente, des Sicherheitsmoduls, oder anderer Aspekte und Teilas ¬ pekte der Erfindung implementiert. Unter einer „Speichereinheit" kann im Zusammenhang mit der Erfindung beispielsweise ein Speicher in Form von Arbeitsspeicher (engl. Random-Access Memory, RAM) oder eine Festplatte verstanden werden. Unter einem „Modul" kann im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Beispielsweise ist der Prozessor speziell dazu eingerichtet, die Programmbefehle derart auszuführen, damit der Prozessor Funk- tionen ausführt, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens zu implementieren.

Unter einem „System", insbesondere einem Trainingssystem und/oder einem Zielsystem, kann im Zusammenhang mit der Er- findung beispielsweise ein technisches System, ein biologi ¬ sches System oder ein chemisches System verstanden werden. Ein System kann somit insbesondere das Verhalten oder Eigenschaften von biologischen Geweben, Ölen oder Schmiermitteln beschreiben, die insbesondere von gemessenen Parametern (Ein- gabevektoren) des Systems mittels eines trainierten tiefen neuronalen Netzes berechenbar sind. Bei dem jeweiligen System kann es sich insbesondere um ein komplexes System handeln, wobei eine Analyse von gemessenen Eigenschaften, insbesondere in Form von Eingabevektoren, des komplexen Systems sehr schwer durchzuführen ist. Insbesondere kann es sich bei dem System um ein weiteres System handeln, dessen Verhalten anhand eines Trainierens des tiefen neuronalen Netzes erlernbar ist, sodass eine Aussage über das System anhand von Eingabe ¬ vektoren (z. B. gemessene Spektren) getroffen werden kann. Insbesondere ist das Verhalten des Systems hinsinsichtlich der ersten Ausgabevektoren in Abhängigkeit von den ersten Eingabevektoren modellierbar. Unter einer „Echtzeit" kann im Zusammenhang mit der Erfindung beispielsweise ein Durchführen einer Analyse während einer Operation eines Patienten verstanden werden, wobei das Analysieren von (zweiten) Eingabevektoren vorzugsweise unmittelbar nach dem Erfassen dieser Eingabevektoren erfolgt und wobei das Analysieren vorzugsweise keine oder nur in minimale Ver ¬ längerung der Operationsdauer mit sich bringt. Insbesondere kann unter „Echtzeit" eine Analyse und deren Dauer verstanden werden, die vorzugsweise zuverlässig innerhalb einer vorbe- stimmten Zeitspanne, zum Beispiel während einer Operation oder dem Betrieb eines technischen Systems, Ergebnisse lie ¬ fern können.

Unter einem „Eingabevektor" können im Zusammenhang mit der Erfindung beispielsweise gemessene Größen des Systems ver ¬ standen werden. Insbesondere werden Eingabevektoren des Trainingssystems, die zum Trainieren benutzt werden, als erste Eingabevektoren bezeichnet. Insbesondere werden zu analysie ¬ rende Eingabevektoren, beispielsweise gemessene Eigenschaften des Zielsystems, als zweite Eingabevektoren bezeichnet.

Unter „Klassifikation" kann im Zusammenhang mit der Erfindung beispielsweise ein Analysieren von Eingabevektoren, insbesondere der zweiten Eingabevektoren, hinsichtlich vorgegebener gesuchter Eigenschaften verstanden werden. Insbesondere können unter einer Klassifikationsaufgabe die gesuchten Eigenschaften der Eingabevektoren bzw. des Zielsystems, beispielsweise „handelt es sich um gesundes Gewebe oder um Tumorgewe ¬ be", verstanden werden. Insbesondere können unter einem Klas- sifikationsergebnis die zweiten Ausgabevektoren verstanden werden, die sich bei einer Analyse der zweiten Eingabevekto ¬ ren mittels des trainierten tiefen neuronalen Netzes ergeben.

Unter einem „Ausgabevektor" kann im Zusammenhang mit der Er- findung beispielsweise ein Ergebnis einer Analyse des Einga ¬ bevektors verstanden werden. Ein Ausgabevektor umfasst insbesondere mindestens ein Analyseergebnis oder eine gesuchte Ei ¬ genschaft, beispielsweise ob es sich um Tumorgewebe handelt oder um gesundes Gewebe, des ( Ziel- ) Systems und ein jeweili ¬ ger Eingabevektor umfasst insbesondere mindestens eine Ein ¬ gangsgröße, die die gesuchte Eigenschaft oder das Analyseer ¬ gebnis beeinflussen. Insbesondere werden Ausgabevektoren des Trainingssystems, die zum Trainieren benutzt werden, als ers ¬ te Ausgabevektoren bezeichnet. Mit anderen Worten ist das erfindungsgemäße Verfahren insbesondere dazu geeignet, um einen Gewebetyp, beispielsweise Tumorgewebe oder gesundes Gewebe, oder eine Erkrankungswahrscheinlichkeit festzustellen und insbesondere in Form eines (zweiten) Ausgabevektors bereitzu ¬ stellen. Insbesondere werden Ausgabevektoren, die insbesondere ein Analyseergebnis des Zielsystems oder von zweiten Ein ¬ gabevektoren umfassen als zweite Ausgabevektoren bezeichnet. Unter einer „ersten Datentransformation" kann im Zusammenhang mit der Erfindung jeweils eine Datentransformation zur Dimensionsreduktion eines jeweiligen Verarbeitungsvektors für je ¬ weils eine versteckte Schicht des tiefen neuronalen Netzes verstanden werden. Mit anderen Worten bedeutet dies bei- spielsweise, dass bei vier versteckten Schichten, insbesonde ¬ re für jede der vier Schichten jeweils eine eigene erste Da ¬ tentransformation für die jeweiligen Verarbeitungsvektoren der jeweiligen Schichten durchgeführt wird. Hierdurch wird insbesondere schrittweise ein mehrfach dimensionsreduzierter Verarbeitungsvektor erzeugt.

Unter einer „zweiten Datentransformation" kann im Zusammenhang mit der Erfindung jeweils eine Datentransformation zur Datenrekonstruktion für den jeweiligen dimensionsreduzierten Verarbeitungsvektor verstanden werden, der für jeweils eine betreffende versteckte Schicht des tiefen neuronalen Netzes berechnet wurde. Mit anderen Worten bedeutet dies beispiels ¬ weise, dass bei vier versteckten Schichten, insbesondere für jede der vier Schichten eine eigene zweite Datentransformati- on zur Datenrekonstruktion aus dem dimensionsreduzierten Verarbeitungsvektor, der für die betreffende verstecke Schicht berechnet wurde, durchgeführt wird. Insbesondere ergibt die jeweilige zweite Datentransformation für den jeweiligen di- mensionsreduzierten Verarbeitungsvektor der jeweiligen versteckten Schicht, jeweils einen rekonstruierten Verarbeitungsvektor . Unter einem „Trainingssystem" kann im Zusammenhang mit der Erfindung beispielsweise ein oder mehrere Trainingssysteme verstanden werden, die insbesondere ein ähnliches oder identisches Systemverhalten aufweisen. Von dem Trainingssystem sind insbesondere erste Eingabevektoren und zugehörige erste Ausgabevektoren bekannt, wobei die ersten Ausgabevektoren bereits durchgeführte Analyseergebnisse für die ersten Eingabe ¬ vektoren umfassen. Beispielsweise werden für biologisches Ge ¬ webe optische Spektren als erste Eingabevektoren verwendet und ein Analyseergebnis (erste Ausgabevektoren) , ob es sich beispielsweise um gesundes Gewebe oder um Tumorgewebe han ¬ delt, in Form eines zytologischen/pathologischen Befund des Gewebes verwendet. Insbesondere wird beim Trainieren des tie ¬ fen neuronalen Netzes das Trainingssystem bzw. dessen Verhalten hinsichtlich der ersten Eingabevektoren in Abhängigkeit von den ersten Ausgabevektoren modelliert. Insbesondere ist es nicht erforderlich, dass beispielsweise der erste Ausgabe ¬ vektor ein Analyseergebnis der ersten Eingabevektoren derselben Modalität umfasst. Dies bedeutet beispielsweise, dass insbesondere NIR-Spektren als erste Eingabevektoren verwendet werden können, aber als erste Ausgabevektoren für das Trainieren nicht eine direkte Analyse der NIR-Spektren vorliegen muss. Stattdessen können insbesondere zu den jeweiligen ersten Eingabevektoren (also beispielsweise die NIR-Spektren) , jeweils insbesondere erste Ausgabevektoren in Form von Gewe- beanalysen, beispielsweise pathologische/zytologische Analy ¬ sen von Biopsien, des Gewebes, von dem die NIR-Spektren aufgezeichnet wurden.

Unter einem „Zielsystem" kann im Zusammenhang mit der Erfin- dung beispielsweise ein zu analysierendes System verstanden werden. Bei einem Zielsystem kann es sich beispielsweise um biologisches Gewebe handeln, bei dem festgestellt werden soll, ob es sich um Tumorgewebe oder gesundes Gewebe handelt. Insbesondere werden Eingabevektoren, die für das Zielsystem analysiert werden sollen, als zweite Eingabevektoren bezeichnet. Insbesondere kann ein zweiter Eingabevektor des Zielsys ¬ tems auch als Blinddatensatz bezeichnet werden. Insbesondere können das Trainingssystem und das Zielsystem unterschiedliche Systeme oder identische Systeme sein.

Unter einem „Modell" kann im Zusammenhang mit der Erfindung beispielsweise eine Datenstruktur insbesondere zum Modellie- ren eines Systems verstanden werden.

Unter einem „Bereitstellen" kann im Zusammenhang mit der Erfindung beispielsweise ein Initialisieren und/oder Berechnen und/oder Laden und/oder Speichern, insbesondere auf/durch ei- nen Datenspeicher, verstanden werden. Insbesondere werden Daten und/oder Datenstrukturen bereitgestellt, wie beispiels ¬ weise Trainingsdaten, ein trainiertes/untrainiertes tiefes neuronales Netz oder ein Ausgabevektor. Unter einem „Feed-Forward-Netz" kann im Zusammenhang mit der Erfindung beispielsweise ein neuronales Netz mit mehreren miteinander verbundenen Schichten verstanden werden. Die verbundenen Schichten umfassen beispielsweise eine Eingabe ¬ schicht zur Eingabe von Eingabevektoren, mindestens eine ver- steckte Schicht zum Modellieren eines Systems (z. B. Trai ¬ ningssystem) oder zum Analysieren von Eingabevektoren eines Systems (z. B. Zielsystem) und eine Ausgabeschicht zur Ausga ¬ be eines Ergebnisses des Analysierens. Insbesondere umfassen die einzelnen Schichten jeweils eine oder mehrere Neuronen, die beispielsweise bei einem Trainieren des tiefen neuronalen Netzes konfiguriert werden.

Unter einem „tiefen neuronalen Netz" kann im Zusammenhang mit der Erfindung beispielsweise ein neuronales Netz oder ein neuronales Netzwerk verstanden werden, das im Gegensatz zu konventionellen neuronalen Netzen mehr als eine versteckte Schicht umfasst. Insbesondere findet die Informationsverar ¬ beitung (insbesondere die Analyse eines Eingangsvektors) vor- zugsweise in vielen aufeinanderfolgenden versteckten Schichten statt. Insbesondere findet eine Übertragung von Verarbei ¬ tungsvektoren zwischen den versteckten Schichten vorzugsweise nur mit der direkt nachfolgenden versteckten Schicht statt. Beispielsweise kann die Analyse des Eingangsvektors (insbe ¬ sondere die Informationsverarbeitung) kaskadiert oder verkettet in den versteckten Schichten durchgeführt werden. Insbesondere wird damit eine kaskadierte Verarbeitung von Eingabe ¬ vektoren oder Verarbeitungsvektoren ermöglicht. Somit kann ein tiefes neuronales Netzwerk beispielsweise eine Mehrzahl von aufeinanderfolgenden versteckten Schichten umfassen, die insbesondere eine kaskadierte Informationsverarbeitung durchführen. Hierdurch lässt sich insbesondere eine hierarchische Informationsverarbeitung in den versteckten Schichten reali- sieren. Insbesondere können beispielsweise Analyseergebnisse (z. B. eine Merkmalsextraktion) einer jeweiligen Schicht direkt der Ausgabeschicht übermittelt werden oder es wird bei ¬ spielsweise ein spezifisches Analyseergebnis einer bestimmten Schicht, die insbesondere ein vorgegebenes Kriterium (z. B. Erreichen einer bestimmten Dimension des Verarbeitungsvektors) , der Ausgabeschicht übermittelt.

Unter „kaskadiert" kann im Zusammenhang mit der Erfindung beispielsweise ein Hintereinanderschalten oder Verketten der versteckten Schichten verstanden werden. Insbesondere dient ein Ergebnis einer Informationsverarbeitung einer betreffenden versteckten Schicht als Eingabevektor oder Verarbeitungsvektor für die der betreffenden Schicht der nachfolgenden versteckten Schicht.

Unter einem „kaskadierten Übertragen" oder einem

„kaskadierten Verarbeiten" kann im Zusammenhang mit der Erfindung beispielsweise ein verkettetes Verarbeiten von Einga ¬ bevektoren oder Verarbeitungsvektoren verstanden werden.

Hierzu wird beispielsweise in einer ersten versteckten

Schicht ein Verarbeitungsvektor bearbeitet und insbesondere eine Dimensionsreduktion mit der entsprechenden ersten Datentransformation der ersten versteckten Schicht durchgeführt. Insbesondere kann die jeweilige erste Datentransformation entweder ein integraler Bestandteil der jeweiligen betreffenden versteckten Schicht (beispielsweise die erste versteckte Schicht) sein oder ein Vorverarbeitungsschritt für die jewei- lige betreffende versteckte Schicht sein. Insbesondere wird an die nachfolgende versteckte Schicht der jeweiligen betref ¬ fenden versteckten Schicht der dimensionsreduzierte Eingabe ¬ vektor oder der dimensionsreduzierte Verarbeitungsvektor übertragen. Hierdurch wird insbesondere bei der Analyse oder Informationsverarbeitung in den versteckten Schichten

schrittweise die Dimension des Eingabevektors oder des Verar ¬ beitungsvektors reduziert, sodass sich insbesondere durch ein Verarbeiten/Analysieren des Verarbeitungsvektors durch die versteckten Schichten ein mehrfach dimensionsreduzierter Ver- arbeitungsvektor ergibt. Auch kann beispielsweise in der jeweiligen versteckten Schicht, jeweils eine Merkmalsextraktion für den jeweiligen dimensionsreduzierten Eingabevektor oder den dimensionsreduzierten Verarbeitungsvektor durchgeführt werden. Insbesondere kann die Merkmalsextraktion beim Trai- nieren des tiefen neuronalen Netzes oder dem Konfigurieren der versteckten Schichten hilfreich sein, um die versteckten Schichten anhand der ersten Ausgabevektoren zu konfigurieren. Hierzu können die ersten Ausgabevektoren für die jeweiligen versteckten Schichten bekannte Merkmale umfassen. Die ver- steckten Schichten können beispielsweise anhand eines Ver ¬ gleichs der bekannten Merkmale mit den extrahierten Merkmalen der jeweiligen Schicht durchgeführt werden.

Unter einem „Konfigurieren", insbesondere der versteckten Schichten, kann im Zusammenhang mit der Erfindung beispielsweise ein Gewichten und/oder Löschen und/oder Einfügen von Neuronen in den versteckten Schichten verstanden werden. Insbesondere können beim Konfigurieren auch Gewichte von entsprechenden Konnektoren der Neuronen angepasst werden.

Das Verfahren ist insbesondere dahingehend vorteilhaft, wenn ein Tumor in kritischem Gewebe (z. B. Gehirn) auftritt. Insbesondere, wenn durch das Entfernen gesunder Zellen bleibende Schäden für den Patienten entstehen können, (z.B. bei Gehirntumoren) ist die korrekte Klassifikation der Grenzbereiche zwischen gesunden und befallenen Zellen/Gewebe entscheidend. Beispielsweise liefern bildgebende diagnostische Verfahren, die im Vorfeld der Operation angewandt werden, für die Opera ¬ tionsplanung einen wichtigen Beitrag, können jedoch insbesondere während der Operation nur noch begrenzt zur Darstellung und Identifikation des Tumors herangezogen werden. Mit Hilfe beispielsweise von Spektroskopie im Nah-Infrarot-Bereich (NIR) können zusätzlich Gewebeeigenschaften analysiert werden, die insbesondere während der Operation in Echtzeit die spektralen Eigenschaften des vorliegenden Gewebes wiedergeben und beispielsweise für die Unterscheidung der Tumorzellen vom umliegenden gesunden Gewebe herangezogen werden können. Um das tiefe neuronale Netzwerk insbesondere für diesen Anwen ¬ dungsfall zu konfigurieren, können beispielsweise aufgezeichneten Spektren als erste Eingabevektoren verwendet werden und Gewebeschnitte, die angeben, ob es sich um Tumorgewebe han ¬ delt, als erste Ausgabevektoren verwendet werden. Insbesonde- re kann das trainierte tiefe neuronale Netz für eine automa ¬ tisierte Differenzierung der unterschiedlichen Zell/Gewebe- Typen genutzt werden und somit beispielsweise dem operieren ¬ den Arzt eine zusätzliche Entscheidungshilfe bei der Abgren ¬ zung zwischen Tumor- und nicht-Tumorzellen zur Verfügung stellen.

Mit anderen Worten ist das erfindungsgemäße Verfahren dahingehend vorteilhaft, die Spektren von gesunden Zellen oder Gewebe und Tumorzellen/Tumorgewebe, die sich insbesondere nur durch komplexe, schwer identifizierbare Eigenschaften unterscheiden, zu analysieren. Insbesondere ist das erfindungsge ¬ mäße Verfahren in der Lage vorzugsweise genau diese schwer identifizierbare Eigenschaften zu identifizieren und insbe ¬ sondere für das Lösen der eigentlichen Klassifikationsaufgabe (Analyse, ob es sich um gesundes Gewebe oder Tumorgewebe han ¬ delt) heranzuziehen. Insbesondere ist das erfindungsgemäße Verfahre in der Lage Messfehler in den aufgezeichneten Spektren oder ersten Eingabevektoren zu kompensieren. Insbesondere wird hierdurch eine langwierige Messfehlerkorrektur der Eingabevektoren vermie- den .

Insbesondere ist das erfindungsgemäße Verfahren in der Lage, einerseits beispielsweise die aufgezeichneten Rohdaten der NIR Spektroskopie (Eingabevektoren) ohne weitere Vorverarbei- tungsschritte, beispielsweise Messfehlerkorrekturen, zu ver ¬ arbeiten und andererseits beispielsweise die komplexe Klassi ¬ fikationsaufgabe (Unterscheidung gesundes Gewebe oder Tumor ¬ gewebe) mit sehr guter Performanz, beispielsweise in mög ¬ lichst kurzer Zeit bis hin zur Echtzeit, zu lösen. Insbeson- dere kann mit dem erfindungsgemäßen Verfahren das tiefe neuronale Netzwerk beispielsweise mit einem Testdatensatz trainiert werden, um vorzugsweise sehr gute Klassifikations ¬ ergebnisse (Ausgabevektor) auf einem zweiten Eingabevektor zu erzielen. Insbesondere lässt sich eine Anwendung des trai- nierten tiefen neuronalen Netzes als reine Input-Output Rela ¬ tion auf zweiten Eingabevektoren durch eine Implementierung in geeigneter Software einfach realisieren.

Das erfindungsgemäße Verfahren ist vorzugsweise nicht auf Ge- hirntumore und dergleichen festgelegt, sondern lässt sich insbesondere auf weitere Gewebearten wie z.B. Knochen erwei ¬ tern. Auch können beispielsweise mit dem erfindungsgemäßen Verfahren auch Gesundheitsdaten analysiert werden, um beispielsweise anhand von genetischen Markern und/oder Medika- menteneinnahmen und/oder Vorerkrankungen und/oder Laborwerten eine Wahrscheinlichkeit für ein Eintreten einer bestimmten Erkrankung, beispielsweise Diabetes, zu ermitteln

Auch ist das Verfahren vorzugsweise nicht auf medizinische Anwendungen beschränkt, sondern es können insbesondere auch spektrale Daten oder Eingabevektoren von Flüssigkeiten oder Gasen untersucht werden. Bei einer ersten Ausführungsform des Verfahrens sind die ers ¬ ten Eingabevektoren gemessene Spektren des Trainingssystems, wobei die ersten Ausgabevektoren bereits durchgeführte Analy ¬ seergebnisse für die Spektren sind.

Bei einer weiteren Ausführungsform des Verfahrens umfassen die gemessenen Spektren, Spektren von Gewebe, und die durchgeführte Analyseergebnisse geben an, ob ein Spektrum gesundem Gewebe zuzuordnen ist oder Tumorgewebe zuzuordnen ist.

Bei einer weiteren Ausführungsform des Verfahrens umfassen die gemessenen Spektren, Spektren von Ölen oder Schmiermitteln, und die durchgeführte Analyseergebnisse umfassen eine Qualität der Öle oder Schmiermittel.

Bei einer weiteren Ausführungsform des Verfahrens wird für die dimensionsreduzierten ersten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ursprünglicher erster Verarbeitungsvektor für jeweils eine be- treffende versteckte Schicht mittels einer zweiten Daten ¬ transformation rekonstruiert, und es wird ein Fehler zwischen dem rekonstruierten ursprünglichen ersten Verarbeitungsvektor und dem übertragenen ersten Verarbeitungsvektor für die jeweilige betreffende versteckte Schicht ermittelt.

Das Verfahren ist insbesondere dahingehend vorteilhaft, um beispielsweise eine Aussage über die Qualität, insbesondere über einen zu erwartenden Fehler, von extrahierten Merkmalen eines dimensionsreduzierten ersten Verarbeitungsvektors einer versteckten Schicht, beispielsweise die betreffende versteck ¬ te Schicht, treffen zu können.

Bei einer weiteren Ausführungsform des Verfahrens wird der ermittelte Fehler für das Konfigurieren der jeweiligen be- treffenden versteckten Schichten oder der jeweiligen nachfolgenden versteckten Schicht, welcher der dimensionsreduzierte erste Verarbeitungsvektor übermittelt wird, berücksichtigt. Das Verfahren ist insbesondere dahingehend vorteilhaft, um hierdurch eine Genauigkeit des Klassifikationsergebnisses zu verbessern. Insbesondere wird das Trainingssystem genauer modelliert und insbesondere können eine Qualität von Merkmalen, die beispielsweise durch die versteckte Schicht aus den Ver- arbeitungsvektor/en extrahiert werden, verbessert werden. Hierdurch können beispielsweise Fehler bei den extrahierten Merkmalen reduziert werden. Bei einer weiteren Ausführungsform des Verfahrens wird eine Anzahl von versteckten Schichten von einer zu erreichenden Dimension des dimensionsreduzierten ersten Eingabevektors bestimmt . Das Verfahren ist insbesondere dahingehend vorteilhaft, um die Anzahl der versteckten Schichten für eine bestimmte Klassifikationsaufgabe möglichst gering zu halten und damit ins ¬ besondere unnötige Rechenschnitte zu vermeiden. Gemäß einem weiteren Aspekt betrifft die Erfindung ein Verfahren zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems mit folgenden Ver ¬ fahrensschritten :

Bereitstellen des zweiten Eingabevektors für das Ziel- System;

Bereitstellen eines trainierten tiefen neuronalen Netzes, wobei

das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches

- eine Eingabeschicht zur Eingabe des zweiten

Eingabevektors für das Zielsystem umfasst, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten umfasst, die das Zielsystem modellieren, und

- eine Ausgabeschicht zur Ausgabe eines zweiten

Ausgabevektors für das Zielsystem umfasst, Auswerten des zweiten Eingabevektors, wobei der zweite Eingabevektor jeweils über die Eingabe ¬ schicht an eine der versteckten Schichten als zwei- ter Verarbeitungsvektor übertragen wird, der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird,

jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird,

bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte

Schicht erfolgt,

der zweite Ausgabevektor anhand eines dimensionsre ¬ duzierten zweiten Verarbeitungsvektors ermittelt wird;

Bereitstellen des zweiten Ausgabevektors.

Das Verfahren ist insbesondere dahingehend vorteilhaft, wenn ein Tumor in kritischem Gewebe (z. B. Gehirn) auftritt. Ins- besondere, wenn durch das Entfernen gesunder Zellen bleibende Schäden für den Patienten entstehen können (z. B. bei Gehirntumoren) , ist die korrekte Klassifikation der Grenzbereiche zwischen gesunden und befallenen Zellen/Gewebe entscheidend. Beispielsweise liefern bildgebende diagnostische Verfahren, die im Vorfeld der Operation angewandt werden, für die Opera ¬ tionsplanung einen wichtigen Beitrag, können jedoch insbesondere während der Operation nur noch begrenzt zur Darstellung und Identifikation des Tumors herangezogen werden. Mit Hilfe beispielsweise von Spektroskopie im Nah-Infrarot-Bereich (NIR) können zusätzlich Gewebeeigenschaften analysiert werden, die insbesondere während der Operation in Echtzeit die spektralen Eigenschaften des vorliegenden Gewebes wiedergeben und beispielsweise für die Unterscheidung der Tumorzellen vom umliegenden gesunden Gewebe herangezogen werden können.

Insbesondere kann das trainierte tiefe neuronale Netz für ei ¬ ne automatisierte Differenzierung der unterschiedlichen

Zell/Gewebe-Typen genutzt werden und somit beispielsweise dem operierenden Arzt eine zusätzliche Entscheidungshilfe bei der Abgrenzung zwischen Tumor- und nicht-Tumorzellen zur Verfügung zu stellen. Mit anderen Worten ist das erfindungsgemäße Verfahren dahingehend vorteilhaft, die Spektren von gesunden Zellen oder Gewebe und Tumorzellen/Tumorgewebe, die sich insbesondere nur durch komplexe, schwer identifizierbare Eigenschaften unterscheiden, zu analysieren. Insbesondere ist das erfindungsge- mäße Verfahren in der Lage vorzugsweise genau diese schwer identifizierbare Eigenschaften zu identifizieren und insbe ¬ sondere für das Lösen der eigentlichen Klassifikationsaufga ¬ be, beispielsweise eine Analyse, ob es sich um gesundes Gewe ¬ be oder Tumorgewebe handelt, heranzuziehen.

Insbesondere ist das erfindungsgemäße Verfahren in der Lage Messfehler in den aufgezeichneten Spektren oder ersten Eingabevektoren zu kompensieren. Insbesondere wird hierdurch eine langwierige Messfehlerkorrektur der Eingabevektoren vermie- den.

Insbesondere durchlaufen die zweiten Eingabevektoren oder die zweiten Verarbeitungsvektoren zur Analyse mehrere versteckte Schichten, wobei insbesondere für jede verstecke Schicht je- weils die Dimensionsreduktion der jeweiligen zweiten Eingabevektoren oder der jeweiligen zweiten Verarbeitungsvektoren durchgeführt wird. In den jeweiligen versteckten Schichten kann dann beispielsweise jeweils eine Analyse der zweiten Verarbeitungsvektoren durchgeführt werden. Die Dimension der zweiten Verarbeitungsvektoren wird somit beim Übermitteln zwischen den versteckten Schichten, insbesondere einem kaskadierten Übermitteln, schrittweise reduziert, bis vorzugsweise der zweite Verarbeitungsvektor eine vorgegebene re ¬ duzierte Dimension erreicht und an die Ausgabeschicht als zweiter Ausgabevektor übertragen wird.

Insbesondere ist das erfindungsgemäße Verfahren in der Lage, einerseits beispielsweise die aufgezeichneten Rohdaten der NIR Spektroskopie (Eingabevektoren) ohne weitere Vorverarbei ¬ tungsschritte, beispielsweise Messfehlerkorrekturen, zu ver ¬ arbeiten und andererseits beispielsweise die komplexe Klassi ¬ fikationsaufgabe (Unterscheidung gesundes Gewebe oder Tumor- gewebe) mit sehr guter Performanz zu lösen.

Insbesondere lässt sich eine Anwendung des trainierten tiefen neuronalen Netzes als reine Input-Output Relation auf den zweiten Eingabevektoren durch eine Implementierung in geeig- neter Software einfach realisieren.

Das erfindungsgemäße Verfahren ist vorzugsweise nicht auf Ge- hirntumore und dergleichen festgelegt, sondern lässt sich insbesondere auf weitere Gewebearten wie z.B. Knochen erwei- tern. Auch können beispielsweise mit dem erfindungsgemäßen Verfahren auch Gesundheitsdaten analysiert werden, um beispielsweise anhand von genetischen Markern und/oder Medikamenteneinnahmen und/oder Vorerkrankungen und/oder Laborwerten eine Wahrscheinlichkeit für ein Eintreten einer bestimmten Erkrankung, beispielsweise Diabetes, zu ermitteln

Auch ist das Verfahren vorzugsweise nicht auf medizinische Anwendungen beschränkt, sondern es können insbesondere auch spektrale Daten oder Eingabevektoren von Flüssigkeiten oder Gasen untersucht werden.

Bei einer weiteren Ausführungsform des Verfahrens ist der zweite Eingabevektor ein gemessenes Spektrum des Zielsystems. Bei einer weiteren Ausführungsform des Verfahrens ist das gemessene Spektrum ein Spektrum von Gewebe, wobei der zweite Ausgabevektor insbesondere angibt, ob es sich um gesundes Ge ¬ webe oder Tumorgewebe handelt. Bei einer weiteren Ausführungsform des Verfahrens ist das gemessene Spektrum ein Spektrum von Ölen und/oder Schmiermitteln, wobei der zweite Ausgabevektor insbesondere eine Quali ¬ tät der Öle oder Schmiermittel angibt. Bei einer weiteren Ausführungsform des Verfahrens wird für die dimensionsreduzierten zweiten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ur- sprünglicher zweiter Verarbeitungsvektor für jeweils eine betreffende versteckte Schicht mittels einer zweiten Daten ¬ transformation rekonstruiert, und es wird ein Fehler zwischen dem rekonstruierten ursprünglichen zweiten Verarbeitungsvektor und dem übertragenen zweiten Verarbeitungsvektor für die jeweilige betreffende versteckte Schicht ermittelt.

Bei einer weiteren Ausführungsform des Verfahrens wird für die dimensionsreduzierten zweiten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ur- sprünglicher zweiter Verarbeitungsvektor für jeweils eine betreffende versteckte Schicht mittels einer zweiten Daten ¬ transformation rekonstruiert, und es wird ein Fehler zwischen dem rekonstruierten ursprünglichen zweiten Verarbeitungsvektor und dem übertragenen zweiten Verarbeitungsvektor für die jeweilige betreffende versteckte Schicht ermittelt.

Das Verfahren ist insbesondere dahingehend vorteilhaft, um beispielsweise eine Aussage über die Qualität, insbesondere über einen zu erwartenden Fehler, von extrahierten Merkmalen eines dimensionsreduzierten ersten Verarbeitungsvektors einer versteckten Schicht, beispielsweise die betreffende versteck ¬ te Schicht, treffen zu können.

Bei einer weiteren Ausführungsform des Verfahrens wird der ermittelte Fehler, für ein Konfigurieren der jeweiligen betreffenden versteckten Schicht oder der jeweiligen nachfolgenden versteckten Schicht, welcher der dimensionsreduzierte erste Verarbeitungsvektor übermittelt wird, berücksichtigt. Das Verfahren ist insbesondere dahingehend vorteilhaft, dass hierdurch eine Genauigkeit des Klassifikationsergebnisses verbessert wird. Insbesondere wird das Zielsystem und dessen Verhalten genauer modelliert und insbesondere können eine Qualität von Merkmalen, die beispielsweise durch die ver ¬ steckte Schicht aus den Verarbeitungsvektor/en extrahiert werden, verbessert werden. Hierdurch können beispielsweise Fehler bei den extrahierten Merkmalen reduziert werden. Ins- besondere ist es zusätzlich ebenfalls möglich, beispielsweise das trainierte tiefe neuronale Netz auch während einer Analy ¬ se von zweiten Eingabevektoren eines Zielsystems weiter zu trainieren . Bei einer weiteren Ausführungsform des Verfahrens wird eine Anzahl von versteckten Schichten von einer zu erreichenden Dimension des dimensionsreduzierten zweiten Verarbeitungsvektors bestimmt. Das Verfahren ist insbesondere dahingehend vorteilhaft, um die Anzahl der versteckten Schichten für eine bestimmte Klassifikationsaufgabe möglichst gering zu halten und damit ins ¬ besondere unnötige Rechenschnitte zu vermeiden. Gemäß einem weiteren Aspekt betrifft die Erfindung eine Kon ¬ figurationsvorrichtung zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems aufweisend :

ein erstes Bereitstellungsmodul zum Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem;

ein zweites Bereitstellungsmodul zum Bereitstellen des tiefen neuronalen Netzes, wobei

- das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches

eine Eingabeschicht zur Eingabe der ersten Eingabevektoren umfasst,

eine Mehrzahl von aufeinanderfolgenden ver- steckten Schichten zum Modellieren des Trainingssystems umfasst;

ein erstes Trainingsmodul zum Trainieren des tiefen neuronalen Netzes anhand der Trainingsdaten, wobei die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden, die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen erste Verarbeitungsvektoren durchgeführt werden, bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht erfolgt,

die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren konfiguriert werden.

Gemäß einem weiteren Aspekt betrifft die Erfindung eine Ana ¬ lysevorrichtung zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems aufweisend: eine drittes Bereitstellungsmodul zum Bereitstellen des zweiten Eingabevektors für das Zielsystem;

ein viertes Bereitstellungsmodul zum Bereitstellen eines trainierten tiefen neuronalen Netzes, wobei

- das neuronale Netz ein Feed-Forward-Netz ist, welches

eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem umfasst, eine Mehrzahl von aufeinanderfolgenden ver- steckten Schichten umfasst, die das Zielsystem modellieren, und

eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem umfasst, ein erstes Auswertemodul zum Auswerten des zweiten Ein- gabevektors, wobei

der zweite Eingabevektor jeweils über die Eingabe ¬ schicht an eine der versteckten Schichten als zweiter Verarbeitungsvektor übertragen wird, der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird,

jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird,

bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte

Schicht erfolgt,

- der zweite Ausgabevektor anhand eines dimensionsre ¬ duzierten zweiten Verarbeitungsvektors ermittelt wird;

ein fünftes Bereitstellungsmodul zum Bereitstellen des zweiten Ausgabevektors.

Des Weiteren wird ein Computerprogrammprodukt mit Programmbe ¬ fehlen zur Durchführung der genannten erfindungsgemäßen Verfahren beansprucht, wobei mittels des Computerprogrammpro ¬ dukts jeweils eines der erfindungsgemäßen Verfahren, alle er- findungsgemäßen Verfahren oder eine Kombination der erfindungsgemäßen Verfahren, durchführbar ist.

Zusätzlich wird eine Variante des Computerprogrammproduktes mit Programmbefehlen zur Konfiguration eines Erstellungsge- räts, beispielsweise ein 3D-Drucker oder ein zur Erstellung von Prozessoren und/oder Geräten, beansprucht, wobei das Erstellungsgerät mit den Programmbefehlen derart konfiguriert wird, dass die genannte erfindungsgemäße Konfigurationsvor ¬ richtung und/oder die Analysevorrichtung erstellt wird.

Darüber hinaus wird eine Bereitstellungsvorrichtung zum Speichern und/oder Bereitstellen des Computerprogrammprodukts be ¬ ansprucht. Die Bereitstellungsvorrichtung ist beispielsweise ein Datenträger, der das Computerprogrammprodukt speichert und/oder bereitstellt. Alternativ und/oder zusätzlich ist die Bereitstellungsvorrichtung beispielsweise ein Netzwerkdienst, ein Computersystem, ein Serversystem, insbesondere ein verteiltes Computersystem, ein cloudbasiertes Rechnersystem und/oder virtuelles Rechnersystem, welches das Computerpro ¬ grammprodukt vorzugsweise in Form eines Datenstroms speichert und/oder bereitstellt. Diese Bereitstellung erfolgt beispielsweise als Download in Form eines Programmdatenblocks und/oder Befehlsdatenblocks, vorzugsweise als Datei, insbesondere als Downloaddatei, oder als Datenstrom, insbesondere als Downloaddatenstrom, des vollständigen Computerprogrammprodukts. Diese Bereitstellung kann beispielsweise aber auch als partieller Download erfol ¬ gen, der aus mehreren Teilen besteht und insbesondere über ein Peer-to-Peer Netzwerk heruntergeladen oder als Datenstrom bereitgestellt wird. Ein solches Computerprogrammprodukt wird beispielsweise unter Verwendung der Bereitstellungsvorrich- tung in Form des Datenträgers in ein System eingelesen und führt die Programmbefehle aus, sodass das erfindungsgemäße Verfahren auf einem Computer zur Ausführung gebracht wird oder das Erstellungsgerät derart konfiguriert, dass dieses die erfindungsgemäße Konfigurationsvorrichtung und/oder die Analysevorrichtung erstellt.

Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusam- menhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Figuren näher erläutert werden. Dabei zeigen in schematischer Darstellung:

Fig. 1 ein Ablaufdiagramm eines ersten Ausführungsbei- spiels des erfindungsgemäßen Verfahrens zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems;

Fig. 2 ein Ablaufdiagramm eines weiteren Ausführungsbei- spiels des erfindungsgemäßen Verfahrens zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems; Fig. 3a-b Datenstrukturen eines tiefen neuronalen Netzes weiterer Ausführungsbeispiele der Erfindung;

Fig. 4 eine Konfigurationsvorrichtung eines weiteren Ausführungsbeispiels der Erfindung; und

Fig. 5 eine Analysevorrichtung eines weiteren Ausführungsbeispiels der Erfindung; In den Figuren sind funktionsgleiche Elemente mit denselben Bezugszeichen versehen, sofern nichts anderes angegeben ist.

Die nachfolgenden Ausführungsbeispiele weisen, sofern nicht anders angegeben oder bereits angegeben, zumindest einen Pro- zessor und/oder eine Speichereinrichtung auf, um das Verfahren zu implementieren oder auszuführen.

Die Fig. 1 zeigt ein Ablaufdiagramm eines ersten Ausführungsbeispiels des erfindungsgemäßen Verfahren zum rechnergestütz- ten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems .

Im Einzelnen zeigt die Fig. 1 ein Verfahren zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems mit einem ersten Verfahrensschritt 110 zum Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem. Das Verfahren umfasst einen zweiten Verfahrensschritt 120 zum Bereitstellen des tiefen neuronalen Netzes, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist. Das Feed-Forward Netz umfasst eine Eingabeschicht zur Eingabe der ersten Ein ¬ gabevektoren und eine Mehrzahl von aufeinanderfolgenden ver- steckten Schichten zum Modellieren des Trainingssystems.

Das Verfahren umfasst einen dritten Verfahrensschritt 130 zum Trainieren des tiefen neuronalen Netzes anhand der Trainings- daten, wobei die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden. In dem dritten Verfahrensschritt 130 werden zusätzlich die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen und es werden jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der über ¬ tragenen erste Verarbeitungsvektoren durchgeführt.

In dem dritten Verfahrensschritt 130 erfolgt zusätzlich bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht und es werden die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren konfiguriert.

In einer bevorzugten Variante ist ein Prozessor speziell dazu eingerichtet, Programmbefehle derart auszuführen, damit ein Prozessor Funktionen ausführt, um das erfindungsgemäße Ver ¬ fahren oder mindestens einen der Schritte des erfindungsgemä ¬ ßen Verfahrens zu implementieren. Die Fig. 2 zeigt ein Ablaufdiagramm eines weiteren Ausführungsbeispiels des erfindungsgemäßen Verfahrens zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems. Im Einzelnen zeigt die Fig. 2 ein Verfahren zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems mit einem ersten Verfahrensschritt 210 zum Bereitstellen des zweiten Eingabevektors für das Zielsystem. Das Verfahren umfasst einen zweiten Verfahrensschritt 220 zum Bereitstellen eines trainierten tiefen neuronalen Netzes, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist. Das Feed-Forward Netz umfasst eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten, die das Zielsystem modellieren, und eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem.

Das Verfahren umfasst einen dritten Verfahrensschritt 230 zum Auswerten des zweiten Eingabevektors, wobei der zweite Einga ¬ bevektor jeweils über die Eingabeschicht an eine der ver ¬ steckten Schichten als zweiter Verarbeitungsvektor übertragen wird und der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird.

In dem dritten Verfahrensschritt 230 wird zusätzlich jeweils für eine versteckte Schicht eine jeweilige erste Datentrans- formation des übertragenen zweiten Verarbeitungsvektors durchgeführt und es erfolgt bei der jeweiligen ersten Daten ¬ transformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte Schicht. In dem dritten Verfahrensschritt 230 wird zusätzlich der zweite Ausgabevektor anhand eines dimensionsreduzierten zweiten Verarbeitungsvektors ermittelt.

Bei dem dimensionsreduzierten zweiten Verarbeitungsvektor kann es sich beispielsweise um einen mehrfach dimensionsredu ¬ zierten zweiten Verarbeitungsvektor handeln. Insbesondere handelt es sich bei dem mehrfach dimensionsreduzierten zweiten Verarbeitungsvektor also um einen zweiten Verarbeitungsvektor der schrittweise von mehreren versteckten Schichten verarbeitet wurde, bis beispielsweise der mehrfachdimensions- reduzierte zweite Verarbeitungsvektor eine vorgegebene Dimen ¬ sion erreicht hat.

Das Verfahren umfasst einen vierten Verfahrensschritt 240 zum Bereitstellen des zweiten Ausgabevektors.

In einer bevorzugten Variante ist ein Prozessor speziell dazu eingerichtet, Programmbefehle derart auszuführen, damit ein Prozessor Funktionen ausführt, um das erfindungsgemäße Ver ¬ fahren oder mindestens einen der Schritte des erfindungsgemä ¬ ßen Verfahrens zu implementieren. Mit anderen Worten ist insbesondere das in der Fig. 1 und/oder in der Fig. 2 erläuterte Verfahren dazu geeignet, bei einer Operation, insbesondere bösartiger Tumore zu ermit ¬ teln, ob vorzugsweise tatsächlich alle befallenen Zellen aus dem betroffenen Bereich entfernt wurden. Dies hat insbesonde- re den Vorteil, ein Streuen bzw. eine erneute Entstehung des Tumors zu verhindern. Dies ist insbesondere dann von ent ¬ scheidender Bedeutung, wenn der Tumor in kritischem Gewebe auftritt, das heißt wenn durch das Entfernen gesunder Zellen bleibende Schäden für den Patienten entstehen können (z. B. bei Gehirntumoren) . Insbesondere ist in solchen Situationen die korrekte Klassifikation der Grenzbereiche zwischen gesunden und befallenen Zellen entscheidend.

Zwar können beispielsweise bildgebende diagnostische Verfah- ren, die im Vorfeld der Operation angewandt werden, für die Operations-Planung einen wichtigen Beitrag liefern. Jedoch können diese bildgebenden diagnostischen Verfahren während der Operation beispielsweise nur begrenzt zur Darstellung und Identifikation des Tumors herangezogen werden.

Insbesondere können mit Hilfe der Spektroskopie im nahen Inf ¬ rarot (NIR) während der Operation in Echtzeit die spektralen Eigenschaften des vorliegenden Gewebes bestimmt und bei ¬ spielsweise für die Unterscheidung der Tumorzellen vom umlie- genden gesunden Gewebe herangezogen werden.

Insbesondere können mit den in der Fig. 1 und/oder in der Fig. 2 erläuterten Verfahren die aufgezeichneten Spektren als (zweite) Eingabevektoren für eine automatisierte Differenzie- rung der unterschiedlichen Zell-Typen verwendet werden. Insbesondere stellt die Erfindung dem operierenden Arzt eine zu ¬ sätzliche Entscheidungshilfe bei der Abgrenzung zwischen Tu ¬ mor- und nicht-Tumorzellen (oder Gewebe) zur Verfügung. Im Einzelnen ist insbesondere eine Differenzierung von Tumorzellen und gesundem Gewebe anhand von aufgezeichneten NIR- Spektren mit konventionellen Verfahren schwierig, da sich die Unterscheidungsmerkmale in den NIR-Spektren nur schwer identifizieren lassen.

Insbesondere ist es mit dem in der Fig. 1 und/oder dem in der Fig. 2 erläuterten Verfahren beispielsweise möglich, auf Ba- sis einer Trainingsmenge eine Klassifikation der gemessenen Spektren vorzunehmen, bei der insbesondere auch feinste spektrale Unterscheidungsmerkmale genutzt werden können. Ins ¬ besondere kann hierdurch bestimmt werden, ob es sich um Tumorgewebe oder gesundes Gewebe handelt. Dieses Bestimmen ent- spricht vorzugsweise der Klassifikationsaufgabe. Außerdem ist man, insbesondere mit den in der Fig. 1 und/oder in der Fig. 2 erläuterten Verfahren, in der Lage auch komplexe nichtlineare Zusammenhänge zwischen Input-Signal , beispielsweise die ersten oder zweiten Eingabevektoren, und Ausgabe (in die- sem Fall Klassifikation) , beispielsweise die ersten oder zweiten Ausgabevektoren, darzustellen oder zu erkennen.

Um beispielsweise eine gute Interpretierbarkeit des erzielten Ergebnisses oder des (zweiten) Ausgabevektors für den Anwen- der zu ermöglichen, kann insbesondere der Ausgabevektor mit Hilfe einer entsprechenden Konfiguration des tiefen neuronalen Netzes in eine vorgegebene Form gebracht werden. Es ist beispielsweise möglich den Ausgabevektor in eine Form einer Wahrscheinlichkeitsaussage über die Zugehörigkeit, beispiels- weise gesundes oder krankes Gewebe, der vermessenen Probe zu bringen .

Sobald beispielsweise mit Hilfe eines geeigneten tiefen neuronalen Netzes oder einer geeigneten Architektur eines tiefen neuronalen Netzes eine ZuOrdnungsvorschrift für die

Klassifikationsaufgabe aus den Trainingsdaten gelernt wurde, wie beispielsweise in Fig. 1 erläutert, lässt sich das tiefe neuronale Netz insbesondere als Input/Output-Relation auf zweite Eingabevektoren, wie in Fig. 2 erläutert, mit Hilfe einer geeigneten Software Implementierung vorzugsweise in Echtzeit anwenden. Insbesondere erlaubt die Architektur des tiefen neuronalen Netzes, insbesondere durch der Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems, eine problemlose Erweiterung der Klas ¬ sifikationsaufgabe auch für andere Gewebetypen. Vorstellbar wäre es beispielsweise noch zusätzlich eine Klassifikation von Knochenmaterial oder Fettgewebe einzuführen.

Insbesondere sind die erfindungsgemäßen Verfahren dazu in der Lage, insbesondere die Spektren von gesunden Zellen und Tu ¬ morzellen zu differenzieren, die insbesondere nur schwer identifizierbare Eigenschaften unterscheiden. Insbesondere sind konventionelle Clusteringverfahren, die auf Ähnlichkeitsanalysen basieren, dafür nicht geeignet.

Die Fig. 3a zeigt eine Datenstruktur eines tiefen neuronalen Netzes eines weiteren Ausführungsbeispiels der Erfindung, wo- bei die Fig. 3a insbesondere eine mögliche Architektur des tiefen neuronalen Netzes darstellt.

Insbesondere kann diese Architektur eines tiefen neuronalen Netzes von dem erfindungsgemäßen Verfahren aus Fig. 1 oder dem erfindungsgemäßen Verfahren aus Fig. 2 verwendet werden.

Im Einzelnen zeigt Fig. 3a eine Eingabeschicht E zur Eingabe von Eingabevektoren, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten und eine Ausgabeschicht 0 zur Ausgabe eines Ausgabevektors. In diesem Ausführungsbeispiel umfasst die Mehrzahl der versteckten Schichten insgesamt vier Schichten, insbesondere eine erste versteckte Schicht VS1, eine zweite versteckte Schicht VS2, eine dritte versteckte Schicht VS3 und eine vierte versteckte Schicht VS4.

Wird beispielsweise ein vorgegebener erster Eingabevektor zum Trainieren des tiefen neuronalen Netzes von der Eingabeschicht an die erste versteckte Schicht VS1 in Form eines ersten Verarbeitungsvektors übermittelt, wird insbesondere für die erste versteckte Schicht VS1 eine erste Datentrans ¬ formation, beispielsweise eine Datentransformation A, des ersten Verarbeitungsvektors zu dessen Dimensionsreduktion durchgeführt. Die erste versteckte Schicht VS1 analysiert den dimensionsreduzierten ersten Verarbeitungsvektor und extrahiert mittels einer Funktion a aus diesem beispielsweise Merkmale y. Diese Merkmale y werden dann mit den bereits ex ¬ trahierten Merkmalen eines vorgegebenen ersten Ausgabevektors verglichen und anhand der ermittelten Unterschiede (oder auch Fehler genannt) werden die Neuronen der ersten Schicht konfiguriert .

Danach wird der dimensionsreduzierte erste Verarbeitungsvek- tor der nachfolgenden versteckten Schicht (zweite versteckte Schicht VS2) übertragen. Für die zweite versteckte Schicht VS2 wird mittels einer ersten Datentransformation, beispielsweise eine Datentransformation B, eine weitere Dimensionsre ¬ duktion des dimensionsreduzierte ersten Verarbeitungsvektors, der von der ersten verstecken Schicht VS1 dimensionsreduziert übermittelt wurde, durchgeführt.

Die zweite versteckte Schicht VS2 analysiert den mehrfach (zweifach) dimensionsreduzierten ersten Verarbeitungsvektor und extrahiert mittels einer Funktion b aus diesem beispiels ¬ weise wiederum Merkmale y. Diese Merkmale y werden dann mit weiteren bereits extrahierten Merkmalen des vorgegebenen ersten Ausgabevektors verglichen und anhand der ermittelten Unterschiede werden die Neuronen der zweiten Schicht VS2 konfi- guriert.

Diese Schritte der Analyse bzw. Konfiguration werden dann analog für die dritte versteckte Schicht mit einer ersten Da ¬ tentransformation, beispielsweise eine Datentransformation C, und für die vierte versteckte Schicht mit einer ersten Daten ¬ transformation, beispielsweise eine Datentransformation D, durchgeführt . Dabei sind insbesondere unter einer ersten Datentransformati ¬ on die Datentransformationen der entsprechenden versteckten Schichten zu verstehen. Der Ausgabeschicht 0 wird insbesondere der mehrfach (4-fach) dimensionsreduzierte erste Verarbeitungsvektor übergeben, mit dem ersten Ausgabevektor verglichen und ggf. Unterschiede zwischen dem mehrfach dimensionsreduzierte erste Verarbei ¬ tungsvektor und dem ersten Ausgabevektor ermittelt. Die Aus- gabeschicht bzw. Neuronen der Ausgabeschicht können dann ent ¬ sprechend der ermittelten Unterschiede konfiguriert werden.

Eine Analyse eines zweiten Eingabevektors unterscheidet sich insbesondere darin, dass in den versteckten Schichten bei- spielsweise die Merkmale extrahiert werden ohne beispielswei ¬ se eine weitere Konfiguration der versteckten Schichten vorzunehmen oder einen Fehler zwischen den extrahierten Merkmalen und einem vorgegebenen ersten Ausgabevektor zu ermitteln. Die extrahierten Merkmale können beispielsweise für die Ana ¬ lyse in den Ausgabevektor eingehen oder es wird für den Ausgabevektor beispielsweise nur die extrahierten Merkmale der letzten versteckten Schicht, in diesem Ausführungsbeispiel der vierten versteckten Schicht VS4, berücksichtigt. Es ist aber auch denkbar, dass beispielsweise ein mehrfach dimensi ¬ onsreduzierter Verarbeitungsvektor der Ausgabeschicht als Ausgabevektor übermittelt wird, sobald insbesondere eine vor ¬ gegebene Dimension des mehrfach dimensionsreduzierten Verarbeitungsvektors erreicht wurde.

Bei der in diesem Ausführungsbeispiel vorgeschlagenen Architektur eines tiefen neuronalen Netzes übermitteln insbesondere die versteckten Schichten zum Training des tiefen neuronalen Netzes oder zur Analyse von Eingabevektoren, die Eingabe- vektoren oder die Verarbeitungsvektoren vorzugsweise nur der nachfolgenden direkt benachbarten Schicht. Die Eingabeschicht kann dabei entweder die Eingabevektoren direkt einer vorgegebenen versteckten Schicht, beispielsweise die erste versteck- te Schicht VS1, übergeben oder eine passende versteckte

Schicht, die zur Dimension des Eingabevektors passt, auswäh ¬ len. Insbesondere wird ein Überspringen von versteckten

Schichten beim Übermitteln des Verarbeitungsvektors zwischen versteckten Schichten unterbunden.

Um insbesondere die Genauigkeit der Konfiguration/Training des tiefen neuronalen Netzes und/oder des Analysierens von Eingabevektoren durch das tiefe neuronale Netz zu verbessern, kann beispielsweise die Architektur des tiefen neuronalen

Netzes aus Fig. 3a erweitert werden. Dies ist beispielsweise in Fig. 3b dargestellt.

Zusätzlich zur der bereits in Fig. 3a erläuterten Konfigura- tion, werden in Fig. 3b aus dem jeweiligen dimensionsreduzierten Verarbeitungsvektor einer versteckten Schicht mit jeweils einer zweiten Datentransformation jeweils für die entsprechende versteckte Schicht ein rekonstruierter Verarbei ¬ tungsvektor berechnet. Mit anderen Worten wird mit der zwei- ten Datentransformation versucht, die Dimensionsreduktion für die jeweilige versteckte Schicht rückgängig zu machen. Der ursprüngliche Verarbeitungsvektor, also der Verarbeitungsvektor für die entsprechende versteckte Schicht, der noch nicht dimensionsreduziert wurde, wird mit dem rekonstruierten Ver- arbeitungsvektor verglichen und ggf. werden Unterschiede zwi ¬ schen diesen bzw. Fehler zwischen diesen ermittelt. Der ermittelte Fehler kann dann beispielsweise verwendet werden, um die betreffende versteckte Schicht, für den der Verarbei ¬ tungsvektor dimensionsreduziert wurde, zu verbessern, indem beispielsweise die betreffende versteckte Schicht anhand des Fehlers nachjustiert bzw. konfiguriert wird, also insbesonde ¬ re die Neuronen der entsprechenden versteckten Schicht konfiguriert werden und Gewichte von entsprechenden Konnektoren von Neuronen angepasst werden. Dieses Nachjustieren oder Kon- figurieren, kann aber auch für die nachfolgende versteckte Schicht durchgeführt werden. Im Einzelnen zeigt Fig. 3b, wie aus dem dimensionsreduzierten Verarbeitungsvektor, der für die erste versteckte Schicht VS1 mittels der ersten Datentransformation dimensionsreduziert wurde, mittels einer zweiten Datentransformation, beispiels- weise eine Datentransformation AT, der ursprüngliche Verarbeitungsvektor Tl, also der Verarbeitungsvektor, der noch nicht für die erste versteckte Schicht VS1 dimensionsredu ¬ ziert wurde, rekonstruiert wird. Anschließend wird ein Fehler ldl zwischen dem ursprünglichen Verarbeitungsvektor und dem rekonstruierten Verarbeitungsvektor ermittelt. Anhand des Fehlers kann beispielsweise die betreffende versteckte

Schicht, also die erste versteckte Schicht VS1, oder die nachfolgende versteckte Schicht, also die zweite versteckte Schicht VS2, genauer konfiguriert werden und das tiefe neuro- nale Netz besser trainiert werden. Hierdurch kann insbesondere die Genauigkeit, mit der die Klassifikationsausgabe gelöst wird, verbessert werden. Mit anderen Worten wird damit insbe ¬ sondere der Fehler des Ausgabevektors soweit möglich mini ¬ miert .

Dieses Fehlerermitteln und verbessern der Konfiguration der versteckten Schichten wird dann analog auf die anderen versteckten Schichten angewendet. Das Verfahren kann je nach Anwendungsszenario beispielsweise auf alle versteckten Schich- ten angewendet werden oder beispielsweise nur auf einen Teil der versteckten Schichten angewendet werden.

Für die zweite versteckte Schicht VS2 bedeutet dies bei ¬ spielsweise, dass aus dem mehrfach dimensionsreduzierten Ver- arbeitungsvektor, der für die zweite Schicht VS2 ermittelt wurde, zunächst mittels einer zweiten Datentransformation, beispielsweise die Datentransformation BT, der ursprüngliche Verarbeitungsvektor T2 der zweiten versteckten Schicht VS2, also der Verarbeitungsvektor, der für die vorhergehenden ver- steckten Schichten dimensionsreduziert wurde (also die erste versteckte Schicht VS1), aber noch nicht für die zweite ver ¬ steckte Schicht VS2 dimensionsreduziert wurde, rekonstruiert wird. Auch hier wird wieder für die betreffende Schicht ein Fehler ld2 ermittelt, anhand dessen die betreffende Schicht oder die nachfolgende Schicht der betreffenden Schicht weiter konfiguriert wird bzw. die bestehende Konfiguration verbes ¬ sert wird.

Die Fig. 4 zeigt eine Konfigurationsvorrichtung eines weiteren Ausführungsbeispiels der Erfindung.

Im Einzelnen zeigt Fig. 4 eine Konfigurationsvorrichtung zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems. Die Konfigurationsvorrich ¬ tung umfasst ein erstes Bereitstellungsmodul 410, ein zweites Bereitstellungsmodul 420 und ein erstes Trainingsmodul 430, die mit einem ersten Bus 405 kommunikativ miteinander verbun- den sind.

Die Konfigurationsvorrichtung kann beispielsweise zusätzlich noch eine weitere Komponente oder mehrere weitere Komponenten umfassen, wie beispielsweise einen Prozessor, eine Speicher- einheit, ein Eingabegerät, insbesondere eine Computertastatur oder eine Computermaus, oder einen Monitor. Die entsprechende/n Komponente/n können beispielsweise über den ersten Bus 405 mit den anderen Modulen der Konfigurationsvorrichtung kommunikativ verbunden sein.

Das erste Bereitstellungsmodul 410 ist zum Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem eingerichtet .

Das erste Bereitstellungsmodul 410 kann beispielsweise mit ¬ tels des Prozessors, der Speichereinheit und einer ersten Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen die Trainingsdaten bereitstellen.

Das zweite Bereitstellungsmodul 420 ist zum Bereitstellen des tiefen neuronalen Netzes eingerichtet, wobei das tiefe neuro- nale Netz ein Feed-Forward-Netz ist. Das Feed-Forward Netz umfasst eine Eingabeschicht zur Eingabe der ersten Eingabe ¬ vektoren und eine Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems.

Das zweite Bereitstellungsmodul 420 kann beispielsweise mit ¬ tels des Prozessors, der Speichereinheit und einer zweiten Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen das tiefe neuronalen Netz bereitstellen.

Das erste Trainingsmodul 430 ist zum Trainieren des tiefen neuronalen Netzes anhand der Trainingsdaten eingerichtet, wo ¬ bei die ersten Eingabevektoren jeweils über die Eingabe- schicht an eine der versteckten Schichten als erste Verarbei ¬ tungsvektoren übertragen werden und die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden. Zusätzlich ist das erste Trainingsmodul 430 dazu eingerich ¬ tet, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen erste Verarbeitungsvektoren durchzuführen und bei der jeweiligen ersten Datentransformation erfolgt eine Dimensionsreduktion der ersten Verar- beitungsvektoren jeweils für eine betreffende versteckte Schicht .

Zusätzlich ist das erste Trainingsmodul 430 dazu eingerich ¬ tet, die versteckten Schichten anhand der dimensionsreduzier- ten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren zu konfigurieren.

Das erste Trainingsmodul 430 kann beispielsweise mittels des Prozessors und einer dritten Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen das tiefe neuronalen Netz trainieren. Die Fig. 5 zeigt eine Analysevorrichtung eines weiteren Ausführungsbeispiels der Erfindung.

Im Einzelnen zeigt Fig. 5 eine Analysevorrichtung zum rech- nergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems. Die Analysevorrichtung umfasst ein drittes Bereitstellungsmodul 510, ein viertes Bereitstel ¬ lungsmodul 520, ein erstes Auswertemodul 530 und ein fünftes Bereitstellungsmodul 540, die über einen zweiten Bus 505 mit- einander kommunikativ verbunden sind.

Die Analysevorrichtung kann beispielsweise zusätzlich noch eine weitere Komponente oder mehrere weitere Komponenten um ¬ fassen, wie beispielsweise einen Prozessor, eine Speicherein- heit, ein Eingabegerät, insbesondere eine Computertastatur oder eine Computermaus, oder einen Monitor. Die entsprechende/n Komponente/n können beispielsweise über den zweiten Bus 505 mit den anderen Modulen der Analysevorrichtung kommunikativ verbunden sein.

Das dritte Bereitstellungsmodul 510 ist zum Bereitstellen des zweiten Eingabevektors für das Zielsystem eingerichtet.

Das dritte Bereitstellungsmodul 510 kann beispielsweise mit- tels des Prozessors, der Speichereinheit und einer vierten Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen den zweiten Eingabevektor bereitstellen. Das vierte Bereitstellungsmodul 520 ist zum Bereitstellen ei ¬ nes trainierten tiefen neuronalen Netzes eingerichtet, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist. Das Feed- Forward Netz umfasst eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten, die das Zielsystem modellieren, und eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem. Das vierte Bereitstellungsmodul 520 kann beispielsweise mit ¬ tels des Prozessors, der Speichereinheit und einer fünften Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen das trainierte tiefe neuronale Netz bereitstellen.

Das erste Auswertemodul 530 ist zum Auswerten des zweiten Eingabevektors eingerichtet, wobei der zweite Eingabevektor jeweils über die Eingabeschicht an eine der versteckten

Schichten als zweiter Verarbeitungsvektor übertragen wird und der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird.

Zusätzlich ist das erste Auswertemodul 530 dazu eingerichtet, dass jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird und, dass bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte Schicht erfolgt.

Zusätzlich ist das erste Auswertemodul 530 dazu eingerichtet, dass der zweite Ausgabevektor anhand eines dimensionsredu ¬ zierten zweiten Verarbeitungsvektors ermittelt wird.

Das erste Auswertemodul 530 kann beispielsweise mittels des Prozessors und einer sechsten Programmkomponente implemen ¬ tiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen den zweiten Eingabevektor mittels des trainier- ten tiefen neuronalen Netzes analysieren.

Das fünfte Bereitstellungsmodul 540 ist zum Bereitstellen des zweiten Ausgabevektors eingerichtet. Das fünfte Bereitstellungsmodul 540 kann beispielsweise mit ¬ tels des Prozessors, der Speichereinheit und einer fünften Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen den zweiten Ausgabevektor bereitstellen.

Obwohl die Erfindung im Detail durch die Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt, und an ¬ dere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.