Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
SYSTEM AND METHOD FOR OPTICALLY INSPECTING OBJECTS
Document Type and Number:
WIPO Patent Application WO/2024/100017
Kind Code:
A1
Abstract:
The present invention relates to a system (100) for the optical inspection of objects (102), comprising: one or more detection units (104) for, in particular, continuous optical detection of at least one object (102) to be inspected in a measuring range (106) and for providing image information of the detected object (102); and a computing unit (110) which is designed and programmed to inspect the detected object (102) using the image information provided based on one or more, in particular positive, reference objects and to provide a corresponding inspection result about the object (102) in question. The invention also relates to a method for the optical inspection of objects (102).

Inventors:
SINGER ROLAND (DE)
BORCHERS SEBASTIAN (DE)
GAMBEL MARWIN (DE)
Application Number:
PCT/EP2023/080945
Publication Date:
May 16, 2024
Filing Date:
November 07, 2023
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
WAHTARI GMBH (DE)
International Classes:
G06T7/00; G06F18/21
Foreign References:
US20220335585A12022-10-20
Other References:
BIRLUTIU ADRIANA ET AL: "Defect Detection in Porcelain Industry Based on Deep Learning Techniques", 2017 19TH INTERNATIONAL SYMPOSIUM ON SYMBOLIC AND NUMERIC ALGORITHMS FOR SCIENTIFIC COMPUTING (SYNASC), IEEE, 21 September 2017 (2017-09-21), pages 263 - 270, XP033442973, DOI: 10.1109/SYNASC.2017.00049
Attorney, Agent or Firm:
DTS PATENT- UND RECHTSANWÄLTE SCHNEKENBÜHL UND PARTNER MBB (DE)
Download PDF:
Claims:
Patentansprüche System (100) zur optischen Inspektion von Objekten (102), aufweisend:

- eine oder mehrere Detektionseinheiten (104) zum insbesondere kontinuierlichen optischen Erfassen von zumindest einem zu inspizierenden Objekt (102) in einem Messbereich (106) und zum Bereitstellen von Bildinformation des erfassten Objekts (102); und

- eine Recheneinheit (110), welche ausgebildet und programmiert ist, um das erfasste Objekt (102) anhand der bereitgestellten Bildinformationen zu inspizieren basierend auf einem oder mehreren, insbesondere positiven Referenzobjekten und um ein korrespondierendes Inspektionsergebnis über das betreffende Objekt (102) bereitzustellen. System (100) nach Anspruch 1 , dadurch gekennzeichnet, dass die Recheneinheit (110) ein Locator-Modul (116) aufweist, welches ausgebildet und programmiert ist, um eine Außenkontur des erfassten Objekts (102) in den Bildinformationen zu ermitteln und optional um einen Informationsgehalt, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts (102) zuordenbar ist, in den Bildinformationen zu löschen. System (100) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Recheneinheit (100) ein oder mehrere Erkennungsmodule (118, 120, 122, 124) aufweist, welche ausgebildet und programmiert sind, um anhand der Bildinformationen das erfasste Objekt (102) auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, insbesondere positiven Referenzobjekten zu analysieren und um einen korrespondierenden Messwert bereitzustellen. System (100) nach Anspruch 3, dadurch gekennzeichnet, dass

- zumindest ein Erkennungsmodul (118) zur Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (120) zur geometrischen Messungsanalyse ausgebildet und programmiert ist, und/oder - zumindest ein Erkennungsmodul (122) zur Farbanalyse ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (124) zur Oberflächenanalyse ausgebildet und programmiert ist. System (100) nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Recheneinheit (100) ein Evaluator-Modul (126) aufweist, welches ausgebildet und programmiert ist, um zu ermitteln, ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt, wobei das korrespondierende Inspektionsergebnis über das Objekt (102) auf Basis dieser Ermittlung erzeugbar ist. System (100) nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Recheneinheit (110) ein Trainer-Modul (128) aufweist, welches ausgebildet und programmiert ist, um auf Basis der Bildinformationen des erfassten Objekts (102) ein erstes und/oder zumindest ein weiteres, insbesondere positives Referenzobjekt insbesondere für nachfolgende Inspektionen zu erzeugen, wenn das erfasste Objekt (102) einem Soll-Zustand im Wesentlichen entspricht. System (100) nach Anspruch 6 in Verbindung mit Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Recheneinheit (110) korrespondierend zu dem einen oder den mehreren Erkennungsmodulen (118, 120, 122, 124) ein oder mehrere Anlernmodule (130, 132, 134, 136) aufweist, die ausgebildet und programmiert sind, um auf Basis von zumindest einem, insbesondere positiven Referenzobjekt das eine oder die mehren Erkennungsmodule (118, 120, 122, 124) zu trainieren. System (100) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass jede Detektionseinheit (104) einen Trigger-Eingang aufweist, mittels welchem ein analoges Trigger-Signal empfangbar ist, wobei jede Detektionseinheit (104) konfiguriert ist, um ein optisches Erfassen zu starten und/oder zu synchronisieren insbesondere mit der Recheneinheit (110), sobald das analoge Trigger-Signal empfangen ist. Verfahren zur optischen Inspektion von Objekten (102), wobei das Verfahren umfasst:

- Bereitstellen eines zu inspizierenden Objekts (102) in einem Messbereich (106);

- optisches Erfassen des zu inspizierenden Objekts (102) mittels einer oder mehrerer Detektionseinheiten (104) insbesondere in einer kontinuierlichen Weise;

- Bereitstellen von Bildinformationen des erfassten Objekts (102) mittels der einen oder der mehreren Detektionseinheiten (104);

- Inspizieren des erfassten Objekts (102) anhand der bereitgestellten Bildinformationen basierend auf einem oder mehreren, insbesondere positiven Referenzobjekten mittels einer Recheneinheit (110); und

- Bereitstellen eines korrespondierenden Inspektionsergebnisses über das Objekt (102) mittels der Recheneinheit (110). Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass das Verfahren aufweist:

- Ermitteln einer Außenkontur des erfassten Objekts (102) in den Bildinformationen mittels eines Locator-Moduls (116) der Recheneinheit (110); und

- optional, Löschen eines Informationsgehalts, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts (102) zuordenbar ist, in den Bildinformationen mittels des Locator-Moduls (116). Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass das Inspizieren aufweist:

- Analysieren des erfassten Objekts (102) auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, insbesondere positiven Referenzobjekten anhand der Bildinformationen mittels eines oder mehrerer Erkennungsmodule (118, 120, 122, 124) der Recheneinheit (110); und

- Bereitstellen eines korrespondierenden Messwerts mittels des einen oder der mehreren Erkennungsmodule (118, 120, 122, 124). Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass

- zumindest ein Erkennungsmodul (118) zur Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert ist, und/oder - zumindest ein Erkennungsmodul (120) zur geometrischen Messungsanalyse ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (122) zur Farbanalyse ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (124) zur Oberflächenanalyse ausgebildet und programmiert ist. Verfahren nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass das Inspizieren aufweist:

- Ermitteln mittels eines Evaluatormoduls (126) der Recheneinheit (110), ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt, wobei das korrespondierende Inspektionsergebnis über das Objekt (102) auf Basis dieser Ermittlung erzeugbar ist oder erzeugt wird. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass das Verfahren aufweist:

- Erzeugen von einem ersten und/oder zumindest einem weiteren, insbesondere positiven Referenzobjekt insbesondere für nachfolgende Inspektionen auf Basis der Bildinformationen des erfassten Objekts (102) mittels eines Trainer-Moduls (128) der Recheneinheit (110), wenn das erfasste Objekt (102) einem Soll-Zustand im Wesentlichen entspricht. Verfahren nach Anspruch 14 in Verbindung mit Anspruch 11 oder 12, dadurch gekennzeichnet, dass das Verfahren aufweist:

- Trainieren des einen oder der mehreren Erkennungsmodule (118, 120, 122, 124) auf Basis von zumindest einem, insbesondere positiven Referenzobjekt mittels eines oder mehrerer Anlernmodule (130, 132, 134, 136) der Recheneinheit (110).

GEÄNDERTE ANSPRÜCHE beim Internationalen Büro eingegangen am 08 Marz 2024 (08.03.2024) System (100) zur optischen Inspektion von Objekten (102), aufweisend:

- eine oder mehrere Detektionseinheiten (104) zum insbesondere kontinuierlichen optischen Erfassen von zumindest einem zu inspizierenden Objekt (102) in einem Messbereich (106) und zum Bereitstellen von Bildinformation des erfassten Objekts (102); und

- eine Recheneinheit (110), welche ausgebildet und programmiert ist, um das erfasste Objekt (102) anhand der bereitgestellten Bildinformationen zu inspizieren basierend auf einem oder mehreren, insbesondere positiven Referenzobjekten und um ein korrespondierendes Inspektionsergebnis über das betreffende Objekt (102) bereitzustellen. System (100) nach Anspruch 1 , dadurch gekennzeichnet, dass die Recheneinheit (110) ein Locator-Modul (116) aufweist, welches ausgebildet und programmiert ist, um eine Außenkontur des erfassten Objekts (102) in den Bildinformationen zu ermitteln und optional um einen Informationsgehalt, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts (102) zuordenbar ist, in den Bildinformationen zu löschen. System (100) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Recheneinheit (100) ein oder mehrere Erkennungsmodule (118, 120, 122, 124) aufweist, welche ausgebildet und programmiert sind, um anhand der Bildinformationen das erfasste Objekt (102) auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, insbesondere positiven Referenzobjekten zu analysieren und um einen korrespondierenden Messwert bereitzustellen. System (100) nach Anspruch 3, dadurch gekennzeichnet, dass

- zumindest ein Erkennungsmodul (118) zur Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (120) zur geometrischen Messungsanalyse ausgebildet und programmiert ist, und/oder

GEÄNDERTES BLATT (ARTIKEL 19) - zumindest ein Erkennungsmodul (122) zur Farbanalyse ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (124) zur Oberflächenanalyse ausgebildet und programmiert ist. System (100) nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Recheneinheit (100) ein Evaluator-Modul (126) aufweist, welches ausgebildet und programmiert ist, um zu ermitteln, ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt, wobei das korrespondierende Inspektionsergebnis über das Objekt (102) auf Basis dieser Ermittlung erzeugbar ist. System (100) nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Recheneinheit (110) ein Trainer-Modul (128) aufweist, welches ausgebildet und programmiert ist, um auf Basis der Bildinformationen des erfassten Objekts (102) ein erstes und/oder zumindest ein weiteres, insbesondere positives Referenzobjekt insbesondere für nachfolgende Inspektionen zu erzeugen, wenn das erfasste Objekt (102) einem Soll-Zustand im Wesentlichen entspricht. System (100) nach Anspruch 6 in Verbindung mit Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Recheneinheit (110) korrespondierend zu dem einen oder den mehreren Erkennungsmodulen (118, 120, 122, 124) ein oder mehrere Anlernmodule (130, 132, 134, 136) aufweist, die ausgebildet und programmiert sind, um auf Basis von zumindest einem, insbesondere positiven Referenzobjekt das eine oder die mehren Erkennungsmodule (118, 120, 122, 124) zu trainieren. System (100) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass jede Detektionseinheit (104) einen Trigger-Eingang aufweist, mittels welchem ein analoges Trigger-Signal empfangbar ist, wobei jede Detektionseinheit (104) konfiguriert ist, um ein optisches Erfassen zu starten und/oder zu synchronisieren insbesondere mit der Recheneinheit (110), sobald das analoge Trigger-Signal empfangen ist.

GEÄNDERTES BLATT (ARTIKEL 19) System (100) zur optischen Inspektion von Linearobjekten (102) wie Kabeln, Drähten, Schläuchen und Rohren, aufweisend:

- eine Fördereinrichtung zum kontinuierlichen Durchführen eines zu inspizierenden Linearobjekts (102) durch einen Messbereich (106);

- eine oder mehrere Detektionseinheiten (104) zum optischen Erfassen des Linearobjekts (102) in dem Messbereich (106) und zum Bereitstellen von Bildinformation des Linearobjekts (102);

- eine Recheneinheit (110), welche ausgebildet und programmiert ist, um das Linearobjekt (102) anhand der bereitgestellten Bildinformationen zu inspizieren und um ein korrespondierendes Inspektionsergebnis über das Linearobjekt (102) bereitzustellen,

- wobei die Recheneinheit (110) mindestens ein Erkennungsmodul (118,120,122,124) aufweist, welches ausgebildet und programmiert ist, um die Bildinformation auf Übereinstimmung mit und/oder Abweichungen von einem vorbestimmten Gut-Muster für das zu inspizierende Linearobjekt (102) zu analysieren. System (100) nach Anspruch 9, dadurch gekennzeichnet, dass das Erkennungsmodul (118,120,122,124) ein künstliches neuronales Netzwerk zum Anlernen eines Gut-Musters umfasst. System (100) nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Recheneinheit (110) dazu ausgebildet und programmiert ist, um aus der erfassten Bildinformation eines Abschnitts eines Linearobjekts (102) ein Gut-Muster zu erzeugen. System (100) nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass mehrere stationäre Detektionseinheiten (104) in Umfangsrichtung um das Linearobjekt (102) herum verteilt angeordnet sind. System (100) nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass das Linearobjekt (102) vorzugsweise von Rolle zu Rolle freischwebend durch den Messbereich hindurchgeführt ist. System (100) nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass

GEÄNDERTES BLATT (ARTIKEL 19) der Messbereich (106) durch eine Einhausung (144) zumindest teilweise vom Umgebungslicht abgeschirmt ist. System (100) nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass die Bildinformation mittels jeweils einer Kamera (112) der Detektionseinheiten (104) als Hochgeschwindigkeitsbildfolge mit mehr als 500 Bildern pro Sekunde bereitstellbar ist. System (100) nach einem der Ansprüche 9 bis 15, dadurch gekennzeichnet, dass das Inspektionsergebnis mindestens eine Eigenschaft des Linearobjekts (102) aus der Gruppe Umfangsgeometrie, Aufdrucke, Farbe, Defekte, Fremdpartikel umfasst. System (100) nach einem der Ansprüche 9 bis 16, dadurch gekennzeichnet, dass das Inspektionsergebnis auf einer Ausgabeeinheit in-line im Durchlauf des Linearobjekts (102) bereitstellbar ist. System (100) nach einem der Ansprüche 9 bis 17, dadurch gekennzeichnet, dass die Recheneinheit (110) dazu ausgebildet und programmiert ist, um die Position einer erkannten fehlerhaften Eigenschaft längs des Linearobjekts (102) zu bestimmen. Verfahren zur optischen Inspektion von Objekten (102), wobei das Verfahren umfasst:

- Bereitstellen eines zu inspizierenden Objekts (102) in einem Messbereich (106);

- optisches Erfassen des zu inspizierenden Objekts (102) mittels einer oder mehrerer Detektionseinheiten (104) insbesondere in einer kontinuierlichen Weise;

- Bereitstellen von Bildinformationen des erfassten Objekts (102) mittels der einen oder der mehreren Detektionseinheiten (104);

- Inspizieren des erfassten Objekts (102) anhand der bereitgestellten Bildinformationen basierend auf einem oder mehreren, insbesondere positiven Referenzobjekten mittels einer Recheneinheit (110); und

- Bereitstellen eines korrespondierenden Inspektionsergebnisses über das Objekt (102) mittels der Recheneinheit (110). Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass

GEÄNDERTES BLATT (ARTIKEL 19) das Verfahren aufweist:

- Ermitteln einer Außenkontur des erfassten Objekts (102) in den Bildinformationen mittels eines Locator-Moduls (116) der Recheneinheit (110); und

- optional, Löschen eines Informationsgehalts, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts (102) zuordenbar ist, in den Bildinformationen mittels des Locator-Moduls (116). Verfahren nach Anspruch 19 oder 20, dadurch gekennzeichnet, dass das Inspizieren aufweist:

- Analysieren des erfassten Objekts (102) auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, insbesondere positiven Referenzobjekten anhand der Bildinformationen mittels eines oder mehrerer Erkennungsmodule (118, 120, 122, 124) der Recheneinheit (110); und

- Bereitstellen eines korrespondierenden Messwerts mittels des einen oder der mehreren Erkennungsmodule (118, 120, 122, 124). Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass

- zumindest ein Erkennungsmodul (118) zur Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (120) zur geometrischen Messungsanalyse ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (122) zur Farbanalyse ausgebildet und programmiert ist, und/oder

- zumindest ein Erkennungsmodul (124) zur Oberflächenanalyse ausgebildet und programmiert ist. Verfahren nach einem der Ansprüche 21 bis 23, dadurch gekennzeichnet, dass das Inspizieren aufweist:

- Ermitteln mittels eines Evaluatormoduls (126) der Recheneinheit (110), ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt, wobei das korrespondierende Inspektionsergebnis über das Objekt (102) auf Basis dieser Ermittlung erzeugbar ist oder erzeugt wird. Verfahren nach einem der Ansprüche 19 bis 23,

GEÄNDERTES BLATT (ARTIKEL 19) dadurch gekennzeichnet, dass das Verfahren aufweist:

- Erzeugen von einem ersten und/oder zumindest einem weiteren, insbesondere positiven Referenzobjekt insbesondere für nachfolgende Inspektionen auf Basis der Bildinformationen des erfassten Objekts (102) mittels eines Trainer-Moduls (128) der Recheneinheit (110), wenn das erfasste Objekt (102) einem Soll-Zustand im Wesentlichen entspricht. Verfahren nach Anspruch 24 in Verbindung mit Anspruch 21 oder 22, dadurch gekennzeichnet, dass das Verfahren aufweist:

- Trainieren des einen oder der mehreren Erkennungsmodule (118, 120, 122, 124) auf Basis von zumindest einem, insbesondere positiven Referenzobjekt mittels eines oder mehrerer Anlernmodule (130, 132, 134, 136) der Recheneinheit (110).

GEÄNDERTES BLATT (ARTIKEL 19)

Description:
System und Verfahren zur optischen Inspektion von Objekten

Die vorliegende Erfindung betrifft ein System und ein Verfahren zur optischen Inspektion von Objekten.

Steigende Anforderungen an bereits hohe Qualitätsstandards, wie sie beispielsweise die Automobilindustrie fordert, stellen eine Fehlererkennung an einem Ausgangsmaterial, Zwischenprodukten und/oder Produkten mittels herkömmlicher Mess- und Prüftechnik zunehmend vor Probleme. Hinzu kommen Forderungen wie 100% Kontrolle und Nachverfolgbarkeit von Ausgangsmaterial, Zwischenprodukten und/oder Produkten.

Es besteht daher insbesondere der Bedarf, gleichzeitig verschiedene Parameter und Qualitätsmerkmale in Einzelprüfung (z.B. Prüfstand) und/oder in der laufenden Produktion (z.B. inline) zu analysieren. Hierbei sind höchste Geschwindigkeiten, maximale Datensicherheit und geringste Latenzen gefordert. Ferner können Standardlösungen zur (optischen) Qualitätssicherung nicht immer auf die zumeist individuell konfigurierten Industrieanlagen zur Verarbeitung und/oder Herstellung von Ausgangsmaterial, Zwischenprodukten und/oder Produkten anpassbar bzw. anwendbar sein insbesondere im Hinblick auf Lichtverhältnisse und/oder Blickwinkel.

Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die zuvor genannten Probleme zu lösen, insbesondere ein System und ein Verfahren zur optischen Inspektion von Objekten bereitzustellen, welche insbesondere eine zuverlässige und effiziente Inspektion von Objekten ermöglicht.

Diese Aufgabe wird erfindungsgemäß durch die Merkmale des unabhängigen Systemanspruchs und durch die Merkmale des unabhängigen Verfahrensanspruchs gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den jeweiligen abhängigen Ansprüchen beschrieben.

Das erfindungsgemäße System zur optischen Inspektion von Objekten weist auf: eine oder mehrere Detektionseinheiten zum insbesondere kontinuierlichen optischen Erfassen von zumindest einem zu inspizierenden Objekt in einem Messbereich und zum Bereitstellen von Bildinformation des erfassten Objekts; und eine Recheneinheit, welche ausgebildet und programmiert ist, um das erfasste Objekt anhand der bereitgestellten Bildinformationen zu inspizieren basierend auf einem oder mehreren, insbesondere positiven Referenzobjekten und um ein korrespondierendes Inspektionsergebnis über das betreffende Objekt bereitzustellen. Die Erfindung basiert insbesondere auf dem Gedanken, dass die Recheneinheit Objekte insbesondere rein auf Basis von positiven Referenzobjekten, zum Beispiel von (tatsächlichen) Gut-Beispielen bzw. (tatsächlichen) Gut-Mustern, inspiziert oder inspizieren kann. Insbesondere kann zumindest ein Teil der Recheneinheit rein auf Basis von den besagten positiven Referenzobjekten bzw. den Gut-Beispielen hierzu anlernbar sein oder angelernt werden. Dieser Teil der Recheneinheit kann insbesondere als künstliches neuronales Netzwerk konfiguriert sein. Folglich kann das in anderen Worten heißen, dass negative Referenzobjekte bzw. Schlecht-Beispiele für eine Inspektion nicht benötigt werden. Das System kann daher effizient betrieben werden bzw. betreibbar sein. Insbesondere kann eine Effizienz des Systems gesteigert sein, da eine Inspektion lediglich auf Basis von den besagten positiven Referenzobjekten durchführbar ist und beispielsweise ein Abgleich mit zahlreichen negativen Referenzobjekten somit vermieden wird. Es sollte verstanden sein, dass die positiven Referenzobjekte nicht künstlich erzeugt werden, sondern dass die Referenzobjekte insbesondere nur durch Aufnahmen von originalen Gut-Objekten erzeugt oder erzeugbar sind. Hierbei sollte aber verstanden sein, dass, zusätzlich oder alternativ, die positiven Referenzobjekte aufgenommen und zusätzlich künstlich erzeugbar sein können, und dass, zusätzlich oder alternativ, negative Referenzobjekte optional vorgesehen sein können, welche künstlich erzeugbar sein können. Hierdurch kann ein flexibel konfigurierbares System bereitstellbar sein. Ferner kann eine Inbetriebnahme des Systems schnell durchführbar sein, da insbesondere eine Inspektion von Objekten bereits bei einem positiven Referenzobjekt durchführbar ist. In anderen Worten kann das System mit vorerst einem positiven Referenzobjekt anlernbar sein insbesondere im Hinblick auf zu inspizierende Objektmerkmale. Die Inbetriebnahme erfordert daher (nahezu) keine Fachkenntnisse über das zu inspizierende Objekt, da die Objektmerkmale nach einem bzw. dem beschriebenen „Teach & Go“-Prinzip anhand des positiven Referenzobjekt anlernbar bzw. eintrainierbar sind insbesondere mittels des künstlichen neuronalen Netzwerks.

Es kann vorgesehen sein, dass ein Objekt ein beliebiges Ausgangsmaterial, Zwischenprodukt und/oder Produkt sein kann. Insbesondere kann ein Objekt ein plattenförmiges Objekt, ein zylinderförmiges Objekt, ein rohrförmiges Objekt (z.B. mit einem kreisförmigen oder einem Oval-förmigen Querschnitt) und/oder ein sich längserstreckendes Objekt sein. Es ist ferner denkbar, dass das Objekt gewinkelt und/oder gekrümmt geformt sein kann. Es ist ferner denkbar, dass ein Objekt einen symmetrischen oder einen asymmetrischen Querschnitt aufweisen kann. Es sollte zudem verstanden sein, dass das Objekt auch eine Kombination der zuvor genannten exemplarischen Aufzahlung aufweisen kann. Beispielsweise kann ein sich längserstreckendes Objekt zumindest eines der Folgenden umfassen: Kabel; Glasfaser; Drähte; Metall-, Holz- und/oder Kunststoffprofile; Schläuche; Seile; Garne; Ketten; Bohrer; Gewindestangen; Schrauben; Nägel; und/oder Stifte. Ferner sollte hierbei verstanden sein, dass ein sich längserstreckendes Objekt auch mehrere der zuvor genannten Elemente umfassen kann, wie beispielsweise zwei oder mehr miteinander verbundene, insbesondere verdrehte und/oder verdrillte Kabel und/oder Drähte. Beispielsweise kann ein plattenförmiges Objekt ein Teiggebäck, z.B. Kekse, umfassen. Beispielsweise kann ein zylinderförmiges Objekt ein Holzprofil, z.B. Baumstämme, umfassen. Es sollte verstanden sein, dass die obigen Aufzählungen rein exemplarisch sind und dass das Objekt zusätzlich oder alternativ gestaltet sein kann.

Es kann vorgesehen sein, dass die Recheneinheit ein Locator-Modul aufweist, welches ausgebildet und programmiert ist, um eine Außenkontur des erfassten Objekts in den Bildinformationen zu ermitteln und, optional, um einen Informationsgehalt, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts zuordenbar ist, in den Bildinformationen zu löschen. Das Locator-Modul kann als insbesondere bereits vortrainiertes bzw. bereits angelerntes, künstliches neuronales Netzwerk konfiguriert sein. Indem die Außenkontur ermittelbar ist mittels des Locator-Moduls, kann eine Menge an Informationen reduzierbar sein, welche von der Recheneinheit verarbeitet werden muss. Hierdurch kann eine Effizienzsteigerung der Recheneinheit und damit des Systems erzielbar sein. Darüber hinaus, da die nicht benötigten Informationen löschbar sind, kann die Recheneinheit ökonomischer betreibbar sein insbesondere im Hinblick auf Speicherkapazitäten. Ferner, da die Außenkontur ermittelbar ist, kann das Locator-Modul zusätzlich oder alternativ zur optischen Eliminierung von Bewegungen, z.B. Vibrationen, des erfassten Objekts dienen, was ebenfalls zu einer Performanceverbesserung des Systems führen kann.

Es kann vorgesehen sein, dass die Recheneinheit ein oder mehrere Erkennungsmodule aufweist, welche ausgebildet und programmiert sind, um anhand der Bildinformationen das erfasste Objekt auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, insbesondere positiven Referenzobjekten zu analysieren und um einen korrespondierenden Messwert bereitzustellen. Das eine oder die mehreren Erkennungsmodule können jeweilig als eine Kombination von künstlichen neuronalen Netzwerken und konventionellen Algorithmen konfiguriert sein. Indem das erfasste Objekt auf Basis von positiven Referenzobjekten analysierbar sein kann mittels des einen oder der mehreren Erkennungsmodule und daher nur eine Übereinstimmung und/oder eine Abweichung von diesen hierbei zu analysieren ist, kann das System effizient betrieben werden bzw. betreibbar sein. Insbesondere kann eine Effizienz des Systems gesteigert sein, da eine Analyse lediglich auf Basis von den besagten positiven Referenzobjekten durchführbar ist und beispielsweise ein Abgleich mit zahlreichen negativen Referenzobjekten somit vermieden wird.

Es kann vorgesehen sein, dass zumindest ein Erkennungsmodul zur Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert ist. Beispielsweise kann das Erkennungsmodul zur Symbolerkennungsanalyse als OCR-Modul ausgebildet und programmiert sein, um insbesondere Aufdrucke (z.B. Markierungen, Codes, Schriftzüge, und/oder Seriennummern) auf den betreffenden Objekten analysieren zu können. Es kann vorgesehen sein, dass das Erkennungsmodul zur Symbolerkennungsanalyse entsprechend vortrainiert bzw. angelernt ist.

Zusätzlich oder alternativ kann vorgesehen sein, dass zumindest ein Erkennungsmodul zur geometrischen Messungsanalyse ausgebildet und programmiert ist. Mittels des Erkennungsmoduls zur geometrischen Messungsanalyse kann beispielsweise eine konkrete Abmessung (z.B. ein Durchmesser) an definierten Punkten innerhalb der Bildinformation der betreffenden Objekte berechenbar sein, insbesondere konkret quantitativ berechenbar sein.

Zusätzlich oder alternativ kann vorgesehen sein, dass zumindest ein Erkennungsmodul zur Farbanalyse ausgebildet und programmiert ist. In anderen Worten kann das Erkennungsmodul zur Farbanalyse zur Farbüberwachung der betreffenden Objekte konfiguriert sein. Beispielsweise kann eine Farbabweichung der betreffenden Objekte mittels des Erkennungsmoduls zur Farbanalyse berechenbar sein.

Zusätzlich oder alternativ kann vorgesehen sein, dass zumindest ein Erkennungsmodul zur Oberflächenanalyse und/oder zur allgemeinen Defekt-Detektion ausgebildet und programmiert ist. In anderen Worten kann vorgesehen sein, dass zumindest ein Erkennungsmodul zur Anomaliererkennung ausgebildet und programmiert ist. Beispielsweise können mittels des Erkennungsmoduls zur Oberflächenanalyse und/oder zur Defekt-Detektion und/oder zur Anomaliererkennung Brüche, Risse, Einschnitte, Löcher, Dellen, Pickel, Fremdpartikel und/oder Luftblasen in und/oder an den Objekten ermittelbar sein.

Es kann vorgesehen sein, dass die Recheneinheit ein Evaluator-Modul aufweist, welches ausgebildet und programmiert ist, um zu ermitteln, ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt, wobei das korrespondierende Inspektionsergebnis über das Objekt auf Basis dieser Ermittlung erzeugbar ist. Das Evaluator-Modul kann folglich eine Einordnung der Messwerte durchführen und anschließend das korrespondierende Inspektionsergebnis bereitstellen. Es kann vorgesehen sein, dass die Grenzwerte in der Recheneinheit von einem Benutzer flexibel änderbar sind insbesondere in Abhängigkeit von einem zu inspizierenden Objekt und/oder einer Qualitätserwartung an ein zu inspizierendes Objekt. Die Grenzwerte können einen Toleranzbereich eines akzeptablen Qualitätsdefizits der inspizierten Objekte im Hinblick auf die jeweilige Messwertkategorie der jeweiligen Erkennungsmodule repräsentieren.

Es kann vorgesehen sein, dass das Inspektionsergebnis bereitstellbar ist insbesondere an eine Ausgabeeinheit des Systems zur Ausgabe an den Benutzer und/oder an eine Schnittstelle zur Übermittlung an eine zusätzliche Systemeinheit und/oder dem System zugeordnete oder zuordenbare Einheit. Eine Ausgabeeinheit kann beispielsweise eine Anzeigeeinheit, z.B. ein Bildschirm, und/oder eine Alarmeinheit, z.B. eine akustische und/oder visuelle Alarmeinheit, sein. Die zusätzliche Systemeinheit und/oder die dem System zugeordnete oder zuordenbare Einheit kann beispielsweise als eine Big-Data-Einheit und/oder als Cloud konfiguriert sein. Zusätzlich oder alternativ kann das Inspektionsergebnis in einer Speichereinheit des Systems speicherbar sein. Zusätzlich oder alternativ kann die Schnittstelle als eine Programmierschnittstelle (API) oder eine Industrieschnittstelle (z.B. Profinet) konfiguriert sein.

Es kann vorgesehen sein, dass die Recheneinheit ein Trainer-Modul aufweist, welches ausgebildet und programmiert ist, um auf Basis der Bildinformationen des erfassten Objekts ein erstes und/oder zumindest ein weiteres, insbesondere positives Referenzobjekt insbesondere für nachfolgende Inspektionen zu erzeugen, wenn das erfasste Objekt einem Soll-Zustand im Wesentlichen entspricht. Zusätzlich oder alternativ kann vorgesehen sein, dass das Trainer-Modul ausgebildet und programmiert ist, um potentielle Fehlercharakteristiken vorzugsweise für nachfolgende Inspektionen künstlich zu erzeugen, insbesondere auf Basis der Bildinformationen des erfassten Objekts. Insbesondere kann das Trainer-Modul auf die erzeugten Bildinformationen der Detektionseinheiten zugreifen, um Bildinformationen bzw. Bildmaterial für positive Referenzobjekte zu generieren, wenn das erfasste Objekt einem Soll-Zustand im Wesentlichen entspricht. Der Soll-Zustand kann von einem Benutzer in der Recheneinheit definierbar und/oder festlegbar sein. Es kann vorgesehen sein, dass der Soll-Zustand einen Toleranzbereich aufweist. In anderen Worten können die positiven Referenzobjekte bzw. deren Bildinformationen nur oder überwiegend Bildinformationen von positiven Referenzobjekte umfassen, welche folglich keine oder nur wenige Produktionsfehler/Abweichungen in einem akzeptablen Toleranzbereich aufweisen. Sollten Produktionsfehler/Abweichungen enthalten sein, müssen diese deutlich in der Unterzahl sein, ansonsten werden diese als zulässige Produktionsmerkmale definiert. Es kann vorgesehen sein, dass die Recheneinheit korrespondierend zu dem einen oder den mehreren Erkennungsmodulen ein oder mehrere Anlernmodule aufweist, die ausgebildet und programmiert sind, um auf Basis von zumindest einem, insbesondere positiven Referenzobjekt das eine oder die mehren Erkennungsmodule zu trainieren. In anderen Worten kann jedem Erkennungsmodul ein Anlernmodul zugeordnet sein. Das eine oder die mehreren Anlernmodule können jeweilig als eine Kombination von künstlichen neuronalen Netzwerken und konventionellen Algorithmen konfiguriert sein. Beispielsweise kann vorgesehen sein, dass zumindest ein Anlernmodul zur Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert ist. Zusätzlich oder alternativ kann vorgesehen sein, dass zumindest ein Anlernmodul zur geometrischen Messungsanalyse ausgebildet und programmiert ist. Zusätzlich oder alternativ kann vorgesehen sein, dass zumindest ein Anlernmodul zur Farbanalyse ausgebildet und programmiert ist. Zusätzlich oder alternativ kann vorgesehen sein, dass zumindest ein Anlernmodul zur Oberflächenanalyse ausgebildet und programmiert ist. Indem die Anlernmodule die Erkennungsmodule anlernen bzw. trainieren anhand von positiven Referenzobjekten, kann hierdurch die Zuverlässigkeit und die Effizienz der Analysen der Erkennungsmodule stetig steigerbar sein in Abhängigkeit einer Menge von positiven Referenzobjekten, mittels welchen die Erkennungsmodule trainierbar sein können.

Es kann beispielsweise vorgesehen sein, dass ein oder mehrere oder jedes insbesondere als (z.B. tiefes) neuronales Netzwerk ausgebildete Erkennungsmodul trainierbar ist, insbesondere mittels eines z.B. korrespondierenden Anlernmoduls, dass ein oder mehrere Wahrscheinlichkeitswerte pro Bildbereich und/oder Bildpixel bereitstellbar oder ausgebbar sind. Hierbei kann es vorgesehen sein, dass bereitgestellte Werte oder Ausgabewerte im Hinblick auf eine Defektwahrscheinlichkeit, auf Farbabweichungen, auf Formabweichungen und/oder auf sonstige gewünschte bzw. ungewünschte optische Merkmale setzbar sind.

Es kann vorgesehen sein, dass jede Detektionseinheit einen Trigger-Eingang aufweist, mittels welchem ein analoges T rigger-Signal empfangbar ist, wobei jede Detektionseinheit konfiguriert ist, um ein optisches Erfassen zu starten und/oder zu synchronisieren insbesondere mit der Recheneinheit, sobald das analoge Trigger-Signal empfangen ist. Hierdurch kann sicherstellbar sein, dass ein optisches Erfassen zuverlässig beginnt insbesondere bei einer Inline-Inspektion beispielsweise in einer Produktionsanlage. Ferner kann vorgesehen sein, dass mittels des Trigger-Eingangs, beispielsweise mittels des darüber empfangbaren Trigger- Signals, eine der (z.B. jeder) Detektionseinheit zugeordnete oder zuordenbare Beleuchtung startbar und/oder synchronisierbar ist. Dadurch kann ein entsprechender Leistungs- und/oder Kühlbedarf reduzierbar und/oder optimierbar sein. Es kann vorgesehen sein, dass der Messbereich, in welchem das zumindest eine zu inspizierende Objekt mittels der einen oder der mehreren Detektionseinheiten optisch erfassbar ist, in einem zumindest teilweise oder vollständig geschlossenen Raum, insbesondere einer Messkammer, des Systems angeordnet ist. Zusätzlich oder alternativ kann vorgesehen sein, dass der Messbereich, in welchem das zumindest eine zu inspizierende Objekt mittels der einen oder der mehreren Detektionseinheiten optisch erfassbar ist, in einem offenen Raum angeordnet ist. Zusätzlich oder alternativ kann vorgesehen sein, dass der Messbereich an oder auf einer Fördereinrichtung, z.B. einem Förderband, angeordnet ist. Zusätzlich oder alternativ kann vorgesehen sein, dass dem Messbereich eine Fördereinrichtung, z.B. eine Abwickelvorrichtung und/oder eine Aufwickelvorrichtung, vor- und/oder nachgeordnet ist. Beispielsweise kann dies bei sich längserstreckenden Objekten und/oder Endlosobjekten der Fall sein, wie zum Beispiel bei einem Kabel oder Extrusionsobjekten. In anderen Worten kann ein zu inspizierendes Objekt mittels Ab- und Aufrollens durch den Messbereich und optional durch eine Produktionsanlage, in welcher die Fördereinrichtung angeordnet sein kann, förderbar sein. Es sollte verstanden sein, dass die eine oder die mehreren Detektionseinheiten bezüglich des Messbereichs geeignet angeordnet oder anordenbar sein können für ein optisches Erfassen von Objekten in dem Messbereich.

Beispielsweise kann das System eine Messkammer aufweisen, welche eine Eingangsöffnung zur Aufnahme des zu inspizierenden Objekts in die Messkammer hinein und eine Ausgangsöffnung zur Abgabe des inspizierten Objekts aus der Messkammer heraus umfasst, wobei der besagte Messbereich zwischen der Eingangsöffnung und der Ausgangsöffnung in der Messkammer angeordnet ist.

Es kann vorgesehen sein, dass die eine oder die mehreren Detektionseinheiten zum insbesondere kontinuierlichen optischen Erfassen des Objekts in dem Messbereich der Messkammer konfiguriert sind.

Es kann vorgesehen sein, dass eine oder mehrere oder jede Detektionseinheit konfiguriert ist, um beim insbesondere kontinuierlichen optischen Erfassen des Objekts (z.B. in der Messkammer) das Objekt koaxial zu beleuchten. Hierdurch kann ein Hellfeld bereitstellbar sein, das für eine gleichmäßige Ausleuchtung sorgen kann und Spiegelungen vermeiden kann. Diese Beleuchtungstechnik kann sich insbesondere für reflektierende Oberflächen aller Art, wie Metalle, Glas, glatte oder polierte Oberflächen, etc. eignen. Durch eine homogene Lichtatmosphäre kann sich die Koaxialbeleuchtung insbesondere für eine Fehlerinspektion auf unebenen Oberflächen eignen. Beispielsweise können so Details trotz Knitterung und/oder Wölbung sichtbar gemacht werden. Es kann somit die Zuverlässigkeit des Systems verbessert werden. Es sollte verstanden sein, dass auch alternative Beleuchtungsweisen denkbar sein können, wie beispielsweise mittels einer direkten Beleuchtung z.B. mittels einer Richtleuchtvorrichtung.

Es kann vorgesehen sein, dass eine oder mehrere oder jede Detektionseinheit eine Kamera zum optischen Erfassen des Objekts und eine Lichtquelle zum Beleuchten des Objekts umfasst.

Es kann vorgesehen sein, dass jede Kamera mit einem Objektiv versehen ist. Generell kann jede Art von Objektiv vorgesehen sein. Beispielsweise kann das Objektiv ein telezentrisches Objektiv und/oder ein herkömmliches, beispielsweise optisch korrigiertes, z.B. klassisch entzerrtes Objektiv, insbesondere mit mindestens einer verstellbaren Linse, sein.

Eine Herausforderung kann hier die geringere Tiefenschärfe eines herkömmlichen Objektivs im Vergleich zu einem telezentrischen Objektiv sein. Da ein zu erfassendes und/oder zu inspizierendes Objekt sich zumindest etwas bewegen kann, z.B. zumindest etwas vibrieren kann, kann das Bild unscharf werden, wenn das zu erfassende und/oder zu inspizierende Objekt den Fokusbereich verlässt oder an den Rand des Fokusbereiches kommt.

Denkbar ist, das klassische, entzerrte Objektiv mit einer oder mehreren verstellbaren Linsen über einen Schrittmotor so zu motorisieren, dass der Fokus automatisch (insbesondere elektronisch) eingestellt werden kann. Diese Methode kann auf Zoom und/oder Blende angewendet werden. Eine Software (beispielsweise ein Kl-gestützer Algorithmus) kann dafür sorgen, dass die Fokussierung immer optimal ist und das Bild scharf bleibt. Über einen Endschalter kann die Software feststellen, welche Objektiveinstellungen angefahren wurden. Diese können auch später wieder aufgerufen werden, wenn z.B. zu erfassendes und/oder zu inspizierendes Objekt gewechselt wird und sich der die Größe und/oder Dimension und/oder der Durchmesser des zu erfassenden und/oder zu inspizierendes Objekts oder seine Position verändert.

Die Blende kann dabei so eingestellt werden, dass sie möglichst weit geschlossen ist (kleine Blendenzahl). Hierdurch kann die Tiefenschärfe vergrößert werden. Gleichzeitig kann so sichergestellt werden, dass die Blendeneinstellung nicht zu viel Licht ausblendet.

Die Vorteile eines derartigen klassischen, entzerrten Objektivs gegenüber eines telezentrischen Objektivs beinhalten unter anderem geringere Kosten, geringeren Verlust von Lichtleistung (telezentrische Objektive haben viele Linsen und Spiegel, die Lichtleistung kosten), sowie die Möglichkeit der weiteren Vermessung (insbesondere Größe und/oder Dimension und/oder Durchmesser des zu erfassenden und/oder zu inspizierenden Objekts), insbesondere über Software-Berechnung.

Aus den Zoom- und/oder Fokus-Positionen des Objektivs lässt sich der Abstand des zu erfassenden und/oder zu inspizierenden Objekts zum Objektiv berechnen, wodurch die Größe und/oder die Dimension und/oder der Durchmesser des Objekts berechnet werden kann. Über den verbauten Endschalter kann initial eine Kalibrierung der Linseneinstellungen (Zoom- und/oder Fokus-Positionen) erfolgen. Diese Berechnung kann unabhängig mit allen verfügbaren Kameras durchgeführt werden, um die Genauigkeit zu erhöhen.

Es kann vorgesehen sein, dass eine oder mehrere oder jede Detektionseinheit eine Kamera zum optischen Erfassen des Objekts, eine Lichtquelle zum Beleuchten des Objekts und einen Strahlteiler zum Umlenken von emittiertem Licht der Lichtquelle umfasst, wobei die Kamera, die Lichtquelle und der Strahlteiler derart zueinander angeordnet sind, dass eine zentrale optische Achse der Kamera und Lichtstrahlen, die von der Lichtquelle emittierbar sind, parallel und/oder koaxial zueinander verlaufen, wobei insbesondere die Kamera und die Lichtquelle im Wesentlichen rechtwinklig zueinander angeordnet sind und der Strahlteiler in einem Winkel von im Wesentlichen 45° zu der zentralen optischen Achse der Kamera und einer Lichtemittierrichtung der Lichtquelle angeordnet ist. Durch die Konstruktion mit einem Strahlteiler, insbesondere halbdurchlässigen Spiegel, kann erzielbar sein, dass die Kamera direkt durch das von einer Seite durchsichtige Spiegelglas des Strahlteilers auf das Objekt blickt und nicht - wie bei einer direkten Beleuchtung (z.B. mit einem Ringlicht) - „durch“ die Lichtquelle hindurch. Hierdurch kann vermeidbar sein, dass die Kamera „geblendet“ wird und Bildinformationen über das erfasste Objekt aufgrund von Überbelichtung nicht ausgelesen werden können. Folglich kann hierdurch das System zuverlässiger und effizienter betreibbar sein.

Es kann vorgesehen sein, dass eine oder mehrere oder jede Detektionseinheit einen Diffusor aufweist, welcher zwischen der Lichtquelle und dem Strahlteiler angeordnet sein kann. Hierdurch kann ein hochdiffuses Hellfeld bereitstellbar sein, das für eine noch gleichmäßigere Ausleuchtung sorgen kann und Spiegelungen noch besser vermeiden kann.

Es kann vorgesehen sein, dass jede Lichtquelle zumindest eine Platine und eine Mehrzahl von LEDs umfasst, welche in einem regelmäßigen zweidimensionalen Muster auf der Platine angeordnet sind. Hierdurch können eine gleichmäßige und zuverlässige Ausleuchtung bzw. Beleuchtung erzielbar sein. Es kann vorgesehen sein, dass jede Lichtquelle einen Leistungsbereich von im Wesentlichen 20 bis 60 Watt oder 70 Watt, vorzugsweise von im Wesentlichen 24 bis 48 Watt, hat.

Alternativ ist es denkbar, dass jede Lichtquelle einen Leistungsbereich von im Wesentlichen 100-150 Watt hat. Die Belichtungszeit der Kamerasensoren kann dann reduziert werden, um Verzerrungen im Bild zu vermeiden, insbesondere um bei sich bewegenden Objekten höhere Geschwindigkeiten abbilden zu können.

Es kann ferner vorgesehen sein, dass eine oder mehrere, z. B. jede, Lichtquelle/n pulsend betreibbar ist/sind. Hierdurch kann eine leistungsstarke Beleuchtung zur Erkennung auch kleinster Fehler erzielbar sein, welche auch sehr schnelle Bildaufnahmen bzw. sehr kurze Belichtungszeiten durch die Kamera ermöglichen kann. Ferner, im Falle einer Messkammer, kann aufgrund der kurz einstellbaren Belichtungszeiten der Kameras die Einhausung nicht vollständig geschlossen sein. In anderen Worten müssen die Eingangsöffnung und die Ausgangsöffnung der Messkammer nicht vollständig lichtdicht sein. Durch die hohe Leuchtstärke der verbauten Lichtquelle kann eintretendes Umgebungsrestlicht kompensierbar sein.

Es kann vorgesehen sein, dass jede Lichtquelle einen Farbwiedergabeindexbereich von im Wesentlichen 92 bis 98, vorzugsweise im Wesentlichen 94 bis 96, insbesondere im Wesentlichen 95, hat. Hierdurch kann eine zuverlässige Farbanalyse ermöglichbar sein.

Es kann beispielsweise vorgesehen sein, dass das System mehrere, z.B. drei, Detektionseinheiten umfasst, wobei die Detektionseinheiten in regelmäßigen Abständen zueinander und insbesondere radial um den Messbereich herum angeordnet sind. Zusätzlich oder alternativ kann vorgesehen sein, dass mehrere Detektionseinheiten in regelmäßigen Abständen zueinander und insbesondere längs entlang des Messbereichs angeordnet sind. Beispielsweise kann das System sechs Detektionseinheiten umfassen, wobei jeweils drei eine Gruppe bildende Detektionseinheiten radial um den Messbereich herum angeordnet sind und die jeweiligen Gruppen längs entlang des Messbereichs angeordnet sind. Gewissermaßen kann hierin eine 2x3-Radialanordnung gesehen werden. Hierdurch können beispielsweise sich längserstreckende Objekte, z.B. Extrusionsprodukte oder Kabel, optisch vollständig und zuverlässig erfassbar sein.

Es kann auch denkbar sein, dass das System eine Detektionseinheit oder zwei Detektionseinheiten umfasst. Dies kann beispielsweise der Fall sein, wenn keine vollständige Analyse/ Inspektion erforderlich ist und/oder wenn eine Geometrie und/oder andere Eigenschaft eines zu inspizierenden Objekts zur vollständigen Analyse/ Inspektion lediglich eine Detektionseinheit oder zwei Detektionseinheiten erfordert.

Insbesondere kann denkbar sein, dass das System eine Detektionseinheit umfasst günstigerweise zur Inspektion von eindimensionalen Merkmalen, insbesondere Aufdrucken bzw. einem Druckergebnis, eines zu inspizierenden Objekts.

Zusätzlich oder alternativ kann denkbar sein, dass das System eine Detektionseinheit umfasst günstigerweise zur Inspektion von teilweise oder vollständig transparenten, zu inspizierenden Objekten. Insbesondere bei vollständig transparenten, zu inspizierenden Objekten kann bereits eine Detektionseinheit zur vollständigen Analyse/ Inspektion genügen.

Insbesondere kann denkbar sein, dass das System zwei Detektionseinheiten umfasst günstigerweise für zu inspizierenden Objekte mit einer dazu geeigneten Geometrie wie beispielsweise Flachprofile. Die Detektionseinheiten können hier zum Beispiel 180° und/oder gegenüber oder 90° und/oder im Wesentlichen senkrecht zueinander orientiert sein. Beispielsweise kann eine Detektionseinheit eine Seitenansicht des zu inspizierenden Objekts erfassen und/oder eine, beispielsweise die andere, Detektionseinheit kann eine Drauf- oder Unteransicht des zu inspizierenden Objekts erfassen.

Insbesondere kann denkbar sein, dass das System zur Generierung von 3D-Bilddaten eingerichtet ist, insbesondere beruhend auf dem Prinzip der Triangulation nach Lichtschnittverfahren. Das System kann dann vorzugsweise ferner mindestens eine Projektionsvorrichtung umfassen, welche mindestens ein Lichtmuster, beispielweise parallele schwarz/weiß-Linienpaare oder Punkte, unter einem bekannten Winkel auf das zu inspizierende Objekt projiziert. Die Projektionsvorrichtung kann eine Beleuchtung, beispielsweise strukturierte Beleuchtung oder Laser, umfassen.

Die eine oder mehrere Detektionseinheit ist hierbei in einem bekannten Winkel zur Projektionsvorrichtung und/oder Beleuchtung angeordnet. Insbesondere nimmt die eine oder mehrere Detektionseinheit das durch die Oberflächenform des zu inspizierenden Objekts deformierte Lichtmuster, beispielweise Streifenmuster oder Punktmuster, auf. Das System ermöglicht so, dass die Oberfläche, z.B. Krümmungen oder Rundungen des zu inspizierenden Objekts sichtbar gemacht werden. Mögliche Dellen oder Beulen können so ebenfalls sichtbar gemacht werden. Bei einer ausreichend hohen Bildwiederholungsrate kann die Projektion durch Blitzen im selben Ausschnitt der einen oder mehreren Detektionseinheit erfolgen, in der auch die optische Inspektion erfolgt oder erfolgen und jeweils das volle Sichtfeld ausgenutzt werden. Alternativ kann sich die Projektion auch nur auf einen Teil des Bildausschnittes begrenzen, so dass eine optische Fehlerinspektion und 3D-Vermessung gleichzeitig, das heißt bei derselben Bildaufnahme erfolgen können.

Es sollte verstanden sein, dass zur Steigerung von Produktionsgeschwindigkeiten (beispielsweise bei einer Kabel- und/oder Objektgeschwindigkeit) eine oder mehrere oder jede der Detektionseinheiten verwendbar sein können, welche für eine höhere Bildwiederholungsrate konfiguriert sein können und/oder welche mit einem vergrößerten Bildausschnitt betreibbar sein können. Zusätzlich oder alternativ kann denkbar sein, dass die Anzahl der Detektionseinheiten erhöht wird, insbesondere dupliziert wird und die jeweiligen Detektionseinheiten synchronisiert werden beispielsweise paarweise. Beispielsweise kann mittels einer Hintereinander-Anordnung der duplizierten Detektionseinheiten eine höhere Messgeschwindigkeit erzielbar sein.

Darüber hinaus stellt die vorliegende Erfindung ein erfindungsgemäßes Verfahren zur optischen Inspektion von Objekten bereit.

Es sollte verstanden sein, dass das erfindungsgemäße Verfahren mittels des hierin beschriebenen Systems ausführbar ist.

Es sollte ferner verstanden sein, dass jegliche strukturellen und/oder funktionalen Merkmale und/oder Eigenschaften und/oder Vorteile, die im Zusammenhang mit dem erfindungsgemäßen System zur optischen Inspektion von Objekten beschrieben sind und/oder werden, auch Teil des besagten Verfahrens sein können und/oder diesem zuordenbar sein können.

Das erfindungsgemäße Verfahren zur optischen Inspektion von Objekten umfasst: Bereitstellen eines zu inspizierenden Objekts in einem Messbereich; optisches Erfassen des zu inspizierenden Objekts mittels einer oder mehrerer Detektionseinheiten insbesondere in einer kontinuierlichen Weise; Bereitstellen von Bildinformationen des erfassten Objekts mittels der einen oder der mehreren Detektionseinheiten; Inspizieren des erfassten Objekts anhand der bereitgestellten Bildinformationen basierend auf einem oder mehreren, insbesondere positiven Referenzobjekten mittels einer Recheneinheit; und Bereitstellen eines korrespondierenden Inspektionsergebnisses über das Objekt mittels der Recheneinheit. Das Verfahren kann ferner umfassen: Projektion von Licht, insbesondere Lichtmuster, beispielweise parallele schwarz/weiß-Linienpaare oder Punkte, unter einem bekannten Winkel auf das zu inspizierende Objekt durch eine Projektionsvorrichtung. Die Projektionsvorrichtung kann eine Beleuchtung, beispielsweise strukturierte Beleuchtung oder Laser, umfassen. Ferner kann das Verfahren umfassen: Erfassen der Oberflächenform des zu inspizierenden Objekts durch deformierte Lichtmuster, beispielweise deformierte Streifenmuster oder Punktmuster.

Es kann vorgesehen sein, dass das Verfahren aufweist: Ermitteln einer Außenkontur des erfassten Objekts in den Bildinformationen mittels eines Locator-Moduls der Recheneinheit; und, optional, Löschen eines Informationsgehalts, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts zuordenbar ist, in den Bildinformationen mittels des Locator-Moduls.

Es kann vorgesehen sein, dass das Inspizieren aufweist: Analysieren des erfassten Objekts auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, insbesondere positiven Referenzobjekten anhand der Bildinformationen mittels eines oder mehrerer Erkennungsmodule der Recheneinheit; und Bereitstellen eines korrespondierenden Messwerts mittels des einen oder der mehreren Erkennungsmodule.

Es kann vorgesehen sein, dass zumindest ein Erkennungsmodul zur Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert ist, und/oder zumindest ein Erkennungsmodul zur geometrischen Messungsanalyse ausgebildet und programmiert ist, und/oder zumindest ein Erkennungsmodul zur Farbanalyse ausgebildet und programmiert ist, und/oder zumindest ein Erkennungsmodul zur Oberflächenanalyse ausgebildet und programmiert ist.

Es kann vorgesehen sein, dass das Inspizieren aufweist: Ermitteln mittels eines Evaluatormoduls der Recheneinheit, ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt, wobei das korrespondierende Inspektionsergebnis über das Objekt auf Basis dieser Ermittlung erzeugbar ist oder erzeugt wird.

Es kann vorgesehen sein, dass das Verfahren aufweist: Erzeugen von einem ersten und/oder zumindest einem weiteren, insbesondere positiven Referenzobjekt insbesondere für nachfolgende Inspektionen auf Basis der Bildinformationen des erfassten Objekts mittels eines Trainer-Moduls der Recheneinheit, wenn das erfasste Objekt einem Soll-Zustand im Wesentlichen entspricht.

Es kann vorgesehen sein, dass das Verfahren aufweist: Trainieren des einen oder der mehreren Erkennungsmodule auf Basis von zumindest einem, insbesondere positiven Referenzobjekt mittels eines oder mehrerer Anlernmodule der Recheneinheit.

Weitere bevorzugte Merkmale und/oder Vorteile der vorliegenden Erfindung sind Gegenstand der nachfolgenden Beschreibung und der zeichnerischen Darstellung von beispielhaften Ausführungsformen.

In den Figuren zeigen schematisch:

Fig. 1 ein System zur optischen Inspektion von Objekten gemäß einem ersten Ausführungsbeispiel;

Fig. 2 ein System zur optischen Inspektion von Objekten gemäß einem zweiten Ausführungsbeispiel;

Fig. 3 eine Detailansicht eines Teils des Systems von Fig. 2;

Fig. 4 eine Funktionsansicht eines Teils des Systems von Fig. 2;

Fig. 5 ein Flussdiagramm zur Funktionsweise des Systems von Fig. 1 und des Systems von Fig. 2 bzw. ein Verfahren zur optischen Inspektion von Objekten gemäß einem dritten Ausführungsbeispiel; und

Fig. 6 eine Seitenansicht der Detailansicht von Fig. 3.

Gleiche oder funktional äquivalente Elemente sind in sämtlichen Figuren mit denselben Bezugszeichen versehen.

Bezugnehmend auf die Fig. 1 in Verbindung mit Fig. 5 ist ein erfindungsgemäßes System 100 zur optischen Inspektion von Objekten 102 gemäß einem ersten Ausführungsbeispiel schematisch dargestellt. Das System 100 zur optischen Inspektion von Objekten 102 weist mehrere Detektionseinheiten 104, vorliegend drei Detektionseinheiten 104, auf. Es kann vorgesehen sein, dass die Anzahl von verwendeten Detektionseinheiten 104 abhängig von einer Größe bzw. von Abmessungen eines zu inspizierenden Objekts ist. Beispielsweise können auch für größere Durchmesser und/oder vergleichbare Abmessungsparameter auch vier oder mehr Detektionseinheiten 104 umfasst sein.

Mittels jeder Detektionseinheit 104 ist zumindest ein zu inspizierendes Objekt 102 in einem Messbereich 106 optisch erfassbar, insbesondere kontinuierlich optisch erfassbar.

Nach einer optischen Erfassung sind entsprechende Bildinformationen des erfassten Objekts 102 mittels jeder Detektionseinheit 104 bereitstellbar insbesondere zur weiteren Verwertung bzw. Verarbeitung.

In anderen Worten ist jede Detektionseinheit 104 zum insbesondere kontinuierlichen optischen Erfassen von zumindest einem zu inspizierenden Objekt 102 in einem Messbereich 106 und zum Bereitstellen von Bildinformation des erfassten Objekts 102 konfiguriert.

Eine optische Einzelerfassung, in anderen Worten ein diskontinuierliches Erfassen, kann zusätzlich oder alternativ denkbar sein.

In dem vorliegenden Ausführungsbeispiel sind die zu inspizierenden Objekte zylinderförmige Objekte, z.B. Baumstämme, oder plattenförmige Objekte, z.B. Kekse. Jegliche andere Objektarten können ebenfalls denkbar sein.

Der Messbereich 106 ist vorliegend an und/oder auf einer Fördereinrichtung, hier einem Förderband 108, angeordnet.

Die Detektionseinheiten 104 sind bezüglich des Messbereichs 106 geeignet angeordnet und ausgerichtet, z.B. wie vorliegend über dem Förderband 108, um die Objekte 102 in dem Messbereich 106 optisch erfassen zu können. Hierbei kann jegliche geeignete Anordnung der Detektionseinheiten 104 denkbar sein.

Jede Detektionseinheit 104 umfasst eine Kamera 112 zum optischen Erfassen des Objekts 102 und eine Lichtquelle 114 zum Beleuchten des Objekts 102 (nicht in Fig. 1 gezeigt).

Jede Kamera 112 ist mit einem Objektiv 156 versehen. Das Objektiv 156 kann ein telezentrisches und/oder optisch korrigiertes, z.B. klassisch entzerrtes, Objektiv sein.

Jede Lichtquelle 114 weist zumindest eine Platine und eine Mehrzahl von LEDs auf, welche in einem regelmäßigen zweidimensionalen Muster auf der Platine angeordnet sind.

In dem vorliegenden Ausführungsbeispiel sind die LEDs zumindest teilweise ringleuchtartig um die Kameraobjektivöffnung angeordnet zum Bereitstellen eines Ringlichts (nicht in Fig. 1 gezeigt). Zusätzlich oder alternativ kann denkbar sein, dass die LEDs zumindest teilweise oder vollständig relativ zu der Kameraobjektivöffnung angeordnet sind zum Bereitstellen eines Koaxiallichts (vgl. hier z.B. Fig. 4).

Jede Lichtquelle 114 hat einen Leistungsbereich von im Wesentlichen 20 bis 70 Watt, vorzugsweise von im Wesentlichen 24 bis 48 Watt.

Alternativ ist es denkbar, dass jede Lichtquelle 114 einen Leistungsbereich von im Wesentlichen 100-150 Watt hat.

Jede Lichtquelle 114 hat einen Farbwiedergabeindexbereich von im Wesentlichen 92 bis 98, vorzugsweise im Wesentlichen 94 bis 96, insbesondere im Wesentlichen 95 oder 96.

Nicht gezeigt in Fig. 1 ist, dass das System 100 ferner mindestens eine Projektionsvorrichtung umfassen kann, welche mindestens ein Lichtmuster, beispielweise parallele schwarz/weiß- Linienpaare oder Punkte, unter einem bekannten Winkel auf das zu inspizierende Objekt projiziert. Die Projektionsvorrichtung kann eine Beleuchtung, beispielsweise strukturierte Beleuchtung oder Laser, umfassen. Mindestens eine Detektionseinheit 104 kann hierbei in einem bekannten Winkel zur Projektionsvorrichtung und/oder Beleuchtung angeordnet sein Das System 100 ermöglicht so, dass die Oberfläche, z.B. Krümmungen oder Rundungen des zu inspizierenden Objekts sichtbar gemacht und/oder analysiert werden.

Ferner weist das System 100 eine Recheneinheit 110 auf, welche mit den Detektionseinheiten 104 wirkverbunden ist, insbesondere elektrisch und/oder signaltechnisch verbunden ist.

Die Recheneinheit 110 ist ausgebildet und programmiert, um das erfasste Objekt 102 anhand der bereitgestellten Bildinformationen zu inspizieren. Diese Inspektion basiert auf einem oder mehreren, positiven Referenzobjekten.

Ein positives Referenzobjekt ist ein Gut-Beispiel und/oder ein Gut-Mustern der zu inspizierenden Objekte 102, insbesondere von welchen die Inspektion als Idealzustand ausgeht.

Ein korrespondierendes Inspektionsergebnis über das betreffende Objekt 102 ist mittels der Recheneinheit 110 bereitstellbar insbesondere zur weiteren Verwendung.

In anderen Worten ist die Recheneinheit 110 ausgebildet und programmiert, um ein korrespondierendes Inspektionsergebnis über das betreffende Objekt 102 bereitzustellen insbesondere zur weiteren Verwendung.

Unter Bezugnahme auf Fig. 5 in Verbindung mit Fig. 1 wird nun insbesondere die Recheneinheit 110 beschrieben:

Die Recheneinheit 110 ist ausgebildet und programmiert, um Bildinformationen von den Detektionseinheiten 104 als mit einem Zeitstempel versehenes Datenbündel zu empfangen und/oder um die Bildinformationen von den Detektionseinheiten 104 als Datenbündel zusammenzufassen und mit einem Zeitstempel zu versehen (vgl. Feld 1 von Fig. 5). Dies dient insbesondere der zuverlässigen Zuordnung der Bildinformationen.

Wie in Fig. 5 dargestellt ist, kann die optische Erfassung durch die Detektionseinheiten 104 optional mittels Hardwaretrigger synchronisierbar oder synchronisiert sein. Dabei wird ein Analogsignal gleichzeitig an einen Trigger-Eingang der Detektionseinheiten 104 gesendet und die optische Erfassung im Bereich von Nanosekunden synchronisiert, was aber im vorliegenden Ausführungsbeispiel nicht zwingend notwendig ist.

In anderen Worten kann es vorgesehen sein, dass jede Detektionseinheit 104 einen Trigger- Eingang aufweist, mittels welchem ein analoges Trigger-Signal empfangbar ist, wobei jede Detektionseinheit 104 konfiguriert ist, um ein optisches Erfassen zu starten und/oder zu synchronisieren insbesondere mit der Recheneinheit 110, sobald das analoge Trigger-Signal empfangen ist.

Die Recheneinheit 110 weist ein Locator-Modul 116 auf (vgl. Feld 3 von Fig. 5). Das Locator-Modul 116 ist als bereits vortrainiertes bzw. bereits angelerntes, künstliches neuronales Netzwerk konfiguriert.

Die Bildinformationen, insbesondere die gebündelten Bildinformationen (vgl. Feld 1 von Fig. 5), sind mittels des Locator-Moduls 116 empfangbar.

Zusätzlich oder alternativ sind die Bildinformationen auf einem separaten Stream bereitstellbar, um bei Bedarf von anderen Prozessen und/oder Modulen abrufbar und/oder empfangbar zu sein (vgl. Feld 2 von Fig. 5).

Mittels des Locator-Moduls 116 ist eine Außenkontur des erfassten Objekts 102 in den Bildinformationen ermittelbar.

Ein Informationsgehalt, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts 102 zuordenbar ist, ist in den Bildinformationen löschbar mittels des Locator-Moduls 116.

In anderen Worten ist das Locator-Modul 116 ausgebildet und programmiert, um eine Außenkontur des erfassten Objekts 102 in den Bildinformationen zu ermitteln und einen Informationsgehalt, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts 102 zuordenbar ist, in den Bildinformationen zu löschen.

Ferner weist die Recheneinheit 110 mehrere, hier vier, Erkennungsmodule 118, 120, 122, 124 auf (vgl. Feld 4 bis 7 von Fig. 5).

Die Erkennungsmodule 118, 120, 122, 124 sind jeweils als eine Kombination von künstlichen neuronalen Netzwerken und konventionellen Algorithmen konfiguriert.

Die Bildinformationen von dem Locator-Modul 116 sind mittels der Erkennungsmodule 118, 120, 122, 124 empfangbar.

Mittels der Erkennungsmodule 118, 120, 122, 124 ist das erfasste Objekt 102 anhand der Bildinformationen auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, positiven Referenzobjekten analysierbar.

Ein korrespondierender Messwert ist mittels der jeweiligen Erkennungsmodule 118, 120, 122, 124 bereitstellbar. In anderen Worten ist jedes Erkennungsmodul 118, 120, 122, 124 ausgebildet und programmiert, um anhand der Bildinformationen das erfasste Objekt 102 auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, positiven Referenzobjekten zu analysieren und um einen korrespondierenden Messwert bereitzustellen.

Die Erkennungsmodule 118, 120, 122, 124 umfassen ein erstes Erkennungsmodul 118, ein zweites Erkennungsmodul 120, ein drittes Erkennungsmodul 122 und ein viertes Erkennungsmodule 124.

Das erste Erkennungsmodul 118 ist zur Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert.

Insbesondere ist das erste Erkennungsmodul 118 als OCR-Modul ausgebildet und programmiert, um insbesondere Aufdrucke (z.B. Markierungen, Codes, Schriftzüge, und/oder Seriennummern) auf den betreffenden Objekten 102 analysieren zu können. Das erste Erkennungsmodul 118 ist entsprechend vortrainiert bzw. angelernt.

Das zweite Erkennungsmodul 120 ist zur geometrischen Messungsanalyse ausgebildet und programmiert.

Mittels des zweiten Erkennungsmoduls 120 zur geometrischen Messungsanalyse ist beispielsweise eine konkrete Abmessung (z.B. ein Durchmesser) an definierten Punkten innerhalb der Bildinformation der betreffenden Objekte 102 berechenbar, insbesondere konkret quantitativ berechenbar.

Das dritte Erkennungsmodul 122 ist zur Farbanalyse ausgebildet und programmiert.

In anderen Worten ist das dritte Erkennungsmodul 122 zur Farbüberwachung der betreffenden Objekte 102 konfiguriert.

Beispielsweise ist eine Farbabweichung der betreffenden Objekte 102 mittels des dritten Erkennungsmoduls 122 berechenbar, z.B. unter Angabe einer prozentualen Abweichung als Messwert.

Das vierte Erkennungsmodul 124 ist zur Oberflächenanalyse ausgebildet und programmiert. Beispielsweise sind mittels des vierten Erkennungsmoduls 124 zur Oberflächenanalyse Brüche, Risse, Einschnitte, Löcher, Dellen, Pickel, Fremdpartikel und/oder Luftblasen in und/oder an den Objekten ermittelbar.

Die Recheneinheit 110 weist ferner ein Evaluator-Modul 126 auf (vgl. Feld 8 von Fig. 5).

Die mittels der Erkennungsmodule 118, 120, 122, 124 ermittelten Messwerte sind mittels des Evaluator-Moduls 126 empfangbar.

Mittels des Evaluator-Moduls 126 ist ermittelbar, ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt.

Das Inspektionsergebnis über das Objekt 102 ist auf Basis dieser Ermittlung erzeugbar.

In anderen Worten ist das Evaluator-Modul 126 ausgebildet und programmiert, um zu ermitteln, ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt, wobei das korrespondierende Inspektionsergebnis über das Objekt 102 auf Basis dieser Ermittlung erzeugbar ist.

In wiederum anderen Worten ist mittels des Evaluator-Moduls 126 eine Einordnung der Messwerte durchführbar und anschließend ein korrespondierendes Inspektionsergebnis bereitstellbar.

Die Grenzwerte sind in der Recheneinheit 110 gespeichert und/oder auf diese von der Recheneinheit 110 zugreifbar.

Die Grenzwerte sind von einem Benutzer flexibel änderbar insbesondere in Abhängigkeit von einem zu inspizierenden Objekt 102 und/oder einer Qualitätserwartung an ein zu inspizierendes Objekt 102. Dies kann z.B. über eine der Recheneinheit 110 zugeordnete Eingabevorrichtung des Systems 100 erfolgen.

Nach Generierung des Inspektionsergebnisses ist dieses zur weiteren Verwendung bereitstellbar oder bereitgestellt (vgl. Feld 9 von Fig. 5).

Ein Prozessdurchlauf, insbesondere ein Prozessdurchlauf zwischen Feld 1 bis Feld 9 von Fig. 5 dauert zwischen 3 und 7 ms, insbesondere im Wesentlichen 5 ms. Ein bzw. das Inspektionsergebnis ist bereitstellbar insbesondere an eine Ausgabeeinheit des Systems 100 zur Ausgabe an den Benutzer und/oder an eine Schnittstelle zur Übermittlung an eine zusätzliche Systemeinheit und/oder dem System zugeordnete oder zuordenbare Einheit.

Eine nicht-abschließende Beispielliste ist Fig. 5 entnehmbar (vgl. Feld 10 bis 15 von Fig. 5). Eine Ausgabeeinheit kann beispielsweise eine Anzeigeeinheit, z.B. ein Bildschirm, (vgl. Feld

11 von Fig. 5) und/oder eine Alarmeinheit, z. B. eine akustische und/oder visuelle Alarmeinheit, sein (vgl. Feld 13 von Fig. 5). Die zusätzliche Systemeinheit und/oder die dem System 100 zugeordnete oder zuordenbare Einheit kann beispielsweise als eine Big-Data-Einheit (vgl. Feld

12 von Fig. 5) und/oder als Cloud (vgl. Feld 15 von Fig. 5) konfiguriert sein. Zusätzlich oder alternativ kann das Inspektionsergebnis in einer Speichereinheit des Systems 100 speicherbar sein (vgl. Feld 10 von Fig. 5). Zusätzlich oder alternativ kann die Schnittstelle als eine Programmierschnittstelle (beispielsweise API (z.B. Profinet)) konfiguriert sein (vgl. Feld 14 von Fig. 5).

Ferner weist die Recheneinheit 110 ein Trainer-Modul 128 auf (vgl. Feld 16 von Fig. 5).

Die Bildinformationen, insbesondere die gebündelten Bildinformationen (vgl. Feld 1 von Fig. 5), sind mittels des Trainer-Moduls 128 empfangbar.

Ein erstes, insbesondere aller erstes, oder weiteres (insbesondere zweites, drittes, usw.), positives Referenzobjekt für nachfolgende Inspektionen sind auf Basis dieser Bildinformationen des erfassten Objekts 102 erzeugbar mittels des Trainer-Moduls 128.

Insbesondere sind diese Referenzobjekte erzeugbar mittels des Trainer-Moduls 128, wenn das erfasste Objekt 102 einem Soll-Zustand im Wesentlichen entspricht.

In anderen Worten ist das Trainer-Modul 128 ausgebildet und programmiert, um auf Basis der Bildinformationen des erfassten Objekts 102 ein erstes und/oder zumindest ein weiteres, positives Referenzobjekt insbesondere für nachfolgende Inspektionen zu erzeugen, wenn das erfasste Objekt 102 einem Soll-Zustand im Wesentlichen entspricht.

Insbesondere dient das Trainer-Modul 128 dazu, auf die erzeugten Bildinformationen der Detektionseinheiten 104 zuzugreifen, um Bildinformationen bzw. Bildmaterial für positive Referenzobjekte zu generieren, wenn das erfasste Objekt 102 einem Soll-Zustand im Wesentlichen entspricht. Der Soll-Zustand ist von einem Benutzer in der Recheneinheit 110 definierbar und/oder festlegbar (z.B. über eine Eingabevorrichtung des Systems 100).

Es kann vorgesehen sein, dass der Soll-Zustand einen Toleranzbereich aufweist. In anderen Worten können die positiven Referenzobjekte bzw. deren Bildinformationen nur oder überwiegend Bildinformationen von positiven Referenzobjekte umfassen, welche folglich keine oder nur wenige Produktionsfehler/Abweichungen in einem akzeptablen Toleranzbereich aufweisen. Sollten Produktionsfehler/Abweichungen enthalten sein, müssen diese deutlich in der Unterzahl sein, ansonsten werden diese als zulässige Produktionsmerkmale definiert.

Die positiven Referenzobjekte sind in der Recheneinheit 110 speicherbar und/oder vorhaltbar und/oder auf diese zugreifbar für ihre weitere Verwendung (vgl. Feld 17 von Fig. 5).

Die Bildinformationen der Referenzobjekte sind an das Locator-Modul 116 übergebbar und/oder sind vom Locator-Modul 116 empfangbar (vgl. Feld 18 von Fig. 5), um eine Außenkontur des erfassten Objekts 102, hier des positiven Referenzobjekts, in den Bildinformationen zu ermitteln und einen Informationsgehalt, weicher einem Bereich außerhalb der Außenkontur des erfassten Objekts 102, hier des positiven Referenzobjekts, zuordenbar ist, in den Bildinformationen zu löschen.

Ferner weist die Recheneinheit 110 mehrere, hier vier, Anlernmodule 130, 132, 134, 136 auf (vgl. Feld 19 von Fig. 5; separat aufgeteilt: vgl. Feld 20 bis 23 in Fig. 5).

Die Anlernmodule 130, 132, 134, 136 sind jeweils als eine Kombination von künstlichen neuronalen Netzwerken und konventionellen Algorithmen konfiguriert.

Jedes Anlernmodul 130, 132, 134, 136 ist ausgebildet und programmiert, um Zugriff zu haben auf und/oder Ressourcen zu nutzen von: dedizierter Hardware, insbesondere GPU und/oder FPGA, und/oder einer Remote-Cloud und/oder Remote-Rechenzentren. Insbesondere die dedizierte Hardware kann Teil des Systems 100 sein. Dies dient insbesondere einer Performancesteigerung.

Die Anlernmodule 130, 132, 134, 136 sind zu den Erkennungsmodulen 118, 120, 122, 124 korrespondierend. Das heißt, die Anlernmodule 130, 132, 134, 136 umfassen ein erstes Anlernmodul 130, ein zweites Anlernmodul 132, ein drittes Anlernmodul 134 und ein viertes Anlernmodul 136.

Mittels der Anlernmodule 130, 132, 134, 136 sind die jeweilig korrespondierenden Erkennungsmodulen 118, 120, 122, 124 auf Basis von zumindest einem, positiven Referenzobjekt trainierbar.

In anderen Worten sind die Anlernmodule 130, 132, 134, 136 ausgebildet und programmiert, um auf Basis von zumindest einem, positiven Referenzobjekt die Erkennungsmodule 118, 120, 122, 124 jeweilig zu trainieren.

Jedes Erkennungsmodul 118, 120, 122, 124 ist einem Anlernmodul 130, 132, 134, 136 zugeordnet.

Das erste Anlernmodul 130 ist dem ersten Erkennungsmodul 118 zugeordnet und kann dieses trainieren. In anderen Worten ist das erste Anlernmodul 130 für eine Symbolerkennungsanalyse, insbesondere Texterkennungsanalyse, ausgebildet und programmiert bzw. für ein entsprechendes Trainieren.

Das zweite Anlernmodul 132 ist dem zweiten Erkennungsmodul 120 zugeordnet und kann dieses trainieren. In anderen Worten ist das zweite Anlernmodul 132 für eine geometrische Messungsanalyse ausgebildet und programmiert bzw. für ein entsprechendes Trainieren.

Das dritte Anlernmodul 134 ist dem dritten Erkennungsmodul 122 zugeordnet und kann dieses trainieren. In anderen Worten ist das dritte Anlernmodul 134 für eine Farbanalyse ausgebildet und programmiert bzw. für ein entsprechendes Trainieren.

Das vierte Anlernmodul 136 ist dem vierten Erkennungsmodul 124 zugeordnet und kann dieses trainieren. In anderen Worten ist das vierte Anlernmodul 136 für eine Oberflächenanalyse ausgebildet und programmiert bzw. für ein entsprechendes Trainieren.

Indem die Anlernmodule 130, 132, 134, 136 die Erkennungsmodule 118, 120, 122, 124 anlernen bzw. trainieren anhand der positiven Referenzobjekte, werden die Erkennungsmodule 118, 120, 122, 124 stetig verbessert und zuverlässiger in ihrer Analyse von Bildinformationen von erfassten Objekten 102. Bezugnehmend auf das System von Fig. 1 in Verbindung mit Fig. 5 ist dieses insbesondere wie folgt betreibbar:

Ein Referenzobjekt 102 bzw. ein Gut-Beispiel bzw. ein Gut-Mustern wird dem Messbereich 106 über das Förderband 108 zugeführt. Es kann auch denkbar sein, dass ein Referenzobjekt 102 bzw. ein Gut-Beispiel bzw. ein Gut-Mustern dem Messbereich 106 freischwebend zuführbar ist beispielsweise mittels einer vom Messbereich 106 beabstandeten Zuführ- und Abführvorrichtung.

Zumindest eine Detektionseinheit 104 erfasst das Objekt 102 optisch und erzeugt Bildinformationen.

Die Bildinformationen werden gebündelt und mit einem Zeitstempel versehen mittels der Recheneinheit 110 (vgl. Feld 1 von Fig. 5).

Das Trainer-Modul 128 erzeugt auf Basis dieser Bildinformationen des erfassten Objekts 102 ein erstes, positives Referenzobjekt für nachfolgende Inspektionen, da das erfasste Objekt 102 ein Gut-Beispiel bzw. ein Gut-Mustern ist und damit einem Soll-Zustand im Wesentlichen entspricht (vgl. Feld 16 von Fig. 5).

Das erste, positive Referenzobjekt wird gespeichert (vgl. Feld 17 von Fig. 5) und von dem Locator-Modul 116 weiterverarbeitet (vgl. Feld 18 von Fig. 5).

Mittels des Locator-Moduls 116 wird eine Außenkontur des erfassten Objekts 102 in den Bildinformationen ermittelt.

Ein Informationsgehalt, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts 102 zuordenbar ist, wird in den Bildinformationen gelöscht mittels des Locator-Moduls 116.

Die resultierenden Bildinformationen werden an die Anlernmodule 130, 132, 134, 136 übergeben (vgl. Feld 19 bis 23 von Fig. 5), welche die Bildinformationen in ein Kl-Modell überführen (vgl. Feld 24 von Fig. 5) zum Trainieren der Erkennungsmodule 118, 120, 122, 124.

Je nach erfasstem Referenzobjekt werden nun betreffende Erkennungsmodule 118, 120, 122, 124 von den jeweilig zugeordneten Anlernmodulen 130, 132, 134, 136 trainiert, so dass nachfolgende Inspektionen auf Basis von zumindest diesem ersten Referenzobjekt durchführbar sind. Es können beliebig viele Referenzobjekte angelernt werden.

Nach dem Trainieren bzw. Anlernen von zumindest dem ersten Referenzobjekt sind nachfolgende Inspektionen durchführbar.

Das heißt, zumindest eine Detektionseinheit 104 erfasst optisch das zu inspizierende Objekt 102, welches über das Förderband 108 in den Messbereich 106 gefahren wird, und erzeugt Bildinformationen.

Die Bildinformationen werden gebündelt und mit einem Zeitstempel versehen mittels der Recheneinheit 110 (vgl. Feld 1 von Fig. 5).

Diese Bildinformationen werden von dem Locator-Modul 116 weiterverarbeitet (vgl. Feld 3 von Fig. 5).

Mittels des Locator-Moduls 116 wird eine Außenkontur des erfassten Objekts 102 in den Bildinformationen ermittelt.

Ein Informationsgehalt, welcher einem Bereich außerhalb der Außenkontur des erfassten Objekts 102 zuordenbar ist, wird in den Bildinformationen gelöscht mittels des Locator-Moduls 116.

Die resultierenden Bildinformationen werden an die Erkennungsmodule 118, 120, 122, 124 übergeben (vgl. Feld 4 bis 7 von Fig. 5), welche bereits mit zumindest dem ersten Referenzobjekt trainiert sind.

Die Erkennungsmodule 118, 120, 122, 124 analysieren anhand der Bildinformationen das erfasste Objekt 102 auf Übereinstimmung mit und/oder Abweichungen von dem positiven Referenzobjekt und stellen einen jeweiligen korrespondierenden Messwert bereit.

Mittels des Evaluator-Moduls 126 wird dann ermittelt, ob dieser analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt (vgl. Feld 8 von Fig. 5).

Im vorliegenden Beispiel von Keksen als Objekte 102 können z.B. beschädigte und/oder verfärbte, z.B. verbrannte, Kekse zuverlässig identifizierbar sein. In diesem Fall wären geometrische und/oder Farb-Messwerte außerhalb der vorbestimmten Grenzwerte. Im vorliegenden Beispiel von Baumstämmen als Objekte 102 können z.B. verformte und/oder nur teilentrindete Baumstämme zuverlässig identifizierbar sein. In diesem Fall wären geometrische und/oder Farb-Messwerte außerhalb der vorbestimmten Grenzwerte.

Das Inspektionsergebnis über das Objekt 102 wird auf Basis dieser Ermittlung erzeugt.

Nach Generierung des Inspektionsergebnisses ist dieses zur weiteren Verwendung bereitstellbar oder bereitgestellt (vgl. Feld 9 von Fig. 5).

Das Inspektionsergebnis wird dann insbesondere an eine Ausgabeeinheit des Systems 100 zur Ausgabe an den Benutzer und/oder an eine Schnittstelle zur Übermittlung an eine zusätzliche Systemeinheit und/oder dem System zugeordnete oder zuordenbare Einheit bereitgestellt (vgl. Feld 10 bis 15 von Fig. 5), um entsprechende Qualitätssicherungshandlungen (z.B. Aussortieren und/oder Weiterverarbeiten und/oder Warnen und/oder Markieren, usw.) durchführen zu können.

Dem System 100 liegt somit insbesondere der Gedanken zugrunde, dass die Recheneinheit 110 Objekte 102 insbesondere rein auf Basis von positiven Referenzobjekten, zum Beispiel von Gut-Beispielen bzw. Gut-Mustern, inspiziert oder inspizieren kann. Insbesondere ist zumindest ein Teil, d.h. die Erkennungsmodule 118, 120, 122, 124, der Recheneinheit 110 rein auf Basis von den besagten positiven Referenzobjekten bzw. den Gut-Beispielen hierzu anlernbar oder angelernt. Folglich heißt das in anderen Worten, dass negative Referenzobjekte bzw. Schlecht-Beispiele für eine Inspektion nicht benötigt werden. Das System 100 ist daher effizienter betreibbar. Insbesondere ist eine Effizienz des Systems 100 gesteigert, da eine Inspektion lediglich auf Basis von den besagten positiven Referenzobjekten durchführbar ist und beispielsweise ein Abgleich mit zahlreichen negativen Referenzobjekten somit vermieden wird. Ferner ist eine Inbetriebnahme des Systems 100 schnell durchführbar, da insbesondere eine Inspektion von Objekten 102 bereits bei einem positiven Referenzobjekt durchführbar ist. In anderen Worten kann das System 100 mit vorerst einem positiven Referenzobjekt anlernbar sein insbesondere im Hinblick auf zu inspizierende Objektmerkmale. Die Inbetriebnahme erfordert daher (nahezu) keine Fachkenntnisse über das zu inspizierende Objekt 102, da die Objektmerkmale nach einem bzw. dem beschriebenen „Teach & Go“- Prinzip anhand des positiven Referenzobjekt anlernbar bzw. eintrainierbar sind. Ferner, indem die Anlernmodule 130, 132, 134, 136 die Erkennungsmodule 118, 120, 122, 122 anlernen bzw. trainieren anhand von positiven Referenzobjekten, kann hierdurch die Zuverlässigkeit und die Effizienz der Analysen der Erkennungsmodule118, 120, 122, 122 stetig steigerbar sein in Abhängigkeit einer Menge von positiven Referenzobjekten, mittels welchen die Erkennungsmodule 118, 120, 122, 122 trainierbar sind.

Bezugnehmend auf die Fig. 2 bis 4 in Verbindung mit Fig. 5 ist ein erfindungsgemäßes System 100 zur optischen Inspektion von Objekten 102 gemäß einem zweiten Ausführungsbeispiel schematisch dargestellt.

Das System gemäß dem zweiten Ausführungsbeispiel entspricht im Wesentlichen dem System gemäß dem ersten Ausführungsbeispiel, so dass im Folgenden lediglich die Unterschiede beschrieben werden.

In dem vorliegenden Ausführungsbeispiel sind die zu inspizierenden Objekte 102 sich längserstreckende bzw. Endlos-Objekte, hier als Beispiel: ein Kabel. Jegliche andere Objektarten können ebenfalls denkbar sein.

In anderen Worten kann das System 100 als Kabelinspektionssystem, insbesondere als Kabelinspektionsgerät, angesehen werden.

Bezugnehmend auf Fig. 2 weist das System 100 eine Tragvorrichtung 138, welche als Profilgestell ausgestaltet ist, ein Gehäuse 140, eine kombinierte Anzeigeeinheit und Eingabevorrichtung in Form eines Touch-Bildschirms 142, und eine Einhausung 144 für eine Messkammer 146 auf.

Das Gehäuse 140, der Touch-Bildschirm 142 und die Einhausung 144 sind an der Tragvorrichtung 138 angeordnet.

Die Einhausung 144 ist höhenverstellbar an der Tragvorrichtung 138 eingerichtet mittels einer entsprechenden Anbindung, welche im Stand der Technik wohlbekannt ist.

Das System 100, insbesondere die Tragvorrichtung 138, ist mobil konfiguriert, was im vorliegenden Ausführungsbeispiel mittels bremsbarer und/oder feststellbaren Rollen erzielbar ist.

Die Recheneinheit 110, z.B. in Form einer Computervorrichtung, ist in dem Gehäuse 140 angeordnet. Ferner sind in dem Gehäuse 140 insbesondere angeordnet: eine GPU-Vorrichtung, welche mit der Recheneinheit 110 wirkverbunden ist und/oder einen Teil von dieser bildet und/oder dieser zugeordnet ist, eine Kühlvorrichtung und/oder ein Lüfter, eine Spannungsversorgung (z.B. Netzteile, Sicherung, Verkabelung), ein oder mehrere Kommunikationsmodule (z.B. Profibus, Profinet, 4G/5G Router, etc.), ein oder mehrere Bedienelemente (z.B. Hauptschalter Ein/Aus, Höhenverstellung RAUF/RUNTER).

Die Einhausung 144 umgibt eine bzw. die Messkammer 146, in welcher der Messbereich 106 angeordnet ist, wie in Fig. 3 und/oder Fig. 6 erkennbar ist.

In der Einhausung 144 kann ferner eine Drucklufteinrichtung vorgesehen sein zur Luftmessung und/oder zum Staubschutz (nicht in den Figuren gezeigt).

Eine Wandung der Messkammer 146 ist mit einer licht-absorbierenden bzw. licht-schluckender Beschichtung versehen.

Die Messkammer 146 weist eine Eingangsöffnung 148 zur Aufnahme des zu inspizierenden Objekts 102 in die Messkammer 146 hinein und eine Ausgangsöffnung 150 zur Abgabe des inspizierten Objekts 102 aus der Messkammer 146 heraus auf.

Der besagte Messbereich 106 ist vorliegend zwischen der Eingangsöffnung148 und der Ausgangsöffnung 150 in der Messkammer 146 angeordnet.

Ein zu inspizierendes Objekt 102, hier das Kabel, ist durch die Eingangsöffnung 148 und die Ausgangsöffnung 150 hindurchführbar und kann sich dadurch durch die Messkammer 146 hindurch erstrecken, um dort optisch erfassbar zu sein.

Die mehreren, hier drei, Detektionseinheiten 104 sind in der Einhausung 144 angeordnet zum kontinuierlichen optischen Erfassen des Objekts 102 in der Messkammer 146, insbesondere im Messbereich 106.

Die Detektionseinheiten 104 sind in regelmäßigen Abständen zueinander und insbesondere radial um den Messbereich 106 herum angeordnet.

Wie in Fig. 3 und 6 zu sehen ist, sind die Detektionseinheiten 104 in 120°-Abständen zueinander um den Messbereich 106, insbesondere um eine Längsachse des Messbereichs 106 angeordnet. In Fig. 3 und 6 kann die Längsachse mit dem Objekt 102, d.h. dem Kabel, im Wesentlichen übereinstimmen.

Zusätzlich oder alternativ kann vorgesehen sein, dass mehrere Detektionseinheiten 104 in regelmäßigen Abständen zueinander und insbesondere längs entlang des Messbereichs 106 angeordnet sind. Beispielsweise kann das System 100 sechs Detektionseinheiten 104 umfassen, wobei jeweils drei eine Gruppe bildende Detektionseinheiten 104 radial um den Messbereich herum angeordnet sind, wie in Fig. 3 und 6 bereits gezeigt ist, und die jeweiligen Gruppen längs entlang des Messbereichs 106 angeordnet sind. Gewissermaßen kann hierin eine 2x3-Radialanordnung gesehen werden, d.h., im Fall von Fig. 3 und 6, wären noch einem drei weitere Detektionseinheiten 104 hinter und/oder vor den bereits ersichtlichen Detektionseinheiten 104 angeordnet.

Jede Detektionseinheit 104 ist konfiguriert, um beim kontinuierlichen optischen Erfassen des Objekts 102 in der Messkammer 106 das Objekt 102 koaxial zu beleuchten.

Ferner, wie in Fig. 3 und 6 zu sehen ist, ist jeder Detektionseinheit 104 ein Flächenelement 158, insbesondere ein als eine Projektionsfläche ausgebildetes Flächenelement, zugeordnet.

Insbesondere sind die jeweilig zugeordneten Detektionseinheiten 104 und Flächenelemente 158 bezüglich des Objekts 102 auf gegenüberliegenden Seiten des Objekts 102 angeordnet.

Die Detektionseinheit 104 und das Flächenelement 158 sind insbesondere zueinander ausgerichtet, so dass eine Blickachse der Detektionseinheit 104 im Wesentlichen senkrecht auf das Flächenelement 158 gerichtet ist.

Das Flächenelement 158 dient als ein Hintergrund für das Objekt 102, beispielsweise um das Objekt 102, insbesondere dessen Konturen, klarer erfassen zu können. Hierdurch kann eine Genauigkeit verbessert werden.

Das Flächenelement 158 umfasst ein lichtabsorbierendes, gewissermaßen lichtschluckendes, Material und/oder ist zumindest teilweise aus einem solchen gebildet. Beispielsweise kann das Flächenelement 158 mit einem lichtabsorbierenden, gewissermaßen lichtschluckenden, Material beschichtet sein. Wie in Fig. 4 gezeigt ist, umfasst jede Detektionseinheit 104 eine Kamera 112 zum optischen Erfassen des Objekts 102, eine Lichtquelle 114 zum Beleuchten des Objekts 102 und einen Strahlteiler 152 zum Umlenken von emittiertem Licht der Lichtquelle 114.

Jede Detektionseinheit 104 umfasst ferner einen Diffusor 154, welcher zwischen der Lichtquelle 114 und dem Strahlteiler 152 angeordnet ist.

Der Diffusor 154 dient zur Bereitstellung eines hochdiffusen Hellfelds, das für eine noch gleichmäßigere Ausleuchtung sorgen kann und Spiegelungen noch besser vermeiden kann.

Die Kamera 112, die Lichtquelle 114 und der Strahlteilerl 52 sind derart zueinander angeordnet, dass eine zentrale optische Achse der Kamera 112 (vgl. Pfeil von Kamera 112 zu Objekt 102 in Fig. 4) und Lichtstrahlen, die von der Lichtquelle emittierbar sind (vgl. übrige Pfeile in Fig. 4), parallel und/oder koaxial zueinander verlaufen.

Insbesondere sind die Kamera 112 und die Lichtquelle 114 im Wesentlichen rechtwinklig zueinander angeordnet und der Strahlteiler 152 ist in einem Winkel von im Wesentlichen 45° zu der zentralen optischen Achse der Kamera 112 und einer Lichtemittierrichtung der Lichtquelle 114 angeordnet.

Durch die Konstruktion mit dem Strahlteiler 152, insbesondere halbdurchlässigen Spiegel, ist erzielbar, dass die Kamera 112 direkt durch das von einer Seite durchsichtige Spiegelglas des Strahlteilers 152 auf das Objekt 102 blickt und nicht - wie bei einer direkten Beleuchtung (z.B. mit einem Ringlicht) - „durch“ die Lichtquelle 114 hindurch. Hierdurch kann vermeidbar sein, dass die Kamera 112 „geblendet“ wird und Bildinformationen über das erfasste Objekt 102 aufgrund von Überbelichtung nicht ausgelesen werden können. Folglich kann hierdurch das System 100 zuverlässiger und effizienter betreibbar sein.

Jede Lichtquelle 114 umfasst zumindest eine Platine und eine Mehrzahl von LEDs, welche in einem regelmäßigen zweidimensionalen Muster auf der Platine angeordnet sind (vgl. Fig. 4).

Jede Lichtquelle 114 hat einen Leistungsbereich von im Wesentlichen 20 bis 60 Watt, vorzugsweise von im Wesentlichen 24 bis 48 Watt.

Alternativ ist es denkbar, dass jede Lichtquelle 114 einen Leistungsbereich von im Wesentlichen 100-150 Watt hat. Hierdurch kann eine leistungsstarke Beleuchtung zur Erkennung auch kleinster Fehler erzielbar sein, welche auch sehr schnelle Bildaufnahmen bzw. sehr kurze Belichtungszeiten durch die Kamera 112 ermöglichen kann.

Ferner kann aufgrund der kurz einstellbaren Belichtungszeiten der Kameras 112 die Einhausung 144 bzw. die Messkammer 146 nicht vollständig geschlossen sein. In anderen Worten müssen die Eingangsöffnung 148 und die Ausgangsöffnung 150 der Messkammer 146 nicht vollständig lichtdicht sein. Durch die hohe Leuchtstärke der verbauten Lichtquelle 114 kann eintretendes Umgebungsrestlicht kompensierbar sein.

Ferner hat jede Lichtquelle 114 einen Farbwiedergabeindexbereich von im Wesentlichen 92 bis 98, vorzugsweise im Wesentlichen 94 bis 96, insbesondere im Wesentlichen 95. Hierdurch kann eine zuverlässige Farbanalyse ermöglichbar sein.

Im Hinblick auf die Recheneinheit 110, welche im Gehäuse 140 angeordnet ist, wird auf die Ausführungen des ersten Ausführungsbeispiels verwiesen.

Bezugnehmend auf das System 100 von Fig. 2 in Verbindung mit Fig. 5 ist dieses insbesondere im Wesentlichen betreibbar wie das System 100 von Fig. 1 in Verbindung mit Fig. 5, was bereits beschrieben wurde.

Im Fall des Systems von Fig. 2 wird das Objekt 102, hier das Kabel, kontinuierlich durch die Messkammer 106 geführt und gefördert.

Das heißt, die Detektionseinheiten 104 erfassen das Objekt 102 kontinuierlich.

In anderen Worten kann das Objekt 102, hier das Kabel, in-line inspiziert oder inspizierbar sein.

Zur Förderung durch den Messbereich 106 ist dem System 100 eine Fördereinrichtung zugeordnet (nicht in den Figuren gezeigt).

Die Fördereinrichtung ist beispielsweise als eine Abwickelvorrichtung und eine Aufwickelvorrichtung ausgebildet und jeweilig dem System 100 vor- und nachgeordnet. In anderen Worten kann das Kabel mittels Ab- und Aufrollens durch den Messbereich 106 und optional durch eine Produktionsanlage förderbar sein, in welcher das System 100 angeordnet oder anordenbar ist.

Ein Anlernen der Erkennungsmodule 118, 120, 122, 124 erfolgt anhand eines Gut-Beispiels bzw. Gut-Musters eines Kabels.

Die Inspektion insbesondere von Kabel kann beispielsweise umfassen:

- Analyse der Produktoberfläche und/oder Detektion und Klassifizierung von Farbabweichungen (einfarbig/mehrfarbig), Einschlüsse, Risse, Kratzer, Striemen, Abrieb, Streifen, Schlieren, Materialmangel, Materialüberschuss, Geometrieabweichungen (z.B. Beulen, Blasen, Knicke, Einschnürungen, Dellen, Löcher), offener Kern (z.B. sichtbare Aderlitzen); und/oder

Vermessung der Produktgeometrie: Durchmesser, Linearität (z.B. Produktkrümmung); und/oder

- Aufdruckkontrolle: Analyse der Qualität und inhaltliche Richtigkeit von Aufdrucken (z.B. Tintenstrahl, Laser, Prägung, etc), Logos, Seriennummern, Barcodes und/oder QR Codes, Matrixtext, Produktbezeichnungen und Parameter, Längenangaben (z.B. Meterangaben bei Erdkabeln).

Es sollte verstanden sein, dass die obige Aufzählung exemplarisch und nicht abschließend ist.

Ferner sollte es verstanden sein, dass sämtliche Vorteile des Systems 100 gemäß dem ersten Ausführungsbeispiel auch Vorteile des Systems 100 gemäß dem zweiten Ausführungsbeispiel sind bzw. diesem zuordenbar sind.

Weitere Vorteile des Systems 100 gemäß dem zweiten Ausführungsbeispiel sind insbesondere:

Das Anlernen (tiefer neuronaler Netzwerke zur Analyse) neuer Produkte erfolgt rein auf Basis von Gut-Beispielen. Es werden keine Schlecht-Beispiele (NiO) benötigt. Auf dem Beispielmaterial dürfen vereinzelt Fehler auftreten, solange diese nur geringfügig sind.

Das Kabel (z.B. Extrusionsprodukt) darf vibrieren, soweit es den Bildausschnitt der Kamera nicht verlässt. Die Vibrationen sind kompensierbar mittels des Locator-Moduls 116. Die Oberfläche des Extrusionsprodukts wird vollständig (im Wesentlichen 100%) erfasst und analysiert.

Der Erfassungsbereich ist durch die Einhausung 144 vom Umgebungslicht abgeschirmt und arbeitet deshalb unabhängig von der Umgebungslichtsituation.

- Aufgrund der kurz einstellbaren Belichtungszeit der Kamera 112 muss die Einhausung 144 nicht vollständig geschlossen sein. Der Eintritts- und Austrittsbereich, insbesondere die Eingangs- und Ausgangsöffnung 148, 150, für das Objekt 102, hier Kabel, muss nicht vollständig lichtdichtet sein.

Durch die hohe Leuchtstärke der verbauten Lichtquelle 114 wird eintretendes Umgebungsrestlicht kompensiert.

Wassertropfen vom Kühlprozess werden als solche erkannt und nicht als Produktfehler aufgrund der verwendeten Erkennungsmodule und insbesondere der Ausleuchtung.

Unter Bezugnahme auf Fig. 5 soll im Folgenden ein erfindungsgemäßes Verfahren zur optischen Inspektion von Objekten 102 beschrieben werden, welches insbesondere durch bereits beschriebenen Systeme 100 gemäß dem ersten und dem zweiten Ausführungsbeispiel ausführbar ist.

Es sollte verstanden sein, dass jegliche strukturellen und/oder funktionalen Merkmale und/oder Eigenschaften und/oder Vorteile, die im Zusammenhang mit dem erfindungsgemäßen System 100 zur optischen Inspektion von Objekten 102 beschrieben sind, auch Teil des besagten Verfahrens sein können und/oder diesem zuordenbar sein können.

Das Verfahren umfasst Bereitstellen eines zu inspizierenden Objekts 102 in einem Messbereich 106.

Das Verfahren umfasst ferner optisches Erfassen des zu inspizierenden Objekts 102 mittels einer oder mehrerer, hier drei, Detektionseinheiten 104 insbesondere in einer kontinuierlichen Weise.

Das optische Erfassen umfasst ein optisches Erfassen des Objekts 102 mittels einer Kamera 112 und ein insbesondere koaxiales Beleuchten des zu inspizierenden Objekts 102 mittels einer Lichtquelle 114, wobei insbesondere das optische Erfassen mittels der Kamera 112 und das insbesondere koaxiale Beleuchten mittels der Lichtquelle 114 simultan erfolgt.

Das Verfahren umfasst ferner Bereitstellen von Bildinformationen des erfassten Objekts 102 mittels der Detektionseinheiten 104 (vgl. Feld 1 von Fig. 5). Nicht explizit gezeigt ist, dass das Verfahren ferner umfassen kann: Projektion von Licht, insbesondere Lichtmuster, beispielweise parallele schwarz/weiß-Linienpaare oder Punkte, unter einem bekannten Winkel auf das zu inspizierende Objekt durch eine Projektionsvorrichtung. Die Projektionsvorrichtung kann eine Beleuchtung, beispielsweise strukturierte Beleuchtung oder Laser, umfassen; Erfassen der Oberflächenform des zu inspizierenden Objekts durch deformierte Lichtmuster, beispielweise deformierte Streifenmuster oder Punktmuster.

Das Verfahren umfasst ferner Inspizieren des erfassten Objekts 102 anhand der bereitgestellten Bildinformationen basierend auf einem oder mehreren, insbesondere positiven Referenzobjekten mittels einer Recheneinheit 110 (vgl. Feld 1 bis 8 von Fig. 5).

Das Verfahren umfasst ferner Bereitstellen eines korrespondierenden Inspektionsergebnisses über das Objekt 102 mittels der Recheneinheit 110 (vgl. Feld 9 von Fig. 5).

Das Verfahren weist zudem auf: Ermitteln einer Außenkontur des erfassten Objekts 102 in den Bildinformationen mittels eines Locator-Moduls 116 der Recheneinheit 110 und Löschen eines Informationsgehalts, weichereinem Bereich außerhalb der Außenkontur des erfassten Objekts 102 zuordenbar ist, in den Bildinformationen mittels des Locator-Moduls 116 (vgl. Feld 3 von Fig. 5).

Das Inspizieren weist auf: Analysieren des erfassten Objekts 102 auf Übereinstimmung mit und/oder Abweichungen von einem oder mehreren, insbesondere positiven Referenzobjekten anhand der Bildinformationen mittels eines oder mehrerer Erkennungsmodule 118, 120, 122, 124 der Recheneinheit 110; und Bereitstellen eines korrespondierenden Messwerts mittels des einen oder der mehreren Erkennungsmodule 118, 120, 122, 124 (vgl. Feld 4 bis 7 von Fig. 5).

Das Inspizieren weist ferner auf: Ermitteln mittels eines Evaluatormoduls 126 der Recheneinheit 110, ob der analysierte Messwert innerhalb von vorbestimmten Grenzwerten liegt (vgl. Feld 8 von Fig. 5), wobei das korrespondierende Inspektionsergebnis über das Objekt 102 auf Basis dieser Ermittlung erzeugbar ist oder erzeugt wird (vgl. Feld 9 von Fig. 5).

Das Verfahren weist zudem auf: Erzeugen von einem ersten und/oder zumindest einem weiteren, insbesondere positiven Referenzobjekt insbesondere für nachfolgende Inspektionen auf Basis der Bildinformationen des erfassten Objekts 102 mittels eines Trainer-Moduls 128 der Recheneinheit 110, wenn das erfasste Objekt 102 einem Soll-Zustand im Wesentlichen entspricht (vgl. Feld 1 und 16 mit 17 von Fig. 5).

Das Verfahren weist zudem auf: Ermitteln einer Außenkontur des erfassten Referenzobjekts 102 in den Bildinformationen mittels des Locator-Moduls 116 der Recheneinheit 110 und Löschen eines Informationsgehalts, welcher einem Bereich außerhalb der Außenkontur des erfassten Referenzobjekts 102 zuordenbar ist, in den Bildinformationen mittels des Locator- Moduls 116 (vgl. Feld 18 von Fig. 5).

Das Verfahren weist zudem auf: Trainieren des einen oder der mehreren Erkennungsmodule 118, 120, 122, 124 auf Basis von zumindest einem, insbesondere positiven Referenzobjekt mittels Anlernmodule 130, 132, 134, 136 der Recheneinheit 110 (vgl. Feld 19 bis 24 von Fig. 5).

Das Verfahren kann beispielsweise umfassen, dass das zu inspizierende Objekt 102 durch den Messbereich 106 z.B. einer Messkammer 146 kontinuierlich hindurch bewegbar oder bewegt ist.

Bezugszeichenliste

System Objekt Detektionseinheit Messbereich Förderband Recheneinheit Kamera Lichtquelle Locator-Modul erstes Erkennungsmodul zweites Erkennungsmodul drittes Erkennungsmodul viertes Erkennungsmodul Evaluator-Modul Trainer-Modul erstes Anlernmodul zweites Anlernmodul drittes Anlernmodul viertes Anlernmodul Tragvorrichtung Gehäuse Touch-Bildschirm Einhausung Messkammer Eingangsöffnung

Ausgangsöffnung Strahlteiler Diffusor Objektiv Flächenelement