Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR OPTICALLY SCANNING AN EDGE IN OR ON A SURFACE REGION
Document Type and Number:
WIPO Patent Application WO/2012/038349
Kind Code:
A1
Abstract:
The invention relates to a method for ascertaining the position of an edge in an object surface region of interest by optical scanning. For this purpose, the reflectivity of the object surface region is evaluated. Light is emitted onto the object surface region under different illumination conditions, in particular different light incidence directions, and in each illumination condition a sequence S1 to Sn of camera images B is recorded. Each camera image B of a sequence S1 to Sn is recorded at another illumination intensity I. Subsequently in each case one reflectivity image R1 to Rn is produced from a plurality of or from all camera images B of a sequence S1 to Sn. Thereafter, a resulting reflectivity image E is produced from a plurality of or from all reflectivity images R1 to Rn by weighted addition, in which resulting reflectivity image E the position of an edge in or on the object surface region of interest is determined with subpixel accuracy by applying at least one edge location criterion.

Inventors:
NEHSE UWE (DE)
BUECHNER MARCO (DE)
Application Number:
PCT/EP2011/066135
Publication Date:
March 29, 2012
Filing Date:
September 16, 2011
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
CARL MAHR HOLDING GMBH (DE)
NEHSE UWE (DE)
BUECHNER MARCO (DE)
International Classes:
G01B11/02
Domestic Patent References:
WO2010003163A22010-01-14
Foreign References:
DE10215135A12002-10-24
US4912336A1990-03-27
DE4123916A11992-01-23
US6025905A2000-02-15
DE10215135A12002-10-24
DE10237426A12004-02-26
DE102007003060A12008-07-17
DE102004033526A12006-02-02
US4912336A1990-03-27
Attorney, Agent or Firm:
RÜGER, BARTHELT & ABEL (DE)
Download PDF:
Claims:
Patentansprüche :

1. Verfahren zur optischen Ermittlung einer Kante (11) in oder an einem Ob ektoberflächenbereich (12) eines Objekts (9) mit folgenden Schritten:

Anstrahlen des Objektoberflächenbereichs (12) mit einer ersten Gruppe von Lichtquellen (15) oder aus einer ersten Beleuchtungsrichtung (LI) und Aufnehmen einer ersten Sequenz (Sl) mit mehreren Kamerabildern (B) des Objektoberflächenbereichs (12) mit jeweils unterschiedlichen Beleuchtungsintensitäten (I),

Aufnehmen wenigstens einer weiteren Sequenz (S2 bis Sn) mit mehreren Kamerabildern (B) des Objektoberflächenbe¬ reichs (12) mit jeweils unterschiedlichen Beleuchtungs¬ intensitäten (I), wobei der Objektoberflächenbereich (12) bei allen Sequenzen (Sl bis Sn) jeweils mit einer anderen Gruppe von Lichtquellen (15) oder jeweils aus einer anderen Beleuchtungsrichtung (L2) angestrahlt wird,

Bilden jeweils eines ortsaufgelösten Reflektanzbildes (Rl bis Rn) für jede der Sequenzen (Sl bis Sn) aus zumindest einigen der Kamerabilder (B) der jeweiligen Sequenz (Sl bis Sn) und

Verwenden wenigstens eines der Reflektanzbilder (Rl bis Rn) zur Ermittlung von wenigstens einer Kante (11) im oder am Objektoberflächenbereich (12) .

2. Verfahren nach Anspruch 1,

dadurch gekennzeichnet, dass auf Basis der Kamerabilder (B) einer Sequenz (Sl bis Sn) für jedes Pixel (PI bis Pk) ein Verlauf (VI bis Vk) einer Lichtmengengröße (GW) abhängig von der Beleuchtungsintensität (I) bestimmt wird, wobei die Lichtmengengröße (GW) die von der Kamera (13) empfangene Lichtmenge für das jeweils zugeordnete Pixel (PI bis Pk) beschreibt.

3. Verfahren nach Anspruch 2,

dadurch gekennzeichnet, dass nur die Werte der Lichtmen¬ gengröße (GW) zur Bildung des intensitätsabhängigen Verlaufs (VI bis Vk) herangezogen werden, die zumindest ein vorgegebenes Auswahlkriterium erfüllen.

4. Verfahren nach Anspruch 3,

dadurch gekennzeichnet, dass als Auswahlkriterium eine oder mehrere der folgenden Kriterien verwendet werden: die Werte der Lichtmengengröße (GW) unterhalb eines Intensitätsminimalwertes (Imin) für die Beleuchtungs¬ intensität (I) entsprechen höchstens einem Lichtmen- genminimalwert (Gmln) ,

die Werte der Lichtmengengröße (GW) oberhalb eines Intensitätsmaximalwertes (Imax) für die Beleuchtungs¬ intensität (I) entsprechen zumindest einem Lichtmengenmaximalwert (Gmax) ,

von einem Intensitätsminimalwert (Imin) bis zu einem Intensitätsmaximalwert (Imax) für die Beleuchtungsin¬ tensität (I) nehmen die Werte der Lichtmengengröße (GW) zu.

5. Verfahren nach Anspruch 3,

dadurch gekennzeichnet, dass sich die Reflektanz für je¬ des Pixel (PI bis Pk) des Reflektanzbildes (Rl bis Rn) aus dem intensitätsabhängigen Verlauf (VI bis Vk) des betreffenden Pixels (PI bis Pk) ergibt.

6. Verfahren nach Anspruch 1,

dadurch gekennzeichnet, dass auf Basis von mindestens einem der Reflektanzbilder (Rl bis Rn) ein Ergebnisreflektanzbild (E) gebildet wird.

7. Verfahren nach Anspruch 6,

dadurch gekennzeichnet, dass das Ergebnisreflektanzbild (E) durch eine gewichtete Addition der Reflektanzen der örtlich übereinstimmenden Pixel (P) aus den Reflektanz- bildern (Rl bis Rn) gebildet wird.

8. Verfahren nach Anspruch 7,

dadurch gekennzeichnet, dass für jedes Reflektanzbild (Rl bis Rn) ein Wichtungsfaktor (Wl bis Wn) von größer oder gleich null bestimmt wird, der sich aus einem Vergleich von örtlichen Reflektanzverläufen der Reflektanz- bilder (Rl bis Rn) ergibt.

9. Verfahren nach Anspruch 7,

dadurch gekennzeichnet, dass zumindest ein Teil der er¬ mittelten Wichtungsfaktoren (Wl bis Wn) dem Typ des aktuell vermessenen Objekts (9) oder des aktuell vermesse¬ nen Objektoberflächenbereichs (12) zugeordnet und abge¬ speichert wird.

10. Verfahren nach Anspruch 9,

dadurch gekennzeichnet, dass die abgespeichert Wich¬ tungsfaktoren (Wl bis Wn) bei nachfolgenden Bestimmungen der Lage einer Kante (11) bei einem Objekt (9) oder ei¬ nem Objektoberflächenbereich (12) gleichen Typs berücksichtigt werden.

11. Verfahren nach Anspruch 9,

dadurch gekennzeichnet, dass bei der Ermittlung der Kante (11) zunächst überprüft wird, ob für den aktuell zu vermessenden Typ des Objekts (9) oder Objektoberflächenbereichs (12) ein Eintrag von Wichtungsfaktoren (Wl bis Wn) im Speicher existiert und wenn dies der Fall ist, die Auswahl der aufzunehmenden Sequenzen (Sl bis Sn) von Kamerabildern (B) abhängig von den gespeicherten Wichtungsfaktoren (Wl bis Wn) festgelegt wird.

12. Verfahren nach Anspruch 1,

dadurch gekennzeichnet, dass die Lage der wenigstens ei¬ ner Kante (11) anhand des Ergebnisreflektanzbild (E) er¬ mittelt wird.

13. Verfahren nach Anspruch 1,

dadurch gekennzeichnet, dass beim Aufnehmen einer Sequenz (Sl bis Sn) die Relativposition zwischen einer Kamera (13) und dem Ob ektoberflächenbereich (12) unverändert bleibt.

Description:
Verfahren zum optischen Antasten einer Kante in oder an einem Ober lächenbereich

Die vorliegende Erfindung betrifft ein Verfahren zur optischen Messung oder Antastung einer Kante, die sich innerhalb eines Oberflächenbereichs befindet oder diesen be ¬ grenzt. Hierfür wird der interessierende Oberflächenbereich von einer Kamera aufgenommen, der zumindest zwei an die Kante angrenzende Teilflächen enthält. Anschließend kann auf Basis einer oder mehrerer Aufnahmen anhand wenigstens eines Kantenortkriteriums eine Bestimmung des Kantenorts erfolgen, um die Position der Kante zu ermitteln.

Ein Verfahren zur Kantenmessung ist beispielsweise aus der DE 102 15 135 AI bekannt. Dort sollen Steuerinformatio ¬ nen für Einflussgrößen auf das Kamerabild automatisiert er ¬ mittelt werden, um ein optimales Messergebnis erreichen zu können. Aus den Informationen des Kamerabildes eines zu vermessenden Werkstücks werden Hilfsparameter gewonnen und aus diesen Hilfsparametern werden wiederum die Steuerinformationen abgeleitet. Zunächst werden Verläufe von mindes ¬ tens zwei Hilfsparametern in Abhängigkeit von einer oder mehreren Einflussgrößen bestimmt. Als Hilfsparameter kann beispielsweise der Kontrast, die Homogenität, die Hellig ¬ keit und/oder der Anstieg dienen. Dabei werden die Verläufe so bestimmt, dass entweder alle Verläufe im Optimum ein Ma ¬ ximum oder ein Minimum aufweisen. Anschließend erfolgt eine gewichtete Summation der Einzelverläufe der Hilfsparameter zu einem Gesamtverlauf. Die Wichtungsfaktoren können beispielsweise experimentell ermittelt werden. Schließlich wird am Ort des Extremums des Gesamtverlaufs der Wert der Einflussgröße als Steuerinformation für die Einflussgröße bestimmt. Auf diese Weise kann die Messeinstellung für die Aufnahme des Kamerabildes und damit für die Ermittlung der Kante optimiert werden. Für die Kantenbestimmung können auch mehrere verschiedene Kantenortsriterien, beispielswei ¬ se ein Schwellwertkriterium und ein differentielles Krite ¬ rium, gewichtet addiert werden, um die Lagebestimmung der Kante zu verbessern.

Aus DE 102 37 426 AI ist ferner ein Durchlichtverfah- ren zum Vermessen von Werkzeugen bekannt. Dabei wird die Erfassungscharakteristik der Kamera in Abhängigkeit eines Steuerkriteriums mit dem Ziel einer Optimierung der Erfas ¬ sungscharakteristik gesteuert, um die Kontur des Werkzeugs im Durchlicht exakt bestimmen zu können. Es werden beispielsweise die Belichtungszeit, die Signalverstärkung des Bildverarbeitungssensors und/oder des Sensoroffsets verän ¬ dert. Die Steuerkriterien werden abgeleitet aus einem Vergleich mit Soll-Grauwertprofilen für die Werkzeugkontur.

In DE 10 2007 003 060 AI wird vorgeschlagen, die Güte eines Messpunktes bei der Kantendetektion zu bestimmen. Die Pixelwerte werden anhand einer Gütefunktion aus dem Verlauf der Grauwerte entlang von Messlinien bewertet. Über die Güte wird der Grauwertverlauf gewichtet und zur Berechnung des Kantenortes verwendet.

Ein Verfahren und eine Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen ist in DE 10 2004 033 526 AI beschrieben. Der Kern dieses Verfahrens liegt darin, Oberflächen- und Formuntersuchung des Messobjekts unter Ausnutzung der Bewegung von Komponenten der Anordnung durchzuführen. Dabei wird der Effekt ausgenutzt, dass sich ein von der Ob ektoberfläche reflektiertes Muster ändert, wenn die Relativposition oder die Orientierung der Kamera gegenüber der Ob ektoberfläche geändert wird. Diese Muster ¬ änderung kann in einer Steuereinheit ausgewertet werden.

US 49 12 336 beschreibt außerdem eine Vorrichtung, die zur Erfassung der Oberflächenform dient. Dabei werden punktförmige Lichtquellen sequenziell aktiviert und jeweils ein Bild des von der Objektoberfläche reflektierten Lichts aufgenommen. Die Vorrichtung soll dazu dienen, für unterschiedliche Reflexionseigenschaften der Oberfläche geeignet zu sein. Sowohl für Oberflächen, die eine spiegelartige gerichtete Reflexion, als auch für Oberflächen mit diffusen Reflexionseigenschaften, sowie hybride Flächen soll das Verfahren geeignet sein. Über einen Extraktionsalgorithmus werden die Komponenten der gerichteten von den Komponenten der diffusen Reflexion für jede gemessene Bildintensität getrennt, um daraus die Oberflächenausrichtung berechnen zu können .

Bisher ist die genaue Erkennung der Lage einer Kante im Kamerabild trotz verschiedener Optimierungen, zum Beispiel bei Steuergrößen schwierig. Häufig werden deswegen in der Bildverarbeitung auch Filter auf die aufgenommenen Bilder angewandt, um das Ergebnis bei der optischen Antastung der Kante zu verbessern.

Ausgehend vom genannten Stand der Technik kann es a eine Aufgabe der vorliegenden Erfindung angesehen werden ein sehr einfaches Verfahren zu schaffen, das eine subpi xelgenaue Bestimmung der Lage einer Kante durch optische Antasten gestattet.

Diese Aufgabe wird durch das Verfahren mit den Merkma ¬ len des Patentanspruches 1 gelöst. Der Kern des Verfahrens ist darin zu sehen, die Re- flektanz des interessierenden Ob ektoberflächenbereichs pi ¬ xelgenau zu ermitteln und daraus die Kante mit wenigstens einem bekannten Kantenortkriterium optisch anzutasten. Dafür wird der Oberflächenbereich nacheinander in verschiedenen Beleuchtungszuständen, beispielsweise mit voneinander verschiedenen Gruppen von Lichtquellen oder aus verschiedenen Beleuchtungsrichtungen angestrahlt und in jedem Beleuchtungszustand wird eine Sequenz mehrerer Kamerabilder aufgenommen. Dies kann beispielsweise durch eine Beleuchtungseinrichtung mit mehreren Lichtquellen erfolgen, wobei jeweils nur eine oder eine ausgewählte Gruppe von Licht ¬ quellen für die Intensitätsänderung verwendet wird. Eine Lichtquelle kann mehreren Gruppen zugeordnet sein. Es exis ¬ tieren aber keine zwei identischen Gruppen. Alternativ hierzu könnte auch zumindest eine positionierbare, bewegba ¬ re Lichtquelle vorgesehen werden, deren Position immer wieder verändert wird. Während der Beleuchtung aus einer Be ¬ leuchtungsrichtung wird eine Sequenz mit mehreren Bildern aufgenommen. Für jede Beleuchtung des Objektoberflächenbe ¬ reichs aus einer gewählten Beleuchtungsrichtung entsteht auf diese Weise eine Sequenz bzw. ein Stapel mit mehreren Kamerabildern. Jedes Kamerabild einer Sequenz wird bei einer anderen Beleuchtungsintensität aufgenommen. Beispiels ¬ weise wird die Beleuchtungsintensität von Kamerabild zu Ka ¬ merabild stufenweise erhöht. Insbesondere ist die Beleuch- tungsintensitätsdifferenz zwischen den Kamerabildern einer Sequenz identisch. Bevorzugt bleibt die Relativposition zwischen der Kamera und der Objektoberfläche während der Aufnahme der Sequenzen unverändert.

Anhand der Kamerabilder jeder Sequenz wird ein

ortsaufgelöstes höchstens pixelgenaues Reflektanzbild er ¬ mittelt. Dies geschieht insbesondere dadurch, dass auf Ba ¬ sis der Kamerabilder der Sequenz für jedes Pixel ein Ver- lauf einer Lichtmengengröße abhängig von der Beleuchtungs ¬ intensität bestimmt wird. Die Lichtmengengröße beschreibt die von der Kamera empfangene Lichtmenge für das jeweils zugeordnete Pixel. Als Wert der Lichtmengengröße dient bei ¬ spielsweise der Grauwert eines Pixels.

Vorzugsweise werden nur die Werte der Lichtmengengröße zur Bildung des intensitätsabhängigen Verlaufs herangezogen, die zumindest ein vorgegebenes Auswahlkriterium erfüllen. Als Auswahlkriterium kann insbesondere eine oder mehrere der folgenden Bedingungen verwendet werden: die Werte der Lichtmengengröße unterhalb eines Inten ¬ sitätsminimalwertes für die Beleuchtungsintensität entsprechen höchstens einem Lichtmengenminimalwert ; die Werte der Lichtmengengröße oberhalb eines Inten ¬ sitätsmaximalwertes für die Beleuchtungsintensität entsprechen zumindest einem Lichtmengenmaximalwert; von einem Intensitätsminimalwert bis zu einem Inten ¬ sitätsmaximalwert für die Beleuchtungsintensität neh ¬ men die Werte der Lichtmengengröße zu.

Durch das wenigstens eine Auswahlkriterium können ungültige Werte für die Lichtmengengröße unberücksichtigt bleiben. Beispielsweise kann es durch Überstrahlung eines Pixels zu falschen Werten für die Lichtmengengröße für die ¬ ses und benachbarte Pixel kommen. Derart ungültige Werte der Lichtmengengröße werden für die Bestimmung des Verlaufs der Lichtmengengröße für die betreffende Pixel weggelassen. Dies kann dazu führen, dass für die verschiedenen Pixel Werte der Lichtmengengröße von unterschiedlichen Bildern derselben Sequenz unberücksichtigt bleiben. Der intensitätsabhängige Verlauf der Lichtmengengröße - zum Beispiel dessen Steigung im linear ansteigenden Bereich - beschreibt die Reflektanz für das betreffende Pixel. Aus den Reflek- tanzen aller Pixel ergibt sich das Reflektanzbild .

Schließlich wird zumindest eines der Reflektanzbilder der aufgenommenen Sequenzen dazu verwendet, ein Ergebnis- reflektanzbild zu ermitteln. Das Ergebnisreflektanzbild kann vorzugsweise durch eine gewichtete Addition der Re ¬ flektanzen der örtlich übereinstimmenden Pixel aus den Re- flektanzbildern gebildet werden. Die Wichtungsfaktoren können dabei auch gleich null sein, so dass einzelne Reflek- tanzbilder bei der Berechnung des Ergebnisreflektanzbildes unberücksichtigt bleiben. Der Wichtungsfaktor von größer oder gleich null, kann sich bevorzugt aus einem Vergleich von örtlichen Reflektanzänderungen der Reflektanzbilder ergeben. Dadurch soll eine konstruktive Überlagerung für die beiden die Kante begrenzenden Teilflächen des Objektoberflächenbereichs sichergestellt und eine destruktive Überla ¬ gerung verhindert werden. Bei diesem Vergleich kann zum Beispiel die ortsabhängige Änderung der Reflektanz in einem betrachteten Bildsegment verglichen werden. Reflektanzbilder mit sich ortsabhängig gleich oder innerhalb eines vorgegebenen Toleranzbereichs ähnlich ändernden Reflektanzen werden bei der Bestimmung des Ergebnisreflektanzbildes be ¬ rücksichtigt. Zum Beispiel bleibt eines der Refelktanzbil- der unberücksichtigt, dessen Reflektanz sich in einem Bildsegment von Pixel zu Pixel in eine Richtung abnehmen oder im Wesentlichen gleich bleiben, während die Werte der Reflektanzen im örtlich entsprechenden Bildsegment bei allen anderen Reflektanzbildern in dieselbe Richtung von Pixel zu Pixel zunehmen. Den nicht zu berücksichtigenden Reflektanz- bildern kann für die gewichtete Addition der Wichtungsfaktor null zugeordnet werden.

Es ist auch von Vorteil, wenn zumindest ein Teil der ermittelten Wichtungsfaktoren dem aktuell vermessenen Ob- jekt oder Oberflächenbereich oder Typ des Objekts bzw des Ob ektoberflächenbereichs zugeordnet und abgespeichert wird. Die Eigenschaften der Reflektanzbilder sind bezüglich in etwa gleich orientierten Oberflächenbereichen im Wesentlichen gleich. Dieses Wissen kann später bei der Kantenmessung von Objekten oder Objektoberflächenbereichen gleichen Typs wiederverwendet werden, beispielsweise wenn wiederholt Kantenmessung an gleichartigen oder identischen Werkzeugen oder Werkstücken durchgeführt werden. Sequenzen von Kamerabildern, die aufgrund des Beleuchtungszustands zu keinem verwendbaren Reflektanzbild geführt haben, brauchen dann nicht erneut aufgenommen werden. Es genügt bei späteren Kantenmessungen an Objekten oder Objektoberflächenbereichen gleichen Typs dann die Sequenzen aufzunehmen, deren Reflek- tanzbilder bei der Bestimmung des Ergebnisreflektanzbildes verwendet wurden, denen also zum Beispiel ein Wichtungsfaktor größer als null zugeordnet wurde. Beispielsweise kann auch ein Mindestwichtungsfaktor vorgegeben werden und für spätere Kantenmessungen bei gleichen Objekttypen werden dann lediglich die Sequenzen aufgenommen, deren Reflektanz- bild bei anderen Messungen zuvor einen Wichtungsfaktor erhalten hatte, der zumindest dem Mindestwichtungsfaktor entspricht. Derartige Maßnahmen können die nötige Messdauer erheblich senken.

Das so erhaltene Ergebnisreflektanzbild dient schließ ¬ lich dazu, die Kante im oder am Objektoberflächenbereich mit wenigstens einem an sich bekannten Kantenortkriterien entlang von Messlinien zu bestimmen. Da für die Bestimmung des Kantenverlaufs wesentlich mehr Daten zur Verfügung stehen, als notwendig wären, liegt bei der Bestimmung der Kante nach dem erfindungsgemäßen Verfahren ein überbestimmtes Problem vor, so dass die Genauigkeit bei der Bestimmung der Lage der Kante größer ist als bei der Bestimmung aus dem Kamerabild. Das Erzeugen eines Reflektanzbildes bei der Er ¬ mittlung einer Kante bietet den Vorteil, dass auch Kanten exakt bestimmt werden können, die sich lediglich durch zwei unterschiedlich orientierte Flächenabschnitte bilden, deren Oberflächeneigenschaften jedoch nicht unterscheidbar sind. Lokale Schwankungen der Konturschärfe, zum Beispiel wegen makroskopischer Bearbeitungsspuren, führen zu keiner ungenauen Kantenbestimmung. Das Verfahren ist robust und erfordert wenig Rechenkapazität. Es eignet sich insbesondere zur optischen Antastung von Werkstücken, beispielsweise Werkzeugen im Auflicht.

Vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens ergeben sich aus den abhängigen Patentansprüchen sowie der Beschreibung. Die Beschreibung beschränkt sich auf wesentliche Merkmale eines Ausführungsbeispiels sowie sonstiger Gegebenheiten. Die Zeichnung ist ergänzend heranzuziehen. Es zeigen:

Figur 1 eine Vorrichtung zur Durchführung des erfindungsgemäßen Verfahrens in schematischer Darstellung nach Art eines Blockschaltbilds,

Figur 2 eine Beleuchtungseinrichtung mit mehreren Lichtquellen in schematischer, blockschaltbildähnlicher Darstellung,

Figur 3 die schematisierte Darstellung eines aufgenommenen Kamerabildes mit mehreren Pixeln,

Figur 4 die schematische Darstellung der Ermittlung von Reflektanzbildern sowie der Ergebnisreflektanzbildes ,

Figur 5 eine schematische Darstellung der Auswahl von Reflektanzbildern für die Ermittlung des Ergebnisreflektanzbildes , Figuren 6 und 7 beispielhafte schematische Darstellun ¬ gen für ein neutrales Verhalten bei der Addition von Re- flektanzbildern

Figur 8 eine beispielhafte schematische Darstellung von Grauwertverläufen abhängig von der Beleuchtungsintensität der Lichtquelle und

Figur 9 ein Flussdiagramm eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens.

In den Figuren 1 und 2 ist eine Vorrichtung 10 zum optischen Antasten einer Kante 11 eines Ob ektoberflächenbe ¬ reichs 12 eines Objekts 9 dargestellt. Im Objektoberflä ¬ chenbereich 12 grenzen beispielsgemäß zwei Teilflächen 18 an die zu ermittelnde Kante 11 an.

Die Vorrichtung 10 weist eine Kamera 13, vorzugsweise eine Matrix-Kamera auf. Außerdem enthält die Vorrichtung 10 eine Beleuchtungseinrichtung 14, mit einer Vielzahl von Lichtquellen 15. Bei dem hier beschriebenen Ausführungsbeispiel sind die Lichtquellen 15 verteilt um das Objektiv 16 der Kamera 13 oder dessen optische Achse 17 angeordnet. Der Abstand der Lichtquellen 15 zur optischen Achse 17 kann gleich groß sein.

Über eine Steuereinrichtung 20 wird sowohl die Kamera 13, als auch die Beleuchtungseinrichtung 14 angesteuert. Die Steuereinrichtung 20 kann die Kameraeinstellungen, wie etwa die Fokuslage, die Belichtungszeit, die Blende ein ¬ stellen. Außerdem steuert die Steuereinrichtung 20 die Beleuchtungseinrichtung 14 an. Sie wählt die für den aktuellen Beleuchtungszustand zur Änderung der Beleuchtungsintensität I zu verwendende Lichtquelle 15 oder Gruppe von

Lichtquellen 15 aus und stellt die Beleuchtungsintensität I der Lichtquelle 15 oder der Lichtquellen 15 für das jeweils durch die Kamera 13 aufzunehmende Kamerabild B ein. Durch Verwendung unterschiedlicher Lichtquellen 15 oder Gruppen von Lichtquellen 15 der Beleuchtungseinrichtung 14 kann die Beleuchtungsrichtung LI, L2 verändert werden, aus der der Objektoberflächenbereich 12 angestrahlt wird, wobei der Objektoberflächenbereich 12 auch aus mehreren unterschiedlichen Beleuchtungsrichtungen LI, L2 gleichzeitig angestrahlt werden kann. Die Beleuchtungsrichtung LI, L2 ist beim Ausführungsbeispiel durch die Position der Lichtquelle 15 oder der Gruppe von Lichtquellen 15 in Umfangsrichtung um die optische Achse 17 gesehen bestimmt. In der Beleuchtungs ¬ richtung LI, L2 fällt das Licht auf den interessierenden Ob ektoberflächenbereich 12 ein.

Zur Änderung der Beleuchtungsrichtung LI, L2 wäre es alternativ zu dem hier beschriebenen Ausführungsbeispiel auch möglich, die Position einer Lichtquelle 15 relativ zur optischen Achse 17 zu verändern. Beispielsweise könnte eine Lichtquelle 15 um die optische Achse 17 herum bewegbar an ¬ geordnet sein.

Anhand der Figuren 3 bis 9 wird nachfolgend ein Aus ¬ führungsbeispiel für ein erfindungsgemäßes Verfahren zur Ermittlung der Länge und/oder des Verlaufs und/oder der Lage einer Kante 11 in oder an dem Ob ektoberflächenbereich beschrieben .

In einem ersten Verfahrensschritt 30 wird durch die Steuereinrichtung 20 gesteuert wenigstens eine Sequenz mit jeweils mehreren Kamerabildern B aufgenommen. Für die erste Sequenz Sl aus mehreren Bildern B wird eine erste Licht ¬ quelle 15 oder eine erste Gruppe von Lichtquellen 15 der Beleuchtungseinrichtung 14 zur intensitätsvariablen Beleuchtung verwendet. Der Objektoberflächenbereich 12 wird aus einer oder mehreren Beleuchtungsrichtungen LI, L2 angestrahlt, wodurch ein erster Beleuchtungszustand vorgegeben ist. Für jedes aufgenommene Kamerabild B dieser ersten Se ¬ quenz Sl wird die Intensität I des auf den interessierenden Objektoberflächenbereich 12 abgestrahlten Lichts verändert. Hierfür wird die dazu vorgesehene erste Lichtquelle 15 oder erste Gruppe von Lichtquellen 15 durch die Steuereinrichtung 20 entsprechend angesteuert. Die Intensität I wird beispielsweise schrittweise mit konstanten Schrittgrößen vergrößert oder verkleinert und für jeden Intensitätswert wird ein Kamerabild B aufgenommen. Nach der Aufnahme der ersten Sequenz Sl werden gegebenenfalls weitere Sequenzen S2 bis Sn aufgenommen. Für die Aufnahme jeder Sequenz Sl bis Sn wird der Beleuchtungszu ¬ stand verändert. Beim Ausführungsbeispiel wird hierfür für jede Sequenz Sl bis Sn eine andere Lichtquelle 15 oder eine andere Gruppe von Lichtquellen 15 der Beleuchtungseinrichtung 14 zum Anstrahlen des Objektoberflächenbereichs 12 verwendet .

Alternativ zum bevorzugten Ausführungsbeispiel besteht auch die Möglichkeit eine bewegbare Lichtquelle 15 einzu ¬ setzen und die Position der Lichtquelle 15 in den verschie ¬ denen Beleuchtungszuständen zu verändern.

In einem oder mehreren Beleuchtungszuständen kann der Objektoberflächenbereich 12 mit farbigem Licht angestrahlt werden. Zumindest eine der Lichtquellen 15 der Beleuchtungseinrichtung 14 kann farbiges Licht abstrahlen. Es ist auch möglich, über einen Teil der Lichtquellen 15 bei allen Sequenzen eine Grundhelligkeit zu erzeugen, um die Hellig ¬ keitsänderung durch die intensitätsvariable Lichtquelle 15 oder intensitätsvariable Gruppe von Lichtquellen 15 in den verschiedenen Beleuchtungszuständen ausgehend von der

Grundhelligkeit an den Arbeitspunkt der Kamera 13 anzupas ¬ sen .

Nachdem die gewünschte Anzahl der Sequenzen Sl bis Sn aufgenommen wurde, wird bei dem hier beschriebenen Ausführungsbeispiel in einem zweiten Verfahrensschritt 31 lokal für jedes Pixel PI bis Pk anhand der Kamerabilder B einer Sequenz Sl bis Sn ein Verlauf VI bis Vk für die vom Objekt ¬ oberflächenbereich 12 reflektierte und von der Kamera 13 empfangene Lichtmenge ermittelt. Entsprechend der Auflösung der Kamera 13 entstehen somit abhängig von der Anzahl k der verfügbaren Pixel P eine entsprechende Anzahl von intensi ¬ tätsabhängigen Verläufen VI ( I ) bis Vk ( I ) pro Sequenz Sl bis Sn. Beispielsgemäß werden durch die Kamera 13 Grauwerte GW intensitätsabhängig erfasst, so dass für jedes Pixel PI bis Pk einer Sequenz Sl bis Sn ein intensitätsabhängiger Grauwertverlauf VI ( I ) bis Vk ( I ) ermittelt wird. Beispielhafte intensitätsabhängige Grauwertverläufe VI ( I ) , V2 ( I ) sind in Figur 8 dargestellt. Die intensitätsabhängigen Grauwertverläufe VI ( I ) bis Vk ( I ) werden abhängig von der Beleuchtungsintensität I bestimmt.

Für die Bestimmung der intensitätsabhängigen Grauwertverläufe VI ( I ) bis Vk ( I ) der Pixel PI bis Pk werden jeweils nur die Grauwerte GW eines Kamerabildes B herangezogen, die zumindest ein vorgegebenes Auswahlkriterium erfüllen. Dabei können zum Beispiel die Steigung des intensitätsabhängigen Grauwertverlaufs VI ( I ) bis Vk ( I ) und/oder die Werte des in ¬ tensitätsabhängigen Grauwertverlaufs VI ( I ) bis Vk ( I ) unterhalb eines Intensitätsminimalwerts I mln und/oder oberhalb eines Intensitätsmaximalwerts I max ausgewertet werden. Als Auswahlkriterium wird beim Ausführungsbeispiel wenigstens eines der folgenden Kriterien auf Richtigkeit überprüft: die Grauwerte GW unterhalb des Intensitätsminimalwer ¬ tes I mln für die Beleuchtungsintensität entsprechen höchstens einem Grauwertminimum GW mln ;

die Grauwerte GW oberhalb des Intensitätsmaximalwertes I max für die Beleuchtungsintensität entsprechen zumindest einem Grauwertmaximum GW max ;

zwischen dem Intensitätsminimalwert I mln und dem In ¬ tensitätsmaximalwert I max für die Beleuchtungsintensi ¬ tät ist die Steigung des intensitätsabhängigen Grauwertverlaufs VI ( I ) bis Vk ( I ) größer als null, insbe ¬ sondere in etwa konstant und liegt vorzugsweise in ¬ nerhalb eines vorgegebenen Toleranzbereichs. Diese Auswahlkriterien sind anhand von Figur 8 veranschaulicht. Während der erste intensitätsabhängige Grau ¬ wertverlauf VI ( I ) den Auswahlkriterien entspricht, würde sich im zweite intensitätsabhängigen Grauwertverlauf V2 ( I ) in einem Bereich A eine negative Steigung ergeben, wenn alle Kamerabilder B dieser Sequenz S und damit alle verfügbaren Grauwerte GW dieses Pixels bei der Ermittlung des zwei ¬ ten Grauwertverlaufs V2 ( I ) herangezogen würden. Im Bereich A ist dies gestrichelt dargestellt. Unter Anwendung des Auswahlkriteriums, dass in diesem Bereich eine positive und im Wesentlichen konstante Steigung des intensitätsabhängigen Grauwertverlaufs V2 ( I ) vorliegen muss, bleiben die Grauwerte GW unberücksichtigt, die dazu führen würden, dass dieses Auswahlkriterium nicht erfüllt wird. Es ergibt sich deshalb der mit durchgezogenen Linien dargestellte zweite intensitätsabhängige Grauwertverlauf V2 ( I ) .

Der intensitätsabhängige Grauwertverlauf VI ( I ) bis Vk ( I ) und insbesondere dessen ansteigenden Bereich kann für jedes Pixel PI bis Pk an den Arbeitspunkt der Kamera 13 an- gepasst werden. Zur Verbesserung dieser Anpassung kann auch die Grundhelligkeit verändert werden, zum Beispiel indem ein Teil der Lichtquellen 15 der Beleuchtungseinrichtung 14 die gewünschte Grundhelligkeit liefert. Das Grauwertminimum GW mln und/oder das Grauwertmaximum GW max können über die Grundhelligkeit verschoben werden.

Alternativ oder zusätzlich kann zum Beispiel auch die örtliche oder lokale Änderung von Grauwerten GW innerhalb eines zusammenhängenden Bildsegments 21 eines Kamerabildes B als Auswahlkriterium dienen. Dabei kann die örtliche Grauwertänderung im Bildsegment 21 mit vorgegebenen Grenzwerten verglichen werden. Es ist auch möglich, die örtlichen Grauwertverläufe der örtlich übereinstimmenden Bild- segmente 21 in den verschiedenen Kamerabildern B miteinander zu vergleichen. Dabei kann eine Mehrheitsentscheidung gefällt werden. Beispielhaft sei angenommen, dass in der Mehrheit der Kamerabilder B einer Sequenz S der örtliche Grauwertverlauf im jeweils örtlich übereinstimmenden Bild ¬ segment 21 von links nach rechts zunimmt, wie in Figur 3 schematisch veranschaulicht. Existiert nun ein Kamerabild B oder mehrere Kamerabilder B, bei denen dies nicht der Fall ist, beispielsweise weil der örtliche Grauwertverlauf im Bildsegment 21 im Wesentlichen konstant ist oder sogar von links nach rechts abnimmt, dann bleiben für die Pixel P dieses Bildsegments 21 die in diesen Kamerabildern B er- fassten Grauwerten bei der Bestimmung des intensitätsabhängigen Grauwertverlaufs V(I) außer Betracht. Der örtliche Grauwertverlauf im betrachteten Bildsegment 21, der in der Mehrzahl der Kamerabilder einer Sequenz S übereinstimmt wird mithin als korrekt betrachtet. Davon abweichende ört ¬ liche Grauwertverläufe werden als fehlerhaft eingestuft.

Zu derartigen Abweichungen im örtlichen Grauwertverlauf kann es beispielsweise durch den Effekt der Überstrah ¬ lung eines Pixels kommen. Dies führt zu fehlerhaften Grau ¬ werten bei diesem Pixel. Wegen des Übersprechens und der Punktspreizfunktion der Kamera können auch alle unmittelbar benachbarten Pixel betroffen sein. Die Überstrahlung eines Pixels PU kann beispielsweise durch Bearbeitungsspuren im Ob ektoberflächenbereich 12 hervorgerufen werden. Das Erkennen der Überstrahlung eines Pixels PU kann erkannt werden. Bei dem überstrahlten Pixel PU ist der Betrag für das Grauwertminimum GW mln und/oder das Grauwertmaximum GW max erkennbar größer als bei den unmittelbar benachbarten Pixeln PN (Figur 3) . Wird in einem Bildsegment 21 diese Situation erkannt, so bleiben für das überstrahle Pixel PU sowie für die benachbarten Pixel PN dieses Bildsegments 21 die in diesem Kamerabild B erfassten Grauwerte bei der Bestimmung des intensitätsabhängigen Grauwertverlaufs V(I) außer Betracht .

In einem anschließenden dritten Verfahrensschritt 32 wird aus den für jedes Pixel PI bis Pk aus den intensitäts ¬ abhängigen Grauwertverläufen VI ( I ) bis Vk ( I ) die Reflektanz für das jeweils entsprechende Pixel PI bis Pk ermittelt und aus den Reflektanzen der k Pixel PI bis Pk ein Reflektanz- bild Rl bis Rn für jede Sequenz Sl bis Sn ermittelt, wie dies schematisch in Figur 4 veranschaulicht ist. Als Re ¬ flektanz kann beispielsweise die Steigung des intensitäts ¬ abhängigen Grauwertverlaufs VI ( I ) bis Vk ( I ) des betreffenden Pixels PI bis Pk oder ein anderer den intensitätsabhängigen Grauwertverlauf im Bereich seines linearen Anstiegs charakterisierender Parameter dienen.

Prinzipiell kann es ausreichen, lediglich eine Sequenz Sl und ein Reflektanzbild Rl zu erzeugen, um daraus nach ¬ folgend die Lage der Kante 11 zu ermitteln. Vorzugsweise werden jedoch eine Vielzahl von Sequenzen Sl bis Sn aufgenommen, so dass eine entsprechende Anzahl von Reflektanz- bildern Rl bis Rn zur Verfügung steht.

In einem vierten Verfahrensschritt 33 werden die einzelnen Reflektanzbilder Rl bis Rn zu einem gemeinsamen Er- gebnisreflektanzbild E verknüpft. Dies geschieht vorzugs ¬ weise durch eine gewichtete Addition der Reflektanzbilder Rl bis Rn. Beispielhaft ist diese gewichtete Addition in Figur 5 dargestellt. Die Wichtungsfaktoren Wl bis Wn der einzelnen Reflektanzbilder Rl bis Rn können gleich null o- der größer als null sein. Ist einer der Wichtungsfaktoren Wl bis Wn gleich null, so wird das betreffende Reflektanz- bild bei der Ermittlung der Ergebnisreflektanzbildes E nicht berücksichtigt, wie dies am Beispiel des dritten Re- flektanzbildes R3 veranschaulicht ist. Dies kann deswegen notwendig sein, weil beispielsweise abhängig von den Mate ¬ rialeigenschaften des Ob ektoberflächenbereichs 12 gegen ¬ läufige Reflektanzen auftreten können. Diese würden sich bei einer Addition gegenseitig aufheben oder zumindest ab ¬ schwächen. Darum werden ortsabhängige Reflektanzverläufe in den Reflektanzbildern Rl bis Rn verglichen und nur solche Reflektanzbilder Rl bis Rn bei der Berechnung des Ergebnis- reflektanzbildes E berücksichtigt, deren ortsabhängigen Re- flektanzverläufe sich bei der Addition sozusagen konstruktiv überlagern.

Anhand des in Figur 5 dargestellten Beispiels lässt sich dies anschaulich erklären. Bis auf das dritte Reflek- tanzbild R3 nimmt die Reflektanz bei allen anderen Reflek- tanzbildern Rl, R2, R4 bis Rn vom Teilbereich 18 links neben der Kante 11 zum Teilbereich 18 rechts neben der Kante 11 zu, was durch die rechts hellere Färbung veranschaulicht ist. Demgegenüber nimmt die Reflektanz im dritten Reflek- tanzbild R3 von links nach rechts ab. Deswegen würde sich das dritte Reflektanzbild R3 mit den anderen Reflektanzbil ¬ dern bei einer Addition sozusagen destruktiv überlagern. Aus diesem Grund bleibt das dritte Reflektanzbild im Bei ¬ spiel unberücksichtigt für die Bestimmung des Ergebnis- reflektanzbildes E und erhält einen dritten Wichtungsfaktor W3 = 0.

In den Figuren 6 und 7 ist beispielhaft dargestellt, dass auch sich sozusagen neutral verhaltende Reflektanzbil ¬ der Ri, Rj unberücksichtigt bleiben und daher einen Wichtungsfaktor von Wi, Wj von null zugeordnet bekommen. Unter neutralem Verhalten ist zu verstehen, dass sich die Reflektanz örtlich nicht oder nur unwesentlich ändert, so dass daraus kein Mehrwert für die Bestimmung der Kante 11 abge ¬ leitet werden kann. Allerdings kann anhand solcher neutra ¬ ler Reflektanzbilder abgeleitet werden, welche Lichtquelle 15 oder Gruppe von Lichtquellen 15 zu einem derart örtlich neutralen Reflektanzverlauf führt. Genau diese Lichtquelle 15 oder Gruppe von Lichtquellen 15 eignet sich zur Veränderung der Grundhelligkeit in der Messumgebung. Daher kann es zweckmäßig sein den aktuellen Beleuchtungszustand - der hier durch die aktuell zur Intensitätsänderung verwendete Lichtquelle 15 oder Gruppe von Lichtquellen 15 gekennzeichnet ist - als neutral für den aktuellen Objekttyp oder den aktuellen Ob ektoberflächenbereichstyp zu kennzeichnen und diese Kennzeichnung in einem Speicher der Steuereinrichtung 20 abzuspeichern. Für spätere Kantenmessungen bei gleichen Objekttypen oder Obj ektoberflächenbereichstypen kann auf diese Information zurückgegriffen werden.

In eine und/oder beide Richtungen der Bildebene kann der Gradient des Reflektanzverlaufs ortabhängig ermittelt und mit den anderen ortabhängigen Gradienten des Reflek- tanzverlaufs der anderen Reflektanzbilder verglichen werden. Liegt die Differenz zwischen ortabhängigen Gradienten verschiedener Reflektanzbilder Rl bis Rn in einem zulässigen Toleranzbereich, so können diese bei der Ermittlung des Ergebnisreflektanzbildes E berücksichtigt werden. Liegt der ortsabhängige Reflektanzverlauf in einem oder mehreren Pa ¬ rametern eines Reflektanzbildes Rl bis Rn außerhalb des To ¬ leranzbereichs, so wird diesem Reflektanzbild Rl bis Rn ein Wichtungsfaktor Wl bis Wn von null zugeordnet, so dass es nicht in die Berechnung des Ergebnisreflektanzbildes E ein ¬ geht .

Die Wichtungsfaktoren Wl bis Wn werden vorzugsweise dem Typ des Objekts 9 oder dem Typ des Objektoberflächenbe ¬ reichs 12 zugeordnet und abgespeichert. Werden bei zukünf ¬ tigen Kantenmessungen Objekte 9 oder Objektoberflächenbe ¬ reiche 12 gleichen Typs optisch angetastst, so kann auf die abgespeicherten Daten zurückgegriffen werden. Die Aufnahme von Sequenzen, die zu einem Reflektanzbild Ri (i=l bis n) mit dem Wichtungsfaktor Wi = 0 (i=l bis n) geführt hatten, können entfallen und Messzeit kann eingespart werden. Anhand der abgespeicherten Wichtungsfaktoren Wl bis Wn kann demnach im ersten Verfahrensschritt 30 entschieden werden, welche Beleuchtungszustände gewählt werden können und wel ¬ che Sequenzen von Kamerabildern B aufgenommen werden sollen. Das Verfahren ist quasi lernend. Je mehr unterschied ¬ liche Objekttypen oder Ob ektoberflächenbereichstypen bereits einmal einer Kantenmessung unterzogen wurden, desto mehr A-Priori-Wissen steht für zukünftige Kantenmessungen zur Verfügung. Anstelle der Wichtungsfaktoren Wl bis Wn können auch andere die Verwendbarkeit bestimmter Beleuchtungszustände charakterisierende Daten abgespeichert wer ¬ den .

In einem fünften Verfahrensschritt 34 wird das Ergeb- nisreflektanzbild E ausgewertet. Hierfür dient beispiels ¬ weise ein Kantenortkriterium K, anhand dessen die Position bzw. der Verlauf der Kante 11 im Ergebnisreflektanzbild E ermittelt werden kann. Als Kantenortkriterium K wird vorzugsweise ein integrales Kantenortkriterium verwendet. Da ¬ bei wird das Integral des ortsabhängigen Reflektanzverlaufs im Ergebnisreflektanzbild E entlang von vorgebbaren Messli ¬ nien ermittelt und ausgewertet. Es versteht sich, dass al ¬ ternativ oder zusätzlich auch andere Kantenortkriterien, wie etwa ein differenzielles Kantenortkriterium eingesetzt werden könnte.

Die Erfindung betrifft ein Verfahren zur Ermittlung der Lage einer Kante 11 in oder an einem interessierenden Ob ektoberflächenbereich 12 durch optisches Antasten. Hierfür wird die Reflektanz des Objektoberflächenbereichs 12 ausgewertet. Unter verschiedenen Beleuchtungszuständen, insbesondere unterschiedlichen Lichteinfallsrichtungen wird Licht auf den Ob ektoberflächenbereich 12 abgestrahlt und in jedem Beleuchtungszustand wird eine Sequenz Sl bis Sn von Kamerabildern B aufgenommen. Jedes Kamerabild B einer Sequenz Sl bis Sn wird bei einer anderen Beleuchtungsintensität I aufgenommen. Aus mehreren oder allen Kamerabildern B einer Sequenz Sl bis Sn wird anschließend jeweils ein Re- flektanzbild Rl bis Rn erzeugt. Im Anschluss daran wird aus mehreren oder allen Reflektanzbildern Rl bis Rn durch gewichtete Addition ein Ergebnisreflektanzbild E erzeugt, in dem durch Anwenden wenigstens eines Kantenortkriteriums die Lage einer Kante 11 in oder am interessierenden Objektoberflächenbereich 12 subpixelgenau bestimmt wird.

Bezugs zeichenliste :

9 Objekt

10 Vorrichtung

11 Kante

12 Ob ektoberflächenbereich

13 Kamera

14 Beleuchtungseinrichtung

15 Lichtquelle

16 Objektiv

17 optische Achse

18 Teilfläche

20 Steuereinrichtung

21 Bildsegment

30 erster Verfahrensschritt

31 zweiter Verfahrensschritt

32 dritter Verfahrensschritt

33 vierter Verfahrensschritt

34 fünfter Verfahrensschritt

A Bereich

B Kamerabild

E Ergebnisreflektanzbild

K Kantenortkriterium

L, LI, L2 Beleuchtungsrichtung

PI bis Pk Pixel

Rl bis Rn Reflektanzbild

51 erste Sequenz

52 bis Sn weitere Sequenzen

V(I) intensitätsabhängiger Verlauf

VI ( I ) intensitätsabhängiger erster Grauwertverlauf

V2 ( I ) intensitätsabhängiger zweiter Grauwertverlauf