Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
COMPUTER-IMPLEMENTED METHOD, METHOD, MEASURING DEVICE AND COMPUTER PROGRAM PRODUCT
Document Type and Number:
WIPO Patent Application WO/2024/022973
Kind Code:
A1
Abstract:
The present invention relates to a computer-implemented method (200) for locating an edge position of an edge (166) in an image region (162) of an image (160) with an extended depth of field, comprising the following steps: determining (206) an image gradient for each image point in the image region (162), wherein the determined image gradients form an image gradient map; determining (210) at least one edge parameter of a modelled, curved edge profile based on the image gradient map; determining (212) an edge profile (172) of the edge (166) on the basis of a projection of the image points of the image region (162) along the edge profile, using the at least one edge parameter; and determining (214) the edge position on the basis of the edge profile (172). The present invention also relates to a method (220) for edge location in an image with an extended depth of field, to a measuring device (10) and to a computer program product.

Inventors:
SCHMIDT SOEREN (DE)
AIDUKAS TOMAS (CH)
SEIDEL DIRK (DE)
PLOHMANN DANIEL (DE)
Application Number:
PCT/EP2023/070295
Publication Date:
February 01, 2024
Filing Date:
July 21, 2023
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
ZEISS CARL INDUSTRIELLE MESSTECHNIK GMBH (DE)
ZEISS CARL MICROSCOPY GMBH (DE)
International Classes:
G06T7/571; G06T7/10
Domestic Patent References:
WO2009130651A12009-10-29
Foreign References:
EP2598836A12013-06-05
Other References:
YE J ET AL: "High-accuracy edge detection with Blurred Edge Model", IMAGE AND VISION COMPUTING, ELSEVIER, GUILDFORD, GB, vol. 23, no. 5, 1 May 2005 (2005-05-01), pages 453 - 467, XP027617855, ISSN: 0262-8856, [retrieved on 20050501]
SHOU-MING HOU: "A Review of the Edge Detection Technology", vol. 1, no. 2, 1 January 2021 (2021-01-01), pages 26 - 37, XP009548737, ISSN: 2583-0732, Retrieved from the Internet [retrieved on 20210101], DOI: 10.55011/STAIQC.2021.1203
HAGARA ET AL., RADIOENGINEERING, vol. 20, no. 2
FACHARTIKELN: "Robust edge-spread function construction methods to counter poor sample spacing uniformity in the slanted-edge method", J. OPT. SOC. AM. A, vol. 36, 2019, pages 1126 - 1136
VIALLEFONT-RONINET ET AL., OPT. EXPRESS, vol. 26, 2018, pages 33625 - 33648
Attorney, Agent or Firm:
WITTE, WELLER & PARTNERPATENTANWÄLTE MBB / ZUSAMMENSCHLUSS EPA NR. 314 (DE)
Download PDF:
Claims:
Patentansprüche Computerimplementiertes Verfahren (200) zum Lokalisieren einer Kantenposition einer Kante (166) in einem Bildbereich (162) eines Bildes (160), mit den folgenden Schritten:

Bestimmen (206) eines Bildgradienten für jeden Bildpunkt in dem Bildbereich (162), wobei die bestimmten Bildgradienten eine Bildgradientenkarte bilden;

Bestimmen (210) mindestens eines Kantenparameters eines modellierten, gekrümmten Kantenverlaufs basierend auf der Bildgradientenkarte;

Bestimmen (212) eines Kantenprofils (172) der Kante (166) auf Basis einer Projektion der Bildpunkte des Bildbereichs (162) entlang des Kantenverlaufs unter Verwendung des mindestens einen Kantenparameters; und

Bestimmen (214) der Kantenposition auf Basis des Kantenprofils (172). Verfahren nach Anspruch 1 , wobei das Verfahren (200) des Weiteren den folgenden Schritt aufweist:

Filtern (208) der Bildgradientenkarte, wobei die Bildgradienten verworfen werden, die unterhalb eines definierten Schwellwerts liegen. Verfahren nach Anspruch 1 oder 2, wobei der mindestens eine Kantenparameter ein oder mehrere Parameter eines Kantenverlaufsmodells zur Beschreibung des Kantenverlaufs sind, wobei der mindestens eine Kantenparameter auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird. Verfahren nach Anspruch 3, wobei der mindestens eine Kantenparameter durch Ausgleichsrechnung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird, insbesondere wobei zur Ausgleichsrechnung die Methode der kleinsten Quadrate verwendet wird. Verfahren nach Anspruch 3 oder 4, wobei der mindestens eine Kantenparameter durch Optimierung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird, insbesondere wobei zur Optimierung das Kantenverlaufsmodell hinsichtlich der lokalen Kantenrauheit minimiert wird. Verfahren nach einem der Ansprüche 3 bis 5, wobei als Kantenverlaufsmodell eine Polynomfunktion verwendet wird, insbesondere wobei die Polynomfunktion ein Polynom mindestens zweiten Grades ist. Verfahren nach einem der Ansprüche 1 bis 6, wobei der gekrümmte Kantenverlauf eine konstante Krümmung aufweist, und wobei der mindestens eine Kantenparameter das Krümmungszentrum (176) des Kantenverlaufs mit konstanter Krümmung definiert, insbesondere wobei die Projektion eine Projektion der Bildpunkte auf eine radiale Richtung bezüglich des Krümmungszentrums (176) ist. Verfahren nach einem der Ansprüche 1 bis 7, wobei in dem Schritt des Bestimmens (214) der Kantenposition die Kantenposition auf Basis eines Wendepunkts des Kantenprofils (172) bestimmt wird. Verfahren nach einem der Ansprüche 1 bis 7, wobei in dem Schritt des Bestimmens (214) der Kantenposition die Kantenposition auf Basis eines Erreichens eines definierten Schwellwertes des Kantenprofils (172) bestimmt wird. Verfahren nach einem der Ansprüche 1 bis 9, wobei das Verfahren des Weiteren den folgenden Schritt aufweist: Empfangen (202) des Bildes, insbesondere wobei das Bild ein Bild mit erweiterter Schärfentiefe ist. Verfahren nach einem der Ansprüche 1 bis 9, wobei das Bild ein Bild mit erweiterter Schärfentiefe ist, wobei das Bild mit erweiterter Schärfentiefe einen Bereich einer Oberfläche eines Werkstücks (12) abbildet, wobei das Verfahren (200) des Weiteren die folgenden Schritte aufweist:

Empfangen (42) eines Fokalbildstapels, wobei der Fokalbildstapel eine Mehrzahl von Bildern des Werkstücks (12) aufweist, wobei die Bilder den Bereich der Oberfläche des Werkstücks (12) mit in einer Tiefenrichtung (20) unterschiedlichen, definierten Fokalebenenpositionen abbilden, wobei jedem Bild des Fokalbildstapels eine Fokalebenposition zugeordnet ist;

Erzeugen (50) des Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung basierend auf dem Fokalbildstapel. Verfahren (220) zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe, wobei das Bild einen Bereich einer Oberfläche eines Werkstücks (12) abbildet, mit den folgenden Schritten:

Erfassen (68) einer Mehrzahl von Bildern des Bereichs der Oberfläche des Werkstücks (12) mittels des optischen Sensors (14), wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks (12) mit in der Tiefenrichtung (20) unterschiedlichen, definierten Fokalebenenpositionen abbilden, und wobei die erfassten Bilder einen Fokalbildstapel bilden;

Erzeugen (50) des Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung (20) basierend auf dem Fokalbildstapel; und Lokalisieren einer Kantenposition einer Kante (166) in einem Bildbereich (162) des Bildes (160) mit erweiterter Schärfentiefe mittels des Verfahrens (200) nach einem der Ansprüche 1 bis 10. Verfahren nach Anspruch 11 oder 12, wobei das Verfahren des Weiteren den Schritt aufweist:

Korrigieren (52) eines oder mehrerer Abbildungsfehler in dem erzeugten Bild mit erweiterter Schärfentiefe, wobei die zu korrigierenden Abbildungsfehler mindestens einen der folgenden Fehler aufweisen: einen Verzeichnungsfehler und/oder einen Astigmatismus-Fehler. Verfahren nach Anspruch 12 oder 13, wobei der optische Sensor (14) und das Werkstück (12) in der Tiefenrichtung (20) relativ zueinander bewegbar sind, so dass ein Abstand (22) in der Tiefenrichtung (20) zwischen dem Werkstück (12) und dem optischen Sensor (14) veränderbar ist, wobei das Verfahren des Weiteren den folgenden Schritt aufweist:

Verändern (66) des Abstands zwischen dem Werkstück (12) und dem optischen Sensor (14), wobei in dem Schritt des Erfassens (68) die Mehrzahl von Bildern erfasst wird, während der Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks (12) aus unterschiedlichen, definierten Abständen (22) zu dem Werkstück (12) in der Tiefenrichtung (20) abbilden. Verfahren nach einem der Ansprüche 12 bis 14, wobei das Messgerät (10) einen Werkstückhalter (16) aufweist, wobei das Werkstück (12) auf dem Werkstückhalter (16) zum Vermessen angeordnet wird. Verfahren nach Anspruch 15, wobei das Messgerät (10) eine Antriebseinrichtung (28) aufweist, wobei die Antriebseinrichtung (28) den optischen Sensor (14) relativ zu dem Werkstückhalter (16) in der Tiefenrichtung (20) bewegt und/oder den Werkstückhalter (16) relativ zu dem optischen Sensor (14) in der Tiefenrichtung (20) bewegt, um den Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) zu verändern. Verfahren einem der Ansprüche 12 bis 16, wobei das Messgerät (10) eine Beleuchtungseinrichtung (32) aufweist, wobei das Verfahren des Weiteren den folgenden Schritt aufweist:

Beleuchten (64) des Werkstücks (12) mittels der Beleuchtungseinrichtung (32) während des Erfassens der Bilder des Fokalbildstapels. Messgerät, insbesondere ein Koordinatenmessgerät oder ein Mikroskop, wobei das Messgerät (10) einen Werkstückhalter (16) für ein Werkstück (12), einen optischen Sensor (14) und eine Steuereinrichtung (26) aufweist, wobei der optische Sensor (14) dazu ausgebildet ist, Bilder eines Bereichs einer Oberfläche des Werkstücks (12) zu erfassen, wobei der optische Sensor (14) und das Werkstück (12) in einer Tiefenrichtung (20) voneinander beabstandet sind, wobei die Steuereinrichtung (26) dazu eingerichtet ist, die folgenden Schritte durchzuführen:

Steuern des optischen Sensors (14) derart, dass eine Mehrzahl von Bildern eines Bereichs der Oberfläche des Werkstücks (12) mittels des optischen Sensors (14) erfasst wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks (12) mit in der Tiefenrichtung (20) unterschiedlichen, definierten Fokalebenenpositionen (22) abbilden, und wobei die erfassten Bilder einen Fokalbildstapel bilden;

Erzeugen eines Bildes (160) mit erweiterter Schärfentiefe in der Tiefenrichtung (20) basierend auf dem Fokalbildstapel; und Lokalisieren von zumindest einer Kantenposition einer Kante (166) in einem Bildbereich (162) des Bildes (160) mit erweiterter Schärfentiefe mittels des Verfahrens (200) nach einem der Ansprüche 1 bis 10. Messgerät nach Anspruch 18, wobei das Messgerät (10) des Weiteren eine Antriebseinrichtung (28) aufweist, wobei die Antriebseinrichtung (28) dazu ausgebildet ist, den optischen Sensor (14) und den Werkstückhalter (16) in der Tiefenrichtung (20) relativ zueinander zu bewegen, um einen Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) zu verändern. Messgerät nach Anspruch 19, wobei die Steuereinrichtung (26) des Weiteren dazu eingerichtet ist, die folgenden Schritte, insbesondere vor dem Schritt des Erzeugens des korrigierten Bildes mit erweiterter Schärfentiefe, durchzuführen:

Steuern der Antriebseinrichtung (28) derart, dass ein Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) verändert wird, wobei der optische Sensor (14) derart gesteuert wird, dass die Mehrzahl von Bildern erfasst wird, während der Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks (12) aus unterschiedlichen, definierten Abständen (22) zu dem Werkstück (12) in der Tiefenrichtung (20) abbilden. Computerprogrammprodukt mit einem Computerprogramm, das Programmcodemittel zur Durchführung eines Verfahren nach einem der Ansprüche 1 bis 11 aufweist, wenn das Computerprogramm auf einem Messgerät (10) ausgeführt wird.

Description:
Computerimplementiertes Verfahren, Verfahren, Messgerät und Computerproqrammpro- dukt

[0001] Die vorliegende Erfindung betrifft ein computerimplementiertes Verfahren zum Lokalisieren einer Kantenposition einer Kante in einem Bildbereich eines Bildes. Des Weiteren betrifft die vorliegende Erfindung ein Verfahren zur Kantenlokalisierung in einem Bild. Des Weiteren betrifft die vorliegende Erfindung ein Messgerät, insbesondere ein Koordinatenmessgerät oder ein Mikroskop. Des Weiteren betrifft die vorliegende Erfindung ein Computerprogrammprodukt.

[0002] Messgeräte zum Vermessen der Oberfläche eines Werkstücks, auch Messobjekt genannt, sind im Stand der Technik allgemein bekannt. In der industriellen Messtechnik werden grundsätzlich Messgeräte benötigt, die 3D Informationen eines Werkstücks messen können. Dazu können in derartigen Messgeräten verschiedene Arten von Senso- ren zur Anwendung kommen, um die Koordinaten eines zu vermessenden Werkstücks zu erfassen.

[0003] Beispielsweise sind auch optische Messgeräte bekannt, in denen optische Sensoren verwendet werden. Die optischen Sensoren ermöglichen ein berührungsloses Erfassen der Koordinaten eines Werkstücks. In optischen Messgeräten wird das zu vermessende Werkstück auf einem Tisch aufgespannt, der als Werkstückhalter dient. Der Tisch bildet dabei eine X-Y-Ebene. Senkrecht von dieser Ebene, d.h. in Z-Richtung eines kartesischen Koordinatensystems, ist der optische Sensor von dem zu vermessenden Werkstück beabstandet.

[0004] Da herkömmliche optische Messgeräte, wie beispielsweise Mikroskope oder Koordinatenmessgeräte, nur 2D Daten aufnehmen können, wird die Bildtiefe oder Tiefeninformation in Z-Richtung mittels einer zusätzlichen Technik bestimmt.

[0005] Eine nicht invasive und günstige Lösung besteht darin, die Tiefeninformation in Z- Richtung mittels einer Mehrzahl an optischen Messungen zu bestimmen. Bildunschärfe, die durch optisches defokusieren bewirkt wird, ändert sich in vorhersagbarer Weise. Das optische System des optischen Sensors hat eine Fokalebene, die eine Ebene größter Schärfe ist. Wird ein Objektpunkt, der auf der Oberfläche des Werkstücks liegt, auf die Fokalebene zu bewegt, wird die Abbildung des Objektpunkts schärfer. Wird der Objektpunkt von der Fokalebene weg bewegt, wird die Abbildung des Objektpunkts unschärfer. Ist der Objektpunkt in der Fokalebene angeordnet, ist die Abbildung des Objektpunkts am schärfsten. Die Bildunschärfe kann somit durch Variation des Abstands zwischen dem Werkstück und dem optischen System kontrolliert werden. Durch das Aufnehmen von Bildern, während das Werkstück durch den Fokus bewegt wird, wird ein Fokalbildstapel erzeugt. Auf Basis des Fokalbildstapels kann eine Tiefeninformation der Objektpunkte mittels einer Technik, die Shape from Focus (SFF) genannten wird, extrahiert werden.

[0006] Bei der SFF Technik wird zunächst der aufgenommene Fokalbildstapel mit Hilfe einer Autofokusmetrik bewertet, welche pixelaufgelöst für jedes Einzelbild ein lokales Schärfemaß definiert. Dabei wird für jeden Bildpunkt jedes Bildes ein Schärfewert bestimmt. Die Schärfewerte werden in einer 3d-Schärfematrix gespeichert. Jedem einzelnen Bildpunkt wird damit ein Schärfeprofil entlang der z-Richtung zugeordnet. Dann wird das Maximum jedes Schärfeprofils bestimmt. Das Maximum gibt somit an, an welcher z-Position die schärfste Abbildung eines Objektpunkts auf den Bildpunkt erfolgt. Daraus lässt sich dann für jeden Objektpunkt des Werkstücks eine Tiefeninformation bestimmen. Auf Basis der ermittelten Tiefeninformationen kann eine Tiefenkarte des Bereichs des Werkstücks erzeugt werden. Auf Basis der Tiefenkarte und des Fokalbildstapels kann dann des Weiteren ein Bild mit erweiterter Schärfentiefe, ein sogenanntes "extended-depth-of-field" (EDOF) Bild, erzeugt werden.

[0007] In der Mikroskopie sind Verfahren bekannt, die die SFF Technik verwenden. Beispielsweise zeigt die Druckschrift EP 2 598 836 A1 ein Verfahren zur Kompensation von Beleuchtungsdefiziten im mikroskopischen "Shape from Focus (SFF)", wobei zuerst das Reflexionsvermögen der Szene unter Verwendung eines Projektorkamerasystems geschätzt wird und dann das mikroskopische "Shape from Focus (SFF)" auf einen Stapel von Reflexionskarten anstatt auf die ursprünglichen Bilddaten angewendet wird.

[0008] Des Weiteren sind derartige Verfahren auch in dem Artikel „Shape From Focus Sytem“ von Shree K. Nayar, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1992, 302-308 sowie in dem Artikel „Focus Variation Instruments“ von Franz Helmli, Kapitel 7 aus dem Buch „Optical Measurement of Surface Topography“, Seiten 131-166, Springer Verlag beschrieben.

[0009] Auf Basis eines Bildes, das eine Struktur abbildet, können weitere Informationen über die in dem Bild dargestellte Struktur erlangt werden. Insbesondere ist es wünschenswert, weitere Information über die Kontur der abgebildeten Struktur, insbesondere über Kanten der Struktur, zu erlangen. Beispielsweise kann die Struktur ein Werkstück sein. In diesem Fall kann das Bild ausgewertet werden, um die Lage von Kanten des Werkstücks zu ermitteln.

[0010] Das auszuwertende Bild kann beispielsweise ein aufgenommenes Einzelbild oder ein Bild mit erweiterter Schärfentiefe sein. Die Messung innerhalb eines Bildes mit erweiterter Schärfentiefe erlaubt es eine Vielzahl von Kantenpositionen aus verschiedenen z- Positionen zu bewerten. Im Gegensatz erlaubt die Einzelbildmessung eine Bewertung für Kanten welche innerhalb des scharf abgebildeten Fokalbereichs sind. Außerfokal liegende Kanten können dann im Bild nicht bewertet werden. Daher ist es insbesondere vorteilhaft im Bild mit erweiterter Schärfentiefe Kantenauswertungen durchzuführen.

[0011] Zur Lokalisierung dieser Kanten, insbesondere deren subpixel-genauen Kantenposition, in einem Bild sind im Stand der Technik verschiedene Verfahren bereits bekannt.

[0012] Zur Bestimmung einer subpixelgenauen Kantenposition werden zumeist sogenannte Suchstrahlverfahren eingesetzt. Hierfür wird entlang eines beliebig gewählten Suchstrahls, welcher die zu vermessende Kante enthält, die Bildinformation entlang der Suchstrahllinie ausgewertet. Die Suchstrahllinie im Bild ist hierbei durch die Geradenglei- chung bestimmt. Darin entspricht [ x 0 , y 0 ] dem Suchstrahlursprung, [ n x , n y ] der Suchstrahlrichtung und l dem freien Suchstrahlparameter. Die zugehörige Bildinformation I(.x S uchstrahi> ysuchstrahd wird hierbei mit Hilfe einer Interpolation aus dem aufgenommenen Bild errechnet. Im nächsten Schritt wird beispielsweise mit Hilfe eines „Canny-Edge- Algorithmus“ oder einer alternativen Technik, insbesondere eines Schwellwert-Verfahren, die Kantenposition bestimmt. Ein derartiges Schwellwert-Verfahren ist beispielsweise in dem Fachartikel „Edge Detection with Sub-pixel Accuracy Based on Approximation of Edge with Erf Function“, HAGARA et al, RADIOENGINEERING, VOL. 20, NO. 2 beschrieben. Zentraler Nachteil eines solchen Kantenbestimmungsverfahrens liegt in der Rauschanfälligkeit der verwendeten Algorithmen. Da die Kanteninformation nur entlang einer einzelnen Suchstrahllinie bekannt ist, führt ein etwaiges Rauschen während der Messung zu einer direkten Beeinflussung der Messergebnisse und vermindert entsprechend deren Qualität. [0013] Alternativ ist es auch denkbar, statt eines einzelnen Suchstrahls, die Kanteninformation für einen flächigen Bereich, einer sogenannten Region-Of-Interest (Rol), zu betrachten und gegenüber der Oberflächennormalen bezüglich einer geraden Kante zu projizieren. Die ROI ist somit ein, insbesondere kleiner, Bildbereich des Bildes. Dieses Verfahren ist in der Literatur unter dem Begriff „Slanted-Edge-Method“ bekannt und ermöglicht die Extraktion eines überaufgelösten und besser abgetasteten Kantenprofils. Im Anschluss wird hieraus mit Hilfe eines Kantenlokalisierungsverfahrens eine Kantenposition bestimmt. Die Slanted-Edge-Method ist beispielsweise in den Fachartikeln „Robust edge-spread function construction methods to counter poor sample spacing uniformity in the slanted-edge method", F. van den Bergh, J. Opt. Soc. Am. A 36, Seiten 1126-1136 (2019), DOI: 10.1364/JOSAA.36.001126 und „Comparison of MTF measurements using edge method: towards reference data set“, Viallefont-Roninet et al, Opt. Express 26, 33625-33648 (2018), DOI: 10.1364/OE.26.033625 beschrieben.

[0014] Gegenüber dem Suchstrahlverfahren besitzt die „Slanted-Edge-Method“ ein verbessertes Signal-Rausch-Verhältnis und erlaubt durch die überaufgelösten Samplingeigenschaften höhere Lokalisierungsgenauigkeiten.

[0015] Die im Stand der Technik bekannten Verfahren zur Kantenlokalisierung in Bildern mit erweiterter Schärfentiefe lassen aber noch Raum für Verbesserungen, insbesondere hinsichtlich der Genauigkeit der Bestimmung einer Kantenposition.

[0016] Vor diesem Hintergrund ist es eine technische Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung bereitzustellen, mittels denen Kanten in einem Bild besser lokalisiert werden können.

[0017] In einem ersten Aspekt der vorliegenden Erfindung wird ein computerimplementiertes Verfahren zum Lokalisieren einer Kantenposition einer Kante in einem Bildbereich eines Bildes bereitgestellt. Das Verfahren weist die folgenden Schritte auf:

Bestimmen eines Bildgradienten für jeden Bildpunkt in dem Bildbereich, wobei die bestimmten Bildgradienten eine Bildgradientenkarte bilden; Bestimmen mindestens eines Kantenparameters eines modellierten, gekrümmten Kantenverlaufs basierend auf der Bildgradientenkarte;

Bestimmen eines Kantenprofils der Kante auf Basis einer Projektion der Bildpunkte des Bildbereichs entlang des Kantenverlaufs unter Verwendung des mindestens einen Kantenparameters; und

Bestimmen der Kantenposition auf Basis des Kantenprofils.

[0018] Das Bild kann ein aufgenommenes Einzelbild oder ein Bild mit erweiterter Schärfentiefe sein. Eine Bildebene des Bildes kann mittels eines zweidimensionalen Koordinatensystems beschrieben werden. Dieses kann beispielsweise ein kartesisches Koordinatensystem mit einer x-Richtung und einer y-Richtung sein. Das Bild weist eine Mehrzahl von Bildpunkten auf. Die Bildpunkte sind in der x- und y-Richtung in regelmäßigen Abständen verteilt. Jeder Bildpunkt hat einen Grau- bzw. RGB-Wert, welcher die Helligkeit bzw. Intensität des Bildpunkts beschreibt. Die Intensitätswerte bilden ein Intensitätsfeld <p(x,y) des Bildes. Das Intensitätsfeld ordnet jedem Ort im Bild einen Intensitätswert zu. Bei Verwendung eines Bildes mit erweiterter Schärfentiefe kann jedem Bildpunkt zusätzlich noch ein Tiefenwert zugeordnet sein (siehe zum Beispiel Fig. 6D), welcher im Folgenden aber zur Kantenlokalisierung nicht herangezogen wird.

[0019] Das Bild kann beispielsweise einen Bereich einer Oberfläche eines Werkstücks abbilden. Das Werkstück hat eine Oberflächenstruktur, die Kanten aufweist. Kanten der Oberflächenkontur liegen somit auch in dem Bereich der Oberfläche des Werkstücks, der in dem Bild abgebildet ist. Mit anderen Worten können die in dem Bild abgebildeten Kanten Kanten des abgebildeten Werkstücks sein. Die Kantenposition gibt die Lage einer Kante im Bild an.

[0020] Die Intensitäten von Bildpunkten, die dieselbe, insbesondere ebene, Fläche des Werkstücks abbilden, sind ähnlich. Mit anderen Worten weichen diese Intensitäten nur gering voneinander ab. Die an eine Kante angrenzenden Flächen eines Werkstücks werden im Bild mit unterschiedlichen Intensitäten abgebildet. Im Kantenbereich kommt es damit zu einer größeren Intensitätsänderung. Mit anderen Worten ist die Intensitätabweichung an einer Kante größer als in einem Bereich ohne Kante.

[0021] Um die Position einer Kante zu lokalisieren wird zumindest ein Bildbereich des Bildes betrachtet, in dem die Kante verläuft. Dieser Bereich kann auch als „Region-of-Interest“ (ROI) bezeichnet werden. Der Bildbereich kann beispielsweise durch einen Nutzer ausgewählt werden. Alternativ kann der Bildbereich auf Basis einer Bildanalyse bestimmt werden. Dazu können beispielsweise Bildbereiche ausgewählt werden, die große Intensitätsabweichungen aufweisen.

[0022] Zur Lokalisierung einer Kantenposition einer Kante in dem Bildbereich wird zunächst für jeden Bildpunkt ein Bildgradient bestimmt. Der Bildgradient gibt an, wie sich die Intensität, sprich die Helligkeit der Bildpunkte, an einem Ort eines Bildpunkts zu umliegenden Bildpunkten ändert. Der Bildgradient bestimmt sich insbesondere aus einer Änderung der Helligkeit zu umliegenden Bildpunkten. Der Bildgradient ist somit der Gradient des Intensitätsfelds eines Bildes und kann mittels der Formel [G x , G y ] = Vcp(x,y) beschrieben werden. Beispielsweise kann zur Berechnung des Gradienten eine finite-Differenzen Approximation des Ableitungsoperators verwendet werden. Der Bildgradient ist somit ein Vektor, der die Intensitätsänderung an einem Bildpunkt, sprich an einem Ort (x,y) des Bildes, angibt. Der Bildgradient hat eine Richtung, die die Richtung der größten Intensitätsänderung an diesem Ort angibt, und einen Gradientenwert G = JG + G , der den Betrag des Vektors angibt und einem Maß für die Stärke der Intensitätsänderung entspricht.

[0023] Der Bildgradient kann basierend auf dem Bild oder dem gesamten oder einem Teil des Fokalbildstapels des Bereichs des Werkstücks für jeden Punkt bestimmt werden. Dazu wird für jeden Bildpunkt ein Bildgradient berechnet. Hierfür kann im Bildbereich die numerische Approximation des Bildgradienten

[G x , G y ] = [ö x rp(x,y), ö y (p(x,y)] beispielsweise durch direktionale Sobelfilter oder numerische Finite-Differenzen Ableitungsverfahren ermittelt werden.

[0024] Um Einflüsse durch Bildrauschen zu unterdrücken ist es besonders vorteilhaft die Bildgradienten als gewichtete Mittelung über mehrere Bilder aus einem Fokalbildstapel zu errechnen, d.h.

[0025] Mit anderen Worten gibt der Bildgradient [G x , G y ] an, wie sich die Helligkeit zu umliegenden Bildpunkten ändert. Der Bildgradient [G x , G y ] an einem Bildpunkt ist somit ein Vektor der in die Richtung der größten Helligkeitsänderung zeigt.

[0026] Die bestimmten Bildgradienten bilden gemeinsam eine Bildgradientenkarte. Die Bildgradientenkarte enthält somit für jeden Bildpunkt einen Bildgradienten [G x , G y ], Mit anderen Worten ordnet die Bildgradientenkarte jeder Bildpunktposition [x,y] einen entsprechenden Bildgradienten [G x , G y ] zu.

[0027] Grundsätzlich hat eine Kante in dem Bildbereich einen Kantenverlauf. Der Kantenverlauf beschreibt den Verlauf der Kante in der x-y-Ebene. Der Kantenverlauf beschreibt somit eine Kurve in der x-y-Ebene. Der Kantenverlauf kann auch als Kantengeometrie bezeichnet werden. Jeder Punkt der Kante weist eine Kantentangente und eine Kantennormale auf. Die Kantentangente ist eine Tangente an die Kante in dem jeweiligen Punkt. Die Kantennormale ist eine Normale an die Kante in dem jeweiligen Punkt. Die Kantentangente und die Kantennormale liegen in der x-y-Ebene. Die Kantentangente verläuft in einer tangentialen Richtung zur Kante. Die tangentiale Richtung beschreibt an dem jeweiligen Punkt der Kante die Richtung der Tangente an die Kante in der x-y Ebene. Die tangentiale Richtung beschreibt somit die Richtung des Kantenverlaufs an dem jeweiligen Punkt. Die tangentiale Richtung kann auch als Kantenverlaufsrichtung bezeichnet werden. Die Kantennormale verläuft in einer Normalen-Richtung zur Kante. Die Normalen-Richtung beschreibt an dem jeweiligen Punkt der Kante die Richtung der Normalen zu der Kante in der x-y Ebene. In jedem Punkt sind die Normalen-Richtung und die Kantenverlaufsrichtung senkrecht zueinander.

[0028] Der Kantenverlauf kann beliebig gekrümmt sein. Unter „gekrümmt“ ist die lokale Abweichung einer Kurve von einer Gerade zu verstehen. Gekrümmt bedeutet somit nicht linear. Bei einem linearen, sprich nicht gekrümmten, Kantenverlauf sind die Normalenrichtung und die Kantenverlaufsrichtung für alle Punkte der Kante gleich. Bei einem gekrümmten Kantenverlauf ändert sich die Richtung des Kantenverlaufs, sprich die Kantenverlaufsrichtung, in der x-y-Ebene entlang des Kantenverlaufs, sprich wenn man dem Kantenverlauf folgt. Entsprechend ändert sich bei einem gekrümmten Kantenverlauf auch die Normalen-Richtung entlang des Kantenverlaufs.

[0029] Der Kantenverlauf der Kante kann anhand eines Modells eines gekrümmten Kantenverlaufs modelliert bzw. beschrieben werden. Der modellierte, gekrümmte Kantenverlauf dient somit zur Beschreibung bzw. Approximation des tatsächlichen Kanterverlaufs der Kante. Der modellierte, gekrümmte Kantenverlauf hat mindestens einen Kantenparameter, der zur Beschreibung des Kantenverlaufs anhand des zugrundeliegenden Modells dient. Mit anderen Worten weist der modellierte, gekrümmte Kantenverlauf einen oder mehrere Kantenparameter auf. Insbesondere kann der modellierte, gekrümmte Kantenverlauf mehr als einen Kantenparameter aufweisen.

[0030] Mittels des mindestens einen Kantenparameters kann somit der Kantenverlauf der Kante beschrieben bzw. modelliert werden. Der Kantenparameter kann beispielsweise ein Parameter oder mehrere Parameter sein, mittels denen die Kantenverlaufsrichtung, die Normalen-Richtung und/oder die Krümmung des Kantenverlaufs beschrieben wird. Der Kantenverlauf kann vorzugsweise mittels einer beliebigen Funktion beschrieben werden, wobei jeder Kantenparameter ein Parameter der Funktion sein kann. Bei konstanter Krümmung kann der Kantenparameter beispielsweise die Lage des Krümmungszentrums angeben. [0031] Wie zuvor erläutert ändert sich im Bereich der Kante die Intensität. Die Intensitätsänderung verläuft dabei im Wesentlichen senkrecht zum Kantenverlauf, sprich in Normalen-Richtung. Mit anderen Worten sind die Bildgradienten im Kantenbereich im Wesentlichen in Normalen-Richtung zur Kante ausgerichtet. Mittels des modellierten, gekrümmten Kantenverlaufs und der bestimmten Bildgradienten kann somit der mindestens eine Kantenparameter bestimmt werden.

[0032] Der bestimmte zumindest eine Kantenparameter wird dann dazu verwendet eine Projektion der Bildpunkte des Bildbereichs entlang des Kantenverlaufs, sprich entlang der Kantenverlaufsrichtung, auf die Normalen-Richtung durchzuführen. Dabei wird jedem Bildpunkt eine Position in Normalen-Richtung zugeordnet. Mit anderen wird mit der Projektion die Lage jedes Bildpunkts relativ zu der Kante bestimmt.

[0033] Auf Basis dieser Projektion wird dann ein Kantenprofil bestimmt bzw. konstruiert. Das Kantenprofil kann auch als Kantenübertragungsprofil oder Kantenübertragungsfunktion („Edge-Spread-Function“) bezeichnet werden. Das Kantenprofil ist ein Intensitätsprofil. Das Intensitätsprofil gibt die Intensität jedes Bildpunktes an der jeweiligen Position in der Normalen-Richtung an. Das Kantenprofil gibt somit eine Intensitätsverteilung bzw. einen Intensitätsverlauf in der Normalen-Richtung an. Mit anderen Worten beschreibt das Kantenprofil die Intensitätsverteilung relativ zu der Kante. Man spricht in diesem Zusammenhang auch von einem überaufgelösten Kantenprofil.

[0034] Auf Basis dieses bestimmten Kantenprofils kann dann die Kantenposition der Kante bestimmt werden. Im Kantenbereich ändert sich die Intensität der Bildpunkte normalerweise am stärksten. Beispielsweise kann als Kantenposition die Position in der Normalen- Richtung bestimmt werden, an der das Kantenprofil die größte Änderung bzw. Steigung aufweist. Alternativ wird als Kantanposition häufig der Schwellwert definiert an dem der Kantenkontrast 50 % erreicht. Mit anderen Worten entspricht dies der Kantenposition in dem der Intensitäts- bzw. Grauwert dem Mittelwert aus maximalem & minimalem Intensi- täts- bzw. Grauwert entspricht der Kantenübertragungsfunktion. [0035] Gemäß einem zweiten Aspekt der Erfindung wird ein Verfahren zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe bereitgestellt, wobei das Bild einen Bereich einer Oberfläche eines Werkstücks abbildet, mit den folgenden Schritten:

Erfassen einer Mehrzahl von Bildern des Bereichs der Oberfläche des Werkstücks mittels des optischen Sensors, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks mit in der Tiefenrichtung unterschiedlichen, definierten Fokalebenenpositionen abbilden, und wobei die erfassten Bilder einen Fokalbildstapel bilden;

Erzeugen des Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung basierend auf dem Fokalbildstapel; und

Lokalisieren einer Kantenposition einer Kante in einem Bildbereich des Bildes mit erweiterter Schärfentiefe mittels des Verfahrens nach dem ersten Aspekt der Erfindung.

[0036] Gemäß einem dritten Aspekt der Erfindung wird ein Messgerät, insbesondere ein Koordinatenmessgerät oder ein Mikroskop, wobei das Messgerät einen Werkstückhalter für ein Werkstück, einen optischen Sensor und eine Steuereinrichtung aufweist, wobei der optische Sensor dazu ausgebildet ist, Bilder eines Bereichs einer Oberfläche des Werkstücks zu erfassen, wobei der optische Sensor und das Werkstück in einer Tiefenrichtung voneinander beabstandet sind, wobei die Steuereinrichtung dazu eingerichtet ist, die folgenden Schritte durchzuführen:

Steuern des optischen Sensors derart, dass eine Mehrzahl von Bildern eines Bereichs der Oberfläche des Werkstücks mittels des optischen Sensors erfasst wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks mit in der Tiefenrichtung unterschiedlichen, definierten Fokalebenenpositionen abbilden, und wobei die erfassten Bilder einen Fokalbildstapel bilden; Erzeugen eines Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung basierend auf dem Fokalbildstapel; und

Lokalisieren von zumindest einer Kantenposition einer Kante in einem Bildbereich des Bildes mit erweiterter Schärfentiefe mittels des Verfahrens nach dem ersten Aspekt der Erfindung.

[0037] Gemäß einem vierten Aspekt der Erfindung wird ein Computerprogrammprodukt mit einem Computerprogramm bereitgestellt, das Programmcodemittel zur Durchführung eines Verfahrens nach dem ersten Aspekt der Erfindung aufweist, wenn das Computerprogramm auf einem Messgerät ausgeführt wird. Des Weiteren kann auch ein Computerprogrammprodukt bereitgestellt sein, das Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Schritte des Verfahrens nach dem ersten Aspekt der Erfindung auszuführen.

[0038] Vorteilhafterweise wird das neue Verfahren unter Verwendung einer Verarbeitungseinheit oder einer Steuereinrichtung implementiert, die ein Mehrzweckcomputer oder ein Spezialcomputer sein kann, wobei ein angemessenes Computerprogramm oder Computerprogrammprodukt gespeichert und ausgeführt wird, wobei das Computerprogramm oder das Computerprogrammprodukt zum Lokalisieren einer Kantenposition einer Kante in einem Bildbereich eines Bildes bzw. zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe gemäß den zuvor genannten Verfahren gestaltet und ausgebildet ist.

[0039] Unter einem Werkstück ist ein Objekt, insbesondere ein Messobjekt, zu verstehen, dass vermessen wird. Das Werkstück weist eine Oberfläche auf. Bilder eines Bereichs der Oberfläche können mit einem optischen Sensor eines Messgeräts erfasst werden. Das Messgerät kann insbesondere ein Koordinatenmessgerät oder ein Mikroskop sein. Der optische Sensor kann beispielsweise einen Bildsensor und ein optisches System aufweisen. Der Bildsensor kann beispielsweise ein ladungsgekoppelter Halbleiterelementsensor sein, der auch CCD (charge-couple device) Sensor genannt wird. Der CCD Sensor kann ein monochromer Sensor oder ein Farbsensor sein. Das optische System kann den Bereich der Oberfläche des Werkstücks auf dem Bildsensor abbilden. Das optische System kann insbesondere ein zumindest objektseitig telezentrisches Objektiv aufweisen.

[0040] Ein mit dem optischen Sensor erfasstes Bild hat eine Mehrzahl von Bildpunkten. Jeder Bildpunkt bildet einen Objektpunkt des Bereichs der Oberfläche des Werkstücks ab. Die Anzahl der Bildpunkte entspricht somit der Anzahl der abgebildeten Objektpunkte. Derzeitige optische Sensoren können Auflösungen von mehreren Megapixeln haben. Die Anzahl der Bildpunkte eines erfassten Bildes und entsprechend auch die Anzahl der abgebildeten Objektpunkte entsprechen der Anzahl der Pixel des optischen Sensors. Die erfassten Bilder können somit mehrere Millionen an Bildpunkten aufweisen.

[0041] Während des Erfassens der Bilder wird die Fokalebenenposition des optischen Sensors in einer Tiefenrichtung relativ zu dem Werkstück verändert, um jedes Bild mit einer unterschiedlichen, definierten Fokalebenenposition zu erfassen.

[0042] Vorzugsweise sind der optische Sensor und das Werkstück in der Tiefenrichtung relativ zueinander bewegbar, so dass ein Abstand in der Tiefenrichtung zwischen dem Werkstück und dem optischen Sensor veränderbar ist. Beispielsweise kann das Messgerät eine Antriebseinrichtung aufweisen, die dazu ausgebildet ist, den optischen Sensor und das Werkstück in der Tiefenrichtung relativ zueinander zu bewegen. Während des Erfassens der Bilder kann dann der Abstand des optischen Sensors zu dem Werkstück in der Tiefenrichtung verändert werden, um die Fokalebenenposition für jedes Bild zu verändern. Die Tiefenrichtung kann eine Z-Richtung eines kartesischen Koordinatensystems sein, wobei die erfassten Bilder eine Abbildung des Bereichs der Oberfläche des Werkstücks in der X- und Y-Richtung sind. Mit anderen Worten ist die Abbildung der Bilder senkrecht zu der Tiefenrichtung. Die Bilder werden dabei in unterschiedlichen, definierten Abständen zu dem Werkstück aufgenommen. „Definiert“ bedeutet in diesem Zusammenhang, dass die Abstände, in denen die Bilder erfasst werden, im Voraus festgelegt und somit bekannt sind. Beispielsweise können die Bilder in 50pm Schritten aufgenommen werden.

[0043] Da die Bilder aus unterschiedlichen Abständen zu dem Werkstück aufgenommen werden, variiert die Fokalebene bzw. die Ebene größter Schärfe des optischen Sensors zwischen den Bildern. Die optische Einstellung des optischen Sensors, insbesondere der Fokusabstand des Objektivs, kann dabei konstant bleiben. Jedes Bild ist mit einer anderen Fokalebene erfasst. Die Bilder bilden somit gemeinsam einen Fokalbildstapel. Jedem Bild des Fokalbildstapels ist ein definierter Abstand zugeordnet. Der Abstand eines Bildes entspricht einem Tiefenwert in der Tiefenrichtung, insbesondere einer Z-Position in der Z- Richtung. Mit anderen Worten bilden die erfassten Bilder jeweils den Bereich der Oberfläche des Werkstücks aus unterschiedlichen, definierten Abständen zu dem Werkstück in einer Tiefenrichtung ab, wobei jedem Bild des Fokalbildstapels ein Abstand zugeordnet ist.

[0044] Alternativ kann während des Erfassens der Bilder die Änderung der Fokalebenenposition durch ein Nachfokussieren der Optik bzw. ein Verändern des Fokusabstands des Objektivs des optischen Sensors erreicht werden. Das heißt man ordnet jeder Fokuseinstellung am Objektiv einen entsprechenden Abstand des optischen Sensors zu der eingestellten Fokalebene in der Tiefenrichtung zu. Auf diese Weise kann die Fokalebene bzw. die Ebene größter Schärfe des optischen Sensors auf optischem Weg zwischen den Bildern variiert werden, um den Fokalbildstapel zu bilden. Der Abstand zwischen dem Werkstück und dem optischen Sensor kann dann konstant bleiben.

[0045] Jedes Bild weist die gleiche Anzahl an Bildpunkten auf. Jeder Bildpunkt eines Bildes bildet einen entsprechenden Objektpunkt des Werkstücks aus dem Bereich der Oberfläche des Werkstücks ab. Jeder Bildpunkt eines Bildes ist somit einem entsprechenden Objektpunkt auf der Oberfläche des Werkstücks zugeordnet. Ein Objektpunkt kann auch als Messpunkt bezeichnet werden. Jeder Objektpunkt auf der Oberfläche des Werkstücks weist eine Position in dem kartesischen Koordinatensystem auf, insbesondere eine X-Position in der X-Richtung, eine Y-Position in der Y-Richtung und eine Z-Position in der Z- Richtung. Die Z-Position in der Z-Richtung kann auch als Tiefenwert in der Tiefenrichtung bezeichnet werden. Da die erfassten Bilder jeweils denselben Bereich der Oberfläche des Werkstücks abbilden, sind die Bildpunkte der Bilder denselben Objektpunkten zugeordnet. Insbesondere sind die Bildpunkte der Bilder mit denselben X- und Y-Koordinaten demselben Objektpunkt zugeordnet. Dies bedeutet, dass jedem Objektpunkt aus jedem Bild jeweils ein Bildpunkt zugeordnet ist. [0046] Auf Basis des aufgenommenen Fokalbildstapels wird dann ein Bild mit erweiterter Schärfentiefe in der Tiefenrichtung erzeugt. Dazu werden die fokussierten Bereiche der einzelnen Bilder des Fokalbildstapels zu einem scharfen Gesamtbild zusammengesetzt. Wie zuvor bereits erläutert, ist ein Objektpunkt scharf abgebildet, wenn er beim Aufnehmen des Bildes in der Fokalebene liegt. Mit anderen Worten ist jeder Objektpunkt in einer bestimmten Fokalebenenposition am schärfsten abgebildet. Die Fokalebenenposition, in der ein Objektpunkt am schärfsten abgebildet ist, lässt sich anhand der Bilder des aufgenommen Fokalbildstapels ermitteln. Das Bild mit erweiterter Schärfentiefe kann sich dann beispielweise aus den Bildpunkten der Bilder des Fokalbildstapels zusammensetzten, die die Objektpunkte am schärfsten abbilden. Das Bild mit erweiterter Schärfentiefe kann auch Messaufnahme genannt werden. Die beschriebene Vorgehenswiese zum Erzeugen eines Bildes mit erweiterter Schärfentiefe führt somit zu einer Messaufnahme in der besten Einstellebene.

[0047] Die Antriebseinrichtung des Messgeräts kann den Abstand zwischen dem Werkstück und dem optischen Sensor einstellen. Dazu kann die Antriebseinrichtung den Werkstückhalter und/oder den optischen Sensor in der Tiefenrichtung bewegen. Die Antriebseinrichtung kann beispielsweise einen Piezo-elektrischen Antrieb, einen Direktantrieb oder einen Spindelantrieb aufweisen. Ein Spindelantrieb ist besonders geeignet, da dieser eine hohe Auflösung hat, große Lasten bewegen kann und einen großen Erfassungsbereich in der Tiefenrichtung aufweist.

[0048] Die Antriebseinrichtung und der optische Sensor können mittels der Steuereinrichtung des Messgeräts gesteuert werden. Dazu kann die Steuereinrichtung beispielsweise eine Regelungseinheit aufweisen, die Steuerbefehle an den optischen Sensor und die Antriebseinrichtung schicken kann. Die Berechnungsschritte zum Erzeugen des korrigierten Bildes mit erweiterter Schärfentiefe können ebenfalls mittels der Steuereinrichtung des Messgeräts durchgeführt werden. Dazu kann die Steuereinrichtung beispielsweise eine Datenverarbeitungseinheit aufweisen, die die Schritte zum Erzeugen des korrigierten Bildes mit erweiterter Schärfentiefe durchführt.

[0049] Die im Stand der Technik bekannte „Slanted-Edge-Method“ besitzt einen zentralen Nachteil. Sie beruht auf der Annahme, dass innerhalb des untersuchten Bildbereichs (Rol) eine gerade Kante verläuft, und die Kanteninformation orthogonal gegenüber der Kantennormalen projiziert werden kann. Mit anderen Worten approximiert die Slanted-Edge- Methode eine beliebige geformte Kantengeometrie im Sinne einer ersten Taylornäherung durch eine lineare Funktion, d.h. mit einer Geraden. Jedoch werden häufig innerhalb messtechnischer Untersuchungen keine geraden, sondern runde bzw. beliebig gekrümmte Kantenprofile vermessen und die entsprechenden Annahmen der „Slanted-Edge- Method“ sind verletzt.

[0050] Die vorliegende Erfindung stellt ein Verfahren bereit, welches die Limitierungen der Slanted-Edge-Methode gezielt adressieren und umgehen kann. Hierfür wird der Kantenverlauf anstelle einer Geraden mit einem beliebig gekrümmten Verlauf (beispielsweise einem Kreisbogen) approximiert. Mit anderen Worten erlaubt das vorgeschlagene Verfahren, im Gegensatz zur Slanted-Edge-Methodik, die Approximation des lokalen Kantenprofils innerhalb des Bildbereichs (Rol) mit Hilfe einer verbesserten Taylornäherung in zweiter oder höherer Ordnung anstelle einer ungenaueren Taylornäherung erster Ordnung.

[0051] Dies ermöglicht die allgemeinen Vorteile der Slanted-Edge-Methodik zur Kantenlokalisierung in seiner Anwendbarkeit gezielt auf für die Messtechnik häufig relevanten runden bzw. beliebig gekrümmten Kanten zu erweitern. Auf diese Weise kann die Kantenposition von Kanten, insbesondere solcher mit gekrümmten Kantenverlauf, in einem Bild mit erweiterter Schärfentiefe besser, insbesondere genauer, bestimmt werden.

[0052] Die eingangs gestellte technische Aufgabe wird somit vollumfänglich gelöst.

[0053] In einer ersten Ausgestaltung des ersten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

Filtern der Bildgradientenkarte, wobei die Bildgradienten verworfen werden, die unterhalb eines definierten Schwellwerts liegen. [0054] Insbesondere werden die Bildgradienten verworfen, deren Gradientenwerte G unterhalb eines definierten Schwellwerts liegen. Wie bereits erläutert, ändert sich die Intensität der Bildpunkte im Kantenbereich stärker als auf ebenen Bereichen bzw. Flächen. Im Schritt des Filterns werden daher alle kleinen Bildgradienten verworfen. Auf diese Weise können Bildgradienten von Bildpunkten verworfen werden, die nicht im Kantenbereich liegen. Dadurch wird die Bildgradientenkarte auf die Bildgradienten derjenigen Bildpunkte reduziert, die im Kantenbereich liegen, sprich nahe an oder auf der Kante.

[0055] In einer weiteren Ausgestaltung des ersten Aspekts ist der mindestens eine Kantenparameter ein oder mehrere Parameter eines Kantenverlaufsmodells zur Beschreibung des Kantenverlaufs, wobei der mindestens eine Kantenparameter auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird.

[0056] Das Kantenverlaufsmodell dient zur Beschreibung bzw. Approximation des tatsächlichen Kanterverlaufs der Kante. Mit anderen Worten ist der gekrümmte Kantenverlauf mittels des Kantenverlaufsmodells modelliert. Der modellierte, gekrümmte Kantenverlauf wird somit mittels des Kantenverlaufsmodells beschrieben, wobei der mindestens eine Kantenparameter ein oder mehrere Parameter des Kantenverlaufsmodells sind und zur Beschreibung des Kantenverlaufs anhand des zugrundeliegenden Kantenverlaufsmodells dienen. Das Kantenverlaufsmodell beschreibt bzw. modelliert somit den gekrümmten Kantenverlauf. Anhand des Kantenverlaufsmodells und der Bildgradientenkarte kann dann der mindestens eine Kantenparameter bestimmt werden. Insbesondere sind aus der Bildgradientenkarte die Bildgradienten [G x , G y ] an Bildpunktpositionen [x,y] bekannt. Auf Basis dieser bekannten Größen und des Kantenverlaufsmodells kann dann der mindestens eine Kantenparameter bestimmt werden.

[0057] In einer weiteren Ausgestaltung des ersten Aspekts wird der mindestens eine Kantenparameter durch Ausgleichsrechnung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt, insbesondere wobei zur Ausgleichsrechnung die Methode der kleinsten Quadrate verwendet wird. [0058] Durch Einsetzen der bekannten Größen aus der Bildgradientenkarte, sprich der Bildgradienten [G x , G y ] an Bildpunktpositionen [x,y], in das Kantenverlaufsmodell erhält man ein überbestimmtes Gleichungssystem. Dieses Gleichungssystem kann dann mittels Ausgleichsrechnung gelöst werden. Zur Ausgleichsrechnung kann insbesondere die Methode der kleinsten Quadrate verwendet werden.

[0059] In einer weiteren Ausgestaltung des ersten Aspekts wird der Kantenparameter durch Optimierung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt, insbesondere wobei zur Optimierung das Kantenverlaufsmodell hinsichtlich der lokalen Kantenrauheit minimiert wird.

[0060] Die Kantenrauheit ist eine Kantenrauheit des Kantenprofils. Die Kantenrauheit beschreibt die lokale Abweichung der Intensitätswerte in einem Kantenprofil. Wie eingangs bereits erläutert, wird das Kantenprofil unter Verwendung des zumindest einen Kantenparameters erzeugt. Mit anderen Worten wird das Kantenprofil unter Verwendung von einem oder mehreren Kantenparametern erzeugt. Damit hängt die Kantenrauheit letztendlich von dem bestimmten Wert jedes der ein oder mehreren Kantenparametern ab. Umso mehr jeder Kantenparameter von seinem tatsächlichen Wert abweicht, umso größer ist die Rauigkeit des erzeugten Kantenprofils. Die Kantenrauheit kann beispielsweise durch einen Vergleich zwischen einem tiefpassgefilterten Kantenprofil und einem ungefilterten Kantenprofil bestimmt werden. Mittels eines Optimierungsalgorithmus kann dann der mindestens eine Kantenparameter durch Minimierung der Kantenrauheit bestimmt werden. Mit anderen Worten wird der zu bestimmende Kantenparameter derart optimiert, dass die Kantenrauheit des Kantenprofils minimal wird.

[0061] Beispielsweise kann hierzu zunächst ein initialer Wert für jeden Kantenparameter des Kantenverlaufsmodells gesetzt werden. Der initiale Wert jedes Kantenparameters kann grundsätzlich ein beliebiger Wert sein. Vorzugsweise ist der initiale Wert ein erster, grober Schätzwert für den jeweiligen Kantenparameter. Für den initialen Wert jedes Kantenparameters kann dann die Kantenrauheit des entsprechenden Kantenprofils bestimmt werden. Durch Optimierung des Werts jedes Kantenparameters kann dann der zumindest eine Kantenparameter mit minimaler Kantenrauheit des Kantenprofils bestimmt werden. Dazu könnte beispielsweise die Methode der simulierten Abkühlung („Simulated Annealing“) verwendet werden. Insbesondere kann der initiale Wert jedes Kantenparameters, wie zuvor bereits erläutert, durch Ausgleichsrechnung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt werden.

[0062] In einer weiteren Ausgestaltung des ersten Aspekts wird als Kantenverlaufsmodell eine Polynomfunktion verwendet, insbesondere wobei die Polynomfunktion ein Polynom mindestens zweiten Grades ist

[0063] Mit anderen Worten ist die Polynomfunktion ein Polynom zweiten oder höheren Grades. Eine Polynomfunktion kann auch polynomiale Funktion genannt werden. Die Polynomfunktion kann beispielsweise durch eine Taylorreihe beschrieben werden. Grundsätzlich kann mit einem Polynom ersten Grades (beispielsweise einer Taylornäherung ersten Grades) nur ein linearer Kantenverlauf modelliert werden. Ein Polynom mindestens zweiten Grades erlaubt auch die Beschreibung, sprich Modellierung, von gekrümmten Kanten. Auf diese Weise kann die Lage einer gekrümmten Kante sehr genau bestimmt werden.

[0064] In einer weiteren Ausgestaltung des ersten Aspekts weist der gekrümmte Kantenverlauf eine konstante Krümmung auf, wobei der mindestens eine Kantenparameter das Krümmungszentrum des Kantenverlaufs mit konstanter Krümmung definiert, insbesondere wobei die Projektion eine Projektion der Bildpunkte auf eine radiale Richtung bezüglich des Krümmungszentrums ist.

[0065] Konstante Krümmung bedeutet, dass die die Krümmung kreisförmige ist. Eine Kurve die konstante Krümmung aufweist, hat ein Krümmungszentrum. Das Krümmungszentrum kann auch Krümmungsmittelpunkt genannt werden. Insbesondere hat jeder Punkt einer derartigen Kurve zu dem Krümmungszentrum den gleichen Abstand. Mit anderen Worten ist die Kurve um das Krümmungszentrum gekrümmt. Ein gekrümmter Kantenlauf mit konstanter Krümmung ist somit ebenfalls um ein Krümmungszentrum gekrümmt. Insbesondere weist der mindestens eine Kantenparameter die Koordinaten [x 0 ,y 0 ] des Krüm- mungszentrums auf. Das Kantenverlaufsmodells für konstante Krümmung mittels zweier Gleichungen beschrieben werden:

[0066] Dabei sind x,y, G x , G y bekannte Größen aus der Bildgradientenkarte und x 0 ,y 0 ,p zu bestimmende unbekannte Größen.

[0067] Das Kantenverlaufsmodell kann zu folgender Gleichung vereinfacht werden:

(x - xo)G y = (y - y 0 )G x

[0068] Auf Basis dieses Kantenverlaufsmodells und der bekannten Größen aus der Bildgradientenkarte können dann die Koordinaten [x 0 ,y 0 ] des Krümmungszentrums bestimmt werden. Insbesondere können die Werte x,y, G x , G y jedes Bildpunkts aus der Bildgradientenkarte in das Modell eingesetzt werden. Dadurch erhält man ein überbestimmtes Gleichungssystem. Das überbestimmte Gleichungssystem kann dann, wie zuvor beschrieben, durch Ausgleichsrechnung, insbesondere mittels der Methode der kleinsten Quadrate, gelöst werden, um die Koordinaten [x 0 ,y 0 ] des Krümmungszentrums zu bestimmen.

[0069] Bezüglich des Krümmungszentrums sind eine radiale Richtung und eine dazu senkrecht verlaufende tangentiale Richtung definiert. Die tangentiale Richtung kann auch als Umlaufrichtung um das Krümmungszentrum bezeichnet werden. Bezüglich des Kantenverlaufs mit konstanter Krümmung entspricht die radiale Richtung demnach der Norma- len-Richtung und die tangentiale Richtung der Kantenverlaufsrichtung. Mit anderen Worten verläuft der Kanterverlauf entlang der tangentialen Richtung bezüglich des Krümmungszentrums. Die Projektion ist somit eine Projektion entlang der tangentialen Richtung bezüglich des Krümmungszentrums auf bzw. in die radiale Richtung bezüglich des Krümmungszentrums. Mit anderen Worten wird zur Projektion daher jedem Bildpunkt im Bildbereich ein radialer Abstand r = (x - x 0 ) 2 + (y - y 0 ) 2 zum Krümmungszentrum zugeordnet. Das Kantenprofil wird dann basierend auf dieser Projektion bestimmt. Das Kantenprofil gibt somit die Intensitätsverteilung I (r) der Bildpunkte in der radialen Richtung bezüglich des Krümmungszentrums an.

[0070] Alternativ können die Koordinaten [x 0 ,y 0 ] des Krümmungszentrums auch, wie zuvor beschrieben, durch Optimierung insbesondere durch Minimierung hinsichtlich der lokalen Kantenrauheit, bestimmt werden. Ist die Lage des Krümmungszentrums gegenüber der tatsächlichen Lage, insbesondere gegenüber seinem Nominalwert, verschoben, weist das extrahierte Kantenprofil eine höhere Kantenrauigkeit auf. Durch Optimierung können dann Koordinaten für das Krümmungszentrum bestimmt werden, für die die Kantenrauigkeit des entsprechenden Kantenprofils minimal ist.

[0071] Auf diese Weise kann die Lage einer gekrümmten Kante genau und einfach bestimmt werden.

[0072] In einer weiteren Ausgestaltung des ersten Aspekts wird in dem Schritt des Bestimmens der Kantenposition die Kantenposition auf Basis eines Wendepunkts des Kantenprofils bestimmt.

[0073] Insbesondere kann als Kantenposition die Position bestimmt werden, an der das Kantenprofil die größte Änderung bzw. Steigung aufweist. Mit anderen Worten können insbesondere ableitungsbasierte Verfahren verwendet werden, welche Punkte maximaler Steigung bzw. Wendepunkte des Kantenprofils analysieren (bspw. Canny-Edge- Verfahren). Wie zuvor erläutert, gibt es an einem Kantenübergang eine Intensitätsänderung. Insbesondere ändert sich die Intensität der Bildpunkte im Kantenbereich stärker als auf den angrenzenden Flächen. Die Kantenposition der Kante in der Normalen-Richtung entspricht dann der Position in der Normalen-Richtung, an der das Kantenprofil die größte Steigung bzw. Änderung in der Intensität hat. Diese Position kann auch als Wendepunkt des Kantenprofils bezeichnet werden. Der Wendepunkt ist somit ein globales Extremum, insbesondere Maximum, der ersten Ableitung des Kantenprofils. Insbesondere kann zur Bestimmung des Wendepunkts zunächst eine Funktion an das bestimmte Kantenprofil gefittet bzw. eingepasst werden. Dann kann der Wendepunkt dieser Funktion bestimmt werden. Die Position des Wendepunkts wird dann als Kantenposition der Kante bestimmt.

[0074] In einer weiteren Ausgestaltung des ersten Aspekts wird in dem Schritt des Bestimmens der Kantenposition die Kantenposition auf Basis eines Erreichens eines definierten Schwellwertes des Kantenprofils bestimmt.

[0075] Mit anderen Worten können beispielsweise Schwellwertverfahren verwendet werden, um die Kantenposition zu bestimmen. Hierbei, wird als Kantenposition ein Schwellwert definiert an dem der Kanten kontrast diesen Schwellwert erreicht. Ein zumeist verwendeter Schwellwert entspricht einem Kantenkontrast von 50%. Mit anderen Worten entspricht die Kantenposition in diesem Fall der Position an dem der Intensitäts- bzw. Grauwert dem Mittelwert aus maximalem & minimalem Intensitäts- bzw. Grauwert der Kantenübertragungsfunktion entspricht. Insbesondere kann zur Bestimmung der Kantenposition zunächst eine Funktion an das bestimmte Kantenprofil gefittet bzw. eingepasst werden. Dann kann das Argument dieser Funktion bestimmt werden, an dem die Funktion den definierten Kantenkontrast bzw. Schwellwert erreicht. Das bestimmte Argument entspricht dann der Kantenposition.

[0076] In einer weiteren Ausgestaltung des ersten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

Empfangen des Bildes mit erweiterter Schärfentiefe.

[0077] Das Bild mit erweiterter Schärfentiefe kann beispielsweise mittels eines Messgeräts oder einer anderen geeigneten Vorrichtung aufgenommen werden. Dann wird das Bild mit erweiterter Schärfentiefe empfangen, so dass auf Basis des empfangenen Bildes die Kantenlokalisierung durchgeführt werden kann. [0078] In einer weiteren Ausgestaltung des ersten Aspekts bildet das Bild mit erweiterter Schärfentiefe einen Bereich einer Oberfläche eines Werkstücks ab, wobei das Verfahren des Weiteren die folgenden Schritte aufweist:

Empfangen eines Fokalbildstapels, wobei der Fokalbildstapel eine Mehrzahl von Bildern des Werkstücks aufweist, wobei die Bilder den Bereich der Oberfläche des Werkstücks mit in einer Tiefenrichtung unterschiedlichen, definierten Fokalebenenpositionen abbilden, wobei jedem Bild des Fokalbildstapels eine Fokalebenenposition zugeordnet ist; und

Erzeugen des Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung basierend auf dem Fokalbildstapel.

[0079] Anstatt das Bild mit erweiterter Schärfentiefe schon erzeugt zu empfangen, kann das Bild mit erweiterter Schärfentiefe auch in dem Verfahren direkt erzeugt werden. Wie zuvor bereits erläutert, kann auf Basis des Fokalbildstapels das Bild mit erweiterter Schärfentiefe erzeugt werden, das einen Bereich einer Oberfläche des Werkstücks abbildet. In diesem erzeugten Bild kann dann eine Kantenposition einer Kante in einem Bildbereich des Bildes lokalisiert werden.

[0080] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts sind die Bildpunkte der Bilder des Fokalbildstapels jeweils einem entsprechendem Objektpunkt auf der Oberfläche des Werkstücks zugeordnet, wobei das Verfahren des Weiteren die folgenden Schritte aufweist:

Bestimmen eines Schärfewerts jedes Bildpunkts jedes Bildes des Fokalbildstapels;

Bestimmen eines Tiefenwerts jedes Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung basierend auf den bestimmten Schärfewerten, wobei in dem Schritt des Erzeugens das Bild mit erweiterter Schärfentiefe basierend auf den ermittelten Tiefenwerten und dem Fokalbildstapel erzeugt wird. [0081] Für jeden Bildpunkt wird ein Schärfewert bestimmt. Der Schärfewert kann auch Fokuswert genannt werden. Der Schärfewert gibt ein Maß an, wie scharf der jeweilige Bildpunkt dargestellt ist. Zur Bestimmung des Schärfewerts kann beispielsweise die Helligkeit, ein Kontrast- Wert oder ein Grau-Wert eines Bildpunkts betrachtet werden. Insbesondere kann zur Bestimmung des Fokuswerts ein Gradient der Helligkeit, des Kontrast-Werts oder des Grau-Werts zu den umliegenden Bildpunkten bestimmt werden. Umso größer der Gradient ist, umso schärfer ist der Bildpunkt und umso größer ist der Fokuswert. Die Schärfewerte werden in einer 3D-Schärfematrix gespeichert.

[0082] Um den Tiefenwert eines Objektpunkts zu bestimmen, werden die jeweiligen Bildpunkte des Fokalbildstapels gemeinsam betrachtet, die dem entsprechenden Objektpunkt zugeordnet sind. Jeder dieser Bildpunkte ist dabei von unterschiedlichen Bildern. Somit ist jedem Bildpunkt ein anderer Abstand und dementsprechend ein anderer Tiefenwert in der Tiefenrichtung zugeordnet. Auf Basis dessen kann dann für jeden Objektpunkt ein Tiefenwert ermittelt werden, an dem der Objektpunkt am schärfsten abgebildet ist. Die Tiefenwerte aller Objektpunkte bilden eine Tiefenkarte.

[0083] Sobald für jeden Objektpunkt aus dem erfassten Bereich der Oberfläche des Werkstücks ein Tiefenwert bestimmt ist, kann das Bild mit erweiterter Schärfentiefe basierend auf den ermittelten Tiefenwerten der Objektpunkte und dem Fokalbildstapel erzeugt werden. Mit anderen Worten wird das Bild mit erweiterter Schärfentiefe basierend auf der Tiefenkarte und dem Fokalbildstapel erzeugt. Dazu kann beispielsweise für jeden Objektpunkt der Bildpunkt aus der Menge an Bildpunkten, die dem Objektpunkt zugeordnet sind, aus dem Fokalbildstapel genommen werden, dessen Tiefenwert dem ermittelten Tiefenwert des Objektpunkts am nächsten kommt. Mit anderen Worten kann für jeden Objektpunkt der Bildpunkt aus dem Fokalbildstapel genommen werden, der den Objektpunkt am schärfsten abbildet.

[0084] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf: Einpassen jeweils einer Funktion entlang der Tiefenrichtung an die Schärfewerte derjenigen Bildpunkte der Bilder, die demselben Objektpunkt zugeordnet sind, wobei der Tiefenwert jedes Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung basierend auf einem Maximum der entsprechenden, eingepassten Funktion bestimmt wird.

[0085] Zur Bestimmung des Tiefenwerts des Objektpunkts wird eine Funktion in bzw. entlang der Tiefenrichtung an die Schärfewerte der entsprechenden Bildpunkte angepasst, die dem Objektpunkt zugeordnet sind. Die Funktion kann auch als Schärfefunktion bezeichnet werden. Wie zuvor beschrieben, ist der Schärfewert maximal, wenn der Objektpunkt in der Fokalebene des optischen Sensors liegt. Wird der Abstand zu dem Werkstück verkürzt oder verlängert, nimmt der Schärfewert ab. Aus dem Maximum der eingepassten Funktion an die Schärfewerte der Bildpunkte eines entsprechenden Objektpunkts lässt sich somit der Tiefenwert des Objektpunkts bestimmen. Als Funktionen eignen sich besonders solche, die achsensymmetrisch zu einem Maximum, insbesondere zu einem globalen Maximum, sind.

[0086] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

Einpassen jeweils einer Funktion entlang der Tiefenrichtung an die Schärfewerte derjenigen Bildpunkte der Bilder, die demselben Objektpunkt zugeordnet sind, wobei der Tiefenwert jedes Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung basierend auf einem Maximum der eingepassten Funktion und einem Residuum der eingepassten Funktion bestimmt wird.

[0087] Insbesondere wird der Tiefenwert eines Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung basierend auf einem Maximum der entsprechenden, eingepassten Funktion bestimmt, wenn das Residuum der entsprechenden, eingepassten Funktion größer als ein definierter Schwellwert ist, wobei der Tiefenwert eines Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung durch Interpolation der Tiefenwerte von mindestens zwei benachbarten Objektpunkten bestimmt wird, wenn das Residuum der entsprechenden, eingepassten Funktion gleich oder kleiner als der definierte Schwellwert ist.

[0088] Das Residuum ist ein Maß dafür, wie stark die Funktion von den ermittelten Schärfewerten abweicht. Das Residuum gibt somit die Qualität des Fits an. Für jeden Objektpunkt wird eine Funktion an die entsprechenden Schärfewerte angepasst. Für diese Funktion werden das Maximum und das Residuum bestimmt. Dann wird ermittelt, ob das Residuum den Schwellwert übersteigt. Wenn das Residuum den Schwellwert nicht übersteigt, wird der Tiefenwert des entsprechenden Objektpunkts auf Basis des Maximums der Funktion bestimmt. Wenn das Residuum den Schwellwert übersteigt, wird der Tiefenwert des entsprechenden Objektpunkts durch Interpolation bestimmt. Zur Interpolation werden mindestens zwei, insbesondre alle, benachbarte Objektpunkte verwendet, für die bereits ein Tiefenwert bestimmt wurde. Auf diese Weise werden Artefakte im Bild mit erweiterter Schärfentiefe unterdrückt, die beispielsweise durch defokussierte Objektpunkte oder Streulicht hervorgerufen werden können.

[0089] Insbesondere kann zunächst für jeden Objektpunkt, für den das Residuum den Schwellwert übersteigt, der Tiefenwert auf Basis des entsprechenden Maximums der eingepassten Funktion bestimmt werden. Dann werden die Tiefenwerte der übrigen Objektpunkte, deren Residuen den Schwellwert nicht übersteigen und für die noch kein Tiefenwert bestimmt wurde, durch Interpolation der Tiefenwerte der anderen Objektpunkte, für die bereits ein Tiefenwert bestimmt wurde, bestimmt. Alternativ können zunächst für alle Objektpunkte die Tiefenwerte auf Basis der Maxima der eingepassten Funktionen festgelegt werden. Dann werden die Tiefenwerte der Objektpunkte wieder verworfen, für die das berechnete Residuum unterhalb des Schwellwerts liegt. Für die Objektpunkte, für die der Tiefenwert wieder verworfen wurde, wird dann der Tiefenwert durch Interpolation bestimmt, wie zuvor beschrieben.

[0090] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts ist die einzupassende Funktion eine Gauß-Funktion, wobei der Tiefenwert jedes Objektpunkts dem Erwartungswert, auch Median oder zentralwert genannt, der jeweiligen Gauß-Funktion entspricht. [0091] Eine Gauß-Funktion weist grundsätzlich bei ihrem Erwartungswert ein globales Maximum auf. Wenn somit eine Gauß-Funktion an die Schärfewerte der Bildpunkte eines Objektpunkts angepasst wird, lässt sich der Tiefenwert des Objektpunkts auf Basis des Erwartungswerts bestimmen. Des Weiteren folgt das Intensitätsprofil bzw. das Schärfeprofil in der Tiefenrichtung im Wesentlichen einer Gauß-Kurve, wenn der Abstand zu dem Werkstück in der Tiefenrichtung variiert wird. Wenn daher eine Gauß-Kurve an jeden Punkt des abzubildenden Bereichs, insbesondere für jeden Objektpunkt, eingepasst wird, lässt sich damit die Genauigkeit und Reprozierbarkeit der Tiefenkarte und damit auch des Bildes mit erweiterter Schärfentiefe weiter verbessern.

[0092] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts ist jedem Bild des Fokalbildstapels ein Tiefenwert in der Tiefenrichtung zugeordnet.

[0093] Auf Basis der Tiefenwerte der Bilder kann die Funktion für die Bildpunkte eines Objektpunkts entsprechend eingepasst werden und der Tiefenwert für den entsprechenden Objektpunkt bestimmt werden. Der Tiefenwert des Objektpunkts, insbesondere die z- Position, ergibt sich dabei direkt aus dem Tiefenwert, an dem die eingepasste Funktion maximal ist. Insbesondere können die Tiefenwerte der Bilder in diskreten Schritten aufeinander folgen. Beispielsweise können die Bilder in 50pm Schritten aufgenommen werden. Dies bedeutet, dass sich der Abstand der Bilder in der Tiefenrichtung zu dem Werkstück von Bild zu Bild um 50pm ändert, insbesondere größer oder kleiner wird.

[0094] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts wird der Schärfewert jedes Bildpunkts auf Basis einer Schärfe des Bildpunkts bestimmt.

[0095] Wie zuvor bereits erläutert, lässt sich der Schärfewert eines Bildpunkts beispielsweise auf Basis eines Gradienten zu den umgebenden Bildpunkten des entsprechenden Bildes bestimmen.

[0096] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf: Korrigieren eines oder mehrerer Abbildungsfehler in dem erzeugten Bild mit erweiterter Schärfentiefe, wobei die zu korrigierenden Abbildungsfehler mindestens einen der folgenden Fehler aufweisen: einen Verzeichnungsfehler und/oder einen Astigmatismus-Fehler.

[0097] Durch das Korrigieren eines oder mehrerer Abbildungsfehler wird ein korrigiertes Bild mit erweiterter Schärfentiefe erzeugt. Dabei sind die einen oder mehrere zu korrigierenden Abbildungsfehler ein Verzeichnungsfehler und/oder ein Astigmatismus-Fehler.

[0098] Beim Aufnehmen des Fokalbildstapels können Abbildungsfehler auftreten, die sich aus dem optischen System ergeben, das zum Aufnehmen des Fokalbildstapels verwendet wird. Alle optischen Systeme weisen innerhalb der Fertigungstoleranzen Abbildungsfehler auf, die auch als optische Aberrationen bezeichnet werden. Diese führen zu einem systematischen Messfehler in den berechneten Tiefenwerten. Astigmatismus ist besonders problematisch, da dieser die Tiefenwerte verzerrt. Es können zumindest die Aberrationen erster und zweiter Ordnung im Aberrationsschema nach Zernike berücksichtigt und korrigiert werden. Zur Korrektur des Astigmatismus-Fehlers werden daher die berechneten Tiefenwerte für jeden Objektpunkt korrigiert. Auf Basis der korrigierten Tiefenwerte kann dann ein korrigiertes Bild mit erweiterter Schärfentiefe erzeugt werden. Durch den vorgeschlagenen Korrekturmechanismus kann eine digitale Aberrationskorrektur durchgeführt werden, mittels der die Genauigkeit weiter erhöht wird.

[0099] Zusätzlich zu dem Astigmatismus-Fehler kann auch ein Verzeichnungsfehler auftreten. Die Verzeichnung ist ein geometrischer Abbildungsfehler optischer Systeme, der in der Linsengleichung zu einer lokalen Veränderung des Abbildungsmaßstabes führt. Dies bewirkt eine nicht längen- bzw. maßstabgetreue Abbildung des zu untersuchenden Objektes. Mit anderen Worten beeinflusst die Verzeichnung die dimensionelle Messfähigkeit. Die Verzeichnung kann ein Verzeichnungszentrum aufweisen, das auf der optischen Achse liegen kann. Das Verzeichnungszentrum ist ein Symmetriepunkt der Verzeichnung. Die Verzeichnung kann rotationssymmetrisch um diesen Symmetriepunkt sein. Mit anderen Worten führt die Verzeichnung zu einer Abbildung, die nicht längentreu und/oder nicht winkeltreu ist. Bezüglich des Verzeichnungszentrums können eine radiale Richtung und eine tangentiale Richtung definiert werden. Radiale Richtung und tangentiale Richtung sind senkrecht zueinander.

[00100] Der Verzeichnungsfehler eines optischen Systems führt somit zu einer Maßstabsänderung in der x- und y- Richtung, sprich senkrecht zu der Tiefenrichtung. Mit anderen Worten weist jeder Bildpunkt einen durch die Verzeichnung bedingten Abbildungsfehler in der x- und y-Richtung auf. Dieser Abbildungsfehler kann mit zunehmendem Abstand eines Bildpunkts zur optischen Achse zunehmen.

[00101] Die Verzeichnung kann im Allgemeinen eine radiale Verzeichnung und/oder eine tangentiale Verzeichnung aufweisen. Die radiale Verzeichnung und die tangentiale Verzeichnung können beispielsweise durch das Brown-Conrady-Modell beschrieben werden. Die radiale Verzeichnung beschreibt die Verzeichnung, sprich Maßstabsänderung, in radialer Richtung. Bei radialer Verzeichnung werden die Bildpunkte somit in der radialen Richtung verzerrt. Die tangentiale Verzeichnung beschreibt die Verzeichnung, sprich Maßstabsänderung, in tangentialer Richtung. Bei tangentialer Verzeichnung werden die Bildpunkte somit in der tangentialen Richtung verzerrt.

[00102] Um nun ein korrigiertes Bild mit erweiterter Schärfentiefe ohne Verzeichnungsfehler zu erhalten, wird der Verzeichnungsfehler somit in dem Bild mit erweiterter Schärfentiefe korrigiert. Dazu kann beispielsweise jeder Bildpunkt des Bildes mit erweiterter Schärfentiefe in der x- und y-Richtung versetzt/entzerrt werden, um den Verzeichnungsfehler zu kompensieren. Insbesondere kann jeder Bildpunkt des Bildes mit erweiterter Schärfentiefe in der radialen und optional der tangentialen Richtung bezüglich des Verzeichnungszentrums versetzt/entzerrt werden, um den Verzeichnungsfehler zu kompensieren.

[00103] Durch die Korrektur von Abbildungsfehlern, insbesondere des Verzeichnungsfehlers und des Astigmatismus-Fehlers, erhält man ein korrigiertes Bild mit erweiterter Schärfentiefe, in dem sich Kanten besser lokalisieren lassen.

[00104] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts ist zum Korrigieren des Verzeichnungsfehlers jedem Punkt des Bildes mit erweiterter Schärfentiefe mindestens ein Verzeichnungswert zugeordnet, wobei eine Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe senkrecht zu der Tiefenrichtung basierend auf dem mindestens einen Verzeichnungswert korrigiert wird.

[00105] Der Verzeichnungswert ist ein Korrekturwert für die Verzeichnung des jeweiligen Bildpunkts. Der mindestens eine Verzeichnungswert ist vorzugsweise vorbestimmt. Der mindestens eine Verzeichnungswert bestimmt, wie die Lage eines Punkts des Bildes mit erweiterter Schärfentiefe senkrecht zu der Tiefenrichtung, sprich in x- und y-Richtung, verändert werden soll. Mit anderen Worten gibt der Verzeichnungswert an, wie der Punkt in x- und/oder y-Richtung zur Korrektur zu verschieben ist. Insbesondere kann der mindestens eine Verzeichnungswert bestimmen, wie der Punkt in radialer und/oder tangentialer Richtung bezüglich des Verzeichnungszentrums zur Korrektur von radialer Verzeichnung und tangentialer Verzeichnung zu verschieben ist. Durch das Korrigieren (d.h. Entzerren) der Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe basierend auf dem mindestens einen Verzeichnungswert wird eine maßstabsgetreue, messfähige Messaufnahme erzeugt.

[00106] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts sind jedem Punkt des Bildes mit erweiterter Schärfentiefe ein erster Verzeichnungswert und ein zweiter Verzeichnungswert zugeordnet, wobei die Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe in einer ersten Richtung basierend auf dem ersten Verzeichnungswert und in einer zweiten Richtung basierend auf dem zweiten Verzeichnungswert korrigiert wird.

[00107] Auf diese Weise kann die Verzeichnung des Punkts in zwei verschiedenen Richtungen korrigiert werden. Die erste und zweite Richtung sind senkrecht zu der Tiefenrichtung. Vorzugsweise sind die erste und zweite Richtung nicht parallel zueinander, insbesondere senkrecht zueinander. Beispielsweise kann die erste Richtung die x-Richtung und die zweite Richtung die y-Richtung sein. In diesem Fall dienen der erste Verzeichnungswert zur Korrektur einer Verzeichnung in x-Richtung und der zweite Verzeichnungswert zur Korrektur einer Verzeichnung in y-Richtung. Alternativ kann die erste Richtung auch die radiale Richtung und die zweite Richtung die tangentiale Richtung bezüglich des Verzeichnungszentrums sein. In diesem Fall dienen der erste Verzeichnungswert zur Korrek- tur der radialen Verzeichnung und der zweite Verzeichnungswert zur Korrektur der tangentialen Verzeichnung.

[00108] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts wird der Astigmatismus- Fehler vor dem Verzeichnungsfehler korrigiert.

[00109] Wie eingangs bereits erläutert, ändern sich die im Bild gemessenen Abstände (sprich der Maßstab) in Abhängigkeit vom kantenorientierungsabhängigen Autofokus. Dieser Fehler wird umso größer, je größer die Telezentrieabweichung des Systems ist. Mit anderen Worten führt Astigmatismus des optischen Systems dazu, dass sich der Maßstab kantenorientierungsabhängig verändert. Dies bedeutet, dass durch astigmatische Bildeinflüsse der bestimmte beste (schärfste) Bildpunkt nicht mehr auf der besten Einstellebene nach Petzval liegen wird, sondern sich kantenorientierungsabhängig zwischen sagittaler und tangentialer bester Einstellebene vermitteln wird. Um telezentriebedingte Messeinflüsse zu minimieren, kann daher ein astigmatisch kompensiertes (korrigiertes) Bild mit erweiterter Schärfentiefe bestimmt werden. Hierfür wird ein Bild erweiterter Schärfentiefe auf der kantenorientierungsunabhängigen besten Einstellebene nach Petzval errechnet und anschließend für dieses Bild erweiterter Schärfentiefe die Verzeichnungskorrektur durchgeführt.

[00110] In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts wird zum Korrigieren des Astigmatismus-Fehlers eine Winkelkarte des Bereichs der Oberfläche des Werkstücks erzeugt, wobei jedem Punkt des Bildes mit erweiterter Schärfentiefe ein erster Korrekturwert und ein zweiter Korrekturwert zugeordnet ist, wobei der Tiefenwert jedes Punkts des Bildes mit erweiterter Schärfentiefe basierend auf dem ersten Korrekturwert, dem zweiten Korrekturwert und der Winkelkarte korrigiert wird.

[00111] Astigmatismus ist eine Aberration der "schiefen" Strahlen. Ein schief einfallendes Strahlenbündel wird in der Meridional- und der Sagittalebene unterschiedlich stark gebrochen. In Richtung der Meridionalebene ist eine Linse perspektivisch verkürzt, woraus eine kürzere Brennweite resultiert als in der Sagittalebene. Mit anderen Worten ist Astigmatismus richtungsabhängig, insbesondere abhängig von Richtungen der Kanten in den Abbildungen der Bilder. Der Astigmatismus kann für jeden Punkt über eine winkelabhängige Funktion, insbesondere Modell- oder Fitfunktion, mit mindestens zwei Parametern beschrieben werden, die den ersten und zweiten Korrekturwert aufweisen. Mit anderen Worten ist das Astigmatismus-Modell eine Anpassung der über den Kreisazimuth dargestellten Tiefenwertabweichung. Insbesondere kann der Astigmatismus als Linearkombination aus zwei radialsymmetrischen Sinusfunktionen modelliert werden. Dabei entspricht der erste Korrekturwert dem Koeffizienten in der ersten Sinusfunktion und der zweite Korrekturwert dem Koeffizienten in der zweiten Sinusfunktion. Vorzugsweise sind die beiden Sinusfunktionen um TT/2 verschoben. Der erste Korrekturwert und der zweite Korrekturwert stellen somit zwei Korrekturwerte in zwei senkrecht zueinander stehenden Richtungen dar. Zur Korrektur des Astigmatismus wird eine Winkelkarte des Bereichs der Oberfläche des Werkstücks erzeugt. Die Winkelkarte wird basierend auf einem Bildgradienten bestimmt. Der Bildgradient kann basierend auf dem Bild mit erweiterter Schärfentiefe oder dem gesamten oder einem Teil des Fokalbildstapels des Bereichs des Werkstücks für jeden Punkt bestimmt werden. Dazu wird für jeden Punkt ein Bildgradient berechnet. Der Bildgradient bestimmt sich aus einer Änderung der Helligkeit zu umliegenden Bildpunkten. Die Richtung des Bildgradienten kann mittels eines Winkels dargestellt werden. Somit ist in der Winkelkarte jedem Punkt ein Winkel zugeordnet, der die Richtung des Bildgradienten angibt. Mit anderen Worten stellt die Winkelkarte für jeden Punkt des korrigierten Bildes mit erweiterter Schärfentiefe den entsprechenden Winkel des Bildgradienten dar. Basierend auf diesem Winkel kann zur Korrektur des Tiefenwerts des jeweiligen Objektpunkts dann der Anteil des ersten und des zweiten Korrekturwerts berechnet werden. Der Anteil des ersten Korrekturwerts kann insbesondere durch das Produkt aus dem ersten Korrekturwert mit dem Sinus des Winkels des jeweiligen Punkts bestimmt werden. Entsprechend kann auch der Anteil des zweiten Korrekturwerts durch das Produkt aus dem zweiten Korrekturwert mit dem Cosinus des Winkels des jeweiligen Punkts bestimmt werden. Die Korrektur des jeweiligen Tiefenwerts kann insbesondere durch Subtraktion der Summe der Anteile des ersten und zweiten Korrekturwerts von dem jeweiligen Tiefenwert erfolgen. Der erste Korrekturwert und der zweite Korrekturwert können insbesondere vorberechnet oder vorbestimmt sein. Auf diese Weise lässt sich ein Astigmatismus-Fehlers in den Tiefenwerten korrigieren. Auf Basis der korrigierten Tiefenwerte der Objektpunkte kann dann das Bild mit erweiterter Schärfentiefe korrigiert, insbesondere neu erzeugt, werden. Durch Korrektur des Astigmatismus -Fehlers wird die Genauigkeit des Bildes mit erweiterter Schärfentiefe weiter erhöht. Die Errechnung des Bildes erweiterter Schärfentiefe auf Basis der korrigierten Tiefenwerte entspricht der Auswertung des Bildes erweiterter Schärfentiefe auf der astigmatisch kompensierten besten Einstellebene nach Petzval.

[00112] In einer weiteren Ausgestaltung des zweiten Aspekts sind der optische Sensor und das Werkstück in der Tiefenrichtung relativ zueinander bewegbar, so dass ein Abstand in der Tiefenrichtung zwischen dem Werkstück und dem optischen Sensor veränderbar ist, wobei das Verfahren des Weiteren den folgenden Schritt aufweist:

Verändern des Abstands zwischen dem Werkstück und dem optischen Sensor, wobei in dem Schritt des Erfassens die Mehrzahl von Bildern erfasst wird, während der Abstand zwischen dem Werkstück und dem optischen Sensor verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks aus unterschiedlichen, definierten Abständen zu dem Werkstück in der Tiefenrichtung abbilden

[00113] Auf diese Weise wird die Fokalebenenposition des optischen Sensors in einer Tiefenrichtung relativ zu dem Werkstück verändert, während die Bilder aufgenommen werden, die den Fokalbildstapel bilden.

[00114] In einer weiteren Ausgestaltung des zweiten Aspekts weist das Messgerät einen Werkstückhalter auf, wobei das Werkstück auf dem Werkstückhalter zum Vermessen angeordnet wird.

[00115] Der Werkstückhalter kann insbesondere ein Werktisch, ein Messtisch oder ein Objekttisch sein. Der Werkstückhalter ist dazu ausgebildet, das Werkstück während des Messprozesses in einer definierten Position zu halten. Dazu kann der Werkstückhalter beispielsweise auf der Oberseite eine ebene Fläche aufweisen, auf der das Werkstück während des Aufnehmens des Bildes mit erweiterter Schärfetiefe angeordnet werden kann. [00116] In einer weiteren Ausgestaltung des zweiten Aspekts weist das Messgerät eine Antriebseinrichtung auf, wobei die Antriebseinrichtung den optischen Sensor relativ zu dem Werkstückhalter in der Tiefenrichtung bewegt und/oder den Werkstückhalter relativ zu dem optischen Sensor in der Tiefenrichtung bewegt, um den Abstand zwischen dem Werkstück und dem optischen Sensor zu verändern.

[00117] Mit anderen Worten ist die Antriebseinrichtung dazu ausgebildet, den Werkstückhalter und den optischen Sensor relativ zueinander zu bewegen, den Abstand zwischen dem Werkstück und dem optischen Sensor zu verändern. Dazu kann die Antriebseinrichtung entweder den Werkstückhalter in der Tiefenrichtung bewegen oder den optischen Sensor in der Tiefenrichtung bewegen oder den Werkstückhalter und den optischen Sensor in der Tiefenrichtung bewegen.

[00118] In einer weiteren Ausgestaltung des zweiten Aspekts wird der Abstand zwischen dem Werkstück und dem optischen Sensor in diskreten Schritten verändert.

[00119] Dabei kann Abstand schrittweise vergrößert oder verkleinert werden. Beispielsweise kann der Abstand in 50pm Schritten verändert werden.

[00120] In einer weiteren Ausgestaltung des zweiten Aspekts weist das Messgerät eine Beleuchtungseinrichtung auf, wobei das Verfahren des Weiteren den folgenden Schritt auf:

Beleuchten des Werkstücks mittels der Beleuchtungseinrichtung während des Erfassens der Bilder des Fokalbildstapels.

[00121] Die Beleuchtungseinrichtung wird dazu verwendet, zumindest den Bereich der Oberfläche des Werkstücks auszuleuchten. Das reflektierte Licht wird dann verwendet, um ein Bild in dem optischen Sensor zu erzeugen. Auf diese Weise kann der Bereich des Werkstücks gleichmäßig ausgeleuchtet werden und die Tiefenwerte des Oberflächenbereichs mit im Wesentlichen gleicher Genauigkeit bestimmt werden. Die Beleuchtung kann beispielsweise eine koaxiale Beleuchtung, eine Ringbeleuchtung, eine Dunkelfeldbeleuchtung, eine diffuse Beleuchtung oder eine Punktquellenbeleuchtung sein. Die Beleuchtungseinrichtung kann insbesondere eine monochromatische Lichtquelle, beispielsweise ein monochromatischer Laser, sein. Eine monochromatische Lichtquelle hat den Vorteil, dass keine chromatische Aberrationen auftreten können.

[00122] In einer weiteren Ausgestaltung des zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

Bestimmen des mindestens einen Verzeichnungswerts für jeden Bildpunkt des Bildes mit erweiterter Schärfentiefe, wobei initial ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts, insbesondere eines Punktgitters, aufgenommen wird, wobei der mindestens eine Verzeichnungswert basierend auf einer Abweichungen des Bildes mit erweiterter Schärfentiefe zu einem bekannten Oberflächenprofil des Kalibrationsobjekts bestimmt wird.

[00123] Auf diese Weise werden in einem initialen Schritt die Verzeichnungswerte für die Bildpunkte des Bildes mit erweiterter Schärfentiefe bestimmt. „Initial“ bedeutet, dass der Schritt des Bestimmens der Verzeichnungswerte vor dem Schritt des Erfassens der Mehrzahl von Bildern des Bereichs der Oberfläche des Werkstücks erfolgt. Zur Bestimmung der Verzeichnungswerte wird zunächst ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts aufgenommen. Das Kalibrationsobjekt kann auch als Kalibrationsmaske bezeichnet werden. Das Kalibrationsobjekt hat vorzugsweise runde Strukturen. Insbesondere kann das Kalibrationsobjekt ein Punktgitter oder eine Lochmaske sein. Ein Punktgitter ist eine regemäßige Anordnung von Punkten. Insbesondere ist ein Punktgitter eine geometrische Struktur, bei dem Punkte in gleichen Abständen in zwei oder drei Raumrichtungen voneinander angeordnet sind. Im Falle von zwei Raumrichtungen stehen diese senkrecht aufeinander. Im Falle von drei Raumrichtungen sind diese paarweise in einen Winkel von 60° zueinander angeordnet. Jeder Punkt des Punktgitters hat eine räumliche Ausdehnung und ist vorzugsweise kreisrund. Jeder Punkt des Punktgitters kann durch eine Mehrzahl von Bildpunkten eines erfassten Bildes abgebildet werden. Jeder Punkt weist eine ebene Oberfläche auf. Das Oberflächenprofil des Punktgitters ist somit im Voraus bereits bekannt. Insbesondere kann das Punktgitter so auf dem Werkstückhalter angeordnet werden, dass die Punkte des Punktgitters in einer horizontalen Ebene liegen. Das Erzeugen des Bildes mit erweiterter Schärfentiefe des Kalibrationsobjekts, insbesondere des Punktgitters, erfolgt entsprechend dem Verfahren zum Erzeugen eines korrigierten Bildes mit erweiterter Schärfentiefe, aber ohne dass der Verzeichnungsfehler korrigiert wird. Das aufgenommene Bild des Kalibrationsobjekts wird dann mit Hilfe von Verzeichnungsroutinen analysiert, um die Verzeichnung, insbesondere die Verzeichnungswerte, zu bestimmen. Insbesondere können die Verzeichnungswerte dadurch bestimmt werden, dass das aufgenommene Bild des Kalibrationsobjekts und/oder die dazugehörigen bestimmten Tiefenwerte mit dem bekannten Oberflächenprofil des Kalibrationsobjekts verglichen werden. Jeder bestimmte Verzeichnungswert kann insbesondere in einer elektronischen Speichereinheit gespeichert werden. Das Messgerät kann diese Speichereinheit aufweisen. Insbesondere können die Verzeichnungswerte in Form einer Tabelle („Look-Up-Table“) abgespeichert werden. Nachdem die Verzeichnungswerte bestimmt sind, kann dann das korrigierte Bild mit erweiterter Schärfentiefe des Werkstücks aufgenommen werden. Dabei können die Tiefenwerte der Objektpunkte mittels der bestimmten Verzeichnungswerte korrigiert werden. Auf diese Weise können die Verzeichnungswerte der Bildpunkte einfach bestimmt und korrigiert werden.

[00124] In einer weiteren Ausgestaltung des zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

Bestimmen des ersten Korrekturwerts und des zweiten Korrekturwerts für jeden Bildpunkt des Bildes mit erweiterter Schärfentiefe, wobei initial ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts, insbesondere eines Punktgitters, aufgenommen wird, wobei der jeweilige Korrekturwert basierend auf Abweichungen des Bildes mit erweiterter Schärfentiefe oder der bestimmten Tiefenwerte der Objektpunkte des Kalibrationsobjekts zu einem bekannten Oberflächenprofil des Kalibrationsobjekts bestimmt wird.

[00125] Zur Bestimmung des ersten Korrekturwerts und des zweiten Korrekturwerts wird jeder Punkt des Punktgitters einzeln betrachtet. Der erste und der zweite Korrekturwert können dann auf Basis einer Abweichung des berechneten Tiefenprofils gegenüber dem tatsächlichen Tiefenprofil des jeweiligen Punkts, das eine ebene Fläche ist, bestimmt werden. Zum Bestimmen der Korrekturwerte wird somit im Voraus, sprich initial, ein Bild mit erweiterter Schärfentiefe eines Punktgitters aufgenommen. Das Erzeugen des Bildes mit erweiterter Schärfentiefe des Kalibrationsobjekts, insbesondere des Punktgitters, erfolgt entsprechend dem Verfahren zum Erzeugen eines korrigierten Bildes mit erweiterter Schärfentiefe, aber ohne den Schritt des Korrigierens der einen oder mehreren Abbildungsfehler. Jeder bestimmte Korrekturwert kann insbesondere in einer elektronischen Speichereinheit gespeichert werden. Das Messgerät kann diese Speichereinheit aufweisen. Nachdem die gewünschten Korrekturwerte bestimmt sind, kann dann das korrigierte Bild mit erweiterter Schärfentiefe des Werkstücks aufgenommen werden. Dabei können die Tiefenwerte der Objektpunkte mittels der bestimmten Korrekturwerte korrigiert werden. Auf diese Weise können die Korrekturwerte einfach bestimmt und korrigiert werden.

[00126] In einer weiteren Ausgestaltung des zweiten Aspekts weist das Bestimmen der ersten und zweiten Korrekturwerte die folgenden Schritte auf:

Bestimmen des ersten Korrekturwerts und des zweiten Korrekturwerts für jeden Punkt des Punktgitters basierend auf einer Kostenfunktion zwischen einem Astigmatismus-Modell und den Tiefenwerten des jeweiligen Punkts; und

Interpolieren der ersten und zweiten Korrekturwerte basierend auf den ersten und zweiten Korrekturwerten jedes Punkts des Punktgitters.

[00127] Wie zuvor bereits beschrieben, wird jeder Punkt des Punktgitters mittels einer Mehrzahl von Bildpunkten eines erfassten Bildes abgebildet. Die Tiefenwerte jedes einzelnen Punkts können nach dem Erzeugen des korrigierten Bildes mit erweiterter Schärfentiefe des Punktgitters segmentiert werden. Dabei werden zunächst die Punkte des korrigierten Bildes mit erweiterter Schärfentiefe bestimmt, die jeweils einem Punkt des Punktgitters zugeordnet sind und diesen abbilden. Wie zuvor bereits beschrieben ist das Astigmatismus-Modell eine Anpassung der über den Kreisazimuth dargestellten Tiefenwertabweichung. Die angepasste Fitfunktion, beschrieben durch die Fit-Parameter, entsprechen dem ersten Korrekturwert und dem zweiten Korrekturwert des jeweiligen Punkts des Punktgitters. Insbesondere kann das Astigmatismus-Modell eine Linearkombination aus zwei radial-symmetrischen Sinus-Funktionen sein. Die Kostenfunktion wird dann nach den Koeffizienten der Sinus-Funktionen minimiert. Die Koeffizienten der Sinus-Funktionen entsprechen dem ersten Korrekturwert und dem zweiten Korrekturwert des jeweiligen Punkts des Punktgitters. Ausgehend von den bestimmten ersten und zweiten Korrekturwerten für jeden Punkt des Punktgitters werden die ersten und zweiten Korrekturwerte für jeden Punkt des korrigierten Bildes mit erweiterter Schärfentiefe durch Interpolation basierend auf den ersten und zweiten Korrekturwerten jedes Punkts des Punktgitters bestimmt.

[00128] In einer weiteren Ausgestaltung des zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

Ausgeben des Bildes mit erweiterter Schärfetiefe und/oder der Kantenposition der Kante in dem Bildbereich des Bildes mit erweiterter Schärfentiefe mittels einer Ausgabeeinrichtung.

[00129] Die Ausgabeeinrichtung kann beispielsweise ein Display aufweisen, wobei das korrigierte Bild mit erweiterter Schärfentiefe auf dem Display dargestellt werden kann. Des Weiteren kann die Ausgabeeinrichtung dazu ausgebildet sein, das korrigierte Bild mit erweiterter Schärfentiefe an eine elektronische Speichereinrichtung, an eine weitere Vorrichtung oder an ein externes Display auszugeben. Die elektronische Speichereinrichtung kann beispielsweise eine Speichermedium, insbesondere eine Festplatte, ein Flash-Speicher oder eine Cloud sein. Die weitere Vorrichtung kann beispielsweise das korrigierte Bild mit erweiterter Schärfentiefe verwenden, um weitere Prozesse durchzuführen. Das externe Display kann beispielsweise dazu ausgebildet sein, das korrigierte Bild mit erweiterter Schärfentiefe darzustellen.

[00130] In einer weiteren Ausgestaltung des dritten Aspekts weist das Messgerät des Weiteren eine Antriebseinrichtung auf, wobei die Antriebseinrichtung dazu ausgebildet ist, den optischen Sensor und den Werkstückhalter in der Tiefenrichtung relativ zueinander zu bewegen, um einen Abstands zwischen dem Werkstück und dem optischen Sensor zu verändern. [00131] Mittels der Antriebseinrichtung kann somit die Fokalebenenposition des optischen Sensors in der Tiefenrichtung relativ zu dem Werkstück eingestellt werden.

[00132] In einer weiteren Ausgestaltung des dritten Aspekts ist die Steuereinrichtung des Weiteren dazu eingerichtet, die folgenden Schritte, insbesondere vor dem Schritt des Erzeugens des korrigierten Bildes mit erweiterter Schärfentiefe, durchzuführen:

Steuern der Antriebseinrichtung derart, dass ein Abstand zwischen dem Werkstück und dem optischen Sensor verändert wird, wobei der optischen Sensor derart gesteuert wird, dass die Mehrzahl von Bildern erfasst wird, während der Abstand zwischen dem Werkstück und dem optischen Sensor verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks aus unterschiedlichen, definierten Abständen zu dem Werkstück in der Tiefenrichtung abbilden.

[00133] Auf diese Weise wird die Fokalebenenposition des optischen Sensors in der Tiefenrichtung relativ zu dem Werkstück verändert, während die Bilder aufgenommen werden, die den Fokalbildstapel bilden.

[00134] Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.

[00135] Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:

Fig. 1 eine schematische Ansicht eines Messgeräts;

Fig. 2 eine schematische Ansicht eines Verfahrens zum Erzeugen eines korrigierten

Bildes mit erweiterter Schärfentiefe; Fig. 3 eine schematische Ansicht eines Verfahrens zum Aufnehmen eines korrigierten Bildes mit erweiterter Schärfentiefe;

Fig. 4 eine schematische Ansicht von Verfahrensschritten zur Bestimmung von Korrekturwerten;

Fig. 5 eine schematische Ansicht von Verfahrensschritten zur Bestimmung von Verzeichnungswerten;

Fig. 6A eine beispielhafte Ansicht eines Fokalbildstapels;

Fig. 6B eine Ansicht eines Diagramms zur Darstellung von bestimmten Schärfewerten entlang der Tiefenrichtung;

Fig. 6C eine Ansicht eines Diagramms zur Darstellung des Einpassens einer Funktion an bestimmte Schärfewerte entlang der Tiefenrichtung;

Fig. 6D eine beispielhafte Ansicht eines Bildes mit erweiterter Schärfetiefe;

Fig. 7 eine beispielhafte Ansicht zur Darstellung einer Abbildung auf eine gekrümmte

Bildebene unter dem Einfluss von Bildfeldkrümmung;

Fig. 8 eine beispielhafte Ansicht zur Darstellung von Astigmatismus einer Linse;

Fig. 9 eine beispielhafte Ansicht zur Darstellung einer Abbildung auf gekrümmte

Bildebenen unter dem Einfluss von Astigmatismus;

Fig. 10 eine beispielhafte Ansicht zur Darstellung einer Abbildung auf gekrümmte Bildebenen unter dem Einfluss von Bildfeldkrümmung und Astigmatismus; Fig. 11 eine beispielhafte Ansicht zur Darstellung von verschiedenen Bildebenen bei der Aufnahme eines Bildes mit erweiterter Schärfentiefe unter dem Einfluss von Bildfeldkrümmung;

Fig. 12 eine beispielhafte Ansicht zur Darstellung von verschiedenen Bildebenen bei der Aufnahme eines Bildes mit erweiterter Schärfentiefe unter dem Einfluss von Bildfeldkrümmung und Astigmatismus;

Fig. 13A eine Ansicht einer Tiefenkarte ohne Korrektur des Astigmatismus-Fehlers;

Fig. 13B eine Ansicht eines Bildes mit erweiterter Schärfentiefe ohne Korrektur des Astigmatismus-Fehlers;

Fig. 14A eine Ansicht einer Tiefenkarte mit Korrektur des Astigmatismus-Fehlers;

Fig. 14B eine Ansicht eines Bildes mit erweiterter Schärfentiefe mit Korrektur des Astigmatismus-Fehlers;

Fig. 15A eine Ansicht einer Darstellung eines Punktgitters;

Fig. 15B eine Ansicht eines 3D-Diagrams zur Darstellung der schärfsten Bildpunkte des

Randes eines Punktes des Punktgitters aus Fig. 15A;

Fig. 15C eine Ansicht eines Diagramms zur Darstellung der Tiefenwerte der schärfsten Bildpunkte aus Fig. 15B über dem jeweiligen Kantenorientierungswinkel.

Fig. 16A eine Ansicht eines ersten Diagramms gemäß einem ersten Beispiel, in dem das Einpassens einer Fit-Funktion an die Tiefenwerte der schärfsten Bildpunkte des Randes eines Punktes eines Punktgitters dargestellt ist; Fig. 16B eine Ansicht eines zweiten Diagramms gemäß dem ersten Beispiel, in dem die räumliche Verteilung der Tiefenwerte in der Bildebene (x-y Ebene) dargestellt ist;

Fig. 16C eine Ansicht eines dritten Diagramms gemäß dem ersten Beispiel, in dem die räumliche Verteilung von korrigierten Tiefenwerten in der Bildebene (x-y Ebene) dargestellt ist;

Fig. 17A eine Ansicht eines ersten Diagramms gemäß einem zweiten Beispiel, in dem das Einpassens einer Fit-Funktion an die Tiefenwerte der schärfsten Bildpunkte des Randes eines Punktes eines Punktgitters dargestellt ist;

Fig. 17B eine Ansicht eines zweiten Diagramms gemäß dem zweiten Beispiel, in dem die räumliche Verteilung der Tiefenwerte in der Bildebene (x-y Ebene) dargestellt ist;

Fig. 17C eine Ansicht eines dritten Diagramms gemäß dem zweiten Beispiel, in dem die räumliche Verteilung von korrigierten Tiefenwerten in der Bildebene (x-y Ebene) dargestellt ist;

Fig. 18 eine erste beispielhafte Ansicht eines Bildbereichs eines Bildes mit erweiterter Schärfentiefe, in dem eine gerade Kante verläuft, die Projektion der Bildpunkte des Bildbereichs auf eine Normalen-Richtung, und ein darauf basierendes Kantenprofil;

Fig. 19 eine zweite beispielhafte Ansicht eines Bildbereichs eines Bildes mit erweiterter Schärfentiefe, in dem eine gekrümmte Kante verläuft;

Fig. 20A eine dritte beispielhafte Ansicht eines Bildbereichs eines Bildes mit erweiterter Schärfentiefe, in dem eine gekrümmte Kante mit konstanter Krümmung verläuft; Fig. 20B eine beispielhafte Ansicht eines Diagramms, in dem ein Kantenprofil der Kante aus dem Bild aus Fig. 20 in radialer Richtung dargestellt ist;

Fig. 21 eine schematische Ansicht eines Verfahrens zum Lokalisieren einer Kantenposition einer Kante in einem Bildbereich eines Bildes mit erweiterter Schärfentiefe;

Fig. 22 eine schematische Ansicht eines Verfahrens zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe;

Fig. 23 Ansichten von Diagrammen eines ersten Beispiels zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe;

Fig. 24 Ansichten von Diagrammen eines zweiten Beispiels zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe;

Fig. 25A eine Ansicht einer Kantenmessung in einem Bild mittels der Slanted-Edge- Methode;

Fig. 25B einen Ausschnitt eines Kantenbereichs aus Fig. 25A;

Fig. 26A eine Ansicht einer Kantenmessung in einem Bild mittels der erfindungsgemäßen Methode;

Fig. 26B einen Ausschnitt eines Kantenbereichs aus Fig. 26A;

Fig. 27 eine Darstellung eines Bildes eines Werkstücks mit mehreren Kreisstrukturen;

Fig. 28 eine Darstellung der Rundheitsmessung der einzelnen Kreisstrukturen aus dem Bild der Fig. 27 auf Basis eines korrigierten Bildes mit erweiterter Schärfentiefe; Fig. 29A eine Darstellung der Rundheitsmessung der einzelnen Kreisstrukturen aus dem Bild der Fig. 27 auf Basis eines unkorrigierten Bildes in der sagittalen Einstellebene; und

Fig. 29B eine Darstellung der Rundheitsmessung der einzelnen Kreisstrukturen aus dem Bild der Fig. 27 auf Basis eines unkorrigierten Bildes in der tangentialen Einstellebene.

[00136] In den Figuren 18 bis 26 werden Ausführungsbeispiele zur Kantenlokalisierung von Kanten in einem Bild beschrieben. In den Figuren 1 bis 17 werden verschiedene Ausführungsbeispiele zum Erzeugen und zum Aufnehmen eines Bildes mit erweiterter Schärfentiefe beschrieben, auf Basis dessen dann eine Kantenlokalisierung durchgeführt werden kann. Das beschriebene Verfahren zur Kantenlokalisierung von Kanten in einem Bild kann grundsätzlich auch auf Einzelbilder, sprich auf Bilder ohne erweiterte Schärfentiefe, angewandt werden.

[00137] Fig. 1 zeigt ein Messgerät 10. Das Messgerät kann ein Mikroskop oder ein Koordinatenmessgerät sein. Das Messgerät 10 dient zum Vermessen eines Werkstücks 12. Hierzu weist das Messgerät 10 einen optischen Sensor 14 auf. In Ergänzung zu dem optischen Sensor 14 können selbstverständlich noch weitere Sensoren vorgesehen sein, beispielsweise taktile Sensoren, die jedoch in der vorliegenden schematischen Ansicht nicht dargestellt sind.

[00138] Der optische Sensor 14 kann ein optisches System 30 und einen Bildsensor aufweisen. Das optische System 30 bildet einen Bereich der Oberfläche des Werkstücks 12 auf den Bildsensor ab. Der optische Sensor 14 kann mittels des Bildsensors ein Bild des Bereichs der Oberfläche des Werkstücks 12 erfassen.

[00139] Des Weiteren kann das Messgerät 10 eine Beleuchtungseinrichtung 32 aufweisen. Die Beleuchtungseinrichtung ist dazu ausgebildet, zumindest den Bereich der Oberfläche des Werkstücks 12 zu beleuchten. [00140] Das zu vermessende Werkstück 12 ist auf einem Werkstückhalter 16 angeordnet. Der Werkstückhalter 16 kann ein Messtisch, ein Werktisch oder ein Objekttisch sein. In der dargestellten Ansicht ist der Werkstückhalter 16 in einer X-Y-Ebene eines Koordinatensystems 18 ausgerichtet. Senkrecht zu dem Werkstückhalter 16 erstreckt sich eine Z- Richtung 20. Die Z-Richtung 20 ist eine Tiefenrichtung. Ein Abstand zwischen dem optischen Sensor 14 und dem Werkstück 12 in der Tiefenrichtung 20 ist mit einem Bezugszeichen 22 gekennzeichnet. Ein Abstand zwischen dem optischen Sensor 14 und dem Werkstückhalter 16 in der Tiefenrichtung 20 ist mit einem Bezugszeichen 34 gekennzeichnet. Der optische Sensor 14 und der Werkstückhalter 16 sind relativ zueinander bewegbar. Auf diese Weise kann der Abstand 34 verändert werden. Da das Werkstück 12 auf dem Werkstückhalter 16 angeordnet ist, ändert sich der Abstand 22 entsprechend dem Abstand 34. Grundsätzlich kann hierzu vorgesehen sein, dass der Werkstückhalter 16 in der Tiefenrichtung 20 bewegbar ist und/oder der optische Sensor 14, beispielsweise mittels einer geeigneten Mechanik 24, in der Tiefenrichtung 20 bewegbar ist.

[00141] Das Messgerät 10 kann des Weiteren eine Antriebseinrichtung 28 aufweisen. Die Antriebseinrichtung 28 ist dazu ausgebildet, den Werkstückhalter 16 und den optischen Sensor 14 relativ zueinander in der Tiefenrichtung 20 zu bewegen. Vorzugsweise ist die Antriebseinrichtung 28 dazu ausgebildet, den Werkstückhalter 16 relativ zu dem optischen Sensor 14 in der Tiefenrichtung 20 zu bewegen. Alternativ kann die Antriebseinrichtung 28 auch dazu ausgebildet sein, den optischen Sensor 14 relativ zu dem Werkstückhalter 16 in der Tiefenrichtung 20 zu bewegen. Selbstverständlich kann die Antriebseinrichtung 28 auch dazu ausgebildet sein, sowohl den optische Sensor 14 als auch den Werkstückhalter 16 in der Tiefenrichtung 20 zu bewegen.

[00142] Das Messgerät 10 weist des Weiteren eine Steuereinrichtung 26 auf. Die Steuereinrichtung 26 ist dazu eingerichtet, die einzelnen Komponenten des Messgeräts zu steuern und Daten zu verarbeiten. Die Steuereinrichtung 26 kann dazu beispielsweise verschiedene Untereinheiten aufweisen, die jeweils eine Steuerung einer Komponente und/oder eine Verarbeitung von Daten durchführen. Beispielsweise kann die Steuereinrichtung 26 eine Regelungseinheit aufweisen, die die Antriebseinrichtung 28, den optischen Sensor 14 und/oder die Beleuchtungseinrichtung 32 steuert. Des Weiteren kann die Steuereinrichtung 26 eine Datenverarbeitungseinheit aufweisen, die dazu eingerichtet ist, die Auswertung von erfassten Bildern des optischen Sensors durchzuführen. Die Datenverarbeitungseinheit kann beispielsweise auf Basis einer Mehrzahl von Bildern, die einen Fokalbildstapel bilden, ein Bild mit erweiterter Schärfentiefe eines Bereichs der Oberfläche des Werkstücks 12 erzeugen. Des Weiteren kann die Datenverarbeitungseinheit beispielsweise eine Kantenposition einer Kante in einem Bildbereich des erzeugten Bildes mit erweiterter Schärfentiefe lokalisieren bzw. bestimmen.

[00143] Die Steuereinrichtung 26 kann mit einem nichtflüchtigen Datenspeicher, in dem ein Computerprogramm gespeichert ist, verbunden sein oder diesen aufweisen. Bei manchen Ausführungsbeispielen ist die Steuereinrichtung 26 ein Mehrzweckcomputer, wie etwa ein handelsüblicher Personal Computer, der unter Windows®, Linux oder MacOS läuft, und das Computerprogramm aus dem Speicher weist einen Programmcode auf, der zum Implementieren von Ausführungsformen des neuen Verfahrens in Kombination dem optischen Sensor 14 und der Antriebseinrichtung 28 gestaltet und ausgebildet ist. Bei einem alternativen Ausführungsbeispiel ist die Steuereinrichtung 26 ein logischer Schaltkreis, wie etwa ein vor Ort programmierbares Gate-Array (FPGA: Field Programmable Gate Array), ein anwendungsspezifischer integrierter Schaltkreis (ASIC: Application- Specific Integrated Circuit), ein Mikrocontroller oder ein beliebiger anderer angemessener programmierbarer elektrischer Schaltkreis. Darin können die Ausführungsformen des neuen Verfahrens, insbesondere Steuer- und Bestimmungsschritte, mit dem logischen Schaltkreis implementiert werden, sodass der logische Schaltkreis zum Implementieren von Ausführungsformen des neuen Verfahrens in Kombination mit dem optischen Sensor 14 und der Antriebseinrichtung 28 gestaltet und ausgebildet ist. Zum Implementieren von Ausführungsformen des neuen Verfahrens in dem logischen Schaltkreis kann eine beliebige angemessene Programmiersprache oder Hardwarebeschreibungssprache verwendet werden, wie etwa C, VHDL und dergleichen.

[00144] Des Weiteren kann das Messgerät 10 eine Ausgabeeinrichtung 36 aufweisen. Die Ausgabeeinrichtung 36 ist dazu eingerichtet, das Bild mit erweiterter Schärfentiefe, das erzeugte Kantenprofil und/oder die lokalisierte Kantenposition auszugeben. Insbesondere kann die Ausgabeeinrichtung 36 dazu eingerichtet sein, die lokalisierte Kantenposition auszugeben. Die Ausgabeeinrichtung 36 kann beispielsweise ein Display aufweisen, auf dem das Bild mit erweiterter Schärfentiefe, das erzeugte Kantenprofil und/oder die lokalisierte Kantenposition dargestellt werden kann. Alternativ oder zusätzlich kann die Ausgabeeinrichtung 36 dazu ausgebildet sein, das Bild mit erweiterter Schärfentiefe, das erzeugte Kantenprofil und/oder die lokalisierte Kantenposition an eine elektronische Speichereinrichtung, an eine weitere Vorrichtung oder an ein externes Display auszugeben.

[00145] Darüber hinaus kann das Messgerät 10 auch ein Eingabegerät aufweisen, mit dem ein Nutzer beispielsweise die Anzahl und Abstände bzw. Schrittweite der zu erfassenden Bilder in das Koordinatenmessgerät 10 eingeben kann oder den optischen Sensor 14 manuell bewegen kann.

[00146] Bevor ein Bereich einer Oberfläche des Werkstücks 12 aufgenommen wird, kann vorgesehen sein, dass ein Nutzer die Anzahl der zu erfassenden Bilder sowie die Schrittweite oder Abstände 22, in der die Bilder erfasst werden sollen, eingibt. Alternativ kann die Anzahl der zu erfassenden Bilder sowie die Schrittweite oder Abstände 22, in der die Bilder erfasst werden sollen, vordefiniert bzw. fest vorgegeben sein. Zum Aufnehmen des Bereichs der Oberfläche des Werkstücks 12 steuert die Steuereinrichtung 26 dann die Antriebseinrichtung 28 derart, dass der Abstand 22 zwischen dem Werkstück 12 und dem optischen Sensor 14 entsprechend der Voreinstellung verändert wird. Gleichzeitig steuert die Steuereinrichtung 26 den optischen Sensor 14 derart, dass eine Mehrzahl von Bildern des Bereichs der Oberfläche des Werkstücks 12 entsprechend der Voreinstellung erfasst wird, während der Abstand 22 verändert wird. Jedes Bild wird dabei mit einem anderen Abstand 22 zu dem Werkstück 12 erfasst. Die Mehrzahl von Bildern bildet dann einen Fokalbildstapel. Der Fokalbildstapel wird dann von der Steuereinrichtung 26 ausgewertet, um das Bild mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12 zu erzeugen. In diesem Bild mit erweiterter Schärfentiefe kann dann eine Kantenposition einer Kante in einem Bildbereich des Bildes lokalisiert werden.

[00147] Fig. 2 zeigt ein computerimplementiertes Verfahren 40 zum Erzeugen eines, insbesondere korrigierten, Bildes mit erweiterter Schärfentiefe eines Bereichs einer Oberfläche des Werkstücks 12. Das Verfahren kann beispielsweise mittels der Steuereinrichtung 26 durchgeführt werden. [00148] In einem ersten Schritt 42 des Verfahrens 40 wird ein Fokalbildstapel empfangen. Der Fokalbildstapel weist eine Mehrzahl von Bildern des Werkstücks 12 auf, wobei die Bilder den Bereich der Oberfläche des Werkstücks 12 mit in einer Tiefenrichtung unterschiedlichen, definierten Fokalebenenpositionen abbilden, wobei jedem Bild des Fokalbildstapels eine Fokalebenposition zugeordnet ist. Jedes Bild weist Bildpunkte auf. Die Bildpunkte der Bilder sind jeweils einem entsprechendem Objektpunkt auf der Oberfläche des Werkstücks 12 zugeordnet.

[00149] Vorzugsweise bilden die Bilder jeweils den Bereich der Oberfläche des Werkstücks 12 aus unterschiedlichen, definierten Abständen 22 zu dem Werkstück 12 in der Tiefenrichtung 20 ab. Jedem Bild des Fokalbildstapels ist dabei ein Abstand 22 zugeordnet. Da die Bilder in unterschiedlichen Abständen 22 zu dem Werkstück 12 in der Tiefenrichtung 20 erfasst werden, ist jedem Bild des Fokalbildstapels ein Tiefenwert in der Tiefenrichtung 20 zugeordnet. Insbesondere folgen die Tiefenwerte der Bilder in diskreten Schritten aufeinander.

[00150] Alternativ bilden die Bilder jeweils den Bereich der Oberfläche des Werkstücks 12 mit unterschiedlichen, definierten Fokusstellungen, sprich unterschiedlichen Fokalbildebenen, ab. Dabei kann jeder Fokusstellung bzw. Einstellung des Fokusabstands des Objektivs des optischen Sensors ein Tiefenwert in der Tiefenrichtung 20 zugeordnet sein, der dem Abstand zu der Fokalebene in der jeweiligen Fokusstellung bzw. Einstellung entspricht. Der Abstand des optischen Sensors 14 zu dem Werkstück 12 kann dabei konstant bleiben.

[00151] In Fig. 6A sind exemplarisch vier Bilder eines Fokalbildstapels dargestellt, wobei den Bildern unterschiedliche Tiefenwerte (Lage in z-Richtung) zugeordnet sind.

[00152] In einem weiteren optionalen Schritt 44 des Verfahrens 40 wird ein Schärfewert jedes Bildpunkts jedes Bildes des Fokalbildstapels bestimmt. Die Schärfewerte der Bildpunkte werden auf Basis einer Schärfe jedes Bildpunkts bestimmt. Dazu wird für jeden Bildpunkt ein Gradient der Helligkeit, eines Grau-Werts oder eines Kontrastwerts zu den umgebenden Bildpunkten des entsprechenden Bildes bestimmt. Auf diese Weise ist jedem Bild- punkt jedes Bildes aus dem Fokalbildstapel ein Schärfewert zugeordnet. Da jedem Bild ein Tiefenwert in der Tiefenrichtung 20 zugeordnet ist, ist entsprechend jedem Bildpunkt des jeweiligen Bildes auch derselbe Tiefenwert zugeordnet. Mit anderen Worten sind jedem Bildpunkt ein Tiefenwert und ein Schärfewert zugeordnet.

[00153] Wie eingangs erläutert, ist jedem Objektpunkt aus jedem Bild je ein Bildpunkt zugeordnet. In Fig. 6B sind die Schärfewerte f(z) der Bildpunkte dargestellt, die demselben Objektpunkt zugeordnet sind. Da die Bildpunkte aus unterschiedlichen Bildern des Fokalbildstapels kommen, sind den Bildpunkten (und somit auch ihren Schärfewerten) unterschiedliche Tiefenwerte zugeordnet. Fig. 6B zeigt die Verteilung dieser Schärfewerte entlang der Tiefenrichtung (z-Richtung).

[00154] In einem weiteren optionalen Schritt 46 des Verfahrens 40 wird jeweils eine Funktion entlang der Tiefenrichtung 20 an die Schärfewerte derjenigen Bildpunkte der Bilder eingepasst, die demselben Objektpunkt zugeordnet sind. Die Funktion beschreibt eine Zuordnung, bei der jedem Tiefenwert in der Tiefenrichtung ein entsprechender Schärfewert zugeordnet ist. Vorzugsweise ist die Funktion eine Gauß-Funktion. Alternativ können auch andere Funktionen wie beispielsweise eine parabolische Funktion zum Einpassen verwendet werden. Vorzugsweise ist die Funktion achsensymmetrisch bezüglich eines Maximums. Von der eingepassten Funktion können ein Maximum und ein Residuum bestimmt werden.

[00155] Das Einpassen einer Funktion entlang der Tiefenrichtung 20 an die Schärfewerte derjenigen Bildpunkte der Bilder, die demselben Objektpunkt zugeordnet sind, ist in Fig. 6C dargestellt. Fig. 6C zeigt insbesondere das Diagramm der Fig. 6B, wobei zusätzlich eine Funktion entlang der Tiefenrichtung an die Schärfewerte angepasst ist. Fig. 6D zeigt exemplarisch ein Bild mit erweiterter Schärfentiefe, das auf Grundlage der Figuren 6A bis 6C erzeugt ist.

[00156] In einem weiteren optionalen Schritt 48 des Verfahrens 40 wird der Tiefenwert jedes Objektpunkts auf der Oberfläche des Werkstücks 12 in der Tiefenrichtung 20 basierend auf den bestimmten Schärfewerten bestimmt. [00157] Beispielsweise kann der Tiefenwert jedes Objektpunkts basierend auf dem Maximum der jeweils eingepassten Funktion bestimmt. Das Maximum hat eine Lage, sprich einen Tiefenwert, in der Tiefenrichtung, wobei dieser Tiefenwert als Tiefenwert für den Objektpunkt bestimmt wird.

[00158] Alternativ kann der Tiefenwert jedes Objektpunkts basierend auf dem Maximum und dem Residuum der jeweils eingepassten Funktion bestimmt. Das Residuum ist ein Maß dafür, wie stark die Funktion von den ermittelten Schärfewerten abweicht. Das Residuum gibt somit die Qualität des Fits an. Für jeden Objektpunkt, für den das Residuum der entsprechenden, eingepassten Funktion größer als ein definierter Schwellwert ist, wird der Tiefenwert basierend auf einem Maximum der entsprechenden, eingepassten Funktion bestimmt. Für jeden Objektpunkt, für den das Residuum der entsprechenden, eingepassten Funktion gleich oder kleiner als der definierte Schwellwert ist, wird der Tiefenwert durch Interpolation der Tiefenwerte von mindestens zwei benachbarten Objektpunkten bestimmt wird. Insbesondere kann hierzu zunächst für alle Objektpunkte der Tiefenwert basierend auf den Maxima der eingepassten Funktionen bestimmt werden, wobei für die Objektpunkte, für die das Residuum der entsprechenden, eingepassten Funktion gleich oder kleiner als der definierte Schwellwert ist, die Tiefenwerte wieder verworfen werden und durch Interpolation der Tiefenwerte benachbarter Objektpunkte bestimmt werden.

[00159] Die bestimmten Tiefenwerte der Objektpunkte bilden eine Tiefenkarte des Bereichs der Oberfläche des Werkstücks 12.

[00160] In einem weiteren Schritt 50 des Verfahrens 40 wird ein Bild mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12 basierend auf den bestimmten Tiefenwerten jedes Objektpunkts und den Bildern des Fokalbildstapels erzeugt. Mit anderen Worten wird das Bild mit erweiterter Schärfentiefe auf Basis der Tiefenkarte und des Fokalbildstapels erzeugt. Das Bild mit erweiterter Schärfentiefe, das auf Grundlage der Figuren 6A bis 60 erzeugt ist, ist in der Fig. 6D exemplarisch dargestellt

[00161] In einem weiteren, optionalen Schritt 52 des Verfahrens 40 werden ein oder mehrere Abbildungsfehler in dem Bild mit erweiterter Schärfentiefe korrigiert. Die zu korrigierenden Abbildungsfehler können einen Verzeichnungsfehler und ein Astigmatismus-Fehler aufweisen. Zur Korrektur der Abbildungsfehler können die Lage der Bildpunkte senkrecht zu der Tiefenrichtung und/oder die Tiefenwerte der Objektpunkte, sprich die Tiefenkarte, korrigiert werden. Bei Korrektur der Tiefenwerte der Objektpunkte wird dann das Bild mit erweiterter Schärfentiefe basierend auf den korrigierten Tiefenwerten und dem Fokalbildstapel korrigiert bzw. neu erzeugt. Vorzugsweise wird der Verzeichnungsfehler korrigiert, nachdem der Astigmatismus-Fehler korrigiert wurde. Mit anderen Worten kann der Astigmatismus-Fehler vor dem Verzeichnungsfehler korrigiert werden.

[00162] Zum Korrigieren des Verzeichnungsfehlers ist jedem Punkt des Bildes mit erweiterter Schärfentiefe mindestens ein Verzeichnungswert zugeordnet, wobei eine Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe senkrecht zu der Tiefenrichtung basierend auf dem mindestens einen Verzeichnungswert korrigiert wird. Der Verzeichnungswert gibt an, wie der Punkt des Bildes mit erweiterter Schärfentiefe in x- und/oder y-Richtung bzw. in radialer und/oder tangentialer Richtung zur Korrektur der Verzeichnung des Punktes zu verschieben/entzerren ist. Insbesondere können jedem Punkt des Bildes mit erweiterter Schärfentiefe ein erster Verzeichnungswert und ein zweiter Verzeichnungswert zugeordnet sein, wobei die Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe in einer ersten Richtung basierend auf dem ersten Verzeichnungswert und in einer zweiten Richtung basierend auf dem zweiten Verzeichnungswert korrigiert wird. Die erste und zweite Richtung können dabei beispielsweise die x- und y-Richtung oder die radiale und tangentiale Richtung sein.

[00163] Die Korrektur des Astigmatismus-Fehlers hängt von der Kantenrichtung ab bzw. der Astigmatismus-Fehler ist winkelabhängig. Für den Bereich der Oberfläche des Werkstücks 12 wird daher zunächst eine Winkelkarte bestimmt. Die Winkelkarte ordnet jedem Punkt des Bildes mit erweiterter Schärfentiefe einen Winkel 0 zu. Der Winkel 0 ergibt sich aus einem Bildgradienten zu umliegenden Bildpunkten. Jedem Punkt des Bildes mit erweiterter Schärfentiefe ist ein erster Korrekturwert und ein zweiter Korrekturwert zugeordnet, wobei der Tiefenwert jedes Punkts des Bildes mit erweiterter Schärfentiefe basierend auf dem ersten Korrekturwert, dem zweiten Korrekturwert und der Winkelkarte korrigiert wird. [00164] Im Allgemeinen kann der Astigmatismus für jeden des korrigierten Bildes mit erweiterter Schärfentiefe über eine vom Winkel 0 abhängige Funktion, insbesondere Modell- oder Fitfunktion, mit mindestens zwei Parametern beschrieben werden. Bei einer Funktion mit zwei Parametern entsprechen diese Parameter dem ersten und zweiten Korrekturwert. Insbesondere kann der Astigmatismus als Linearkombination aus zwei radialsymmetrischen Sinusfunktionen modelliert werden. Dabei entspricht der erste Korrekturwert dem Koeffizienten der ersten Sinusfunktion und der zweite Korrekturwert dem Koeffizienten der zweiten Sinusfunktion. Beispielsweise kann der Astigmatismus mit der Formel a sin 0 + ß cos 0 (Entwicklung erster Ordnung) bzw. a sin 20 + ß cos 20 (Entwicklung zweiter Ordnung) modelliert werden.

[00165] Da aus der Winkelkarte für jeden Punkt des korrigierten Bildes mit erweiterter Schärfentiefe der Winkel 0 bestimmt ist, kann somit für jeden Punkt des korrigierten Bildes mit erweiterter Schärfentiefe ein effektiver Korrekturwert mittels der Formel a sin 0 + ß cos 0 oder a sin 20 + ß cos 20 berechnet werden. Die Korrektur des jeweiligen Tiefenwerts erfolgt dann durch Subtraktion des entsprechenden effektiven Korrekturwerts von dem jeweiligen Tiefenwert. Mit Hilfe der korrigierten Tiefenwerte (Tiefenkarte) kann dann ein korrigiertes Bild mit erweiterter Schärfentiefe erzeugt werden, in dem der astigmatische Abbildungsfehler korrigiert ist.

[00166] Die Korrekturwerte und Verzeichnungswerte zum Korrigieren der jeweiligen Abbildungsfehler können wie in den Figuren 4 und 5 nachfolgend beschrieben im Voraus bestimmt werden.

[00167] Fig. 3 zeigt ein Verfahren 60 zum Aufnehmen eines, insbesondere korrigierten, Bildes mit erweiterter Schärfentiefe eines Bereichs einer Oberfläche des Werkstücks 12 mit dem optischen Sensor 14 des Messgeräts 10. Das Werkstück 12 wird zum Vermessen auf dem Werkstückhalter 16 angeordnet. Der optische Sensor 14 kann dann einen Bereich der Oberfläche des Werkstücks 12 erfassen. Der optische Sensor 14 und das Werkstück 12 sind in einer Tiefenrichtung 20 relativ zueinander bewegbar, so dass der Abstand 22 in der Tiefenrichtung 20 zwischen dem Werkstück 12 und dem optischen Sensor 14 veränderbar ist. [00168] In einem Schritt 66 des Verfahrens 60 wird der Abstand 22 zwischen dem Werkstück und dem optischen Sensor verändert. Dazu kann die Antriebseinrichtung den optischen Sensor 14 relativ zu dem Werkstückhalter 16 in der Tiefenrichtung 20 bewegen und/oder den Werkstückhalter 16 relativ zu dem optischen Sensor 14 in der Tiefenrichtung 20 bewegen, um den Abstand 22 zwischen dem Werkstück 16 und dem optischen Sensor 14 zu verändern. Insbesondre kann der Abstand 22 in diskreten Schritten, beispielsweise in Schritten von 50pm verändert werden.

[00169] In einem weiteren Schritt 68 des Verfahrens 60 wird eine Mehrzahl von Bildern eines Bereichs der Oberfläche des Werkstücks mittels des optischen Sensors erfasst, während der Abstand 22 zwischen dem Werkstück und dem optischen Sensor verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks 12 aus unterschiedlichen, definierten Abständen 22 zu dem Werkstück 12 in der Tiefenrichtung 20 abbilden, wobei jeder Bildpunkt jedes Bildes einem entsprechendem Objektpunkt auf der Oberfläche des Werkstücks 12 zugeordnet ist, und wobei die erfassten Bilder einen Fokalbildstapel bilden.

[00170] In einem weiteren Schritt 70 des Verfahrens 60 wird das, insbesondere korrigierte, Bild mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12 mittels des Verfahrens aus Fig. 2 erzeugt.

[00171] In einem weiteren optionalen Schritt 72 des Verfahrens 60 wird das erzeugte, insbesondere korrigierte, Bild mit erweiterter Schärfentiefe mittels der Ausgabeeinrichtung 36 ausgegeben.

[00172] In einem weiteren optionalen Schritt 64 des Verfahrens 60 wird das Werkstück 12 mittels der Beleuchtungseinrichtung 32 während des Erfassens der Bilder des Fokalbildstapels beleuchtet.

[00173] In einem weiteren optionalen Schritt 62 des Verfahrens 60 werden der erste Korrekturwert und der zweite Korrekturwert für jeden Objektpunkt/Bildpunkt des Bildes mit erweiterter Schärfentiefe bestimmt. Mit anderen Worten werden dabei die Korrekturwerte zur Korrek- tur des Astigmatismus-Fehlers bestimmt. Dazu wird initial, sprich vor dem Aufnehmen des korrigierten Bildes mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12, insbesondere vor den Schritten 64 bis 72, ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts, insbesondere eines Punktgitters, aufgenommen. Das Bild mit erweiterter Schärfentiefe des Kalibrationsobjekts wird entsprechend den Schritten 64 bis 70 mit einem Kalibrationsobjekt als Werkstück erzeugt, wobei beim Erzeugen dieses Bildes keine Korrektur von Abbildungsfehlern vorgenommen wird. Fig. 15A zeigt eine exemplarische Darstellung eines Kalibrationsobjekts in Form eines Punktgitters. Da das Oberflächenprofil des Kalibrationsobjekts bekannt ist, können die zu bestimmenden Korrekturwerte dann basierend auf Abweichungen des Bildes mit erweiterter Schärfentiefe des Kalibrationsobjekts zu dem bekannten Oberflächenprofil des Kalibrationsobjekts bestimmt werden.

[00174] In einem weiteren optionalen Schritt 63 des Verfahrens 60 wird, vorzugsweise nach dem Schritt 62, mindestens ein Verzeichnungswert für jeden Punkt des Bildes mit erweiterter Schärfentiefe bestimmt. Dazu wird initial, sprich vor dem Aufnehmen des korrigierten Bildes mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12, insbesondere vor den Schritten 64 bis 72, ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts, insbesondere eines Punktgitters, aufgenommen. In den Schritten 62 und 63 kann dasselbe Kalibrationsobjekt verwendet werden. Insbesondere kann in dem Schritt 63 das im Schritt 62 aufgenommene Bild das Kalibrationsobjekts, insbesondere des Punktgitters, verwendet werden. Da das Oberflächenprofil des Kalibrationsobjekts bekannt ist, kann der mindestens eine Verzeichnungswert jedes Punkts des Bildes mit erweiterter Schärfentiefe dann basierend auf einer Abweichung des Bildes mit erweiterter Schärfentiefe zu einem bekannten Oberflächenprofil des Kalibrationsobjekts bestimmt werden. Vorzugsweise wird dabei für jeden Punkt des Bildes mit erweiterter Schärfentiefe ein Versatz in x- und/oder y-Richtung bzw. in radialer und/oder tangentialer Richtung ermittelt, wobei der Korrekturwert die Verschiebung in der entsprechenden Richtung angibt. Insbesondere, wenn jedem Punkt des Bildes mit erweiterter Schärfentiefe jeweils ein erster und ein zweiter Verzeichnungswert zugeordnet sind, gibt der erste Verzeichnungswert den Versatz in der ersten Richtung (beispielswiese x- oder radialer Richtung) und der zweite Verzeichnungswert den Versatz in der zweiten Richtung(beispielswiese y- oder tangentiale Richtung) an. [00175] Die Schritte 62 und 63 sind somit als Kalibrierungsschritte zu verstehen, bei denen systematische Messfehler des optischen Sensors bestimmt und entsprechende Korrekturwerte ermittelt werden. Zur Kalibrierung kann dabei insbesondere ein Punktgitter verwendet werden.

[00176] Fig. 4 zeigt ein Beispiel für Verfahrensschritte, mittels denen die Korrekturwerte in dem Schritt 62 des Verfahrens 60 bestimmt werden können.

[00177] In einem ersten Schritt 80 wird ein Bild mit erweiterter Schärfentiefe eines Punktgitters als Kalibrationsobjekt erzeugt. Das Bild mit erweiterter Schärfentiefe des Punktgitters wird entsprechend den Schritten 64 bis 70 mit einem Punktgitter als Werkstück 12 erzeugt. Eine exemplarische Darstellung eines Punktgitters als Kalibrationsobjekt ist Fig. 15A dargestellt.

[00178] In einem weiteren Schritt 82 werden die Bildpunkte des Bildes mit erweiterter Schärfentiefe des Punktgitters segmentiert, die jeden einzelnen Punkts des Punktgitters abbilden. Auf diese Weise werden die Bildpunkte des Bildes mit erweiterter Schärfentiefe des Punktgitters bestimmt, die jeweils einem Punkt des Punktgitters zugeordnet sind und diesen abbilden. Zur Segmentierung kann eine zirkuläre Hough-Transformation verwendet werden, mittels der Kreise erkannt werden können. Die zirkuläre Hough- Transformation kann beispielsweise auf das Bild mit erweiterter Schärfentiefe des Punktgitters angewandt werden, um die Position der einzelnen Punkte des Punktgitters zu detektieren. Insbesondere kann die zirkuläre Hough-Transformation dazu verwendet werden, für jeden Punkt des Punktgitters die Positionen der Bildpunkte (Randpunkte) zu bestimmen, die auf dem Rand jedes Punktgitterkreises angeordnet sind. Diese Randpunkte sind dann die Bildpunkte, die dem jeweiligen Punkt des Punktgitters zugeordnet werden.

[00179] In einem weiteren Schritt 84 wird für jeden Punkt des Punktgitters ein erster Korrekturwert und ein zweiter Korrekturwert basierend auf einer Kostenfunktion L zwischen einem Astigmatismus-Modell und den korrigierten Tiefenwerten des jeweiligen Punkts des Punktgitters bestimmt. Als Astigmatismus-Modell kann eine Linearkombination aus zwei radial-symmetrischen Sinus-Funktionen verwendet werden. Das Astigmatismus-Modell kann beispielsweise durch die Formel a sin 20 + ß cos 20 definiert werden. Dabei sind a und ß die Koeffizienten der Sinusfunktionen und 0 ein Winkel in der X-Y Ebene um den Mittelpunkt des jeweiligen Punkts des Punktgitters. Die Kostenfunktion L ist entsprechend der folgenden Gleichung definiert: L(a,ß) = 0) - (a sin 20 + ? cos 20)| 2

[00180] In der Kostenfunktion wird dabei eine Summe über diejenigen Punkte des korrigierten Bildes mit erweiterter Schärfentiefe gebildet, die dem entsprechenden Punkt des Punktgitters zugeordnet sind bzw. diesen abbilden und/oder repräsentieren. Die Lage dieser Punkte in der X-Y Ebene kann in Polarkoordinaten r und 0 bezüglich des Mittelpunkts des jeweiligen Punkts des Punktgitters angegeben werden. f(r, 0) gibt die Abweichung des Tiefenwerts dieser Punkte des korrigierten Bildes mit erweiterter Schärfentiefe gegenüber dem gemittelten Tiefenwert des Punkts des Punktgitters an. Die Kostenfunktion wird dann nach den Koeffizienten der Sinus-Funktionen minimiert. Der erste und zweite Korrekturwert des Punkts des Punktgitters kann dann auf Basis der minimierten Koeffizienten a und ß bestimmt werden. Insbesondere entsprechen der erste und zweite Korrekturwert des Punkts des Punktgitters den minimierten Koeffizienten.

[00181] In einem weiteren Schritt 86 werden die ersten und zweiten Korrekturwerte der Bildpunkte des Bildes mit erweiterter Schärfentiefe, insbesondere die ersten und zweiten Korrekturwerte für die Tiefenwerte der Objektpunkte, basierend auf den ersten und zweiten Korrekturwerten jedes Punkts des Punktgitters über den gesamten Bereich interpoliert. Auf diese Weise kann jedem Bildpunkt des Bildes mit erweiterter Schärfentiefe, insbesondere jedem Objektpunkt, ein erster und zweiter Korrekturwert zugeordnet werden.

[00182] Fig. 5 zeigt Verfahrensschritte, mittels denen die Verzeichnungswerte der Punkte des Bildes mit erweiterter Schärfentiefe in dem Schritt 63 des Verfahrens 60 bestimmt werden.

[00183] In einem ersten Schritt 110 wird ein Bild mit erweiterter Schärfentiefe eines Punktgitters als Kalibrationsobjekt erzeugt. Das Bild mit erweiterter Schärfentiefe des Punktgitters wird vorzugsweise entsprechend den Schritten 64 bis 70 mit einem Punktgitter als Werkstück 12 erzeugt. Insbesondere kann in dem Schritt 110 das im Schritt 62 bzw. 80 aufgenommene Bild mit erweiterter Schärfentiefe des Punktgitters verwendet werden.

[00184] Insbesondere können in dem aufgenommenen Bild mit erweiterter Schärfentiefe des Punktgitters bereits einer oder mehrere der Abbildungsfehler mit Ausnahme des Verzeichnungsfehlers korrigiert werden. Insbesondere kann der Astigmatismus-Fehler korrigiert werden.

[00185] In einem weiteren Schritt 112 wird der mindestens eine Verzeichnungswert für jeden Bildpunkt des Bildes mit erweiterter Schärfentiefe basierend auf dem aufgenommenen Bild mit erweiterter Schärfentiefe des Punktgitters und der bekannten Form des Punktgitters, insbesondere der bekannten Anordnung bzw. Lage der Punkte des Punktgitters, bestimmt.

[00186] Beispielsweise kann hierzu zunächst wieder eine Segmentierung der Punkte des Punktgitters durchgeführt werden, wie im Schritt 82, um die Bildpunkte des Bildes mit erweiterter Schärfentiefe des Punktgitters zu bestimmen, die jeweils einem Punkt des Punktgitters zugeordnet sind und diesen abbilden. Aus den segmentierten Bildpunkten lässt sich dann die Lage der Punkte des Punktgitters bestimmen. Die bestimmte Lage jedes Punkts des Punktgitters kann dann mit der bekannten Lage jedes Punkts des Punktgitters verglichen werden. Auf diese Weise kann eine Verzeichnung, sprich ein Versatz, zwischen bestimmter und bekannter Lage der Punkte ermittelt werden. Daraus lässt sich dann mindestens ein Verzeichnungswert, insbesondere der erste und zweite Verzeichnungswert, für den Punkt des Punktgitters bestimmen. Die Verzeichnungswerte aller Bildpunkte des Bildes mit erweiterter Schärfentiefe können dann durch Interpolation über den gesamten Bereich bestimmt werden.

[00187] Mit Bezug auf die Figuren 7 bis 10 wird im Folgenden erläutert, wie die Messeinflüsse von Bildfeldkrümmung und Astigmatismus sich auf die Abbildung eines Objekts auswirken.

[00188] Aufgrund von Bildkippung und Bildkrümmung bilden reale optische Systeme ein flaches Messobjekt auf eine gekrümmte Bildebene ab. Zusätzlich weisen reale optische Systeme einen ortsabhängigen Telezentriefehler auf, d.h. eine ortsabhängige Vergrößerungsänderung in Abhängigkeit von der Defokussierung. Dies führt im Allgemeinen zu einer Bildstandsänderung, sprich Kantenbewegung, oder einem dimensionellen Messfehler im aufgenommenen Bild. Das Zusammenspiel aus Bildfeldkrümmung und Telezentriefehler kann zu unerwarteten und komplexen Messeinflüssen führen. Insbesondere können sich Messergebnisse in Abhängigkeit einer gewählten Autofokusposition, bspw. auf der optischen Achse oder am Feldrand, ändern. Dies wird im Folgenden genauer erläutert.

[00189] Fig. 7 zeigt für ein flaches Objekt, das unter dem Einfluss von Petzval-Aberration (Bildfeldkrümmung) auf einer gekrümmten Bildebene 126 fokussiert abgebildet ist, den Abbildungsstrahlengang von der Ausgangspupille 120 zur gekrümmten Bildebene 126. Diese Ebene wird auch als beste Einstellebene nach Petzval bezeichnet. Das Bezugszeichen 122 kennzeichnet den austretenden Hauptstrahl eines abzubildenden Randpunktes des betrachteten Objektes und das Bezugszeichen 124 kennzeichnet einen austretenden Randstrahl des abzubildenden Zentralpunktes des betrachteten Objektes. Ein einzelner Autofokuspunkt im Bild fokussiert das Bild auf einen einzelnen Bereich der Petzvalebene, so dass nicht das gesamte Bild gleichzeitig im Fokus ist. Abstände/Positionen (Bspw. L1 , L2), die im Bild gemessen werden, ändern sich in Abhängigkeit von der gewählten Autofokusposition (B1 , B2), bspw. im Bildzentrum oder am Bildrand. Für nah beieinander liegende Messfeatures wird unter der Annahme, dass der Telezentriefehler a (Winkel der betrachteten Hauptstrahlrichtung gegenüber der optischen Achse bzw. der Bildfeldnormalen für B1 bzw. B2) für beide Punkte gleich groß ist, die Änderung der Autofokusposition zu einer Verschiebung („Walking“) führen. Für weiter entfernt liegende Messfeatures wird unter der Annahme, dass der Telezentriefehler für beide Punkte unterschiedlich ist, die Änderung der Autofokusposition zu einem systematischen Messfehler führen.

[00190] Neben der Bildfeldkrümmung weisen reale Optiksysteme zusätzlich einen astigmatischen Einfluss auf. Fig. 8 zeigt exemplarisch den Astigmatismus einer Linse. Diese hat einen tangentialen Fokus 130 und einen sagittalen Fokus 132. Diese sind in der Tiefenrichtung (z-Richtung) um ein Delta 134 zueinander versetzt. Der tangentiale Fokus 130 liegt näher an der Linse als der sagittale Fokus 132. Dies führt dazu, dass in Abhängigkeit der Kantenorientierung eine sich ändernde beste Einstellebene ergibt. Insbesondere werden horizontale und vertikale Kantenorientierungen im Objekt in eine unterschiedliche beste Einstellebene am schärfsten abgebildet. Das Zusammenspiel aus Astigmatismus und Telezentriefehler führt auch hier zu unerwarteten und komplexen Messeinflüssen. Insbesondere können sich Messergebnisse in Abhängigkeit einer Autofokusposition auf einer horizontalen oder vertikalen Kante ändern. Dies wird im Folgenden genauer erläutert.

[00191] Fig. 9 zeigt exemplarisch für ein abzubildendes, flaches Objekt analog zu Fig. 7 den Abbildungsstrahlengang von der Austrittspupille 120 in zwei unterschiedlichen Bildebenen 140 und142, die dadurch entstehen, dass durch den Astigmatismus der Abbildungsoptik Kantenorientierungsabhängig in unterschiedliche beste Einstellebenen abgebildet wird. Im Allgemeinen weisen diese im englischen als sagittal und tangential und im deutschen als sagittal und meridional bezeichneten Einstellebenen im Gegensatz zu der Darstellung der Fig. 9 keinen einfachen Verlauf über das Bildfeld auf. Zur besseren Erläuterung sind aber die Extremfälle der tangential besten Einstellebene 140 und der sagittal besten Einstellebene 142 in der Fig. 9 als sich gegenüberliegende Kugelschalen dargestellt. Abhängig von der tatsächlichen Kantenorientierung 144 ist allerdings auch eine beliebige beste Einstellebene dazwischen möglich. Somit wird abhängig von der lokalen Kantenorientierung der Autofokus in unterschiedliche Einstellebenen fokussieren. D.h. an der gleichen Bildposition ist die beste Autofokusposition Kantenorientierungsabhängig. Abstände (Bspw. L1, L2, D1 , D2) die im Bild gemessen werden, ändern sich dadurch in Abhängigkeit vom kantenorientierungsabhängigen Autofokus im Bild. D.h. insbesondere, dass sich Messergebnisse in Abhängigkeit des Autofokus auf einer horizontalen oder vertikalen Linie verändern. Der Fehler wird dabei umso größer, je größer die Telezentrieabweichung a des Systems ist.

[00192] Bildfeldwölbung und Astigmatismus können gleichzeitig auftreten. Dies ist in Fig. 10 dargestellt. Ein Messobjektiv, welches Petzvalkrümmung und Astigmatismus aufweist, wird das Bild in einer besten Einstellebene 126 zwischen sagittaler und tangentialer bester Einstellebene am schärfsten abbilden. Die genaue Lage zwischen den Bildschalen ist abhängig von Kantenorientierungen im Messobjekt. D.h. im Allgemeinen wird ein telezentriebedingter Messeinfluss sowohl von Petzval als auch astigmatischen Autofokuseinflüssen beeinflusst. [00193] Im Folgenden wird nochmals mit Bezug auf die Figuren 11 bis 17C erläutert, wie eine messfähige Messaufnahme, sprich ein korrigiertes Bild mit erweiterter Schärfentiefe, eines Bereichs einer Oberfläche eines Werkstücks aufgenommen werden kann.

[00194] Zunächst wird der Fall betrachtet, in dem der Astigmatismus als verschwindend klein angenommen wird und nur Bildfeldkrümmung die Abbildung wesentlich beeinflusst. Hierzu wird die Bildqualität des gesamten Fokalbildstapels bewertet und die entsprechende Messaufnahme auf der beliebig gekrümmten besten Einstellebene berechnet. Diese Messaufnahme ist unabhängig von der Autofokusposition. Sie weist jedoch neben der klassischen Verzeichnung eine zusätzliche Telezentriefehler bedingte Verzeichnung auf. Dieser Verzeichnungseinfluss muss kalibriert und kompensiert werden.

[00195] Dazu wird zunächst in einem Kalibrationsprozess, wie zuvor in Fig. 5 beschrieben, ein Fokalbildstapel eines Kalibrationsobjekts aufgenommen. Dann wird eine Kalibrieraufnahme auf der besten Einstellebene berechnet. Als Kalibrieaufnahme wird dabei ein Bild mit erweiterter Schärfentiefe des Kalibrationsobjekts erzeugt. Dann wird die Verzeichnung des Bildes in der besten Einstellebene bewertet. Dabei wird für jeden Punkt mindestens ein Verzeichnungswert ermittelt. Die Verzeichnungswerte können dann in eine Look-Up- Table abgespeichert werden.

[00196] Dann kann in einem Messprozess die messfähige Aufnahme, sprich das korrigierte Bild mit erweiterter Schärfentiefe, eines Bereichs einer Oberfläche eines Werkstücks aufgenommen werden. Zunächst wird dabei ein Fokalbildstapel des Werkstücks aufgenommen. Dann wird eine Messaufnahme auf der beliebig gekrümmten besten Einstellebene nach Petzval errechnet. Dies ist exemplarisch in Fig. 11 dargestellt. Als Messaufnahme wird dabei ein Bild mit erweiterter Schärfentiefe erzeugt, beispielsweise mittels der Schritte 42 bis 50 des Verfahrens aus Fig. 2. Daraufhin wird eine Verzeichnungskorrektur des Bildes in der besten Einstellebene auf Grundlage der im Kalibrationsprozess ermittelten Verzeichnungswerte durchgeführt. Auf diese Weise kann dann eine autofokusunabhängige und Telezentriefehler korrigierte Messaufnahme, sprich ein korrigiertes Bild mit erweiterter Schärfentiefe, erzeugt werden. Die Korrektur der Verzeichnung kann beispielsweise wie in dem Schritt 52 des Verfahrens aus Fig. 2 beschrieben erfolgen. [00197] Das so beschriebene Vorgehen ermöglicht die Kompensation autofokusabhäniger Messfehler und die Erzeugung einer messfähigen Aufnahme mit erweiterter Schärfentiefe.

[00198] Als nächstes wird der Fall betrachtet, in dem sowohl der Astigmatismus als auch die Bildfeldkrümmung die Abbildung beeinflussen. Aufgrund dieser Einflüsse wird der bestimmte beste Bildpunkt nicht mehr auf der besten Einstellebene nach Petzval liegen, sondern kantenorientierungsabhängig zwischen sagittaler und tangentialer bester Einstellebene vermitteln. Um nun telezentriebedingte Messeinflüsse zu minimieren, sollte ein astigmatisch kompensiertes (sprich korrigiertes) Bild mit erweiterter Schärfentiefe bestimmt werden. Hierfür wird das Bild nicht in der kantenorientierungsabhängig schärfsten Bildebene ausgewertet, sondern in der astigmatismusfreien besten Einstellebene (Petzvalschale). Dies ist exemplarisch in Fig. 12 dargestellt.

[00199] Hierfür werden in einem initialen Schritt die astigmatischen Einflüsse mit Hilfe eines geeigneten Kalibrationsobjekts bewertet und kalibriert, das heißt es werden sowohl die beste Einstellebene als auch die astigmatischen Schalenlagen bestimmt.

[00200] Für die Errechnung eines astigmatisch kompensierten Bildes mit erweiterter Schärfentiefe eines Bereichs einer Oberfläche eines Werkstücks wird dann zunächst die schärfste Bildebene bestimmt und in einem nachfolgenden Korrekturschritt wird diese Bildposition kantenorientierungsabhängig in die astigmatisch kompensierte Einstellebene verschoben. Mit Hilfe der astigmatisch kompensierten Tiefenwerte der Einstellebene wird dann ein astigmatisch kompensiertes Bild mit erweiterter Schärfentiefe erzeugt.

[00201] Im Folgenden wir anhand eines Punktgitters als Werkstück beispielhaft erläutert, wie die Korrektur des Astigmatismus durchgeführt wird. Das Punktgitter ist flach. In Fig. 13B ist exemplarisch ein unkorrigiertes Bild mit erweiterter Schärfentiefe des Punktgitters dargestellt. Fig. 13A zeigt exemplarisch eine Tiefenkarte der Tiefenwerte der Objektpunkte, auf Basis derer das Bild aus Fig. 13B erzeugt wurde. Aufgrund des astigmatischen Fehlers ist die Tiefenkarte nicht flach. [00202] In Fig. 14B ist exemplarisch ein Bild mit erweiterter Schärfentiefe des Punktgitters dargestellt, das gegenüber dem Bild aus Fig. 13B astigmatisch kompensiert ist. Fig. 14A zeigt exemplarisch eine Tiefenkarte der astigmatisch korrigierten Tiefenwerte der Objektpunkte, auf Basis derer das Bild aus Fig. 14B erzeugt wurde. Die korrigierte Tiefenkarte zeigt, dass das Punktgitter im Wesentlichen flach ist.

[00203] Eine Bildberechnung bzw. Bildanalyse in der schärfsten Bildebene nach Autofokuskriterium, sprich auf Grundlage der unkorrigierten Tiefenwerte ist schwierig, da ein errechnetes Bild erweiterter Schärfentiefe eine kantenorientierungsabhängige Verzeichnung („Edge-Walking“) durch astigmatische Einflüsse aufweist.

[00204] Anders verhält es sich bei einer Bildberechnung bzw. Bildanalyse in der astigmatisch kompensierten besten Einstellebene, sprich auf Grundlage des astigmatisch kompensierten Bildes mit erweiterter Schärfentiefe. Diese resultiert aus einer Verschiebung der ermittelten Bildposition in die beste Einstellebene. In dieser sind die astigmatischen Walking-Effekte unterdrückt. Eine Verzeichnungskorrektur im astigmatisch kompensierten Bild mit erweiterter Schärfentiefe erzeugt somit eine messfähige, überall fokussierte Aufnahme.

[00205] Zur Errechnung der astigmatisch kompensierten Einstellebene wird auf Grundlage der lokalen Kantenorientierung im Bild ein astigmatischer Korrekturwert ermittelt und vom Tiefenwert der schärfsten Einstellebene subtrahiert. Die lokale Kantenorientierung wird hierbei durch numerische Approximation des Bildgradienten beispielsweise durch direkti- onale Sobelfilter in einem Einzelbild oder als gewichtete Mittelung der Gradienten durch mehrere Bilder des Fokalbildstapels approximiert.

[00206] Um die Kantenorientierung innerhalb eines Bilds zu finden, wird beispielsweise mit Hilfe diskreter Ableitungsoperatoren ein Gradientenvektorfeld

[G z , G y ] = [d x Bild(x,y), d y Bild(x,y)] errechnet und hiervon der Kantenorientierungswinkel bestimmt.

[00207] Die numerische Bestimmung des Gradienten im Bild ist anfällig gegenüber Rausch- und etwaigen Störeinflüssen. Dies beeinflusst sensitiv die errechnete Winkelkarte und kann die astigmatische Korrektur verfälschen. Im schlimmsten Fall kann ein inkorrekt bestimmter Winkel einen falschen Korrekturschritt implizieren, der den astigmatischen Messfehler vergrößert.

[00208] Eine robuste Methode besteht darin, die Gradientenvektorfelder über mehrere Bildebenen hinweg in einem Bereich von 1-10 Rayleigheinheiten um den schärfsten Bildpunkt zu mitteln und aus dem gemittelten Gradientenvektorfeld die Winkelkarte zu errechnen.

[00209] Zur Korrektur wird mit Hilfe des bestimmten Kantenorientierungswinkels der astigmatische

Offset zur besten Einstellebene im Allgemeinen wie folgt bestimmt:

[00210] Dabei ist m ein natürliche Zahl und gibt die Ordnung der Entwicklung an. Der Offset dz gibt demnach für jeden Objektpunkt (x, y) den effektiven Korrekturwert an. Betrachtet man also die Entwicklung bis zur N-ten Ordnung werden jedem Objektpunkt dann N dritte Korrekturwerte und N vierte Korrekturwerte zugeordnet. Vorzugsweise wird die Entwicklung nur in zweiter Ordnung betrachtet. Der astigmatische Offset zur besten Einstellebene wird dann wie folgt bestimmt: dz(6, x, y) = a 2 (x,y) sin(20) + b 2 (x,y) cos(20)

[00211] Der erste Korrekturwert entspricht dann dem Koeffizienten a 2 und der zweite

Korrekturwert entspricht dann dem Koeffizienten b 2 . [00212] Der effektive Korrekturwert wird dann von der bestimmten Position maximaler Schärfe, sprich dem ermittelten Tiefenwert des Objektpunkts, subtrahiert. Die so neu bestimmte Position, sprich der astigmatisch korrigierte Tiefenwert des Objektpunkts ist nicht im richtungsabhängigen absoluten Schärfepunkt, jedoch gegenüber astigmatisch bedingten T elezentrie-Einflüssen kompensiert.

[00213] Das astigmatisch kompensierte Bild mit erweiterter Schärfentiefe kann dann auf Basis der astigmatisch korrigierten Tiefenwerte der Objektpunkte erzeugt werden. Auf diese Weise wird die Aufnahme nicht mehr in der schärfsten Bildebene, sondern in der besten Einstellebene ausgewertet. Dies bewirkt eine leicht verringerte Bildschärfe im astigmatisch kompensierten Bild mit erweiterter Schärfentiefe, kompensiert jedoch Telezentriefehler bedingte Verschiebungen bzw. Messfehler. Um nun eine messfähige Aufnahme zu erhalten wird in einem letzten Schritt die Verzeichnung korrigiert. Die Korrektur der Verzeichnung kann beispielsweise wie in dem Schritt 52 des Verfahrens aus Fig. 2 beschrieben erfolgen.

[00214] In den Figuren 15A bis 17C ist nochmals beispielhaft das Vorgehen in einem Kalibrationsprozess zur Bestimmung der Astigmatischen Korrekturwerte, sprich der ersten und zweiten Korrekturwerte, beschrieben.

[00215] Zunächst wird ein Bild mit erweiterter Schärfentiefe eines Punktgitters aufgenommen. Fig. 15A zeigt eine exemplarische Darstellung eines Punktgitters. Das Punktgitter ist flach. Allerdings führt der Astigmatismus dazu, dass die Bildpunkte, die einen Punkt des Punktgitters abbilden winklelabhängig, sprich abhängig von der Orientierung des Bildpunkts zu dem Mittelpunkt des Punkts des Punktgitters, in der Tiefenrichtung je nach Winkel in Richtung des tangentialen oder sagittalen Fokus verschoben werden. Dies ist beispielsweise in Fig. 15B und 15C dargestellt. Fig. 15B zeigt ein 3D-Diagram zur Darstellung der schärfsten Bildpunkte des Randes eines Punktes des Punktgitters aus Fig. 15A. Fig. 15C zeigt ein Diagramm zur Darstellung der Tiefenwerte der schärfsten Bildpunkte aus Fig. 15B über dem jeweiligen Kantenorientierungswinkel. In den Figuren 15B und 15C ist zu erkennen das der tangentiale Fokus 130 und der sagittale Fokus 132 in der Tiefenrichtung 134 verschoben sind. [00216] An die bestimmten Tiefenwerte wird eine Summe von Sinus-Funktionen

Xa m (x,y) sin(me) + b m (x,y) cos(mö), vorzugsweise eine Sinus-Funktion 2. Ordnung a 2 (x,y) sin(20) + b 2 (x,y) cos(20), nach dem Astigmatismus-Modell gefittet. Mittels des Fits werden die Entwicklungskoeffizienten a m und b m bestimmt. Die Entwicklungskoeffizienten beschreiben die astigmatischen, sprich tangentiale und sagittale, beste Einstellebenen abhängig von der lokalen Kantenorientierung. Die Entwicklungskoeffizienten entsprechen somit astigmatischen Korrekturwerten für die Lage der jeweiligen Punkte des Punktgitters im Bildraum. Betrachtet man die Entwicklung nur in der ersten Ordnung, entsprechen die Entwicklungskoeffizienten und b dem ersten und zweiten Korrekturwert an dem Ort des Punkts des Punktgitters im Bildraum. Betrachtet man die Entwicklung nur in der zweiten Ordnung, entsprechen die Entwicklungskoeffizienten a 2 und b 2 dem ersten und zweiten Korrekturwert an dem Ort des Punkts des Punktgitters im Bildraum. Die ersten und zweiten Korrekturwerte für die Bildpunkte des Bildes mit erweiterter Schärfentiefe (für alle Bildpunkte im Bildraum) werden dann durch Interpolation über den gesamten Bereich (den gesamten Bildraum) bestimmt.

[00217] In den Figuren 16A bis 16C ist ein erstes Beispiel gezeigt, in dem jeweils eine Summe an Sinusfunktionen (als eine Fit-Funktion) an die winkelabhängige Verteilung der Tiefenwerte eines Punkts des Punktgitters gefittet ist. Fig. 16 A zeigt ein Diagramm, in dem das Einpassen der Fit-Funktion an die Tiefenwerte der schärfsten Bildpunkte des Randes eines Punktes eines Punktgitters dargestellt ist. Mit anderen Worten zeigt Fig. 16A den Fit der Fit-Funktion an die winkelabhängige Verteilung der Tiefenwerte. Fig. 16B zeigt ein Diagramm, in dem die räumliche Verteilung der Tiefenwerte in der Bildebene (x-y Ebene) dargestellt ist. Fig. 16C zeigt ein Diagramm, in dem die räumliche Verteilung von korrigierten Tiefenwerten in der Bildebene (x-y Ebene) dargestellt ist. Die korrigierten Tiefenwerte ergeben sich aus der Differenz der Tiefenwerte zu dem Fit.

[00218] In den Figuren 17A bis 17C ist ein zweites Beispiel gezeigt, in dem jeweils eine Summe an Sinusfunktionen (als eine Fit-Funktion) an die winkelabhängige Verteilung der Tiefenwerte eines Punkts des Punktgitters gefittet ist. Fig. 17A zeigt ein Diagramm, in dem das Einpassen der Fit-Funktion an die Tiefenwerte der schärfsten Bildpunkte des Randes eines Punktes eines Punktgitters dargestellt ist. Mit anderen Worten zeigt Fig. 17A den Fit der Fit-Funktion an die winkelabhängige Verteilung der Tiefenwerte. Fig. 17B zeigt ein Diagramm, in dem die räumliche Verteilung der Tiefenwerte in der Bildebene (x-y Ebene) dargestellt ist. Fig. 17C zeigt ein Diagramm, in dem die räumliche Verteilung von korrigierten Tiefenwerten in der Bildebene (x-y Ebene) dargestellt ist. Die korrigierten Tiefenwerte ergeben sich aus der Differenz der Tiefenwerte zu dem Fit.

[00219] Mit Bezug auf die Figuren 18 bis 19 wird im Folgenden erläutert, wie in einem Bild mit erweiterter Schärfentiefe eine Kante lokalisiert werden kann.

[00220] Im einfachsten Fall kann eine Kante zumindest lokal als Gerade approximiert werden. Diesen Ansatz verfolgt die „Slanted-Edge“ Methode. In Fig. 18 ist exemplarisch dargestellt, wie in einem Bild 160 mit erweiterter Schärfentiefe mittels der „Slanted-Edge“ Methode eine Kantenposition einer Kante 166 in einem Bildbereich 162 des Bildes 160 lokalisiert wird.

[00221] Das Bild 160 weist Bildpunkte 164 in dem Bildbereich 162 auf. In dem Bild 160 verläuft eine Kante 166. Der Kantenverlauf der Kante 166 ist gerade und weist somit keine Krümmung auf. Die Kante 166 verläuft in einer Kantenverlaufsrichtung 168. Senkrecht zu der Kantenverlaufsrichtung 168 verläuft eine Normalen-Richtung 170.

[00222] Mittels der „Slanted-Edge“ Methode wird nun ein Kippwinkel bestimmt, um den die Kante 160, insbesondere die Kantenverlaufsrichtung 168, zur y-Richtung verkippt ist. Um denselben Kippwinkel ist entsprechend auch die Normalen-Richtung 170 zur x-Richtung verkippt. Durch eine Betrachtung der Intensitäten der Bildpunkte im Kantenbereich lässt sich dieser Kippwinkel bestimmen.

[00223] Mittels des Winkels können dann die Bildpunkte 164 im Bildbereich 162 auf die Normalen- Richtung 170 projiziert werden. Diese Projektion ist in Fig. 18 mit gestrichelten Linien dargestellt, die parallel zu der Kantenverlaufsrichtung 168 verlaufen. Die Projektion ist somit eine Projektion des Bildbereichs 162 entlang der Kantenverlaufsrichtung 168 auf die Normalen-Richtung 170. Mittels dieser Projektion kann dann ein überaufgelöstes Kantenprofil 172 der Kante 166 in der Normalen-Richtung 170 erzeugt werden. Das überaufgelöstes Kantenprofil 172 ist ein Intensitätsprofil l(z) der Bildpunkte 164 im Bildbereich 162, wobei z die Position in der Normalen-Richtung angibt. Die Position z jedes Bildpunkts in der Normalen-Richtung 170 ergibt sich aus den Koordinaten (x, y) des Bildpunkts sowie dem ermittelten Kippwinkel.

[00224] Der Wendepunkt des überaufgelöstes Kantenprofil 172 gibt die Kantenposition der Kante 166 in der Normalen-Richtung 170 an. Auf diese Weise kann mittels der „Slanted-Edge“ Methode die Kantenposition einer geraden Kante bestimmten werden.

[00225] Innerhalb messtechnischer Untersuchungen werden aber häufig keine geraden, sondern runde bzw. beliebig gekrümmte Kanten vermessen. Zur Bestimmung der Kantenposition solcher gekrümmter Kanten ist die „Slanted-Edge“ Methode ungeeignet. Im Folgenden wird nun eine Methodik beschrieben, mittels der auch eine Kante mit beliebig gekrümmtem Kantenverlauf modelliert und deren Kantenposition genau bestimmt werden kann.

[00226] Fig. 19 zeigt, ähnlich wie Fig. 18, einen Bildbereich 162 eines Bildes 160 mit erweiterter Schärfentiefe. In dem Bild 160 verläuft eine Kante 166. Im Unterschied zu Fig. 18 ist die Kante 166 in Fig. 19 nicht gerade, sondern gekrümmt. Die Kante 166 weist somit einen gekrümmten Kantenverlauf auf. An jedem Punkt 174 der Kante 166 hat die Kante 166 eine Tangente und eine Normale. Die Tangente verläuft in einer Kantenverlaufsrichtung 168. Die Normale verläuft in einer Normalen-Richtung 170. Die Kantenverlaufsrichtung 168 und die Normalen-Richtung 170 ändern sich entlang des Kantenverlaufs der Kante 166. Die Kantenverlaufsrichtung 168 und die Normalen-Richtung 170 spannen somit ein krummliniges Koordinatensystem auf.

[00227] Vorgeschlagen wird nun, eine Projektion der Bildpunkte in dem Bild 164 entlang des gekrümmten Kantenverlaufs durchzuführen, sprich eine Projektion auf die Normalen- Richtung 170 des krummlinigen Koordinatensystems. Hierzu kann auf Basis der Intensitäten der Bildpunkte, insbesondere auf Basis der Bildgradienten dieser Bildpunkte, ein oder mehrere Kantenparameter bestimmt werden, mittels denen der gekrümmte Kantenverlauf beschrieben bzw. modelliert werden kann. Die Position z jedes Bildpunkts in der Normalen-Richtung 170 ergibt sich somit aus einer Koordinatentransformation in das krummlini- ge Koordinatensystem. Zur Koordinatentransformation werden die bestimmten Kantenparameter des modellierten, gekrümmten Kantenverlaufs verwendet.

[00228] Mittels dieser Projektion wird dann ebenfalls ein überaufgelöstes Kantenprofil 172 der Kante 166 in der Normalen-Richtung 170 erzeugt, auf Basis dessen dann die Kantenposition in der Normalen-Richtung 170 bestimmt werden kann.

[00229] In den Figuren 20A und 20B ist ein Spezialfall dargestellt, in dem eine Kante 166 eine konstante Krümmung aufweist.

[00230] Fig. 20A zeigt, ähnlich wie Fig. 19, einen Bildbereich 162 eines Bildes 160 mit erweiterter Schärfentiefe, in dem eine gekrümmte Kante 166 verläuft. Die Kante 166 in Fig. 20A hat einen Kantenverlauf mit konstanter Krümmung. Die Kante166 verläuft somit um ein Krümmungszentrum 176. Bei konstanter Krümmung entspricht die Normalen-Richtung 170 der radialen Richtung bezüglich des Krümmungszentrums 176 und die Kantenverlaufsrichtung 168 der tangentialen Richtung bezüglich des Krümmungszentrums 176. Das krummlinige Koordinatensystem ist somit eine zweidimensionales Polarkoordinatensystem mit Ursprung in dem Krümmungszentrum 176.

[00231] Die Projektion entlang des Kantenverlaufs mit konstanter Krümmung ist somit eine Projektion entlang der tangentialen Richtung auf die radiale Richtung. Das Krümmungszentrum kann auf Basis der Intensitäten der Bildpunkte, insbesondere auf Basis der Bildgradienten dieser Bildpunkte, bestimmt werden.

[00232] Die Position z jedes Bildpunkts in der Normalen-Richtung 170 entspricht dann dem radialen Abstand r zum Krümmungszentrum 176 in der radialen Richtung. Der radiale Abstand r eines Bildpunkts mit den Koordinaten (x,y) zu dem Krümmungszentrum 176 mit den Koordinaten (x 0 ,y 0 ) kann mittels der Formel r = (x - x 0 ) 2 + (y - y 0 ) 2 bestimmt werden.

[00233] Auf Basis der Projektion auf die radiale Richtung kann dann das überaufgelöstes Kantenprofil 172 der Kante 166 in der Normalen-Richtung 170, sprich in der radialen Richtung, erzeugt werden. Dies ist in Fig. 20B dargestellt. Das überaufgelöstes Kantenprofil 172 ist ein Intensitätsprofil I(r) der Bildpunkte 164 im Bildbereich 162. Auf Basis des überaufgelösten Kantenprofils 172 kann dann die Kantenposition in der radialen Richtung bezüglich des Krümmungszentrums 176 bestimmt werden.

[00234] In Fig. 21 ist ein Verfahren 200 zur Lokalisierung einer Kantenposition einer Kante 166 in einem Bildbereich 162 eines Bildes 160 mit erweiterter Schärfentiefe beschrieben, das die zuvor beschriebene, neue Methodik anwendet. Das Verfahren 200 kann ein computerimplementiertes Verfahren sein. Das Verfahren 200 kann beispielsweise mittels eines Computers durchgeführt werden. Alternativ kann das Verfahren 200 auch mittels der Steuereinrichtung 26 des Messgeräts 10 durchgeführt werden.

[00235] In einem optionalen Schritt 202 des Verfahrens 200 wird das Bild 160 mit erweiterter Schärfentiefe empfangen. Das Bild 160 kann dazu beispielsweise in einer externen Einrichtung entweder gespeichert sein oder erzeugt werden. Zur Kantenlokalisierung kann das Bild 160 dann von der externen Einrichtung empfangen werden.

[00236] Alternativ dazu kann in einem optionalen Schritt 204 des Verfahrens 200 das Bild 160 mit erweiterter Schärfentiefe erzeugt werden. Zum Erzeugen des Bildes 160 mit erweiterter Schärfentiefe kann beispielsweise das Verfahren 40 aus Fig. 2 durchgeführt werden.

[00237] In einem weiteren Schritt 206 des Verfahrens 200 wird ein Bildgradient für jeden Bildpunkt in dem Bildbereich 162 bestimmt. Die bestimmten Bildgradienten bilden eine Bildgradientenkarte.

[00238] In einem weiteren, optionalen Schritt 208 des Verfahrens 200 wird die Bildgradientenkarte gefiltert. Dabei werden die Bildgradienten verworfen, die unterhalb eines definierten Schwellwerts liegen.

[00239] In einem weiteren Schritt 210 des Verfahrens 200 wird mindestens ein Kantenparameter eines modellierten, gekrümmten Kantenverlaufs basierend auf der Bildgradientenkarte bestimmt. Der mindestens eine Kantenparameter kann dabei ein oder mehrere Parameter eines Kantenverlaufsmodells zur Beschreibung des Kantenverlaufs sein, wobei der mindestens eine Kantenparameter auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird. Als Kantenverlaufsmodell kann beispielsweise eine Polynomfunktion verwendet werden, insbesondere wobei die Polynomfunktion ein Polynom mindestens zweiten Grades ist.

[00240] Der mindestens eine Kantenparameter kann durch Ausgleichsrechnung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt werden, insbesondere wobei zur Ausgleichsrechnung die Methode der kleinsten Quadrate verwendet wird. Alternativ oder zusätzlich kann der mindestens eine Kantenparameter auch durch Optimierung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt werden, insbesondere wobei zur Optimierung das Kantenverlaufsmodell hinsichtlich der lokalen Kantenrauheit minimiert wird.

[00241] Insbesondere kann der modellierte, gekrümmte Kantenverlauf eine konstante Krümmung aufweisen. Dieser Fall wurde mit Bezug auf Fig. 20A und 20B bereits im Detail erläutert. Der mindestens eine Kantenparameter definiert dann das Krümmungszentrum 176 des Kantenverlaufs mit konstanter Krümmung. Die Projektion ist dann eine Projektion der Bildpunkte auf die radiale Richtung bezüglich des Krümmungszentrums 176 ist.

[00242] In einem weiteren Schritt 212 des Verfahrens 200 wird ein Kantenprofil 172 der Kante 166 auf Basis einer Projektion der Bildpunkte des Bildbereichs (162) entlang des Kantenverlaufs unter Verwendung des mindestens einen Kantenparameters bestimmt.

[00243] In einem weiteren Schritt 214 des Verfahrens 200 wird die Kantenposition der Kante 166 auf Basis des Kantenprofils 172 bestimmt. Die Kantenposition kann beispielsweise auf Basis eines Wendepunkts des Kantenprofils 172 bestimmt werden.

[00244] In Fig. 22 ist ein Verfahren 220 zur Kantenlokalisierung in einem Bild 160 mit erweiterter Schärfentiefe, wobei das Bild 160 einen Bereich einer Oberfläche eines Werkstücks 12 abbildet. Das Verfahren 200 kann beispielsweise mittels der Steuereinrichtung 26 des Messgeräts 10 durchgeführt werden. [00245] In einem ersten Schritt 222 des Verfahrens 220 wird ein Bild 160 mit erweiterter Schärfentiefe aufgenommen. Zum Aufnehmen des Bildes 160 mit erweiterter Schärfentiefe kann beispielsweise das Verfahren 60 aus Fig. 3 durchgeführt werden.

[00246] In einem weiteren Schritt 224 des Verfahrens 220 wird dann eine Kantenposition einer Kante 166 in einem Bildbereich 162 des Bildes 160 mit erweiterter Schärfentiefe mittels des Verfahrens 200 aus Fig. 21 erzeugt.

[00247] Im Folgenden wird auf den Fall der konstanten Krümmung der Kante nochmal detailliert eingegangen. Dabei wird die Kantengeometrie gegenüber einem gemeinsamen Krümmungsmittelpunkt [x 0 ,y 0 ] dargestellt. Dies kann als Taylornäherung zweiter Ordnung verstanden werden. Die Bestimmung des gemeinsamen Krümmungszentrums 176 entspricht der zentralen Herausforderung und es gibt hier mehrere Möglichkeiten. In den Figuren 23 und 24 sind zwei Beispiele dargestellt, wie bei konstanter Krümmung des Kantenverlaufs das Krümmungszentrum 176 und auf Basis dessen das überaufgelöste Kantenprofil 172 in der radialen Richtung bestimmt werden können.

[00248] In Fig. 23 ist ein erstes Beispiel zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe dargestellt. In dem Bild ist eine Kreisstruktur dargestellt (siehe Fig. 23(A)). Zur Lokalisierung der Kante wird ein Bildbereich ausgewählt, in dem ein Teil der kreisförmigen Kante verläuft (siehe Fig. 23(B)).

[00249] In einem ersten Schritt wird die lokale Kantenorientierung ermittelt. Hierfür wird in dem ausgewählten Bildbereich die numerische Approximation des Bildgradienten

[G x , G y ] = [ö x rp(x,y), ö y (p(x,y)] bspw. durch direktionale Sobelfilter oder numerische Finite-Differenzen Ableitungsverfahren ermittelt. Um Einflüsse durch Bildrauschen zu unterdrücken ist es besonders vorteilhaft die Bildgradienten als gewichtete Mittelung über mehrere Bilder aus einem Fokalbildstapel zu errechnen. Dies kann mit folgender Formel erfolgen:

[00250] Weiterhin ist es vorteilhaft die errechneten Bildgradieneten zusätzlich zu filtern.

Errechnete Bildgradienten, welche entfernt von der Kante liegen, sind durch den fehlenden Kanten Kontrast überwiegend durch das reine Bildrauschen beeinflusst und entsprechend verfälscht. Es ist hierbei sinnvoll alle Bildgradieneten, deren Gradientenwert unterhalb eines zu definierenden Schwellwertes liegt, zu verwerfen.

[00251] In einem nächsten Schritt wird mit Hilfe der errechneten Bildgradientenkarte [G x , G y ] der Krümmungsmittelpunkt der Kante errechnet (siehe Fig. 23(C)). Unter der Annahme, dass sich der Kantenverlauf innerhalb des Bildbereichs als Kreis approximieren lässt, gibt es ein gemeinsames Krümmungszentrum [x 0 ,y 0 ] an dem das errechnete Vektorfeld [G x , G y ] der lokalen Kantenorientierung einen gemeinsamen Ursprung besitzt. Eine Möglichkeit diesen gemeinsamen Ursprung zu ermitteln, besteht in der Lösung des überbestimmten Gleichungssystem aus den bekannten Größen x,y, G x , G y innerhalb des ausgewählten Bildbereichs für die unbekannten Größen x 0 ,y 0 ,p im Sinne einer Least-Square Optimierung

1 x = x 0 + - G x

1 y = y 0 + -G y

[00252] Das heißt, es wird das über alle Bildgradienten der Bildgradientenkarte vermittelt beste Krümmungszentrum errechnet. Mit Hilfe des so errechneten Krümmungszentrum [x 0 ,y 0 ] lässt sich das überaufgelöste Kantenprofil extrahieren. Hierfür wird jedem Bildpunkt des Bildbereichs der radiale Abstand zum Krümmungszentrum r = ((x - x 0 ) 2 + (y - y 0 ) 2 ) zugeordnet (siehe Fig. 23(D)). Dann wird die Intensität der Bildpunkte (siehe Fig. 23(E)) in radialer Richtung betrachtet. Dazu wird das überaufgelöste Katenprofil I(r = ((x - x 0 ) 2 + (y - y 0 ) 2 ) in der radialen Richtung erzeugt.

[00253] Auf Basis dieses Kantenprofils kann dann die Kantenposition in radialer Richtung bestimmt werden, sprich der Abstand der Kante zu dem Krümmungszentrum [x 0 ,y 0 ],

[00254] In Fig. 24 ist ein zweites Beispiel zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe dargestellt. In dem zweiten Beispiel wird das Krümmungszentrum mit Hilfe einer Optimierung errechnet, welche die lokale Kantenrauheit minimiert. Ist der lokale Kantenursprung gegenüber seinem Nominalwert verschoben, weist das extrahierte Kantenprofil eine höhere Rauigkeit auf (Ein mögliches Maß für die Rauigkeit ist bspw. der Vergleich zwischen tiefpassgefilterter Kantenübertragungsfunktion und ungefilterter Kantenübertragungsfunktion).

[00255] Dieser Vergleich ermöglicht es, ein Krümmungszentrum zu bestimmen, indem die Position [x 0 ,y 0 ] derart optimiert wird, dass die ermittelte Rauigkeit des Kantenprofils minimiert wird. Dies ist schematisch in den Fig. 24(A) bis (C) dargestellt. Fig. 24(A) zeigt dabei ein Kantenprofil, für dessen Erzeugung die Position des Krümmungszentrums geschätzt bzw. mittels einer anderen Vorgehensweise, wie der aus Fig. 23, bestimmt wurde. Fig. 24(B) zeigt eine vergrößerte Darstellung der Intensitätswerte des Kantenprofils aus Fig. 24(A) im Kantenbereich. Fig. 24(C) zeigt die Intensitätswerte eines optimierten Kantenprofils im Kantenbereich, wobei die Position des Krümmungszentrums [x 0 ,y 0 ] optimiert wurde, um die Rauigkeit des Kantenprofils zu reduzieren. Die Kantenrauigkeit in Fig. 24(C) ist deutlich geringer als in Fig. 24(B).

[00256] In den Figuren 25A bis 26B ist ein Vergleich dargestellt für eine Kantenanmessung basierend auf den extrahierten Kantenprofilen der Slanted-Edge-Method im Vergleich zum vorgeschlagenen, neuen Verfahren.

[00257] Dargestellt ist ein aufgenommenes Messbild eines Siemenssterns auf einer Kalibrationsmaske überlagert mit seinem Nominaldurchmessers und den ermittelten Kantenpositionen basierend auf der Slanted-Edge-Methode (siehe Fig. 25A und 25B) und der vorgeschlagenen Methodik (siehe Fig. 26A und 26B). Die extrahierten Kantenlokalisierungsergebnisse mit Hilfe der Slanted-Edge-Methode weisen deutlich vergrößerte Messabweichungen im Vergleich zur vorgeschlagenen Methodik auf.

[00258] Im Folgenden wird als weiteres Beispiel ein Werkstück mit mehreren Kreisstrukturen betrachtet. In Fig. 27 ist ein Bild dieses Werkstücks dargestellt. In dem abgebildeten Bereich liegen 30 Kreisstrukturen. Von diesem Bereich wird mittels des Verfahrens 60 aus Fig. 3 ein korrigiertes Bild mit erweiterter Schärfentiefe aufgenommen, in welchem der Verzeichnungsfehler und der Astigmatismus-Fehler korrigiert sind. Dann werden beispielsweise mittels des Verfahrens 200 aus Fig. 21 die Kanten der Kreisstrukturen lokalisiert.

[00259] Zu Vergleichszwecken wird in dem betrachteten Beispiel die Kantenlokalisierung der Kreisstrukturen einmal in dem korrigierten Bild mit erweiterter Schärfentiefe und des Weiteren in Einzelbildmessungen, sprich in Einzelbildern des Fokalbildstapels, durchgeführt. Auf Basis der lokalisierten Kanten kann dann die Rundheit der Kreisstrukturen bestimmt werden.

[00260] In den Figuren 28, 29A und 29B sind Rundheitsmessungen der Kreisstrukturen in verschiedenen Bildern dargestellt. Fig. 28 zeigt die Rundheitsmessung in einem korrigierten Bild mit erweiterter Schärfentiefe. Die Fig. 29A und 29B zeigen Rundheitsmessungen in Bildern, für die Bildebenen ausgewählt wurden, welche in den Maximalpunkten des Astigmatismus liegen, das heißt jeweils eine Aufnahme in der besten sagittalen und tangentialen Bildebene. Fig. 29A zeigt eine Rundheitsmessung in einem unkorrigierten Bild in der besten sagittalen Ebene. Fig. 29B zeigt eine Rundheitsmessung in einem unkorrigierten Bild in der besten tangentialen Ebene.

[00261] Der Vergleich der Rundheitsmessung aus Fig. 28 mit denen aus Fig. 29A und 29B verdeutlicht den Messfehler, welcher durch einen Autofokusmesspunkt auf einer horizontalen bzw. vertikalen Kante entstehen kann. Es wird deutlich, dass sich sowohl Zentrum als auch Form innerhalb der Rundheitsmessungen ändern in Abhängigkeit der gewählten Bilder. Diese Abweichung liegt betragsmäßig im Bereich von 1-1 ,5 pm und ist damit deutlich größer im Vergleich zur Abweichung der Abweichungen von etwa 200 nm im korrigierten Bild mit erweiterter Schärfentiefe. Dies verdeutlicht die Genauigkeitsverbesserung, welche durch ein korrigiertes Bild mit erweiterter Schärfentiefe erreicht wird.