Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE AND COMPUTER PROGRAM FOR DETERMINING A REPRESENTATION OF A SPECTACLE LENS EDGE
Document Type and Number:
WIPO Patent Application WO/2018/137863
Kind Code:
A1
Abstract:
The invention relates to a computer-implemented method for determining the representation of the edge (26) of a spectacle lens (28) or of a left spectacle lens (28) and of a right spectacle lens (29) for a spectacle frame (20). According to the invention, the following steps are carried out: providing image data b(x) for the spectacle frame (20) with a worn frame front (24); calculating information data I(x) derived from the image data b(x); calculating a deterministically optimisable cost function E(u) which links the information data I(x) to spectacle lens data u(x), the spectacle lens data u(x) describing the spatial extent of at least one spectacle lens (28) held in the frame front (24); and defining a contour of an edge (26) of the spectacle lens (28) or of the left spectacle lens (28) and of the right spectacle lens (29) by optimising the cost function E(u).

Inventors:
NIEUWENHUIS CLAUDIA (DE)
SCHWARZ OLIVER (DE)
Application Number:
PCT/EP2017/083908
Publication Date:
August 02, 2018
Filing Date:
December 20, 2017
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
ZEISS CARL AG (DE)
ZEISS CARL VISION INT GMBH (DE)
International Classes:
G02C13/00; G06K9/46; G06T7/10
Domestic Patent References:
WO2014198888A12014-12-18
WO2001084222A12001-11-08
Foreign References:
US20160299360A12016-10-13
US20160246078A12016-08-25
DE102011115239A12013-03-28
DE102014013447A12016-03-17
DE102009004383A12009-07-23
US4852184A1989-07-25
DE102011115239A12013-03-28
Other References:
DIANA BORZA ET AL: "Eyeglasses Lens Contour Extraction from Facial Images Using an Efficient Shape Description", SENSORS, vol. 13, no. 10, 10 October 2013 (2013-10-10), CH, pages 13638 - 13658, XP055227455, ISSN: 1424-8220, DOI: 10.3390/s131013638
CLAUDIA NIEUWENHUIS ET AL: "Spatially Varying Color Distributions for Interactive Multilabel Segmentation", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE COMPUTER SOCIETY, USA, vol. 35, no. 5, 17 August 2012 (2012-08-17), pages 1234 - 1247, XP011497447, ISSN: 0162-8828, DOI: 10.1109/TPAMI.2012.183
CE LIU ET AL: "Automatic eyeglasses removal from face images", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE COMPUTER SOCIETY, USA, vol. 26, no. 3, 1 March 2004 (2004-03-01), pages 322 - 336, XP011106115, ISSN: 0162-8828, DOI: 10.1109/TPAMI.2004.1262319
FERNÁNDEZ ALBERTO ET AL: "Glasses detection on real images based on robust alignment", MACHINE VISION AND APPLICATIONS, SPRINGER VERLAG, DE, vol. 26, no. 4, 31 March 2015 (2015-03-31), pages 519 - 531, XP035501562, ISSN: 0932-8092, [retrieved on 20150331], DOI: 10.1007/S00138-015-0674-1
D. BORZA ET AL.: "Eyeglasses Lens Contour Extraction from Facial Images Using an Efficient Shape Description", SENSORS, vol. 13, no. 10, 2013, pages 13638 - 13658, XP055227455, DOI: doi:10.3390/s131013638
C. NIEUWENHUIS ET AL.: "IEEE Transactions on Pattern Analysis and Machine Intelligence", vol. 35, 2013, IEEE COMPUTER SOCIETY, article "Spatially Varying Color Distributions for Interactive Multilabel Segmentation", pages: 1234 - 1247
A. FERNANDEZ ET AL.: "Machine Vision and Applications", vol. 26, 2015, SPRINGER VERLAG, article "Glasses detection on real images based on robust alignment", pages: 519 - 531
C. WU ET AL.: "IEEE Transactions on Pattern Analysis and Machine Intelligence", vol. 26, 2004, IEEE COMPUTER SOCIETY, article "Automatic Eyeglasses removal from Face Images", pages: 332 - 336
Attorney, Agent or Firm:
GAUSS, Nikolai et al. (DE)
Download PDF:
Claims:
Patentansprüche

1 . Computerimplementiertes Verfahren zum Ermitteln der Repräsentation des Rands (26) eines Brillenglases (28) oder eines linken Brillenglases (28) und eines rechten Brillenglases (29) für einen Brillenträger (20) umfassend das

Bereitstellen von Bilddaten b(x) zu dem Brillenträger (20) mit einer ge- tragenen Brillenfassung (24), und das Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsdaten l(x), gekennzeichnet durch folgende Schritte:

Berechnen einer die Informationsdaten l(x) mit Brillenglasdaten u(x) verknüpfenden deterministisch optimierbaren Kostenfunktion E(u), wobei die Brillenglasdaten u(x) die räumliche Ausdehnung wenigstens ei- nes in der Brillenfassung (24) gehaltenen Brillenglases (28) beschreiben, und

Festlegen eines Verlaufs eines Rands (26) des Brillenglases (28) oder des linken Brillenglases (28) und des rechten Brillenglases (29) durch Optimieren der Kostenfunktion E(u).

2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die aus den Bilddaten b(x) abgeleiteten berechneten Informationsdaten l(x) ein aus den erfassten Bilddaten b(x) mittels eines Kantendetektionsalgo- rithmus ermitteltes Kanteninformationsbild g(x) umfassen. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Kan- tendetektionsalgorithmus einen Kantendetektor aus der Gruppe Gradient, Farbgradient, Canny-Edge-Detektor, gerichtetes Filter, insbesondere Solbelfilter enthält oder dass der Kantendetektionsalgo thmus für die Kantendetektion auf eine Filterbank mit gelernten Kantendetektoren zugreift oder dass der Kantendetektionsalgohthmus als ein mit Verfahren des maschinellen Lernens selbstlernender Algorithmus ausgebildet ist.

4. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die aus den Bilddaten b(x) abgeleiteten berechneten Informationsdaten l(x) ein aus den erfassten Bilddaten b(x) mittels eines die Farbe von Bilddaten b(x) auswertenden Farbauswertungsalgorithmus ermitteltes Farbinfor- mationsbild f(x) umfassen. 5. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass die aus den Bilddaten b(x) abgeleiteten berechneten Informationsdaten l(x) ein aus den erfassten Bilddaten b(x) mittels eines die Farbe von Bilddaten auswertenden Farbauswertungsalgorithmus ermitteltes Farbinformationsbild f(x) umfassen.

6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Kostenfunktion E(u) eine gewichtete Summe eines Kantendetektions- kostenterms Eg(u) und eines Farbauswertungskostenterms Ef(u) ist. 7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass das Berechnen von aus den Bilddaten abgeleiteten Informationsdaten l(x) das Ermitteln von Spiegelungsinformationsdaten s(x) mit einem Algorithmus für das Erkennen von Spiegelungen an der Brillenfassung oder an einem in der Brillenfassung aufgenommenen Brillenglas umfasst oder dass das Berechnen von aus den Bilddaten abgeleiteten Informationsdaten l(x) das Ermitteln von Spiegelungsinformationsdaten s(x) mit einem Algorithmus für das Erkennen von Spiegelungen an der Brillenfas- sung und an einem in der Brillenfassung aufgenommenen Brillenglas umfasst, wobei der Algorithmus Spiegelungen an der Brillenfassung von Spiegelungen an dem Brillenglas unterscheidet. 8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass der Farb- auswertungsalgorithmus und/oder der Kantendetektionsalgorithmus die aus den Bilddaten b(x) berechneten Spiegelungsinformationsdaten s(x) berücksichtigt. 9. Verfahren nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass das Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsdaten l(x) das Ermitteln von Gesichtsmerkmalsinformations- daten m(x) mit einem Algorithmus für das Erkennen von Gesichtsmerkmalen umfasst, insbesondere einen Algorithmus für das Erkennen von Gesichtsmerkmalen, der für das Erkennen eines oder mehrerer

Gesichtsmerkmale aus der Gruppe Auge, Pupille, Augenbraue, Nase, Mund oder Gesichtsrand ausgelegt ist.

10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass der Farbauswertungsalgorithmus und/oder der Kantendetektionsalgorithmus die aus den Bilddaten b(x) berechneten Gesichtsmerkmalsin- formationsdaten m(x) berücksichtigt.

1 1 . Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeich- net, dass die Kostenfunktion E(u) für das Ermitteln des Rands eines linken Brillenglases (28) und eines rechten Brillenglases (29) für einen Brillenträger (20) eine Symmetrie von Brillenglasdaten u(x) bewertet und/oder dass die Kostenfunktion E(u) für das Ermitteln des Rands (26) eines linken Brillenglases (28) und eines rechten Brillenglases (29) für einen Brillenträger (20) mit einer Stereobedingung aufeinander abgebildete Punkte in Brillenglasdaten u(x) zu Bildern bewertet, die unter- schiedlichen Aufnahmerichtungen (19) einer Bilderfassungseinrichtung (14, 16, 18) entsprechen.

12. Verfahren nach einem der Ansprüche 6 bis 1 1 , dadurch gekennzeich- net, dass das Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsdaten l(x) das Ermitteln von Brillenglasforminformationsdaten di(x) mit einem Algorithmus umfasst, der anhand eines dem Algorithmus zugeführten Brillenglasmodells oder anhand einer Vielzahl von dem Algorithmus zugeführten Brillenglasmodellen als Brillenglasformin- formationsdaten di(x) ein parametrisches Modell oder eine Wahrscheinlichkeiten repräsentierende Karte über die Wahrscheinlichkeit angibt, dass erfasste Bilddaten b(x) auf einem Brillenglas (28, 29) liegen.

13. Verfahren nach einem der Ansprüche 6 bis 12, dadurch gekennzeich- net, dass das Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsdaten l(x) das Ermitteln von Brillenglasforminformationsdaten di(x) mit einem Algorithmus (34) umfasst, der anhand eines dem Algorithmus zugeführten Brillenglasmodells oder anhand einer Vielzahl von dem Algorithmus zugeführten Brillenglasmodellen als Brillenglasformin- formationsdaten di(x) eine 2D-Form oder eine 3D-Form eines in der

Brillenfassung (24) aufnehmbaren Brillenglases (28, 29) angibt.

14. Verfahren nach einem der Ansprüche 6 bis 13, dadurch gekennzeichnet, dass der Farbauswertungsalgorithmus die aus den Bilddaten b(x) berechneten Brillenglasforminformationsdaten di(x) berücksichtigt.

15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass die aus den Bilddaten b(x) abgeleiteten berechneten Informationsdaten l(x) eine mittels eines Brückenmittendetektionsalgorithmus ermittelte Brückenmitte M umfassen.

16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass den bereitgestellten Bilddaten b(x) zu dem Brillenträger (20) aus wenigstens zwei unterschiedlichen Blickwinkeln aufgenommene Bilder zugrunde liegen.

17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass in der Kostenfunktion E(u) mindestens ein aus Daten maschinell gelerntes Modell enthalten ist. 18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass die Kostenfunktion E(u) konvex ist.

19. Verfahren nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, dass der Verlauf eines Rands (26) des Brillenglases (28) oder des linken Brillenglases (28) und des rechten Brillenglases (29) durch deterministisches Optimieren der Kostenfunktion E(u) festgelegt wird.

20. Computerprogramm umfassend Programmcode, welcher, wenn in einem Computersystem geladen und ausgeführt, zur Durchführung eines Verfahrens nach einem der vorangegangenen Ansprüche ausgelegt ist.

21 . Vorrichtung zum Ermitteln des Verlaufs des Rands eines Brillenglases (28) oder eines linken Brillenglases (28) und/oder eines rechten Brillenglases 29) für einen Brillenträger 20, mit wenigstens einer Bilderfassungseinrichtung (14, 16, 18) zum Bereitstellen von Bilddaten b(x) zu dem Brillenträger (20) mit einer getragenen Brillenfassung (24), mit Mitteln zum Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsdaten l(x), gekennzeichnet durch

Mittel zum Berechnen einer die Informationsdaten l(x) mit Brillenglasdaten u(x) verknüpfenden deterministisch optimierbaren Kostenfunktion E(u), wobei die Brillenglasdaten u(x) die räumliche Ausdehnung wenigstens eines in der Brillenfassung (24) gehaltenen Brillenglases (28) beschreiben, und

Mittel zum Festlegen eines Verlaufs eines Rands (26) des Brillenglases

(28) oder des linken Brillenglases (28) und des rechten Brillenglases

(29) durch Optimieren der Kostenfunktion E(u).

Verfahren zum Zentrieren eines linken Brillenglases (28) oder eines rechten Brillenglases (29) in eine Brillenfassung (24), dadurch gekennzeichnet, dass in einem Schritt (i) zu dem Brillenglas (28, 29) Zentrierparameter bestimmt werden, wobei das Bestimmen der Zentrierparameter das Ermitteln der Repräsentation des Rands (26) des Brillenglases (28, 29) mit einem Verfahren nach einem der Ansprüche 1 bis 19 umfasst; und in einem Schritt (ii) das Brillenglas (28, 29) mit den in Schritt (i) bestimmten Zentrierparametern in die Brillenfassung zentriert wird.

Verfahren zum Einschleifen eines linken Brillenglases (28) oder eines rechten Brillenglases (29) in eine Brillenfassung (24), dadurch gekennzeichnet, dass in einem Schritt (i) zu dem Brillenglas (28, 29) Zentrierparameter bestimmt werden, wobei das Bestimmen der Zentrierparameter das Ermit- teln der Repräsentation des Rands (26) des Brillenglases (28, 29) mit einem Verfahren nach einem der Ansprüche 1 bis 19 umfasst; und in einem Schritt (ii) das Brillenglas basierend auf den in Schritt (i) bestimmten Zentrierparametern für eine Anordnung in der Brillenfassung eingeschliffen werden.

Verfahren zum Herstellen eines linken Brillenglases (28) oder eines rechten Brillenglases (29), gekennzeichnet durch den Verfahrensschritt Einschieifen des Brillenglases in eine Brillenfassung in einem Verfahren nach Anspruch 23.

Verfahren zum Herstellen einer Brille, dadurch gekennzeichnet, dass ein Verfahren nach einem der Ansprüche 22, 23 oder 24 verwendet wird.

Description:
Verfahren und Vorrichtung sowie Computerprogramm zum Ermitteln einer Repräsentation eines Brillenglasrands

Die Erfindung betrifft ein computerimplennentiertes Verfahren und eine Vor- richtung zum Ermitteln einer Repräsentation des Rands wenigstens eines Brillenglases für einen Brillenträger. Darüber hinaus betrifft die Erfindung ein Computerprogramm, mit dem das vorgenannte Verfahren durchgeführt werden kann. Die Erfindung betrifft auch ein Verfahren zum Zentrieren eines linken oder rechten Brillenglases in eine Brillenfassung, ein Verfahren zum Ein- schleifen eines linken oder rechten Brillenglases in eine Brillenfassung sowie ein Verfahren zum Herstellen eines linken oder rechten Brillenglases und ein Verfahren zum Herstellen einer Brille.

Unter der Repräsentation des Rands eines Brillenglases versteht die Erfin- dung eine Repräsentation des in der Norm EN ISO 13666:2012 (D/E) in Abschnitt 13.1 aufgeführten Tragrands des Brillenglases.

Eine Repräsentation des Rands eines Brillenglases ist ein Datensatz, aus dem sich der dreidimensionale Verlauf des dem Brillenträger abgewandten Tragrands des Brillenglases gegebenenfalls auf der Grundlage von zusätzlichen das Brillenglas beschreibenden Größen eindeutig bestimmen lässt. Eine Repräsentation des Rands eines Brillenglases kann z. B. die von der Projektion des Rands des Brillenglases in der Bildebene eines Bildsensors einer Bilderfassungseinrichtung umgebene Fläche sein, in die das Brillenglas für die Bilderfassung abgebildet wird.

Bei einer Vollrandbrille entspricht der Tragrand eines Brillenglases einem Brillenfassungsinnenrand. Bei einer Teilrandbrille ist unter dem Tragrand eines Brillenglases zum einen der dem Brillenfassungsinnenrand entsprechen- de Rand eines Brillenglases und der nicht an die Brillenglasfassung angeschlossene Glasaußenrand zu verstehen. Der Tragrand eines Brillenglases in einer randlosen Brille ist der Glasaußenrand. Um die Brillengläser korrekt in eine Brillenfassung einzupassen, ist es zum einen erforderlich, sogenannte Zentrierparameter zu bestimmen, damit die optischen Zentren der Gläser mit den visuellen Achsen der entsprechenden Augen in Deckung gebracht werden können, um so z. B. die Information über die Pupillendistanz und die Information über die Höhe der Pupillen in Bezug auf die Brillenfassung zu kennen. Zum anderen ist es erforderlich, den durch die Brillenfassung vorgegebenen Tragrand des Brillenglases zu kennen, in der das Brillenglas aufgenommen werden soll.

Neben der Information der Pupillendistanz und der Information über die Höhe der Pupillen in Bezug auf die Brillenfassung werden unter den Begriff Zentrierparameter insbesondere folgende Größen subsumiert: monokularer Pupillenabstand PD, Hornhautscheitelabstand HS nach Bezugspunktforde- rung und/oder nach Augendrehpunktforderung, monokularer Zentrierpunkt- abstand, Zentrierpunktkoordinaten, Scheibenabstand, Dezentration des Zentrierpunktes, Scheibenhöhe und -breite, Scheibenmittenabstand, Brillenglasvorneigung a, Fassungsscheibenwinkel ß, Einschleifhöhe. Die Zentrierparameter werden regelmäßig von einem Augenoptiker bestimmt. Wichtige Zentrierparameter sind z. B. in der Norm EN ISO 13666:2012 (D/E) definiert und können ermittelt werden, indem sich ein Optiker und ein Proband gegenüber stehen oder sitzen, wobei der Proband die Fassung seiner Wahl mit einer darin eingefassten Glasscheibe aufsetzt. Der Proband wird gebeten, in die Ferne zu blicken, und der Optiker zeichnet dann nach Augenschein auf der Scheibe oder auf einer Kontaktstrichfolie mit einem Kreuz den Durchblick an, wie er ihn beim gegenseitigen Anblick erkennt. Dieses Kreuz (Zentrierkreuz) bestimmt dann die Lage des optischen Mittelpunktes des in die Fassung einzusetzenden Brillenglases. Dieses Ver- fahren wird für jedes der Augen eines Probanden einzeln durchgeführt. Der Abstand der auf diese Weise ermittelten Zentrierkreuze ist der Pupillenabstand PD. Für die Zentrierparanneterbestinnnnung werden aber mittlerweile auch automatisierte Messsysteme eingesetzt. Ein solches Messsystem ist z. B. in der WO 01/84222 A1 beschrieben. Dieses System enthält eine an einer Säule höhenverstellbar aufgenommene digitale Videokamera, deren Objektiv zusammen mit einem Spiegel und einer Lichtquelle im Bereich der Frontfläche des Gehäuses angeordnet ist. Das System ermöglicht insbesondere das Messen von Abständen und das Erfassen von Maßen, die für das Einschlei- fen von Brillengläsern zu berücksichtigen sind. In dem System gibt es einen mit der digitalen Videokamera verbundenen Computer, der aus dem Bild eines Brillenträgers mit einer Brillenfassung und mit einem an der Brillenfassung festgelegten Messbügel Zentrierparameter für die Brillenfassung mittels Bildauswertung bestimmt. Für einen Augenoptiker, der Endkunden berät, ist es wichtig, dass die Zentrierparameterbestimmung möglichst einfach, schnell und zuverlässig durchgeführt werden kann. Damit der Augenoptiker die Endkunden qualitativ hochwertig beraten kann, sind deshalb Arbeitsflüsse von Interesse, die inhärent fehlerfrei sind und die sich zügig durchführen lassen.

In D. Borza et al., Eyeglasses Lens Contour Extraction from Facial Images Using an Efficient Shape Description", Sensors, Bd. 13, Nr. 10, S. 13638 - 13658 (2013) ist ein computerimplementiertes Verfahren der eingangs genannten Art für das Bestimmen des Randes von Brillengläsern in einem er- fassten Bild eines Brillenträgers beschrieben, bei dem die Punktemenge der auf dem Rand der Brillengläser liegenden Bildpunkte als eine Überlagerung von auf der Definition von sogenannten Fourier-Deskriptoren basierenden mathematischen Funktionen modelliert wird. Diese mathematischen Funktionen beschreiben unterschiedliche Brillenrand- Formen. Diese hier für das Modellieren des Randes von Brillengläsern verwendeten Funktionen werden stochastisch, d. h. nach einem Zufallsprinzip, aus einer endlichen Menge möglicher Funktionen ausgewählt. Das anhand der ausgewählten Funktionen beschriebene Modell für den Rand der Brillengläser wird dann mit einem in einem Kantendetektionsverfahren ermittelten Brillenglasrand verglichen und bewertet.

In C. Nieuwenhuis et al.,Spatially Varying Color Distributions for Interactive Multilabel Segmentation, IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Computer Society, USA, Bd. 35, Nr. 5, S. 1234 - 1247 (2013) ist ein Verfahren für das Segmentieren unterschiedlicher Bereiche in digitalen Bildern beschrieben. Hier wird die Farbe von Bildpunkten in den digitalen Bildern bewertet. Dazu markiert eine Bedienperson an einem Computer unterschiedliche Bildbereiche, die segmentiert werden sollen, manuell z. B. mit einer Computermaus. Die unterschiedlichen Bildbereiche werden dann durch Optimieren einer auf bedingten Wahrscheinlichkeiten beruhen- den Kostenfunktion segmentiert. Hierfür wird für einen jeden Bildpunkt der Bilder anhand der Farbinformation zu den manuell markierten Bildbereichen die bedingte Wahrscheinlichkeit maximiert, dass der Bildpunkt in einem bestimmten Bildbereich liegt. Gleichzeitig sollen die segmentierten Regionen möglichst kompakt sein.

In A. Fernandez et al., Glasses detection on real images based on robust alignment", Machine Vision and Applications, Springer Verlag, Bd. 26, Nr. 4, S. 519 - 531 (2015) ist ein Verfahren für das Bewerten von Personenaufnahmen offenbart, um hier zu erkennen, ob die Personen Brillenträger sind. Dieses Verfahren detektiert unveränderliche Gesichtsmerkmale und berechnet daraus die Region um die Augen. Innerhalb dieser Region wird aus den Farben ein Merkmalsvektor bestimmt, mittels dessen die Person als Brillenträger oder Nicht-Brillenträger klassifiziert wird. Aus C. Wu et al., Automatic Eyeglasses removal from Face Images, IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Computer Society, USA, Bd. 26, Nr. 3, S. 332 - 336 (2004) offenbart ein Verfahren, das zur Entfernung von Brillen und Brillengläsern aus digitalen Personenaufnah- men dient. Das Verfahren lernt aus einer Datenbank, in der Personen mit und ohne Brille gespeichert sind, wie die Augenregion verändert muss, um die Brille aus dem Gesicht zu entfernen. Außerdem kann die Kontur der Fas- sung detektiert werden, indem Punkte auf dem Fassungsrand sowie externe Parameter wie Rotation, Skalierung und Translation mittels eines stochasti- schen Verfahrens optimiert werden.

Die DE 10 201 1 1 15 239 A1 beschreibt, in einem digitalen Bild eines Brillen- trägers die Kontur des Randes der Brillengläser unter Rückgriff auf einen Brillenglas-spezifischen Tracerdatensatz zu ermitteln, der den Verlauf des Brillenglasrandes enthält.

Aufgabe der Erfindung ist es, eine genaue Repräsentation des Rands eines Brillenglases anzugeben, das in einer Brillenfassung aufgenommen werden soll, z. B. um diese Information bei der Bestimmung von Zentrierparametern, oder auch beim Zentrieren eines linken oder rechten Brillenglases in eine Brillenfassung oder beim Einschieifen eines linken oder rechten Brillenglases in eine Brillenfassung, insbesondere beim Herstellen eines Brillenglases oder beim Herstellen einer Brille zu berücksichtigen.

Zur Lösung dieser Aufgabe werden die in dem Patentanspruch 1 und dem Patentanspruch 21 angegebenen Merkmalskombinationen vorgeschlagen. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.

Unter einer Kostenfunktion E(u), die in der Fachwelt auch als sogenannte Zielfunktion, Energiefunktion, Verlustfunktion (loss function), Nutzenfunktion (utility function) oder als Tauglichkeitsfunktion (fitness function) bezeichnet wird, versteht die Erfindung eine Abbildung, die eine jede Belegung ihrer Argumente u auf einen skalaren Wert E(u) abbildet, der die Bedeutung von Kosten oder einer skalaren physikalischen Größe wie z. B. Energie oder Abstand hat.

Im Sinne der Erfindung ist unter dem Optimieren einer Kostenfunktion E(u) die Auswahl eines besten Arguments u der Kostenfunktion E(u) zu verstehen, bei dem die Kostenfunktion E(u) dem Zielkriterium genügt, dass sie einen zumindest lokal extremalen Wert annimmt, d. h. einen Wert, der zumindest lokal maximal oder minimal ist. Unter aus Bilddaten b(x) abgeleiteten Informationsdaten l(x) versteht die Erfindung Daten zu Informationen, die aus den Bilddaten b(x) berechnet werden können, etwa Farbmodelle, Kantenbilder, Farbwahrscheinlichkeitsverteilungen, Objekte in Bildern, wie etwa Augen, Spiegelungen, Symmetrieachsen und Sichtstrahlen. In die Berechnung von Informationsdaten l(x) aus Bilddaten b(x) können insbesondere Kalibrierungsinformationen zu einer Kamera eingehen, die für das Erfassen der Bilddaten b(x) dient.

Unter einem deterministischen Optimierungsverfahren für das Optimieren einer Kostenfunktion versteht die Erfindung ein Optimierungsverfahren, das auch bei Wiederholung unter Verwendung des gleichen Startwerts immer auf dasselbe Argument der Kostenfunktion führt.

Eine Kostenfunktion ist deterministisch optimierbar, wenn ein deterministischer Algorithmus existiert, der ein globales oder lokales Optimum der Kos- tenfunktion berechnet, wobei das berechnete Argument der Kostenfunktion in dem globalen oder lokalen Optimum eine brauchbare Lösung des Optimierungsproblems bildet, d. h. eine Lösung, die an eine Lösung des Optimierungsproblems gestellten minimalen Güteanforderungen entspricht und damit als ein vernünftiges durch Optimieren der Kostenfunktion erhaltenes Ergeb- nis verwendet werden kann. Ein deterministisches Optimierungsverfahren ist im Gegensatz zu einem stochastischen Optimierungsverfahren frei von Zufallseinflüssen und berechnet jedes Mal die gleiche Lösung bei gleichem Startwert. Ein deterministisches Optimierungsverfahren ergibt daher ausgehend vom gleichen Start- wert bei Wiederholung immer das gleiche Ergebnis. Anders als ein stochasti- sches Optimierungsverfahren führt ein deterministisches Optimierungsverfahren somit direkter, zuverlässig und (abhängig von der Größe des Parameterraums) oft auch schneller auf eine Lösung. Sie sind effizient im Hinblick auf Laufzeit und/oder Speicherbedarf. Deterministische Optimierungsverfah- ren eignen sich oft für die Echtzeitimplementierung auf einer Grafikkarte.

Stochastische Optimierungsverfahren benötigen demgegenüber meist eine lange Rechenzeit und führen bei gleicher Eingabe und wiederholter Ausführung auf eine Verteilung von Lösungswerten, da Zufallseinflüsse eine Rolle spielen. Aus dieser Verteilung muss schließlich ein Element als bestes ausgewählt werden, z. B. der Erwartungswert oder der Median der Verteilung. Oft erfüllen diese Art von Algorithmen nicht die Effizienzanforderungen des gestellten Problems im Hinblick auf Laufzeit und/oder Speicherbedarf. Für einen Augenoptiker ist es von Bedeutung, bei dem Bestimmen von Zentrierparametern einen möglichst schnellen und fehlerfreien Arbeitsfluss zu haben, um eine hohe Qualität der Beratung zu erzielen, die den Endkunden im Fokus hat und nicht von technischen Prozessen dominiert ist. In diesem Zusammenhang ist eine möglichst störungsfreie Funktionsweise (Ro- bustheit) der automatischen Verfahren notwendig. Dies kann mit Methoden der digitalen Bildanalyse und des maschinellen Lernens erreicht werden.

Die Erfinder haben erkannt, dass mit Methoden der digitalen Bildanalyse erreicht werden kann, den Rand von an eine vorgegebene Brillenfassung an- gepassten Brillengläsern nicht nur mit hoher Genauigkeit zu ermitteln, sondern auch mit großer Zuverlässigkeit auf eine gegenüber Fehlereinflüssen sehr robuste Art und Weise. Erfindungsgemäß werden zum Ermitteln der Repräsentation des Rands eines Brillenglases oder eines linken Brillenglases und eines rechten Brillenglases für einen Brillenträger folgende Schritte ausgeführt:

Es werden Bilddaten b(x) zu dem Brillenträger mit einer getragenen Brillenfassung bereitgestellt.

Es werden aus den Bilddaten b(x) abgeleitete Informationsdaten l(x) berechnet.

Es wird eine die Informationsdaten l(x) mit Brillenglasdaten u(x) verknüpfende deterministisch optimierbare Kostenfunktion E(u) berechnet, wobei die Brillenglasdaten u(x) die räumliche Ausdehnung wenigstens eines in der Brillenfassung gehaltenen Brillenglases beschreiben, und es wird dann der Verlauf eines Rands des Brillenglases oder des linken Brillenglases und des rechten Brillenglases durch Optimieren der Kostenfunktion E(u) festgelegt.

In der Kostenfunktion E(u) kann mindestens ein aus Daten maschinell gelerntes Modell enthalten sein. Insbesondere kann der Verlauf eines Rands des Brillenglases oder des linken Brillenglases und des rechten Brillenglases durch deterministisches Optimieren der Kostenfunktion festgelegt werden.

Erfindungsgemäß kann die Kostenfunktion E(u) eine Summe gewichteter Energieterme sein. Indem die Kostenfunktion E(u) unter der Zwangsbedingung optimiert wird, dass Abweichungen von einem Farbmodell oder einem Brillenglasmodell bestraft und Spiegelungen an einem Brillenglas oder einer Brillenfassung berücksichtigt werden, kann eine hohe Genauigkeit für eine Repräsentation des Rands eines an eine Brillenfassung angepassten Brillenglases erzielt werden. Zwangsbedingungen bei dem Optimieren der Kostenfunktion können auch an eine Repräsentation des Rands eines Brillenglases gestellte 2D- oder 3D-Symmetriebedingungen sein. Von Vorteil ist es, wenn das Optimieren der Kostenfunktion E(u) nur innerhalb eines Interessenge- biets (Region of Interest) erfolgt, das durch die detektierten Gesichtsmerkma- le festgelegt ist.

Zu bemerken ist, dass die Kostenfunktion E(u) im Rahmen der Erfindung auf mehrere Arten minimiert werden kann, z. B. über kontinuierliche Methoden, primal-dual-Ansätze, graphen-theoretische Methoden, diskrete Graph-Cut Methoden, Active Contour Modelle, Gradientenabstiegsverfahren, Simplexverfahren, oder ähnliches. Kontinuierliche Methoden sind dadurch definiert, dass sie das Bild als kontinuierliche Funktion beschreiben und dadurch die Kostenfunktion auf einem kontinuierlichen mathematischen Raum definiert ist. Die Diskretisierung der Kostenfunktion auf Basis von Bildpunkten in Bilddaten u(x) (Pixelbasis) erfolgt bevorzugt erst in einem letzten Schritt vor der Optimierung. Im Gegensatz dazu definieren sogenannte diskrete Optimierungsmethoden die Optimierungsfunktion direkt auf der Ebene von Bildpunk- ten (Pixelebene) in Form eines Graphen. Kontinuierliche Methoden haben gegenüber diskreten Methoden den Vorteil, dass sie Artefakte an Kanten vermeiden und sehr viel leichter parallelisierbar sind, was schnelle Berechnungen auf einer Graphikkarte ermöglicht. Die aus den Bilddaten b(x) abgeleiteten berechneten Informationsdaten l(x) können ein aus den erfassten Bilddaten b(x) mittels eines Kantendetektions- algorithmus ermitteltes Kanteninformationsbild g(x) umfassen. Auf diese Weise lassen sich in einem Bild des Gesichts eines Brillenträgers Brillenfassungen erkennen. Der Kantendetektionsalgorithmus kann z. B. einen Kan- tendetektor enthalten. Ein solcher Kantendetektor ermöglicht es, in den Bilddaten b(x) Bildpunkte zu detektieren, die lichtempfindlichen Pixeln in der Bildebene des Bildsensors einer Bilderfassungseinrichtung entsprechen und die auf Kanten der Brillenfassung liegen. Dabei wird für jeden Bildpunkt eine die Wahrscheinlichkeit für eine Kante repräsentierender Wert angegeben, mit der er zur Brillenkante gehört. Der Kantendetektor kann auch ein sogenannter allgemeiner Kantendetektor sein, der jede Art von Bildkante detektiert, oder er kann speziell auf Brillenkanten mittels Machine Learning Verfahren trainiert worden sein. Auf diese Weise kann z. B. zwischen Brillenfassungskanten und Nicht-Brillenfassungskanten oder zwischen einer äußeren Brillenfassungskante und der inneren Brillenfassungskante unterschieden werden. Der Kantendetektor in dem Kantendetektionsalgorithmus kann insbesondere ein Kantendetektor aus der Gruppe Gradient, Farbgradient, Canny-Edge- Detektor, gerichtetes Filter, Solbelfilter sein. Es ist möglich, dass der Kantendetektionsalgorithmus für die Kantendetektion auf eine Filterbank mit einer Menge von Filtern wie z. B. Gaborfiltern oder gelernten Filtern zugreift. Von Vorteil ist es auch, wenn der Kantendetektionsalgorithmus als ein selbstlernender Algorithmus ausgebildet ist.

Die Erfinder haben herausgefunden, dass mit Hilfe sogenannten maschinellen Lernens erreicht werden kann, dass das Ermitteln des Rands eines Bril- lenglases, das an eine Brillenfassung angepasst ist, nicht nur mit hoher Genauigkeit sondern auch mit großer Zuverlässigkeit in einer Weise gewährleistet werden kann, die gegenüber Fehlereinflüssen sehr robust ist.

Eine Idee der Erfindung ist es, dass die aus den Bilddaten b(x) abgeleiteten berechneten Informationsdaten l(x) ein aus den erfassten Bilddaten b(x) mittels eines die Farbe von Bilddaten b(x) auswertenden Farbauswertungsalgo- rithmus ermitteltes Farbinformationsbild f(x) umfassen. Die Kostenfunktion E(u) kann insbesondere eine gewichtete Summe eines Kantendetektionskos- tenterms E e d ge (u) und eines Farbauswertungskostenterms E CO ior(u) sein.

Ein solcher Farbauswertungsalgorithmus dient dazu, Bildpunkte, die auf einem Brillenglas liegenden Punkten entsprechen, von Bildpunkten zu unterscheiden, die auf der Brillenfassung liegenden Punkten oder in dem Hintergrund der Brillenfassung liegenden Punkten entsprechen. Der Farbauswer- tungsalgorithmus kann hierzu ein Farbmodell benutzen, z. B. ein Hautfarbmodell, das Bildpunkte, die Punkten in dem Gesicht des Brillenträgers entsprechen, von Bildpunkten trennt, die auf der Brillenfassung liegenden Punk- ten entsprechen. Von Vorteil ist es auch, in dem Algorithmus das Bild mit einem Tiefpassfilter stark zu glätten, um auf diese Weise eine Annäherung an das Gesicht des Brillenträgers ohne Brillenfassung zu erhalten. Diese Näherung kann dann ein Farbmodell für innerhalb des Brillenglases liegende Bildpunkte bilden. Um eine Annäherung an das Gesicht des Brillenträgers ohne Brillenfassung zu erhalten ist es auch möglich, dass der Algorithmus eine Routine für maschinelles Lernen auf der Basis von Beispieldaten zu Personen ohne eine Brillenfassung enthält oder eine Routine, die aus den Bilddaten b(x) zu dem Brillenträger mit der Brillenfassung mittels sogenann- ter Principal Component Analysis gelernt auf Basis einer Vielzahl von Bildern mit Gesichtern ohne Brille einen Datensatz generiert, der einem Bild des Gesichts des Brillenträgers bzw. einem Bild eines Ausschnitts des Gesichts des Brillenträgers ohne die Brillenfassung entspricht. Im Rahmen des Farbauswertungsalgorithmus kann auch ein Wechsel des Farbraums von dem RGB-Farbraum in einen Farbraum vorgesehen sein, der Helligkeit und Farbe trennt, z. B. ein Wechsel in den YCbCr-Raum oder den HSV-Farbraum. Diese Maßnahme ermöglicht es, vergleichsweise beleuchtungsunabhängig zu arbeiten. Es sei bemerkt, dass im Rahmen der Erfin- dung ein Farbraum auch aus einer Vielzahl von mehreren Bildern entsprechenden Bilddaten b(x) gelernt werden kann. Außerdem sei bemerkt, dass im Rahmen der Erfindung vorgesehen sein kann, anhand von bekannten Hautfarbpunkten in Bilddaten b(x), z. B. anhand von Bildpunkten, die Punkten auf einem Nasenrücken entsprechen, einen passenden Hautfarbraum zu definieren. Günstiger Weise ist bei dem Farbauswertungsalgorithmus mit einem solchen Farbmodell dann vorgesehen, die Information des Abstands von Bildpunkten in den erfassten Bilddaten von den Augen des Brillenträgers auszuwerten, um zu berücksichtigen, dass Bildpunkte, die nahe an den Augen des Brillenträgers liegen, mit einer höheren Wahrscheinlichkeit in dem Bereich von in der Brillenfassung aufgenommenen Brillengläsern liegen als Bildpunkte in den Bilddaten b(x), die von den Augen des Brillenträgers einen großen Abstand haben. In dem Farbauswertungsalgorithmus kann hierfür z. B. eine Distanzfunktionsroutine vorgesehen sein, die für einen jeden Bildpunkt, d. h. ein jedes Pixel eines Bildsensors einer Bilderfassungseinrichtung den kürzesten Abstand zu einem Bildpunkt, d. h. einem Pixel des entsprechenden Bildsensors berechnet, der auf den Augen des Brillenträgers liegt. Je größer dieser ermittelte kürzeste Abstand ist, desto höhere Kosten werden dann in dem Farbterm der Kostenfunktion zum Ansatz gebracht, da eine Zugehörigkeit des Pixels zur Glasregion bzw. zum Glasrand unwahrscheinlicher wird. Eine bevorzugte Ausführungsform der Erfindung sieht vor, dass als Kostenfunktion E(u) für das Auffinden der gesuchten Brillenglasdaten u(x) eine konvexe Funktion ausgewählt wird.

Unter einer konvexen Funktion wird vorliegend wie in der Analysis eine reell- wertige Funktion verstanden, deren Graph unterhalb jeder Verbindungsstrecke zweier seiner Punkte liegt. Dies ist gleichbedeutend dazu, dass der Epigraph der Funktion, also die Menge der Punkte oberhalb des Graphen, eine sogenannte konvexe Menge bildet. Die Konvexität der Kostenfunktion E(u) erreicht die Erfindung insbesondere dadurch, dass diese eine Summe von konvexen Kostenfunktionstermen ist. Z. B. kann die Kostenfunktion aus einem konvexen Farbkostenterm E color ( u(x)), der die Farbe der Bilddaten b(x) mit Brillenglasdaten u(x) korreliert und mittels eines Farbmodells bewertet und einem konvexen Kantenkos- tenterm E edge ( u(x)) gebildet sein, der eine Korrelation von Bildkanten in den Bilddaten b(x) mit den Brillenglasdaten u(x) oder mit den durch eine Ableitung von Brillenglasdaten b(x) repräsentierten Rand 26 eines Brillenglases 28 oder zweier Brillengläser 28, 29 ist. Die Konvexität der Kostenfunktion bringt drei große Vorteile mit sich: Im Allgemeinen haben Funktionen globale und lokale Optima. Deshalb garantieren Optimierungsverfahren normalerweise nur das Finden eines lokalen Opti- munns, nicht des globalen Optimums. Bei konvexen Funktionen wird dagegen immer das globale Optimum gefunden, da keine lokalen Optima existieren. Bei konvexen Kostenfunktionen kann ein beliebiger Startwert (z. B. u(x) = 0 = kein Brillenglas vorhanden) verwendet werden, da das Verfahren immer zu einem globalen Optimum konvergiert. Eine konvexe Kostenfunktion ist deshalb deterministisch optimierbar. Insbesondere ist eine konvexe Kostenfunktion mittels einfacher deterministischer Algorithmen wie z. B. Gradientenabstiegsalgorithmen global optimierbar. Demgegenüber bedarf es bei nichtkonvexen Funktionen eines guten Startwerts, der nahe an einem globalen Optimum liegt, um brauchbare, gute Lösungen des Optimierungsproblems als Ergebnisse eines determinstischen Algorithmus zu erhalten.

Von Vorteil ist es, wenn das Berechnen von aus den Bilddaten abgeleiteten Informationsdaten l(x) das Ermitteln von Spiegelungsinformationsdaten s(x) mit einem Algorithmus für das Erkennen von Spiegelungen an der Brillenfassung und/oder eines in der Brillenfassung aufgenommenen Brillenglases um- fasst. Dabei ist es von Vorteil, wenn dieser Algorithmus so ausgelegt ist, dass Spiegelungen auf einem Brillenglas von Spiegelungen auf der Brillenfassung unterschieden werden können. Dies kann z. B. durch Detektion be- sonders heller Bereiche im Bild mit anschließender Analyse der Form der detektierten Spiegelungsregionen geschehen. Auf diese Weise kann ebenfalls die Genauigkeit der ermittelten Repräsentation des Rands eines Brillenglases gesteigert werden. Von Vorteil für die Genauigkeit des Verfahrens ist es auch, wenn der Farbauswertungsalgorithmus und der Kantendetektor die aus den Bilddaten b(x) berechneten Spiegelungsinformationsdaten s(x) berücksichtigt, da Spiegelungen in einem Bild starke, störende Kanten haben, die leicht mit dem Glasrand verwechselt werden können.

Das Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsdaten l(x) kann das Ermitteln von Gesichtsmerkmalsinformationsdaten m(x) mit einem Algorithmus für das Erkennen von Gesichtsmerkmalen umfassen. Eine Idee der Erfindung ist es auch, dass der Algorithmus für das Erkennen eines oder mehrerer Gesichtsmerkmale aus der Gruppe Auge, Pupille, Augenbraue, Nase, Mund oder Gesichtskontur ausgelegt ist. Insbesondere ist es möglich, dass der Farbauswertungsalgorithmus und/oder der Kantende- tektionsalgorithmus die aus den Bilddaten b(x) berechneten Gesichtsmerk- malsinformationsdaten m(x) berücksichtigt. Weil auch die Augen und Augenbrauen eines Brillenträgers in den auf erfassten Bilddaten b(x) beruhenden Bildern Kanten hervorrufen können, die das Ermitteln des Rands von Brillengläsern stören, ist es von Vorteil, wenn auch der Kantendetektionsalgorith- mus von den Augen oder Augenbrauen des Brillenträgers hervorgerufene Kanten in auf erfassten Bilddaten b(x) beruhenden Bildern berücksichtigt, indem aus den Bilddaten b(x) berechneten Gesichtsmerkmalsinformationsda- ten m(x) ausgewertet werden. Um das Gesicht und die sogenannte Region of Interest, in der sich die Brillenfassung, d. h. die Brille im Bild befindet, zu bestimmen, kann die Detektion von Gesichtsmerkmalen hilfreich sein. Gesichtsmerkmale sind in diesem Fall z. B. eine oder mehrere Merkmale aus der Gruppe Augen, Position der Pupillen, Augenbrauen, Nase, Mund und/oder Gesichtskontur eines Gesichts. Ba- sierend auf einem oder mehreren Merkmalen kann man berechnen, in welchem Bereich die Brillenkanten gesucht werden. Außerdem sind mit den Augen Punkte bekannt, die auf jeden Fall innerhalb des Glases liegen.

Für das Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsda- ten l(x) kann das Ermitteln von Brillenglasforminformationsdaten di(x) mit einem Algorithmus vorgesehen sein, der anhand eines dem Algorithmus zugeführten Brillenglasmodells oder anhand einer Vielzahl von dem Algorithmus zugeführten Brillenglasformen als Brillenglasforminformationsdaten di(x) ein parametrisches Modell oder eine Wahrscheinlichkeiten repräsentierende Karte über die Wahrscheinlichkeit angibt, dass erfasste Bilddaten auf einem Brillenglas liegen. Insbesondere kann vorgesehen sein, dass das Berechnen von aus den Bilddaten abgeleiteten Informationsdaten l(x) das Ermitteln von Brillenglasfornninfornnationsdaten di(x) mit einem Algorithmus umfasst, der anhand eines dem Algorithmus zugeführten Brillenglasmodells oder anhand einer Vielzahl von dem Algorithmus zugeführten Brillenglasformen als Brillenglasform informationsdaten di(x) eine 2D-Form oder eine 3D-Form eines in der Brillenfassung aufnehmbaren Brillenglases angibt.

Eine Idee der Erfindung ist es z. B., mittels von Hand vorsegmentierten Beispielen für Brillengläser ein Modell für die Form eines Brillenglases zu bestimmen. Ein solches Modell kann eine Wahrscheinlichkeitskarte sein, die für jeden Bildpunkt in erfassten Bilddaten b(x) angibt, wie wahrscheinlich es ist, dass der diesem Bildpunkt entsprechende Punkt innerhalb des Brillenglases liegt. Dabei ist es vorteilhaft, die segmentierten Beispiele anhand der Augenposition zu zentrieren und entlang der Hauptachsen oder anderer Achsen auszurichten. Es ist allerdings auch möglich, die Form von Brillengläsern in parametrischen Modellen zu schätzen, z. B. aus dem Brillenglas als Fläche in der Bildansicht oder aus den einer Brillenglaskontur entsprechenden Punkten. Die Parameter dieser Modelle können dann optimiert werden. Darüber hinaus ist zu bemerken, dass ein Modell auch als eine Nebenbedingung in der Optimierung verwendet werden kann, z. B. als Nebenbedingung, dass die finale Kontur innerhalb des zuvor gelernten Modellraumes liegt oder indem die Abweichung der Kontur vom nächstliegenden Element innerhalb des Merkmalsraums bestraft wird mittels zusätzlicher Kosten in der Kostenfunktion. Es versteht sich, dass anstatt Modelle aus Beispielen zu lernen im Rahmen der Erfindung auch entsprechende Modelle definiert werden können, z. B. Modelle, die auf sogenannten Tracerdaten z. B. in Form von 3D- Koordinaten oder in Form von 2D-Koordinaten basieren, die mittels eines den Verlauf von Fassungsinnenrändern in einer Brillenfassung abtastenden Tracer-Geräts bereitgestellt werden. Von Vorteil ist es, wenn der Farbauswertungsalgorithmus die aus den Bilddaten b(x) berechneten Brillenglasforminformationsdaten di(x) berücksichtigt. Die aus den Bilddaten b(x) abgeleiteten berechneten Informationsdaten l(x) können auch eine mittels eines Brückenmittendetektionsalgorithmus ermittelte Brückenmitte M umfassen. Darüber hinaus ist es möglich, dass den bereitgestellten Bilddaten b(x) zu dem Brillenträger aus wenigstens zwei unterschiedlichen Blickwinkeln aufgenommene Bilder mit oder ohne zugehörige Kalibrierinformationen zugrunde liegen.

Die aus den Bilddaten b(x) abgeleiteten berechneten Informationsdaten l(x) können weiter ein mittels eines Triangulationsalgorithmus aus den Bilddaten b(x) oder aus den segmentierten Brillenglasdaten u(x) ermittelte Tiefenkar- tendaten t(x) umfassen. Dabei ist es von Vorteil, wenn die Kostenfunktion E(u) in einem Kostenfunktionsterm als eine Zwangsbedingung berücksichtigt, dass ein in einer Brillenfassung aufgenommenes linkes und ein rechtes Brillenglas zueinander symmetrisch sind. Dies kann z. B. dadurch geschehen, dass die Kostenfunktion mit einer Stereobedingung aufeinander abgebildete Punkte in Brillenglasdaten u(x) zu Bildern bewertet, die unterschiedlichen Aufnahmerichtungen der Bilderfassungseinrichtungen entsprechen, z. B. indem ein 3D-Punkt in dem Gesicht des Brillenträgers, d. h. ein Punkt mit Tiefeninformation in mehrere Bilder abgebildet wird, so dass entsprechende Punkte in auf den Bilddaten b(x) basierenden Bildern in einem jedem Bild entweder einem Brillenglas (u(x) = 1 ) oder einem hinter einem Brillenglas liegenden Hintergrund (u(x) = 0) bzw. in jedem Bild dem Brillenrand zugeordnet werden.

Zu bemerken ist, dass die Kostenfunktion für das Auffinden der gesuchten Brillenglasdaten u(x) auch einen Symmetriekostenterm E sym ( u(x)) enthalten kann, der in den Bilddaten b(x) enthaltene Symmetrien mit Brillenglasdaten u(x) korreliert.

Eine Idee der Erfindung ist es, hierfür die Information der Brückenmitte M einer Brillenfassung heranzuziehen, um eine 3D-Spiegelebene für die Brillengläser zu definieren. Bei Frontalaufnahmen ermöglicht die Brückenmitte M auch, die Brillenglasdaten u(x) für ein linkes und ein rechtes Brillenglas auf- einander anzupassen und für die Anpassung eine Symmetrie- Zwangsbedingung (Synnnnetrie-Constraint) zu formulieren. Die Brückenmitte M kann auch geschätzt werden, indem die Mitte des linken und rechten inneren Glasrandes von Brillengläsern berechnet wird.

Initial kann die Brückenmitte M z. B. mit Hilfe der Mittelpunkte zwischen den detektierten Pupillenmitten, der Position des Nasenrückens oder einer gewichteten Kombination beider Merkmale bestimmt werden. Ist nur eine Frontalaufnahme vorhanden ohne weitere Aufnahmen oder zusätzliche 3D-lnformationen, so kann trotzdem ein Symmetrie-Constraint in der 2D-Ebene formuliert werden. Dafür kann eine Spiegelachse geschätzt werden, z. B. als Brückenmitte, als Mittelsenkrechte zwischen den beiden Augen des Brillenträgers oder als Mittellinie zwischen den inneren Kanten der beiden die Glasränder umschreibenden Rechtecke bzw. Parallelogramme einer Initial- oder Zwischenlösung. Diese Mittellinie kann auch während der Optimierung angepasst werden. Mittels eines Matching-Verfahrens kann dann die bestmögliche Abbildung des gespiegelten rechten bzw. linken Brillenglases auf das jeweils andere berechnet werden. Aus der Abweichung der aufeinander abgebildeten Glasflächen oder der Glaskonturen kann dann ein Strafterm berechnet werden. Ein Strafterm ist ein Term, der zusätzliche Kosten in der Kostenfunktion induziert, in diesem Fall für nicht-symmetrische Lösungen. Falls der Proband nicht ganz mittig vor der Kamera steht, kann es bei der Frontalaufnahme zu perspektivischen Verzerrungen im Bild und damit zu nicht symmetrischen Darstellungen der beiden Gläser im Bild kommen. Die Symmetriebedingung kann aber trotzdem als Approximation verwendet werden, in diesem Fall vorzugsweise mit geringerem Gewichtungsfaktor.

Alternativ kann auch, falls nur eine Frontalaufnahme vorhanden ist, eine bestimmte Tiefe und/oder Form und/oder Krümmung der Gläser im Raum an- genommen werden, um auf diesem Weg 3D-lnformationen für eine Symmetriebedingung zu erhalten.

Indem Bilddaten b(x) mit Bilderfassungseinrichtungen erfasst werden, die das Gesicht des Brillenträgers mit einer von diesem getragenen Brillenfassung aus verschiedenen Blickwinkeln aufnehmen und indem zu diesen Bilderfassungseinrichtungen Kalibrier-Informationen bekannt sind, ist es möglich durch Triangulation zu dem Gesicht des Probanden mit der Brillenfassung die vorstehend erwähnte Tiefenkarte t(x) in Form einer Punktewolke zu berechnen. Aus dieser Punktewolke lässt sich dann die Form von SD- Brillengläsern z. B. als Ebenen in einer Approximation an die wahre Kontur der Brillengläser schätzen. Aus diesen Ebenen kann dann mittels einer Spiegelebenen-Zwangsbedingung (bzw. eines Strafterms), die an die Kostenfunktion gestellt wird, eine Symmetrie der Brillenfassung in drei Dimensionen si- chergestellt werden. Im Rahmen der Erfindung können diese SD- Informationen dann auch dazu verwendet werden, Zentrierparameter zu berechnen.

Ein erfindungsgemäßer Algorithmus für das Berechnen des Rands von Bril- lengläsern, d. h. die Brillenkontur durch Minimierung einer Kostenfunktion mittels einer Optimierungsroutine kann also eine oder mehrere Routinen aus der Gruppe Kantendetektionsroutine, Farbauswertungsroutine, Spiegelungsroutine, Brillenglas-Lageroutine, Triangulationsroutine, Brückenmitten- Erkennungsroutine, Gesichtsmerkmal-Erkennungsroutine, Routine für das Schätzen des 3D-Verlaufs von Brillengläsern enthalten.

Zu bemerken ist, dass in der die Informationsdaten l(x) mit Brillenglasdaten u(x) verknüpfenden Kostenfunktion E(u) mindestens ein aus Daten maschinell gelerntes Modell enthalten sein kann.

Unter einem aus Daten maschinell gelernten Modell ist dabei eine Abbildung zu verstehen, deren Parameter mittels eines Machine Learning Algorithmus auf Basis einer Menge von Beispieldaten automatisch so gelernt bzw. ange- passt wurden, dass die Abbildung möglichst gut die Beispieldaten (Trainingsdaten) beschreibt und auch auf neue Beispiele (Validierungsdaten) generalisiert.

Die Erfindung erstreckt sich auch auf ein Computerprogramm mit Programmcode, welcher, wenn in einem Computersystem geladen und ausgeführt, zur Durchführung eines Verfahrens nach einem der vorangegangenen Ansprüche ausgelegt ist.

Eine erfindungsgemäße Vorrichtung zum Ermitteln des Verlaufs des Rands eines Brillenglases für einen Brillenträger enthält wenigstens eine Bilderfassungseinrichtung zum Bereitstellen von Bilddaten b(x) zu dem Brillenträger mit einer getragenen Brillenfassung und hat Mittel zum Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsdaten l(x), Mittel zum Berechnen einer die Informationsdaten l(x) mit Brillenglasdaten u(x) verknüpfenden Kostenfunktion E(u), wobei die Brillenglasdaten u(x) die räumliche Ausdehnung wenigstens eines in der Brillenfassung gehaltenen Brillenglases beschreiben, und Mittel zum Festlegen eines Verlaufs eines Rands des Brillenglases durch Optimieren der Kostenfunktion E(u).

Die Erfindung erstreckt sich außerdem auf ein Verfahren zum Zentrieren eines linken Brillenglases und/oder eines rechten Brillenglases in eine Brillenfassung.

Um die Brillengläser korrekt in eine Brillenfassung einzupassen, ist es erforderlich, die Brillengläser zu zentrieren, d.h. es müssen die optischen Zentren der Gläser mit den visuellen Achsen der Augen des Brillenträgers in Deckung gebracht werden, damit die Brillengläser für das Sehen des Brillenträgers bestmögliches Sehen vermitteln. Für das Zentrieren der Brillengläser ist es erforderlich, Zentrierparameter zu kennen, z.B. die Information über den Pupillenabstand und die Information über die Höhe der Pupillen in Bezug auf die Brillenfassung. Darüber hinaus ist es für das Zentrieren von Brillengläsern wichtig, dass die Höhe der opti- sehen Zentren der Brillengläser im Verhältnis in Bezug auf den unteren oder oberen Rand der Brillenfassung bekannt ist, in das die Brillengläser eingesetzt werden.

In dem erfindungsgemäßen Verfahren zum Zentrieren eines linken Brillen- glases und/oder eines rechten Brillenglases in eine Brillenfassung werden in einem Schritt (i) zu dem Brillenglas Zentrierparameter bestimmt, wobei das Bestimmen der Zentrierparameter das vorstehend angegebene Ermitteln der Repräsentation des Rands des Brillenglases umfasst, und es werden in einem weiteren Schritt (ii) das Brillenglas mit den in dem vorausgehenden Schritt (i) bestimmten Zentrierparametern in die Brillenfassung zentriert.

Darüber hinaus erstreckt sich die Erfindung auf ein Verfahren zum Einschlei- fen eines linken Brillenglases oder einer rechten Brillenglases in eine Brillenfassung, bei dem in einem Schritt (i) Zentrierparameter bestimmt werden, wobei das Bestimmen der Zentrierparameter das Ermitteln der Repräsentation des Rands des Brillenglases mit einem vorstehend angegebenen Verfahren umfasst, und bei dem in einem weiteren Schritt (ii) das Brillenglas basierend auf den in dem vorausgehenden Schritt (i) bestimmten Zentrierparametern für eine Anordnung in der Brillenfassung eingeschliffen werden.

Außerdem erstreckt sich die Erfindung auch auf ein Verfahren zum Herstellen eines linken Brillenglases oder eines rechten Brillenglases, bei dem von einem Verfahrensschritt des Einschleifens des Brillenglases in eine Brillenfassung nach einem vorstehend angegebenen Verfahren Gebrauch gemacht wird. Die Erfindung erstreckt sich auch auf ein Verfahren zum Herstellen einer Brille, bei dem von einem oder mehreren der vorstehend angegebenen Verfahren Gebrauch gemacht wird. Im Folgenden wird die Erfindung anhand eines in der Zeichnung in schemati- scher Weise dargestellten Ausführungsbeispiels näher erläutert.

Es zeigen: Fig. 1 eine Vorrichtung zum Ermitteln einer Repräsentation des Rands der beiden Brillengläser in einer Brillenfassung;

Fig. 2 eine Repräsentation des Rands eines linken und eines rechten auf die Brillenfassung abgestimmten Brillenglases;

Fig. 3a bis

Fig. 3f verschiedene Zentrierparameter für ein Brillenglas;

Fig. 4 einen Algorithmus eines Computerprogramms zum Ermitteln einer

Repräsentation des Rands der in eine Brillenfassung eingepass- ten Brillengläser;

Fig. 5 Bilddaten zu einem Brillenträger mit einer Brillenfassung; Fig. 6 Gesichtsmerkmale eines Brillenträgers mit einer Brillenfassung;

Fig. 7 ausgewählte Bilddaten zu einem Brillenträger mit einer Brillenfassung; Fig. 8 ein Kanteninformationsbild;

Fig. 9 ein Farbinformationsbild; Fig. 10 ein Informationsbild zu ersten Spiegelungen;

Fig. 1 1 ein Informationsbild zu zweiten Spiegelungen;

Fig. 12 eine Glasmodell-Wahrscheinlichkeitskarte;

Fig. 13 Bilddaten mit einer Brückenmitte; Fig. 14 Tiefen karten informationsdaten;

Fig. 15 eine erste Repräsentation von Brillenglasdaten;

Fig. 16 Werte einer Kostenfunktion für unterschiedliche Brillenglasdaten;

und

Fig. 17 bis

Fig. 22 weitere Repräsentationen von Brillenglasdaten. Die in der Fig. 1 gezeigte Vorrichtung 10 ist ein kamerabasiertes Zentriersystem und ermöglicht das Ermitteln einer Repräsentation des Rands der beiden Brillengläser in einer Brillenfassung. Die Vorrichtung 10 hat eine Säule 12, die relativ zueinander referenzierte Bilderfassungseinrichtungen 14, 16, 18 mit Bildsensoren 15 für das Erfassen von Bilddaten eines Brillenträgers 20 trägt. Sie enthält eine mit den Bilderfassungseinrichtungen 14, 16, 18 verbundene Rechnereinheit 21 mit einer Tastatur als Eingabeschnittstelle 22 und einer Ausgabeschnittstelle 23 in Form eines Monitors.

Für das Erfassen von Bilddaten mittels der Bilderfassungseinrichtungen 14, 16, 18 positioniert sich der Brillenträger 20 z. B. in einem Optikfachgeschäft mit einer ausgewählten Brillenfassung 24 in einem Aufnahmeabstand A = 30 cm von der Säule 12. Mittels der Bilderfassungseinrichtungen 14, 16, 18 kann das Gesicht 25 des Brillenträgers 20 in unterschiedlichen Aufnahme- richtungen 19 erfasst werden.

Die Vorrichtung 10 ermöglicht das Ermitteln einer Repräsentation des Rands der Brillengläser, die in einer von dem Brillenträger 20 ausgewählten Brillenfassung 24 aufgenommen und gehalten werden sollen, um dessen Fehlsichtigkeiten zu korrigieren und nach Möglichkeit auszugleichen. Hierfür wird mittels der Bilderfassungseinrichtungen 14, 16, 18 ein Bilddatensatz b(x) aufgenommen, der das Gesicht 25 des Brillenträgers 20 mit der aufgesetzten Bril- lenfassung 24 zeigt. Um die gesuchte Repräsentation des Rands von auf die Brillenfassung 24 abgestimmten Brillengläsern zu ermitteln, kann der Bilddatensatz b(x) aufgenommen werden, ohne dass die von dem Brillenträger 20 getragene Brillenfassung 24 Brillengläser enthält. Es ist jedoch auch möglich, einen entsprechenden Bilddatensatz b(x) aufzunehmen, wenn der Brillenträ- ger 20 eine Brillenfassung 24 trägt, in die Stützgläser oder Brillengläser montiert sind.

Die Fig. 2 zeigt ein linkes Brillenglas 28 und ein rechtes Brillenglas 29 mit dem Abschnitt einer Brillenfassung 24, die das Brillenglas 28 hält. Unter dem Rand 26 des Brillenglases 28 wird vorliegend der in der Norm DIN EN ISO 13666:2013-10 in Abschnitt 13.4 definierte Tragrand eines Brillenglases verstanden. Der Tragrand umgibt und begrenzt den Lentikularteil eines Brillenglases, d. h. denjenigen Teil, der entsprechend der Definition in Abschnitt 13.2 der Norm DIN EN ISO 13666:2013-10 die vorgeschriebene dioptrische Wirkung des Brillenglases 28, 29 hat. Der Tragrand eines Brillenglases kann bei randlosen Brillen mit der dem Brillenträger 20 abgewandten Kante der Seitenfläche 30 eines Brillenglases 28, 29, dem sogenannten Glasaußenrand zusammenfallen. Der Glasaußenrand ist in der von dem Brillenträger 20 getragenen Brillenfassung 24 teilweise verdeckt.

Als Repräsentation des Rands 26 eines auf die Brillenfassung 24 abgestimmten Brillenglases 28 ermittelt die Vorrichtung 10 als Datensatz eine in der Bildebene des Bildsensors 15 der Bilderfassungseinrichtung 16 liegende Punktemenge, welche die Projektion des Tragrands 26 des Brillenglases 28 in diese Bildebene beschreibt. Die genaue Kenntnis des Verlaufs des Rands 26 eines auf eine Brillenfassung 24 abgestimmten Brillenglases 28 ermöglicht unter Berücksichtigung weiterer das Brillenglas 28 und die Augen beschreibender Größen ein präzises Bestimmen der sogenannten Zentrierparameter. Die Fig. 3a zeigt den Zentrierparameter des Pupillenabstands PD für Brillengläser 28 in einer Brillenfassung 24, die ein Brillenträger 20 trägt. In der Fig. 3b ist als ein weiterer Zentrierparameter, die Einschleifhöhe E, zu sehen. Die Fig. 3c zeigt den Zentrierparameter des Hornhaut-Scheitelabstands HS. In der Fig. 3d ist als Zentrierparameter der auf die Vertikale 31 bezogene Vor- neigungswinkel α zu sehen. Die Fig. 3e zeigt als Zentrierparameter den Fassungsscheibenwinkel ß, d. h. den Winkel zwischen der Fassungsebene und der linken bzw. rechten Scheibenebene und die Fig. 3f die Boxmaß- Zentrierparameter, d. h. die Scheibenbreite sb, die Scheibenhöhe sh sowie den Abstand bw zwischen den Brillengläsern 28 in einer Brillenfassung 24.

Die Rechnereinheit 21 in der Vorrichtung 10 enthält ein Computerprogramm, das aus mittels der Bilderfassungseinrichtungen 14, 16, 18 bereitgestellten Bilddaten b(x) automatisch eine Repräsentation des Rands 26 der in die Brillenfassung 24 eingepassten Brillengläser 28 ermittelt. Dieses Computerpro- gramm ermöglicht es, dass Merkmale wie die Pupillenmitten und Fassungsrand anhand der bereitgestellten Bilddaten b(x) automatisch detektiert und deren Position in einem zu der Brillenfassung 24 referenzierten Koordinatensystem 32 subpixelgenau bestimmt werden kann. Das Computerprogramm ermittelt dabei durch Triangulation auch zu dem Koordinatensystem 32 der Brillenfassung 24 referenzierte Positionen der Bildebenen der Bildsensoren 15 der Bilderfassungseinrichtungen 14, 16, 18. Anhand der Fig. 4 wird der in diesem für das Ermitteln der Repräsentation des Rands 26 eines Brillenglases 28 umgesetzte Algorithmus 34 nachfolgend beschrieben. In einem ersten Schritt bestimmt der Algorithmus 34 aus von der Bilderfassungseinrichtung 16 bereitgestellten Bilddaten b(x) eines in der Fig. 5 gezeigten Bilds 36 des Brillenträgers 20 mit einer Brillenfassung 24, wie sie die Fig. 4 zeigt, einen relevanten Bildausschnitt 38. Für das Bestimmen des relevanten Bildausschnitts 38 werden die Bilddaten b(x) in einer Gesichtsmerkmal-Erkennungsroutine 40 verarbeitet. Die Gesichtsmerkmal-Erkennungsroutine 40 ermittelt aus den Bilddaten b(x) die Lage der Nasenpartie, der Augen, der Kinnpartie und der Lippenpartie durch einen Vergleich mit Datenmustern 42, die in der Fig. 6 gezeigt und für ent- sprechende Aufnahmen des Gesichts eines Brillenträgers 20 mit einer aufgesetzten Brillenfassung 24 charakteristisch sind.

Basierend auf einem Gesichtsmerkmal oder mehreren Gesichtsmerkmalen des Brillenträgers 20 ist es möglich, zu berechnen, in welchem Bereich übli- cherweise die Kanten der Brillenfassung 24 eines von einem Brillenträger 20 getragenen Brillengestells liegen. Zu bemerken ist, dass z. B. den Augen des Brillenträgers 20 entsprechende Bildpunkte auf einem Brillenglas 28 liegende Bildpunkte sind. Die Fig. 7 zeigt mittels der Gesichtsmerkmal-Erkennungsroutine 40 aus den Bilddaten b(x) ermittelte Ausschnitts-Bilddaten bA(x) in dem gesuchten Bildausschnitt 38 mit der Brillenfassung 24. In dem Algorithmus 34 wird dann aus den Ausschnitts-Bilddaten bA(x) in einer Kantendetektionsroutine 44 mittels eines Kantendetektionsalgorithmus ein Kanteninformationsbild g(x) mit Kan- teninformationsdaten 46 berechnet. Die Fig. 8 zeigt das Kanteninformationsbild g(x) mit Kanteninformationsdaten 46 als Bildpunkte in einem Graustufenbild 48. ln dem Algorithmus 34 wird außerdem aus den Bilddaten b(x) in einer Farb- auswertungsroutine 50 mittels eines Farbauswertungsalgonthmus ein Farbin- formationsbild f(x) berechnet.

Der Farbauswertungsalgonthmus f(x) dient dazu, Bildpunkte in Bildbereichen, in denen ein Brillenglas 28 liegt, von Bildpunkten zu unterscheiden, die in den der Brillenfassung 24 entsprechenden Bildbereichen liegen. Der Farbauswertungsalgonthmus benutzt hierfür ein Farbmodell, z. B. ein Hautfarb- modell, mittels dessen Bildpunkte in dem Gesicht 25 des Brillenträgers 20 von auf einem Brillengestell oder einer Brillenfassung 24 liegenden Bildpunkten getrennt werden können. Der Farbauswertungsalgonthmus enthält eine Tiefpassfilterroutine, mittels dessen die mit einer oder mehreren Bilderfassungseinrichtungen 14, 16, 18 erfassten Bilddaten b(x) geglättet werden, um auf diese Weise Daten zu erhalten, die einer näherungsweisen Darstellung des Gesichts 25 des Brillenträgers 20 ohne die von ihm getragene Brillenfassung 24 entsprechen. Die Daten dieser näherungsweisen Darstellung werden dann als ein Farbmodell für die innerhalb eines Brillenglases 28 liegenden Bildpunkte herangezogen. In dem Farbauswertungsalgonthmus f(x) kann z. B. auch ein Farbraumwechsel aus dem RGB-Farbraums in den YCbCr- Farbraum oder den HSV-Farbraum erfolgen, um auf diese Weise die Information der Helligkeit von Bildpunkten von der Information der Farbe von Bildpunkten zu trennen. Zu bemerken ist auch, dass der Farbauswertungsalgonthmus ermöglichen kann, dass ein geeigneter Farbraum aus einer Viel- zahl von Bildern gelernt wird oder dass ein Farbraum, z. B. ein Hautfarbraum anhand von bestimmten Bildpunkten in dem mittels einer Bilderfassungseinrichtung 14, 16, 18 erfassten Bild eines Brillenträgers 20 etwa auf der Grundlage von Bildpunkten gelernt wird, die auf dem Nasenrücken in dem Gesicht 25 des Brillenträgers 20 liegenden Punkten entsprechen. Auch Distanzinfor- mationen können in das Farbmodell eingehen. Je weiter ein Pixel von den Augen des Probanden entfernt ist, umso weniger wahrscheinlich gehört er zur Brillenglasregion bzw. zum Glasrand. Die Fig. 9 zeigt im Rahmen des Farbauswertungsalgorithmus ermittelte Farb- informationsdaten 52 als Bildpunkte in einem weiteren Graustufenbild 48. Spiegelungen oder Reflexe 54, die auf den Brillengläsern 28 und/oder der Brillenfassung 24 sichtbar sind, erzeugen starke Kanten, die leicht mit dem Brillenrand verwechselt werden können. Bildpunkte zu Spiegelungen oder Reflexen haben außerdem Farben, die von der Hautfarbe des Brillenträgers 20 und von der Farbe vieler Brillengestelle bzw. Brillenfassungen 24 verschieden sind.

Um Bildpunkte in den Bilddaten b(x) zu erkennen, die einerseits auf Spiegelungen und Reflexe des Lichts an dem Brillengestell bzw. der Brillenfassung 24 zurückgehen und andererseits auf Spiegelungen und Reflexe des Lichts an den Brillengläsern 28, gibt es in dem Algorithmus 34 eine Spiegelungsde- tektionsroutine 58. Die Spiegelungsdetektionsroutine 58 erkennt in den Bilddaten b(x) Bildpunkte, deren Helligkeit oberhalb eines Schwellwerts liegt und stellt diese Information in Form von Spiegelungsinformationsdaten s(x) bereit. Alternativ oder zusätzlich ist es für das Erkennen von entsprechenden Spiegelungen und Reflexen des Lichts allerdings auch möglich, die Bilddaten b(x) in einen anderen Farbraum zu transformieren, z. B. den CMYK-Farbraum, und in diesem dann geeignete Schwellwerte für die drei Farbkanäle festzulegen, bei deren Überschreitung ein Bildpunkt als in einer Spiegelung oder ei- nem Reflex liegender Bildpunkt qualifiziert wird. Um Bildpunkte in den Bilddaten b(x) zu erkennen, die einerseits auf Spiegelungen und Reflexe des Lichts an dem Brillengestell bzw. der Brillenfassung 24 zurückgehen, ist es außerdem möglich, die Form von Spiegelungen und Reflexen des Lichts an den Brillengläsern 28 und der Brillenfassung 24 zu bewerten. So haben z. B. Spiegelungen auf der Brillenfassung im Regelfall eine längliche Form. In der Spiegelungsroutine können für das Erkennen von Speigelungen und Reflexen aufgrund der Form deshalb auch Formfaktoren oder ein Verhältnis der Hauptachsenlängen einer in eine Reflexion oder Spiegelung entsprechenden Menge von Bildpunkten einbeschreibbaren Ellipse benutzt werden. Zu bemerken ist, dass vorteilhafter Weise für das Erkennen von entsprechenden Spiegelungen und Reflexen des Lichts in den Bilddaten b(x) auch Distanzen von ersten Bildpunkten zu zweiten Bildpunkten bewertet werden, die Punkten entsprechen, die auf den Augen des Brillenträgers liegen.

Die Fig. 10 zeigt die mittels der Spiegelungsdetektionsroutine 58 ermittelten Bildpunkte aus den Bilddaten b(x), die einem Reflex 54 bzw. einer Spiege- lung auf den Brillengläsern 28 liegen in einem Schwarzweißbild 56. In der Fig. 1 1 sind die mittels der Spiegelungsdetektionsroutine 58 ermittelten Bildpunkte aus den Bilddaten b(x), die einem Reflex 54 bzw. einer Spiegelung auf der Brillenfassung 24 liegen, in einem Schwarzweißbild 56 gezeigt. Um das Erkennen von Bildpunkten in den Bilddaten b(x) zu vereinfachen, die auf in einer Brillenfassung 24 eingefassten Brillengläsern 28 liegen, enthält der Algorithmus 34 eine Brillenglas-Lageroutine 60.

Die Brillenglas-Lageroutine 60 ermittelt anhand einer Vielzahl von Brillen- glasinformationsdaten in Form von Brillenglasmodellen eine Wahrscheinlichkeitskarte über die Wahrscheinlichkeit, dass erfasste Bilddaten auf einem Brillenglas 28, 29 liegen. Die Fig. 12 zeigt die Wahrscheinlichkeitswerte w(x) der Wahrscheinlichkeitskarte als Wahrscheinlichkeitsinformationsdaten 62 in einem Graustufenbild 48.

Zu bemerken ist, dass alternativ hierzu auch parametrische Modelle der Form von Brillengläsern 28 geschätzt werden können, z. B. aufgrund der in den Bilddaten b(x) enthaltenen Information über die Flächen von Brillengläsern 28 oder aus in den Bilddaten b(x) enthaltener Information zu auf der Kontur von Brillengläsern 28 liegenden Bildpunkten. Dabei können dann die Parameter dieser Modelle optimiert werden. Um das Erkennen von Bildpunkten in den Bilddaten b(x) zu vereinfachen, die auf in einer Brillenfassung 24 eingefassten Brillengläsern 28 liegen, enthält der Algorithmus 34 eine Brückenmitten-Erkennungsroutine 64, die aus den Bilddaten b(x) eine Mitte M der in der Fig. 13 kenntlich gemachten Brücke 27 der Brillenfassung 24 bestimmt. Die Brückenmitten-Erkennungsroutine 64 berechnet mittels Bildverarbeitung die Mitte der Brücke 27 der Brillenfassung 24 durch Bestimmen der Mitte des Rands des linken und rechten Brillenglases 28 aus den mit einer Bilderfassungseinrichtung 14, 16, 18 erfassten Bilddaten b(x). Die Fig. 13 zeigt den mittels der Gesichtsmerkmal- Erkennungsroutine 40 aus den Bilddaten b(x) ermittelten Bilddaten in dem gesuchten Bildausschnitt 38 (Region of Interest) mit der Brillenfassung 24 und einer aus den Bilddaten b(x) bestimmten Brückenmitte 66. Zu bemerken ist, dass die Brückenmitte 66 auch z. B. mit Hilfe der Mittelpunkte zwischen detektierten Pupillenmitten, mit Hilfe der Position des Nasenrückens, mit Hilfe einer gewichteten Kombination dieser beiden Merkmale oder mittels Machine Learning Verfahren basierend auf Beispieldatensätzen bestimmt werden kann.

Die Brückenmitten-Erkennungsroutine 64 in dem Algorithmus 34 übermittelt die Information der Brückenmitte 66 an eine Symmetrieroutine 68.

Der Algorithmus 34 weist außerdem eine Triangulationsroutine 69 auf, die aus der Information der Bilddaten b(x) eines weiteren Bild 37, das mit einer anderen Bilderfassungseinrichtungen 14, 16, 18 erfasst ist, anhand von in einer Kalibierroutine 39 als Apparatekonstante bekannten Kalibrierinformationen zu den Bilderfassungseinrichtungen 14, 16, 18 durch Triangulation in der Fig. 14 gezeigte Tiefenkarteninformationsdaten t(x) berechnet.

Unter den Kalibier-Informationen zu einer Bilderfassungseinrichtung 14, 16, 18 werden dabei extrinsische Eigenschaften wie die relative Ausrichtung der Aufnahmerichtung 19 im Raum einer Bilderfassungseinrichtung, d. h. die relative Ausrichtung der optischen Achse der Aufnahmerichtung 19 als auch die intrinsischen Eigenschaften der Bilderfassungseinrichtung 14, 16, 18 verstanden, also die Eigenschaften der Bilderfassungseinrichtung 14, 16, 18, die definieren, wie die Koordinaten eines Punkts im Raum in einem zu der entsprechenden Bilderfassungseinrichtung 14, 16, 18 referenzierten Koordina- tensystem, der in die Bildebene des Bildsensors 15 der Bilderfassungseinrichtung 14, 16, 18 abgebildet wird, in die Koordinaten des in der Bildebene des Bildsensors 15 liegenden Bildpunkts dieses Punkts überführt werden. Eine ausführliche Beschreibung der Kalibrierung von Bilderfassungseinrichtungen in Form von Kameras findet sich z. B. auf S. 8 in dem Lehrbuch "Mul- tiple View Geometry in Computer Vision" von Richard Hartley und Andrew Zisserman, 2. Auflage, Cambridge University Press 2004, auf das hiermit Bezug genommen und dessen Offenbarung in die vorliegende Beschreibung der Erfindung mit einbezogen wird. Die Information der Tiefen karten informationsdaten entspricht einer Tiefen karte in Form einer Punktewolke, die es ermöglicht, die räumliche Ausdehnung von 3D-Brillengläsern z. B. in Form von Ebenen als Approximation an die wahre Glaskontur zu schätzen. Die Tiefen karten informationsdaten t(x) werden einer Routine zu Stereoannahmen 71 zugeführt.

Der Algorithmus 34 enthält eine Kostenfunktionsroutine 70. In der Kostenfunktionsroutine 70 werden die Kanteninformationsdaten g(x) eines in der Fig. 8 als Graustufenbild 48 gezeigten Kanteninformationsbilds g(x) und die um Spiegelungen und Reflexe sowie anhand von Brillenglasmodellen korrigierten, in der Fig. 9 als ein Graustufenbild 48 gezeigten Farbinformationsda- ten f(x) sowie Symmetriebewertungsdaten r(x) und Stereobewertungsdaten d(x), welche auch die Information der Tiefen karten informationsdaten t(x) ent- halten, mit Brillenglasdaten u(x) zu einer deterministisch optimierbaren Kostenfunktion E(u) verknüpft. Diese Kostenfunktion E(u) wird dann in einer Optimierungsroutine 75 des Algorithmus 34 deterministisch optimiert. Die Fig. 15 ist eine Repräsentation von Brillenglasdaten u(x) als Initialdaten für eine Optimierungsroutine 75 in dem in der Fig. 4 gezeigten Algorithmus 34. Die Fig. 15 zeigt die Brillenglasdaten u(x) als ein Schwarzweißbild 56 in Form der Werte einer binären Funktion u: Ω ->{0,1 }, die innerhalb der Fläche der Brillengläser den Wert 1 und außerhalb den Wert 0 annimmt. Ω c R2 bezeichnet dabei die Bildkoordinaten des Bildes, in dem die Brillengläser de- tektiert werden sollen. Die sogenannte distributive Ableitung dieser binären Funktion entspricht dann dem gesuchten Rand 26 eines in der Fig. 2 gezeig- ten Brillenglases 28.

Eine Repräsentation von Brillenglasdaten u(x) kann aber auch z. B. in einer Folge von n Punkten p^, ... , p n ε Ω bestehen, die auf dem Rand 26 eines in der Fig. 2 gezeigten Brillenglases 28 liegen und die diesen Rand damit be- schreiben. Eine Repräsentation von Brillenglasdaten u(x) kann auch eine geschlossene Kurve C: R -> Ω sein, welche die Kontur eines Brillenglases 28 beschreibt. Solche Kurven können insbesondere über die Kurvenlänge pa- rametrisiert werden. Um eine Stetigkeit und geringe Krümmung der Kurven zu gewährleisten, ist es möglich, solche Kurven z. B. als Linearkombination von geeigneten Basisfunktionen zu beschreiben, z. B. Basisfunktionen in Form von Splines. Zu bemerken ist auch, dass die räumliche Ausdehnung von Brillengläsern 28 mittels einer impliziten Funktion repräsentiert werden

3

kann, insbesondere anhand einer 3D Funktion Ω -> R , deren Niveaumenge zu einem bestimmten Wert, z. B. 0, genannt Level Sets, d. h. die Werte des Definitionsbereichs dieser Funktion, die auf den gleichen Wert abgebildet werden, definieren den Rand des Brillenglases 28 in Form einer Randkurve. Gleichzeitig definieren die negativen Werte die Brillenglasfläche und die positiven die Region außerhalb der Brillengläser oder umgekehrt. Die in der Kostenfunktionsroutine 70 des Algorithmus 34 generierte deterministisch optimierbare Kostenfunktion E(u) ist nachfolgend wiedergegeben. Es gilt: E(u) := μΕ εο1θΓ ( υ(χ)) + E edge ( u(x)) + 6E sym ( u(x)) + yE stereo ( u(x)) mit dem Farbkostenterm

E color ( u(x)) := / n u(x)f(x) dx , wobei die Brillenglasdaten u(x) die räumliche Ausdehnung wenigstens eines in der Brillenfassung 24 gehaltenen Brillenglases 28 beschreiben und wobei f(x) die aus den Bilddaten b(x) ermittelten Farbinformationsdaten sind, und mit dem Kanten kostenterm

E edge ( u(x)) := / Ω g(x) |D u(x) | , wobei D der Gradient von u im distributiven Sinne ist und der Term die mit den Kanteninformationsdaten g(x) gewichtete Konturlänge der Brillengläser berechnet, die minimal ist, wenn die Brillenglasdatenkanten mit den detek- tierten Kanten aus den Bilddaten b(x) übereinstimmen, mit dem Symmetriekostenterm

E S ym( u(x)), der die Symmetrie eines linken und eines rechten Brillenglases 28 bezüglich einer Mittelebene in der Brillenfassung 24 bewertet,

und mit dem Stereokostenterm

'-'Stereo (Ui(x), Uj (x)) ,

1 < i, j < n, der Punkte innerhalb der Brillengläser in mehreren Bildansichten aufeinander bezieht. μ, γ sowie δ sind Gewichtungsfaktoren der einzelnen Terme, die den Einfluss der einzelnen Größen auf das Gesamtergebnis bestimmen.

In dem Farbkostenterm E color ( u(x)) wird die Farbe der Bilddaten b(x) mit Brillenglasdaten u(x) korreliert und bewertet. Der Kanten kostenterm E e d g e ( u ( x )) ist eine Korrelation von Bildkanten in den Bilddaten b(x) mit der distributiven Ableitung der Brillenglasdatenfunktion u(x). Der Symmetriekos- tenterm E sym ( u(x)) korreliert in den Bilddaten b(x) enthaltene Symmetrien mit Brillenglasdaten u(x), indem die Brillenglasdaten u(x) an der Mittelebene durch die Brückenmitte gespiegelt und Abweichungen der Brillenglasdaten u(x) von den gespiegelten Daten bewertet werden.

In dem Symmetriekostenterm E sym ( u(x)) kann eine auf den Tiefen karten in- formationsdaten t(x) beruhende 3D-Symmetrieannahme verrechnet werden, wonach ein linkes und ein rechtes Brillenglas in der Brillenfassung 24 zu einer 3D-Ebene symmetrisch ist, welche durch die in der Brückenmitten- Erkennungsroutine 64 bestimmte linienförmige Brückenmitte 66 und durch bekannte Kalibier-Informationen einer der Bilderfassungseinrichtungen 14, 16, 18 in der Vorrichtung 10 definiert ist.

Der ermittelten 3D-Ebene wird in dem Symmetriekostenterm E sym ( u(x)) die Funktion einer Spiegelebene zuerkannt, welche die im dreidimensionalen Raum auf einem linken und rechten Brillenglas liegende Punkte aufeinander abbildet, wobei in dem Symmetriekostenterm E sym ( u(x)) Abweichungen r(x) von Ist- zu Sollwerten dieser Abbildung bewertet werden. Der Symmetrieterm E sym ( u(x)) weist dann Brillenglasdaten u(x), die zwei Brillengläsern entsprechen, die zueinander nicht symmetrisch sind, Kostenwerte zu, die umso größer sind, je größer die in dem Algorithmus 34 als Symmetriebewertungsdaten r(x) fungierende Abweichungen der beiden Brillengläser sind. Auf diese Weise ist sichergestellt, dass die bei Optimieren der Kostenfunktion aufgefundenen Brillenglasdaten u(x) zueinander symmetrische Brillengläser be- schreiben. Alternativ hierzu ist es auch möglich, in einer Zwangsbedingung vorzugeben, dass die durch das Optimieren der Kostenfunktion aufgefundenen Brillenglasdaten u(x) symmetrisch sind. Zu bemerken ist, dass es möglich ist, in dem Symmetriekostenterm E sym ( u(x)), auch wenn keine Tiefen kareninformationsdaten vorliegen, 2D- Symmetrieannahmen zu verrechnen, z. B. indem die Brillenglasdaten u(x) eines linken Brillenglases 28 an der Brückenmitte 66 in der Bildebene des Bildsensors 15 einer Bilderfassungseinrichtung 14, 16, 18 auf die Brillenglas- daten u(x) eines rechten Brillenglases 29 gespiegelt und dann wiederum Abweichungen r(x) von Istwerten zu Sollwerten berechnet werden, die in die Kostenfunktion eingehen.

Zu bemerken ist, dass es Kalibrier-Informationen zu mehreren Bilderfas- sungseinrichtungen auf der Grundlage von Bilddaten u(x), die mindestens zwei mittels der Bilderfassungseinrichtung erfassten Bildern entsprechen, ermöglichen, die Robustheit des Algorithmus zu erhöhen. Insbesondere ermöglichen solche Kalibier-Informationen, dass anhand der Bilddaten b(x) zu diesen Bildern ein Innenrand der Brillenfassung bzw. ein Rand der Brillenglä- ser gleichzeitig in allen oder mehreren Bildern optimiert und Glasranddaten ui(x),..., Un(x) für je zwei Bilder während der Optimierung mittels der Kalibrier-Informationen in einem Stereokostenterm E stereo (u i (x), u j (x)) aufeinander bezogen werden können. Dadurch können sich die Glasranddaten in den verschiedenen Bildern gegenseitig beeinflussen, indem Abweichungen sich entsprechender Punkte in u,(x) und Uj(x), 1 < i,j < n, bestraft werden.

Um die aus zwei Bildern u,(x) und Uj(x) ermittelten Glasranddaten aufeinander zu beziehen, kann in die Kostenfunktion E(u) auch ein weiterer Kosten- term eingeführt werden oder es kann für das Optimieren der Kostenfunktion eine Zwangsbedingung vorgegeben werden, die auf dem Berechnen von Stereoinformationen beruht. Solche Stereoinformationen können beinhalten, dass zu einem jeden Bildpunkt in einem mit einer ersten Bilderfassungsein- richtung erfassten Bild derjenige Bildpunkt in einem zweiten Bild aufgefunden wird, auf den der gleiche 3D-Punkt abgebildet wird. Dafür können z. B. Stereo-Algorithmen verwendet werden, die für jeden Punkt in jedem Bildpaar die zugehörige Disparität und daraus deren Tiefe im Raum bestimmen. Für eine höhere Robustheit kann auch ein 3D-Modell an diese Disparitätskarten bzw. die zugehörigen Tiefenkarten angepasst werden. Auf der Grundlage dieser Informationen kann dann eine Zwangsbedingung oder ein Kostenterm vorgegeben werden, der eine als Stereobewertungsdaten d(x) fungierende Abweichung von Brillenglasdaten u,(x) von den zugehörigen Stereopunkten in den Brillenglasdaten Uj(x) berechnet. Diese Stereobewertungsdaten d(x) können insbesondere für ein jedes Bildpaar berechnet werden.

Die Stereobewertungsdaten d(x) können als ein zusätzlicher Kostenterm Es- tereo(Ui(x), Uj(x)) in der Kostenfunktion E(u) berücksichtigt werden oder als ei- ne Zwangsbedingung beim Optimieren der Kostenfunktion E(u), die sicherstellt, dass es zwischen Brillenglasdaten u(x), denen unterschiedliche Bilder zugrunde liegen, die mit einer oder mehreren Bilderfassungseinrichtungen erfasst werden, keine Unterschiede geben darf. Die Fig. 16 zeigt die Werte der Kostenfunktion E(u) für unterschiedliche Zwischenergebnisse i = 0, 1 , 2, 3, ... der Optimierungsroutine für Brillenglas- Datensätze mit Brillenglasdaten u(x). Mittels Variieren der Brillenglasdaten u(x) kann die Kostenfunktion E(u) auf ein Minimum 72 optimiert werden. Diese Maßnahme ermöglicht dann das Auffinden derjenigen Brillenglasdaten u(x), die den Rand eines an die von dem Brillenträger 20 getragene Brillenfassung 24 angepassten Brillenglases 28 präzise beschreiben.

Der Algorithmus 34 enthält eine Optimierungsroutine 75, die zu der Kostenfunktion der Kostenfunktionsroutine 70 diejenigen Brillendaten u(x) bestimmt, zu denen die Kostenfunktion E(u) minimal ist. Die Fig. 17 bis Fig. 22 zeigen als Schwarzweißbilder 56 Repräsentationen 74, 76, 78, 80 und 82 zu unterschiedlichen Brillenglas-Datensätzen i, i=74, i=76, i=78, i=80 und i=82 betreffend Brillenglasdaten u(x), die den in der Fig. 15 kenntlich gemachten Werten 84, 86, 88, 90 und dem Minimum 72 der Kostenfunktion E(u) entsprechen. Die in der Fig. 15 repräsentierten Brillenglasdaten u(x) sind ein Initialdatensatz, anhand dessen die Kostenfunktion E(u) optimiert wird. Die in der Fig. 22 repräsentierten Brillenglasdaten u(x) sind die durch das Optimieren der Kostenfunktion E(u) aufgefundenen. Sie enthalten in Form des Rands der beiden Flächen 94, 96 die Information des gesuchten Rands von Brillengläsern 28, die für das Einfassen in die von dem in der Fig. 1 gezeigten Brillenträger 20 getragenen Brillenfassung 24 geeignet sind. In dem Algorithmus 34 wird der gesuchte Rand eines Brillenglases 28 aus dem durch Optimieren der Kostenfunktion E(u) aufgefundenen Brillenglasdaten u(x) in einer Randberechnungsroutine 77 bestimmt. Diese Randberechnungsroutine 77 kann auch vorsehen, dass aus dem gesuchten Tragrand eines Brillenglases ein Glasaußenrand berechnet wird, z. B. indem vorgegeben wird, dass der Glasaußenrand einen festen Abstand von dem ermittelten Tragrand des entsprechenden Brillenglases 28 hat. Die Kostenfunktion E(u) ist damit eine Summe von Energietermen und unterliegt Zwangsbedingungen. An die Brillenglasdaten werden 2D und/oder SD- Symmetrie-Bedingungen gestellt. Das Optimieren der Kostenfunktion u(x) erfolgt nur innerhalb der in dem relevanten Bildausschnitt 38 liegenden Bilddaten b(x).

Die angegebene Kostenfunktion ist deterministisch optimierbar, da jeder einzelne Term deterministisch optimierbar ist und dadurch auch die Linearkombination. Insbesondere sind E color ( u(x)) und E edge ( u(x)) konvexe Terme, die mit Verfahren wie primal-dual Verfahren oder Gradientenabstiegsverfah- ren global optimiert werden können. E sym ( u(x)) kann ebenfalls als konvexer Term formuliert werden, falls die 3D- oder 2D-Spiegelebene bekannt ist oder als solche angenommen wird. Wird diese während der Optimierung mitge- schätzt, ist der Term nicht konvex, kann aber trotzdem mit deterministischen Verfahren so optimiert werden, dass man zu einer brauchbaren Lösung kommt - z. B. indem die Optimierung alternierend stattfindet, d. h. die Spiegelebene jeweils nach einer festen Anzahl von Schritten basierend auf der aktuellen Lösung angepasst wird. Der Term E stereo ui(x), U j (x)) kann ebenso konvex formuliert werden, wenn die Stereo-Abbildung zwischen den einzelnen Bildpunkten bekannt ist. Dies ist z. B. der Fall, wenn ein Stereo- Algorithmus basierend auf den Bilddaten zuvor ausgeführt wurde. Wird die Stereo-Abbildung während der Optimierung aus der aktuellen Lösung ge- schätzt, so ist der Term nicht mehr konvex, kann aber dennoch wie der Symmetrieterm alternierend deterministisch optimiert werden, sodass man zu einer brauchbaren Lösung kommt.

Zu bemerken ist, dass es möglich ist, die Energieterme in der Kostenfunktion E(u) zu gewichten. Insbesondere ist es möglich, einzelne Energieterme in der Kostenfunktion E(u) mit dem Faktor 0 zu gewichten, d. h. einzelne Energieterme in der Kostenfunktion E(u) wegzulassen und somit nicht zu berücksichtigen. Außerdem ist es möglich, die Länge des Rands der Brillengläser 28 insbesondere über die erste Ableitung dieser Kurve zu minimieren. Es ist auch möglich, Abweichungen von dem Farbmodell unter Berücksichtigung eines Glasmodells und der bei dem Erfassen von Spiegelungen und/oder Reflexionen generierten Informationen zu bestrafen. Schließlich ist zu bemerken, dass die in dem Algorithmus 34 berücksichtigten, aus Glasebenen ermittelten 2D- und 3D-Symmetriebedingungen auf 3D-lnformationen beru- hen können, die auch das Ermitteln von Zentrierparametern ermöglichen.

Grundsätzlich kann die Kostenfunktion E(u) auf unterschiedliche Art minimiert werden. Es ist insbesondere möglich, die Kostenfunktion E(u) z. B. über kontinuierliche Methoden, primal-dual-Ansätze, graphen-theoretische Methoden, diskrete Graph-Cut Methoden, Active Contour Modelle, Simplexverfahren oder ähnliches zu minimieren. Kontinuierliche Methoden sind dadurch definiert, dass sie das Bild als kontinuierliche Funktion beschreiben und dadurch die Kostenfunktion auf einem kontinuierlichen mathematischen Raum definiert ist. Die Diskretisierung der Kostenfunktion auf Basis von Bildpunkten erfolgt dann erst in einem letzten Schritt vor der Optimierung. Im Gegensatz dazu definieren diskrete Optimierungsmethoden die Optimierungsfunktion direkt auf Pixelebene.

Zu bemerken ist auch, dass, wie in der Puplikation C. Niewenhuis et. al. Spa- tially Varying Color Distributions for Interactive Maulilabel Segmentation, IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 1 (2013) beschrieben ist, kontinuierliche Methoden gegenüber diskreten den Vorteil haben, dass sie Artefakte an Kanten vermeiden und sehr viel leichter parallelisierbar sind. Das Parallelisieren ermöglicht insbesondere schnelle Berechnungen auf einer Graphikkarte eines Computers.

Zu bemerken ist in diesem Zusammenhang insbesondere, dass die in dem Algorithmus 34 berücksichtigten, aus Glasebenen ermittelten 2D- und SD- Symmetriebedingungen auf 3D-lnformationen beruhen, die auch das Ermitteln von Zentrierparametern ermöglichen.

Zu bemerken ist darüber hinaus, dass die vorstehend beschriebenen Modelle der Form von Brillengläsern 28 auch als eine Zwangs- bzw. Nebenbedingung bei dem Optimieren der Kostenfunktion E(u) herangezogen werden können. Eine solche Zwangs- bzw. Nebenbedingung kann z. B. sein, dass der ermittelte finale Rand eines Brillenglases 28 innerhalb des zuvor gelernten Modellraumes liegt. Es versteht sich, dass statt Modelle aus Beispielen zu lernen, diese auch definiert werden können.

Der vorstehend beschriebene Algorithmus 34 kann grundsätzlich auch durchgeführt werden, ohne dass eine oder mehrere Routinen der vorstehend beschriebenen Routinen aus der Gruppe Gesichtsmerkmal- Erkennungsroutine 40, Spiegelungsdetektionsroutine 58, Brillenglas- Lageroutine 60, Brückenmitten-Erkennungsroutine 64 oder Triangulationsroutine 69 durchgeführt werden. Auch kann der vorstehend beschriebene Algorithmus 34 durchgeführt werden, ohne dass die zu optimierende Kostenfunktion E(u) einen Symmetriekostenterm E sym ( u(x)) enthält oder unter Be- rücksichtigung einer Symmetrie-Zwangsbedingung optimiert wird. Die zu optimierende Kostenfunktion E(u) muss auch nicht zwingend gleichzeitig einen Farbkostenterm E color ( u(x)) und einen Kantenkostenterm E edge ( u(x)) enthalten. Insbesondere kann der Algorithmus 34 auch mit Bilddaten b(x) durchgeführt werden, welche die Information lediglich eines mit einer einzigen Bilderfassungseinrichtung 16 erfassten Bilds des in der Fig.1 gezeigten Brillenträgers 20 enthalten. Im Rahmen der Erfindung müssen nicht zwingend Bilddaten b(x) bereitgestellt werden, die auf mit einer Bilderfassungseinrichtung 14, 16, 18 aus unterschiedlichen Aufnahmerichtungen erfassten Bilddaten b(x) zu dem Gesicht 25 des Brillenträgers 20 mit einer von diesem getragenen Brillenfassung 24 beruhen.

Zu bemerken ist, dass von dem vorstehend beschriebene Ermitteln der Re- Präsentation des Rands 26 eines Brillenglases 28, 29 auch beim Zentrieren eines linken Brillenglases 28 oder eines rechten Brillenglases 29 in eine Brillenfassung 24 Gebrauch gemacht werden kann.

So können z. B. in einem Schritt (i) zu dem Brillenglas 28, 29 Zentrierpara- meter bestimmt werden, wobei das Bestimmen der Zentrierparameter das vorstehend angegebene Ermitteln der Repräsentation des Rands 26 des Brillenglases 28, 29 umfasst, und es werden in einem weiteren Schritt (ii) das Brillenglas 28, 29 mit den in dem vorausgehenden Schritt (i) bestimmten Zentrierparametern in die Brillenfassung 24 zentriert.

Ein linkes Brillenglases 28 oder ein rechtes Brillenglases 29 können in eine Brillenfassung 24 eingeschliffen werden, indem in einem Schritt (i) Zentrier- parameter bestimmt werden, wobei das Bestimmen der Zentrierparameter das Ermitteln der Repräsentation des Rands 26 des Brillenglases 28, 29 mit einem vorstehend angegebenen Verfahren umfasst. In einem weiteren Schritt (ii) kann das entsprechende Brillenglas 28, 29 dann basierend auf den in dem vorausgehenden Schritt (i) bestimmten Zentrierparametern für eine Anordnung in der Brillenfassung 24 eingeschliffen werden.

Ein linkes Brillenglas 28 oder ein rechtes Brillenglas 29 kann auch hergestellt werden, indem von einem Verfahrensschritt des Einschleifens des Brillengla- ses 28, 29 in eine Brillenfassung 24 nach einem vorstehend angegebenen Verfahren Gebrauch gemacht wird.

Zu bemerken ist, dass beim Herstellen einer Brille auch von einem oder mehreren der vorstehend angegebenen Verfahren Gebrauch gemacht werden kann.

Zusammenfassend sind folgende bevorzugte Merkmale der Erfindung festzuhalten: Die Erfindung betrifft ein computerimplementiertes Verfahren zum Ermitteln der Repräsentation des Rands 26 eines Brillenglases 28 oder eines linken Brillenglases 28 und eines rechten Brillenglases 29 für einen Brillenträger 20. Erfindungsgemäß werden hierfür folgende Schritte durchgeführt: Bereitstellen von Bilddaten b(x) zu dem Brillenträger 20 mit einer getragenen Brillenfassung 24,

Berechnen von aus den Bilddaten b(x) abgeleiteten Informationsdaten l(x), Berechnen einer die Informationsdaten l(x) mit Brillenglasdaten u(x) verknüpfenden deterministisch optimierbaren Kostenfunktion E(u), wobei die Brillenglasdaten u(x) die räumliche Ausdehnung wenigstens eines in der Brillenfassung 24 gehaltenen Brillenglases 28 beschreiben, und

Festlegen eines Verlaufs eines Rands 26 des Brillenglases 28 oder des lin- ken Brillenglases und des rechten Brillenglases 29 durch Optimieren der Kostenfunktion E(u). Bezugszeichenliste

10 Vorrichtung

12 Säule

14, 16, 18 Bilderfassungseinrichtung

15 Bildsensor

19 Aufnahmerichtung

20 Brillenträger

21 Rechnereinheit

22 Eingabeschnittstelle

23 Ausgabeschnittstelle

24 Brillenfassung

25 Gesicht

26 Rand

27 Brücke der Brillenfassung

28 linkes Brillenglas

29 rechtes Brillenglas

30 Seitenfläche

31 Vertikale

32 Koordinatensystem

34 Algorithmus

36 Bild

37 weiteres Bild

38 Bildausschnitt

39 Kalibrierroutine

40 Gesichtsmerkmal-Erkennungsroutine

42 Datenmuster

44 Kantendetektionsroutine

46 Kanteninformationsdaten

48 Graustufenbild

50 Farbauswertungsroutine

52 Farbinformationsdaten 54 Spiegelungen/Reflexe

56 Schwarzweißbild

58 Spiegelungsdetektionsroutine

60 Brillenglas-Lageroutine

62 Wahrscheinlichkeitsinformationsdaten 64 Brückenmitten-Erkennungsroutine

66 Brückenmitte

68 Symmetheroutine

69 Triangulationsroutine

70 Kostenfunktionsroutine

71 Stereoannahme

72 Minimum

74 Repräsentation

75 Optimierungsroutine

77 Randberechnungsroutine

76, 78, 80, 82 Repräsentationen von Brillenglas- Datensätzen über Brillenglasdaten u(x)

84, 86, 88, 90 Werte der Kostenfunktionswerte E(u)

94, 96 Fläche

A Aufnahmeabstand

bw Abstand Brillengläser

b(x) Bilddatensatz / Bilddaten

E Einschleifhöhe

E(u) Kostenfunktion

f(x) Farbinformationsdaten

9(x) Kanteninformationsdaten

HS Hornhaut-Scheitelabstand

sb Scheibenbreite

sh Scheibenhöhe

d(x) Stereobewertungsdaten

di(x) Brillenglasforminformationsdaten r(x) Symmetriebewertungsdaten s(x) Spiegelungsinfornnationsdaten t(x) Tiefen karten infornnationsdaten u(x) Brillenglasdaten

w(x) Wahrscheinlichkeitswerte α Vorneigungswinkel ß Fassungsscheibenwinkel