Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
COLORIMETRY METHOD AND SYSTEM
Document Type and Number:
WIPO Patent Application WO/2023/118478
Kind Code:
A2
Abstract:
The invention relates to an imaging system which is designed for two-dimensional, spatially resolved measurement of radiometric and/or photometric measured variables, in particular the colour coordinates of light emitted by a test object (2). An image sensor (7) is provided for receiving a first part (6) of the light and for generating a two-dimensional digital image of the light emission of the test object (2). A measuring unit (15, 16, 17, 19) receives a second part (6) of the light and detects radiometric and/or photometric measured variables for different measuring spots (13, 14) or measuring angles. A computing unit transforms the image values of at least a few image points of the generated image, the transformation taking into account the measured variables detected for the measuring spots (13, 14) or measuring angles. The problem addressed by the invention is that of providing a system which is improved in relation to the prior art. In particular, determining the colour coordinates when measuring displays with spatially inhomogeneous spectral emission is intended to be more precise than in the prior art. As a solution, the invention proposes that the measuring unit (15, 16, 17, 19) comprises an imaging spectrometer which is able to determine the measured variables separately for each measuring spot (13, 14) or measuring angle. Alternatively, two or more measuring units (15, 16, 17, 19) can be provided, a measuring unit (15, 16, 17, 19) being associated with each measuring spot (13, 14) or measuring angle. The invention also relates to a method for two-dimensional, spatially resolved measurement of radiometric and/or photometric measured variables, in particular the colour coordinates of light, which uses such an imaging system (1).

Inventors:
BOTHSCHAFTER ELISABETH (DE)
DEGER FERDINAND (DE)
ESTERMANN MARKUS (DE)
HÄRING RETO (DE)
KAPPEL CHRISTOPH (DE)
NEUMEIER JÜRGEN (DE)
SCHANZ ROLAND (DE)
THALHAMMER CHRISTOF (DE)
Application Number:
PCT/EP2022/087564
Publication Date:
June 29, 2023
Filing Date:
December 22, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
INSTR SYSTEMS GMBH (DE)
International Classes:
G01J3/02; G01J3/14; G01J3/28; G01J3/50
Foreign References:
US5432609A1995-07-11
EP3054273A12016-08-10
Other References:
M. E. BECKER ET AL.: "Spectrometer-Enhanced Imaging Colorimetry", SID, 2017, Retrieved from the Internet
T. STEINEL ET AL., QUALITY CONTROL OF AR/VR NEAR-EYE DISPLAYS: GONIOMETRIC VS. ADVANCED 2D IMAGING LIGHT MEASUREMENTS, 2021
Attorney, Agent or Firm:
SCHNEIDERS & BEHRENDT PARTMBB (DE)
Download PDF:
Claims:
Patentansprüche

1. Bildgebendes System, das zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt (2) emittiert wird, ausgelegt ist, umfassend: eine Aufteilungsoptik (4), dazu eingerichtet, das von dem Testobjekt (2) einfallende Licht in zumindest einen ersten Teil (5) und zumindest einen zweiten Teil (6) aufzuteilen, wobei der zweite Teil (6) Licht umfasst, das von zwei oder mehr Messflecken (13, 14) oder unter zwei oder mehr Messwinkeln von dem Testobjekt (2) emittiert wird, einen Bildsensor (7), dazu eingerichtet, den ersten Teil (6) des Lichts zu empfangen und ein zweidimensionales digitales Bild der Lichtemission des Testobjekts (2) zu erzeugen, wenigstens eine Messeinheit (15, 16, 17, 19), dazu eingerichtet, den zweiten Teil (6) des Lichts zu empfangen und radiometrische und/oder photometrische Messgrößen, insbesondere Farbkoordinaten des emittierten Lichts für jeden Messfleck (13, 14) bzw. jeden Messwinkel zu erfassen, und eine Recheneinheit, dazu eingerichtet, die Bildwerte wenigstens einiger, vorzugsweise aller Bildpunkte des zweidimensionalen digitalen Bildes zu transformieren, insbesondere in Farbkoordinaten, wobei die Transformation die für die Messflecken (13, 14) bzw. Messwinkel erfassten radiometrischen und/oder photometrischen Messgrößen berücksichtigt, wobei die Messeinheit (15, 16, 17, 19) ein bildgebendes Spektrometer umfasst und jeder Messfleck (13, 14) bzw. Messwinkel einem anderen Bildbereich des bildgebenden Spektrometers zugeordnet ist, so dass das bildgebende Spektrometer dazu in der Lage ist, für jeden Messfleck (13, 14) bzw. Messwinkel separat die Messgrößen zu ermitteln, oder zwei oder mehr Messeinheiten (15, 16, 17, 19) vorgesehen sind, wobei jedem Messfleck (13, 14) bzw. Messwinkel eine Messeinheit (15, 16, 17, 19) zugeordnet ist.

2. Bildgebendes System nach Anspruch 1 , wobei die Messein- heit/Messeinheiten (15, 16, 17, 19) ein Kolorimeter ist/Kolorimeter sind.

3. Bildgebendes System nach Anspruch 1 oder 2, wobei das bildgebende Spektrometer einen Eintrittsspalt aufweist, wobei zwei oder mehr optische Fasern (11 , 12) vorgesehen sind, von denen jede einem anderen Messfleck (13, 14) bzw. Messwinkel zugeordnet ist und das von dem jeweiligen Messflecken (13, 14) bzw. unter dem jeweiligen Messwinkel emittierte Licht zu einer anderen Position auf dem Eintrittsspalt führt.

4. Bildgebendes System nach einem der Ansprüche 1 bis 3, wobei das bildgebende Spektrometer ein dispersives optisches Element (18), vorzugsweise ein Gitter oder ein Prisma, und einen weiteren Bildsensor (21 ) umfasst.

5. Bildgebendes System nach Anspruch 4, wobei eine im Strahlverlauf des zweiten Teils (6) des einfallenden Lichts angeordnete, die Messflecken (13, 14) bzw. Messwinkel definierende Lochmaske (18) vorgesehen ist.

6. Bildgebendes System nach einem der Ansprüche 1 bis 5, wobei die Aufteilungsoptik (4) einen Strahlteiler oder einen beweglichen Spiegel (26) umfasst.

7. Bildgebendes System nach einem der Ansprüche 1 bis 6, wobei der Bildsensor (7) mehr als drei, vorzugsweise mindestens fünf, besonders bevorzugt mindestens neun Spektralkanäle aufweist.

8. Bildgebendes System nach Anspruch 7, wobei die Anzahl der Messflecken (13, 14) bzw. Messwinkel mindestens gleich der Anzahl der Spektralkanäle des Bildsensors (7) ist.

9. Bildgebendes System nach einem der Ansprüche 1 bis 8, wobei das System eine konoskopische Optik umfasst, die dazu ausgelegt ist, das von einem Bereich auf dem Testobjekt (2) unter verschiedenen Winkeln emittierte Licht auf den Bildsensor (7) in der Weise abzubilden, dass jedem Bildpunkt des zweidimensionalen digitalen Bildes ein Emissionswinkel zugeordnet ist.

10. Verfahren zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt (2) emittiert wird, unter Verwendung eines bildgebenden Systems (1 ) nach einem der Ansprüche 1 bis 9, umfassend die Schritte:

Richten zumindest eines ersten Teils (5) des Lichts auf den Bildsensor (7), der ein zweidimensionales digitales Bild der Lichtemission des Testobjekts (2) erzeugt,

Richten zumindest eines zweiten Teils (6) des Lichts, das von zwei oder mehr Messflecken (13, 14) oder unter zwei oder mehr Messwinkeln von dem Testobjekt (2) emittiert wird, auf die Messeinheit/Messeinheiten (15, 16, 17, 19) und Erfassen von radiometrischen und/oder photometrischen Messgrößen, insbesondere Farbkoordinaten des emittierten Lichts für jeden Messfleck (13, 14) bzw. jeden Messwinkel, und

Transformieren der Bildwerte wenigstens einiger, vorzugsweise aller Bildpunkte des zweidimensionalen digitalen Bildes, insbesondere in Farbkoordinaten, wobei die Transformation die für die Messflecken (13, 14) bzw. Messwinkel erfassten Messgrößen berücksichtigt.

11. Verfahren nach Anspruch 10, wobei die Transformation der Bildwerte in Farbkoordinaten in zwei Schritten erfolgt: 21 i) Transformieren der Bildwerte in Farbkoordinaten auf Basis einer vorab durch Kalibrierung ermittelten Transformationsvorschrift, ii) Korrektur der im Schritt i) erhaltenen Farbkoordinaten, wobei die Korrektur aus einem Vergleich der im Schritt i) erhaltenen Farbkoordinaten mit den für die Messflecken (13, 14) bzw. Messwinkel erfassten Farbkoordinaten abgeleitet wird.

12. Verfahren nach Anspruch 11 , wobei die Korrektur ein Unterteilen des zweidimensionalen digitalen Bildes (28) in räumlich separate Zonen umfasst, wobei jeder Zone ein anderer Messfleck (13, 14) bzw. ein anderer Messwinkel zugeordnet ist und wobei die Korrektur für jede Zone aus einem Vergleich der im Schritt i) erhaltenen Farbkoordinaten innerhalb dieser Zone mit den für den dieser Zone zugeordneten Messfleck (13, 14) bzw. Messwinkel erfassten Farbkoordinaten abgeleitet wird.

13. Verfahren nach Anspruch 11 , wobei die Korrektur eine Interpolation entsprechend den Positionen der Messflecken (13, 14) bzw. Messwinkel innerhalb des zweidimensionalen digitalen Bildes anwendet.

14. Verfahren nach einem der Ansprüche 11 bis 13, wobei die Transformation der Bildwerte auf Basis einer Transformationsvorschrift erfolgt, die aus den Bildwerten des von dem Testobjekt (2) erfassten digitalen Bildes und den von demselben Testobjekt (2) für die Messflecken (13, 14) bzw. Messwinkel erfassten Farbkoordinaten abgeleitet wird.

15. Verfahren nach Anspruch 10, wobei die Transformation der Bildwerte auf Basis einer Transformationsvorschrift erfolgt, die aus den Bildwerten des von dem Testobjekt (2) erfassten digitalen Bildes und den von demselben Testobjekt (2) für die Messflecken (13, 14) bzw. Messwinkel erfassten Messgrößen abgeleitet wird, wobei die Transformationsvorschrift ohne vorherige Kalibrierung abgeleitet wird. 22

16. Verfahren nach einem der Ansprüche 10 bis 15, wobei das zweidimensionale digitale Bild für jeden Bildpunkt mindestens drei, vorzugsweise mindestens fünf, besonders bevorzugt mindestens neun Bildwerte umfasst.

17. Verfahren nach einem der Ansprüche 10 bis 16, wobei sich die Messflecken (13, 14) auf dem Testobjekt (2) in unterschiedlichem radialem Abstand von der Aufnahmeachse des Bildsensors (7) befinden.

18. Verfahren nach einem der Ansprüche 10 bis 17, wobei das Erfassen der Messgrößen für die zwei oder mehr Messflecken (13, 14) bzw. Messwinkel gleichzeitig erfolgt.

19. Verfahren nach einem der Ansprüche 11 bis 14, wobei sich die Farbsysteme der Farbkoordinaten einerseits und der Bildwerte des von dem Bildsensor (7) erzeugten zweidimensionalen digitalen Bildes andererseits voneinander unterscheiden.

20. Verfahren nach Anspruch 19, wobei das Farbsystem der Farbkoordinaten das CIE-Normvalenzsystem ist.

21. Verfahren nach Anspruch 19 oder 20, wobei das Farbsystem der Bildwerte des zweidimensionalen digitalen Bildes das RGB-Farbsystem oder ein anderes Farbsystem entsprechend drei oder mehr Spektralkanälen des Bildsensors ist.

22. Verfahren nach einem der Ansprüche 10 bis 21 , wobei die

Messflecken (13, 14) voneinander beabstandet innerhalb des

Aufnahmebereiches des Bildsensors (7) auf dem Testobjekt (2) positioniert sind.

23. Verfahren nach einem der Ansprüche 10 bis 22, wobei die Anzahl der Messflecken (13, 14) bzw. Messwinkel wenigstens drei, vorzugsweise wenigstens fünf, besonders bevorzugt wenigstens neun beträgt, wobei die Anzahl der Messflecken (13, 14) wenigstens gleich der Anzahl von Spektralkanälen des Bildsensors (7) ist.

Description:
Kolorimetrie-Verfahren und -System

Die Erfindung betrifft ein bildgebendes System, das ausgelegt ist zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt emittiert wird. Außerdem betrifft die Erfindung ein Verfahren zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht.

Die Erfindung liegt auf dem Gebiet der bildgebenden Farbmessgeräte, wie sie zum Beispiel in der Display-Herstellungsindustrie zur Qualitätssicherung verwendet werden.

Bildgebende Kolorimetrie-basierte Prüfsysteme haben sich bei der Verbesserung der Qualität und der Senkung der Produktionskosten für alle Arten von Flachbildschirmen wie LCD- und LED-Anzeigen als erfolgreich erwiesen. Die Prüfanwendungen umfassen die Farbmatrix-Displays von Smartphones, Tablets, Laptops, Monitoren, Fernsehgeräten usw. als Testobjekte.

Schlüsselkomponenten bekannter Display-Testumgebungen sind sogenannte bildgebende Kolorimeter (Farbmessgeräte), die eine genaue Messung der visuellen Leistung von Displays ermöglichen, die der menschlichen Wahrnehmung von Helligkeit, Farbe und räumlichen Beziehungen entspricht. Leistungsstarke bildgebende Farbmessgeräte können die Farbe und die Leuchtdichte (Helligkeit) einzelner Pixel eines Bildschirms sowie die Gesamtgleichmäßigkeit des Bildschirms genau anhand eines mittels eines Bildsensors aufgenommenen Farbbildes des Testobjektes messen.

In einem typischen Herstellungsprozess wird die visuelle Leistung eines Displays durch automatische Inspektionssysteme geprüft, die solche bildgebenden Kolorimeter verwenden. Dies hat mehrere Vorteile. Es ist eine quantitative Bewertung von Displayfehlern möglich, es kann eine höhere Prüfgeschwindigkeit erreicht werden, und vor allem ist eine gleichzeitige Bewertung der gesamten Displayqualität, d. h. der Gleichmäßigkeit und der Farbgenauigkeit, möglich.

Im Allgemeinen werden Spektrometer oder Filterkolorimeter für die Messung von Farbkoordinaten (in der Regel im CIE-Normvalenzsystem) verwendet. Filterkolorimeter sind mit optischen Filtern ausgestattet, die den Tristimuluswerten (XYZ-Koordinaten) des CIE-Normvalenzsystems entsprechen, und messen die Farbart und die Leuchtdichte, indem sie die Intensität des durch die optischen Filter fallenden Lichts erfassen. Ein Spektrometer misst die Farbkoordinaten, indem es das Licht des Testobjektes in Wellenlängenkomponenten aufteilt, z. B. mit Hilfe eines Prismas, eines Beugungsgitters oder eines Spektralfilters, und die Intensität jedes primären Wellenlängenelements erfasst. Das gemessene Spektrum wird dann gemäß den Empfindlichkeitskurven des CIE- Normvalenzsystems in Farbkoordinaten umgerechnet. Ein Spektrometer ist daher in der Lage, die absolute Farbigkeit und Leuchtdichte genau zu messen. Spektrometer eignen sich jedoch eher nicht als bildgebende Testvorrichtungen.

Ein bildgebendes Kolorimetrie-System ist zum Beispiel aus US 5,432,609 bekannt. In dem bekannten System befindet sich ein optisches Filter, das nur bestimmte Wellenlängen durchlässt, vor einem monochromen CCD-Bildsensor, der das Licht von dem Testobjekt empfängt. Auf diese Weise werden die Farbkoordinaten an den verschiedenen Punkten des Testobjektes mit räumlicher Auflösung durch ein einfaches Verfahren gemessen, das auf demselben Prinzip beruht wie das eines Filterkolorimeters. Außerdem ist ein Spektrometer vorgesehen, das das Licht von einem vorgegebenen Messfleck von dem Testobjekt empfängt, d. h. ohne räumliche Auflösung. Somit werden die Farbkoordinaten an dem einen Messfleck genau vermessen. Die Ergebnisse der räumlich aufgelösten Messung, die von dem CCD-Bildsensor ausgegeben werden, werden schließlich auf der Grundlage der genauen, aber nicht räumlich aufgelösten spektralen Messung korrigiert.

Die EP 3 054 273 A1 beschreibt ein Kolorimetrie-System zum Testen von Displays, bei dem ein RGB-Bildsensor zur ortsaufgelösten Messung der Farbkoordinaten Verwendung findet. Dies ermöglicht eine schnelle und kostengünstige Prüfung in der Produktion von Matrixdisplays. Der RGB- Bildsensor ordnet jedem Bildpunkt des von dem Testobjekt aufgenommenen Farbbildes einen Satz von RGB-Farbwerten zu. Die Spektralkanäle (Rot, Grün, Blau) des RGB-Bildsensors sind jedoch sehr weit von den Farbkoordinaten XYZ des CIE-Normvalenzsystems (CIE1931 -Norm) entfernt, die aber bestimmt werden müssen, um die visuelle Leistung des Testobjektes in Übereinstimmung mit der menschlichen Wahrnehmung von Helligkeit und Farbe genau zu beurteilen. Daher werden die RGB-Farbwerte der Bildpunkte des aufgenommenen Bildes in Farbkoordinaten transformiert. Im Allgemeinen ist die Umwandlung von RGB-Farbwerten in XYZ-Farbkoordinaten zwar nicht möglich, weil die XYZ-Farbkoordinaten vom Spektrum des gemessenen Lichts abweichend von den Empfindlichkeiten der RGB-Spektralkanäle abhängen, die spektrale Information jedoch in dem RGB-Farbbild nicht mehr vorhanden ist. Für einen Satz "typischer" Testobjekte, die Licht mit einer ähnlichen spektralen Verteilung emittieren, kann aber eine (lineare) Transformation gefunden werden, um die RGB-Farbwerte in XYZ-Farbkoordinaten umzusetzen. Eine verbleibende Abweichung der so gewonnenen Farbkoordinaten wird dann korrigiert, indem wiederum parallel zu der Messung mittels des RGB-Bildsensors ein zweiter Teil des emittierten Lichts von einem Messfleck auf dem Testobjekt, d.h. ohne räumliche Auflösung, mittels eines Spektrometers vermessen wird. Aus dem für den Messfleck gemessenen Spektrum werden die wahren Farbkoordinaten abgeleitet. Auf dieser Grundlage werden schließlich die durch Transformation des Farbbildes des RGB-Bildsensors erhaltenen Farbkoordinaten für jeden Bildpunkt entsprechend korrigiert. Das sich daraus ergebende Abbild der korrigierten XYZ- Farbkoordinaten ist für eine Reihe von Anwendungen von ausreichender Genauigkeit, auch wenn die "wahren" Farbkoordinaten nicht mit räumlicher Auflösung gemessen werden. Der zuvor beschriebene, bekannte Ansatz stößt in der Praxis allerdings an seine Grenzen, wenn die spektralen Eigenschaften der Lichtemission über die Displayoberfläche hinweg nicht homogen sind. Es zeigt sich z.B., dass bei OLED- oder pLED-Displays der Fehler in den erhaltenen Farbkoordinaten mit zunehmendem Abstand von dem mittig auf dem Display (d.h. auf der Aufnahmeachse des Bildsensors) positionierten Messfleck über ein tolerierbares Maß hinaus zunimmt (M. E. Becker et al.,“ Spectrometer-Enhanced Imaging Colorimetry“, SID 2017, https://doi.org/10.1002/sdtp.11951 ). Die Ursache dafür ist, dass das Emissionsspektrum bei OLED- und pLED-Displays vom Abstrahlwinkel abhängt und weiter entfernt vom Zentrum des Displays emittiertes Licht unvermeidlich unter einem zunehmend größeren Winkel gegenüber der Aufnahmeachse des verwendeten Bildsensors erfasst wird. Vergleichbare Probleme bestehen bei sog. Virtual Reality (VR)- oder Augmented Reality (AR)- Displays. Zur Beurteilung der Qualität dieser Displays muss die damit kombinierte Beobachtungsoptik (Weitwinkeloptik, Konoskopoptik) mit in Betracht gezogen werden. Aufgrund unvermeidlicher chromatischer Aberration kommt es zu beobachtungswinkelabhängigen spektralen Veränderungen (T. Steinei et al., “Quality Control of AR/VR Near-Eye Displays: Goniometrie vs. Advanced 2D Imaging Light Measurements“, 2021 ). Diese führen zu signifikanten systematischen Fehlem der Farbkoordinaten bei Anwendung des oben beschriebenen, bekannten Messprinzips.

Vor diesem Hintergrund ist es Aufgabe der Erfindung, ein gegenüber dem Stand der Technik verbessertes System und ein entsprechendes Verfahren bereit zu stellen. Insbesondere soll die Bestimmung der Farbkoordinaten bei der Vermessung von Displays mit räumlich inhomogener spektraler Emission gegenüber dem Stand der Technik präziser und/oder erweitert sein.

Zur Lösung der Aufgabe schlägt die Erfindung ein bildgebendes System nach Anspruch 1 vor. Dabei umfasst die Messeinheit des Systems ein bildgebendes Spektrometer und jeder Messfleck/Messwinkel ist einem anderen Bildbereich des bildgebenden Spektrometers zugeordnet, so dass das bildgebende Spektrometer dazu in der Lage ist, für jeden Messfleck/Messwinkel separat die Messgrößen zu ermitteln. Alternativ können zwei oder mehr Messeinheiten vorgesehen sein, wobei jedem Messfleck/Messwinkel eine Messeinheit zugeordnet ist. Bei der Messeinheit bzw. den Messeinheiten kann es sich um ein bzw. mehrere Kolorimeter handeln.

Unter einem Messfleck ist ein begrenzter Bereich auf der Licht emittierenden Oberfläche des Testobjektes zu verstehen.

Unter einem Messwinkel ist ein Winkel im dreidimensionalen Raum (angegeben z.B. durch Polarwinkel und Azimut) zu verstehen, unter dem das Licht von der Oberfläche des Testobjektes emittiert wird, z.B. bezüglich einer Oberflächennormalen des Testobjektes oder bezüglich einer optischen Achse des Systems.

Unter einer Transformation ist jede Art von Umrechnung oder Korrektur der Bildwerte (d.h. der Zahlenwerte, die die Intensität beschreiben, mit der die Bildpunkte des Bildsensors jeweils von dem ersten Teil des Lichts getroffen werden, wie z.B. R-, G- und B-Werte eines RGB-Bildsensors) zu verstehen, wie z.B. die Umrechnung von RGB-Werten in Farbkoordinaten gemäß dem CIE- Normvalenzsystem oder auch die Korrektur von mittels einem bildgebenden Filterrad-Kolorimeter erfassten Farbkoordinaten anhand der mittels der Messeinheit bzw. der Messeinheiten erfassten (präzisen) Messgrößen.

Außerdem schlägt die Erfindung ein Verfahren nach Anspruch 10, zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt emittiert wird vor. Das Verfahren verwendet das zuvor angegebene bildgebende System.

Bei dem bildgebenden System der Erfindung kann die Aufteilungsoptik einen Strahlteiler oder auch einen beweglichen Spiegel umfassen. Bei dem Strahlteiler ist sichergestellt, dass der erste und der zweite Teil des Lichts gleichzeitig per Bildsensor bzw. per Messeinheit/Kolorimeter erfasst werden. Bei Verwendung eines beweglichen Spiegels (z.B. per ansteuerbarem Aktor) erfolgt die Erfassung des Lichts per Bildsensor bzw. per Kolorimeter sequentiell bzw. abwechselnd. Der Spiegel richtet das einfallende Licht abwechselnd auf den Bildsensor (erster Teil) und das Kolorimeter (zweiter Teil). Das System umfasst gemäß einer Variante der Erfindung ein bildgebendes Spektrometer (z.B. in Form einer Hyperspektralkamera), wobei jeder Messfleck bzw. Messwinkel einem anderen Bildbereich des bildgebenden Spektrometers zugeordnet ist, so dass das Spektrometer dazu in der Lage ist, simultan für jeden Messfleck bzw. Messwinkel separat ein Spektrum zu erfassen und die Messgrößen zu ermitteln.

Bei einer möglichen Ausgestaltung weist das bildgebende Spektrometer einen Eintrittsspalt auf, wobei zwei oder mehr optische Fasern vorgesehen sind, von denen jede einem anderen Messfleck bzw. Messwinkel zugeordnet ist und das von dem jeweiligen Messfleck bzw. unter dem jeweiligen Messwinkel emittierte Licht zu einer anderen Position auf dem E intrittsspalt führt.

Dabei kann das bildgebende Spektrometer ein dispersives optisches Element, z.B. ein Gitter oder ein Prisma, und einen weiteren Bildsensor umfassen. Der weitere Bildsensor kann eine matrixförmige Ausgestaltung mit einer Anzahl von Bildzeilen aufweisen, wobei die Zuführung des Lichts von den einzelnen Messflecken/Messwinkeln zu unterschiedlichen Positionen auf dem Eintrittsspalt bewirkt, dass jeweils eine oder mehrere Bildzeilen als Bildbereich einem Messfleck/Messwinkel zugeordnet sind, wobei das Spektrum, d.h. die Wellenlängen- bzw. Frequenzdimension, durch das dispersive optische Element entlang der Bildzeilen aufgelöst wird. Da die Messflecken/Messwinkel somit verschiedenen Bildzeilen zugeordnet sind und die Bildzeilen jeweils ein Spektrum wiedergeben, ist das Spektrometer dazu in der Lage, für jeden Messfleck/Messwinkel separat ein Spektrum und (per Recheneinheit) damit die Farbkoordinaten zu ermitteln.

Bei einer weiteren möglichen Ausgestaltung ist eine im Strahlverlauf des zweiten Teils des einfallenden Lichts angeordnete, die Messflecken/Messwinkel definierende Lochmaske vorgesehen. Die Lochmaske ist beispielsweise in einem kollimierten Strahl des zweiten Teils des einfallenden Lichts angeordnet, wobei jedes einer Mehrzahl von Löchern der Lochmaske einem Messfleck/Messwinkel entspricht. D.h. die räumliche Anordnung der Löcher bestimmt die Positionen der Messflecken auf dem Testobjekt bzw. die Messwinkel, unter denen die Emission erfolgt ist. Das dispersive Element bewirkt eine räumliche Separation der Wellenlängenkomponenten auf dem Bildsensor für jeden Messfleck/Messwinkel. D.h. durch Analyse der Ausgabe des Bildsensors kann für jeden Messfleck/Messwinkel ein Spektrum erfasst werden. Daraus können dann wiederum die Farbkoordinaten für jeden Messfleck/Messwinkel mittels der Recheneinheit abgeleitet werden.

Ähnlich wie im Stand der Technik wird gemäß der Erfindung das von dem Testobjekt einfallende Licht aufgeteilt (per Aufteilungsoptik), wobei ein Teil des Lichts dem Bildsensor und der andere Teil der Messeinheit, z.B. dem Kolorimeter zugeführt wird. Mittels einer Recheneinheit (z.B. Computer) werden die Bildwerte des von dem Bildsensor gelieferten Bildes transformiert, z.B. in Farbkoordinaten umgewandelt.

Gemäß der Erfindung erfolgt die radio-, photo- oder kolorimetrische Vermessung nicht, wie im Stand der Technik, für nur einem Messfleck auf dem Testobjekt, sondern für mehrere Messflecken, die sich an unterschiedlichen Positionen auf dem Testobjekt befinden, oder für mehrere Messwinkel. Für jeden Messfleck/Messwinkel werden separat die Messgrößen, z.B. die „wahren“ Farbkoordinaten für das von dem Messfleck/Messwinkel emittierte Licht gemessen. Für jeden Messfleck/Messwinkel liegt somit ein individueller Satz präziser Messgrößen (z.B. Farbkoordinaten) vor, die bei der Transformation der mittels des Bildsensors erhaltenen Bildwerte berücksichtigt werden. Folglich können über die Oberfläche des Testobjektes variierende spektrale Eigenschaften der Lichtemission - anders als im Stand der Technik - bei der Transformation berücksichtigt werden. Z.B. die erhaltenen Farbkoordinaten sind entsprechend präziser, insbesondere weniger stark mit vom Abstrahlwinkel abhängigen, systematischen Fehlem behaftet.

Die Farbkoordinaten sind vorzugsweise XYZ-Farbkoordinaten (Tristimuluswerte) im CIE-Normvalenzsystem oder daraus abgeleitete Koordinaten, wie z.B. die x-y- Farbortkoordinaten oder Lu’v'-Koordinaten im CIE-LUV-Farbraumsystem. Auch die Angabe der sog. dominanten Wellenlänge oder der Farbtemperatur kann von den Farbkoordinaten umfasst sein. Jedenfalls steht der Begriff der Farbkoordinaten für farbmetrische Angaben zur Quantifizierung der physiologischen Farbwahrnehmung, während der Begriff der Farbwerte des Bildsensors für Angaben in einem davon abweichenden Farbsystem entsprechend den spektralen Eigenschaften (Spektralkanälen) des Bildsensors (z.B. RGB) steht. Die Farbkoordinaten sind die relevanten Größen zur Qualitätsbeurteilung der Testobjekte (z.B. Matrixdisplays).

Bei einer möglichen Ausgestaltung weist das System eine konoskopische Optik auf, die dazu ausgelegt ist, das von einem Bereich auf dem Testobjekt unter verschiedenen Winkeln emittierte Licht auf den Bildsensor in der Weise abzubilden, dass jedem Bildpunkt des zweidimensionalen digitalen Bildes ein anderer Emissionswinkel zugeordnet ist. Bei dieser Ausgestaltung kann der zweite Teil des Lichts besonders einfach in der Weise von der Messeinheit bzw. von den Messeinheiten empfangen werden, dass die radiometrische und/oder photometrische Messgrößen, insbesondere die Farbkoordinaten des emittierten Lichts, für individuelle Messwinkel erfasst werden.

Bei einer möglichen Ausgestaltung erfolgt die Transformation der Bildwerte in Farbkoordinaten in zwei Schritten: i) Transformieren der Bildwerte in Farbkoordinaten auf Basis einer vorab durch Kalibrierung ermittelten Transformationsvorschrift, ii) Korrektur der im Schritt i) erhaltenen Farbkoordinaten, wobei die Korrektur aus einem Vergleich der im Schritt i) erhaltenen Farbkoordinaten mit den für die Messflecken erfassten Farbkoordinaten abgeleitet wird.

Demnach wird, ähnlich wie in dem oben genannten Stand der Technik (EP 3 054 273 A1 ) vorab per Kalibrierung, z.B. durch Vermessen einer Anzahl von Referenzobjekten, eine Transformationsvorschrift ermittelt, z.B. in Form einer Transformationsmatrix, die den Farbwertvektor für jeden Bildpunkt des Bildes des Bildsensors in einen Vektor der Farbkoordinaten umsetzt. Während der Messung der eigentlichen Testobjekte erfolgt dann zunächst eine Transformation der Bildwerte des von dem Bildsensor erzeugten Bildes in Farbkoordinaten auf Basis der Transformationsmatrix. Diese „Rohwerte“ werden dann einer Korrektur auf Basis der für die Messflecken/Messwinkel parallel von dem Testobjekt erfassten Farbkoordinaten korrigiert. Im Unterschied zum Stand der Technik erfolgt gemäß der Erfindung die Korrektur nicht nur anhand der für einen Messfleck erfassten Farbkoordinaten, sondern anhand von für zwei oder mehr an unterschiedlichen Positionen auf dem Testobjekt positionierten Messflecken oder unter verschiedenen Messwinkeln erfassten Farbkoordinaten. Dadurch werden die bisher aufgrund einer räumlich inhomogenen Emission auftretenden Fehler reduziert.

Bei einer möglichen Ausgestaltung umfasst die Korrektur ein Unterteilen des Bildes in räumlich separate Zonen, wobei jeder Zone ein Messfleck/Messwinkel zugeordnet ist und wobei die Korrektur für jede Zone aus einem Vergleich der im Schritt i) erhaltenen Farbkoordinaten innerhalb dieser Zone mit den für den dieser Zone zugeordneten Messfleck/Messwinkel erfassten Farbkoordinaten abgeleitet wird. Indem jeder Zone ein Messfleck/Messwinkel zugeordnet wird, wird die sich aus diesem Messfleck/Messwinkel ergebende Korrektur gezielt auf diejenigen Bildpunkte angewendet, die sich in der selben Zone, d.h. in der Nähe des betreffenden Messflecks/Messwinkels befinden. Dadurch wird den räumlichen Abweichungen der Lichtemission unmittelbar Rechnung getragen, unter der Annahme, dass die Variation der Lichtemission räumlich stetig verläuft, z.B. in Form einer mit zunehmendem Abstand von der optischen Achse kontinuierlich zunehmenden spektralen Verschiebung.

Bei einer möglichen Ausgestaltung wendet die Korrektur der Farbkoordinaten eine Interpolation entsprechend den Positionen der Messflecken/Messwinkel innerhalb des Bildes an. Die Interpolation (z.B. linear oder kubisch) liefert bei über die Oberfläche des Testobjektes kontinuierlicher Variation der Emissionseigenschaften eine weiter verbesserte Präzision. Es ist auch möglich, mit einem (mathematischen) Modell der Emissionseigenschaften des Testobjektes zu arbeiten, wenn z.B. Testobjekte vermessen werden sollen, die ein charakteristisches Verhalten der Lichtemission (z.B. in Abhängigkeit vom Betrachtungswinkel) aufweisen. Das Modell kann dann anhand der für die Messflecken/Messwinkel erfassten Farbkoordinaten parametriert und für die Korrektur der per Transformationsvorschrift erhaltenen Farbkoordinaten für alle Bildpunkte verwendet werden. Bei einer alternativen, besonders vorteilhaften Ausgestaltung erfolgt die Transformation der Bildwerte des Bildes des Bildsensors auf Basis einer Transformationsvorschrift, die aus den Bildwerten des von dem Testobjekt erfassten digitalen Bildes und den von demselben Testobjekt für die Messflecken/Messwinkel erfassten Farbkoordinaten abgeleitet wird. Diese Vorgehensweise kommt ohne eine vorab durchgeführte Kalibrierung aus, weil die Transformationsvorschrift gleichsam „in situ“ anhand der für die Messflecken/Messwinkel gleichzeitig per Bildsensor erfassten Bildwerte (im Farbsystem des per Bildsensor aufgenommenen Bildes) und per Kolorimeter erfassten Farbkoordinaten (in dem gewünschten Farbsystem, z.B. im CIE- Normvalenzsystem) ermittelt werden kann. Bei einer ausreichenden Anzahl von Messflecken/Messwinkeln kann insbesondere sichergestellt werden, dass genügend Daten für die Lösung des inversen Problems zum Auffinden der korrekten Transformationsvorschrift (z.B. als Transformationsmatrix) vorliegen. Dabei sollte die Zahl der Messflecken/Messwinkel mindestens gleich der Anzahl der Spektralkanäle des verwendeten Bildsensors sein. Mit nur einem Messfleck (wie im Stand der Technik) ist dies nicht möglich. Diese Ausgestaltung ist besonders vorteilhaft, weil sie zum einen ohne (zeitraubende) Vorab-Kalibrierung auskommt und weil sie gleichzeitig die inhomogenen Emissionseigenschaften des Testobjektes berücksichtigt und somit eine gegenüber dem Stand der Technik verbesserte Präzision der ermittelten Farbkoordinaten gewährleistet. Diese Ausgestaltung ist gleichsam „selbstkalibrierend“.

Bei einer möglichen Ausgestaltung umfasst das Bild für jeden Bildpunkt mindestens drei, vorzugsweise mindestens fünf, besonders bevorzugt mindestens neun Bildwerte. In der Praxis erweisen sich drei Spektralkanäle eines gängigen RGB-Bildsensors für manche Anwendungen als unzureichend, um eine präzise Umwandlung der Bildwerte des Bildes in Farbkoordinaten zu ermöglichen. Der Grund hierfür ist schlicht, dass bei nur drei Farbkanälen zu viele spektrale Informationen verloren gehen. Mit mehr Spektralkanälen kann die Präzision deutlich verbessert werden. Als besonders geeignet erweist sich ein Bildsensor (etwa einer Multispektralkamera) mit neun (oder mehr) Spektralkanälen.

Bei einer weiteren möglichen Ausgestaltung befinden sich die Messflecken auf dem Testobjekt in unterschiedlichem radialen Abstand von der Aufnahmeachse des Bildsensors. Durch diese Anordnung der Messflecken wird der Tatsache Rechnung getragen, dass bei einigen als Testobjekt in Frage kommenden Displaytypen (z.B. OLED-Displays) die spektrale Verschiebung der Emission vom Betrachtungswinkel, d.h. vom Abstand des Emissionsortes vom Zentrum des Displays, wo die Aufnahmeachse des Bildsensors die Displayoberfläche schneidet, abhängt.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnungen näher erläutert. Es zeigen:

Figur 1 : schematische Darstellung eines ersten

Ausführungsbeispiels des Kolorimeter- Systems mit paralleler Erfassung von Messflecken;

Figur 2: schematische Darstellung eines zweiten

Ausführungsbeispiels des Kolorimeter- Systems mit paralleler Erfassung von Messflecken; Figur 3: Illustration der spektralen Erfassung von Messflecken bei dem zweiten Ausführungsbeispiel per GRISM;

Figur 4: schematische Darstellung eines dritten

Ausführungsbeispiels des Kolorimeter- Systems mit paralleler Erfassung von Messflecken; Figur 5: Illustration der Zuordnung von Zonen zu Messflecken bei der Korrektur von Farbkoordinaten;

Figur 6: Illustration der Ermittlung von Farbkoordinaten mittels eines Bildsensors einer Multispektralkamera unter Verwendung einer Mehrzahl von kolorimetrisch erfassten Messflecken.

In den Zeichnungen werden gleiche Elemente mit gleichen Bezugsziffern bezeichnet. Für gleiche Elemente werden in der nachfolgenden Beschreibung die gleichen Begriffe verwendet. In den Zeichnungen wird das erfindungsgemäße bildgebende Kolorimeter- System jeweils insgesamt mit der Bezugsziffer 1 bezeichnet.

Das bildgebende System 1 der Figur 1 umfasst ein Objektiv 3, das von einem Testobjekt, und zwar einem Matrixdisplay 2 (z.B. OLED-Display), emittiertes Licht kollim iert. Dem Objektiv 3 im Strahlverlauf nachgeschaltet ist ein Strahlteiler 4 als Aufteilungsoptik. Der Strahlteiler 4 teilt das von dem Matrixdisplay 3 kommende Licht in einen ersten Teil 5 und einen zweiten Teil 6 auf. Ein Bildsensor 7, z.B. ein RGB-Bildsensor oder ein bildgebendes Filterrad-Kolorimeter mit monochromem Bildsensor, empfängt den ersten Teil 5 des Lichts und erzeugt ein zweidimensionales digitales Bild (Farbbild) der Lichtemission des Matrixdisplays 2. Das von dem Bildsensor 7 ausgegebene Bild wird an einen mit dem Bildsensor 7 verbundenen Computer (nicht dargestellt) übertragen. In einer gemeinsamen Ebene 8 sind innerhalb des Strahlquerschnitts des zweiten Teils 6 des Lichts zwei Koppeleinheiten 9, 10 von lichtleitenden Fasern 11 bzw. 12 angeordnet. An den Positionen, an denen sich die die beiden Koppeleinheiten befinden, wird entsprechend das Licht in die Fasern 11 bzw. 12 eingekoppelt. Auf diese Weise wird erreicht, dass das in der Faser 11 propagierende Licht von einem ersten Messfleck 13 und das in der Faser 12 propagierende Licht von einem zweiten Messfleck 14 auf dem Matrixdisplay 2 stammt. Die Positionen der Koppeleinheiten 9, 10 in der Ebene 8 bestimmen die Positionen der Messflecken 13, 14 auf dem Matrixdisplay 2. Wie in Figur 1 gut zu erkennen ist, unterscheiden sich die beiden Messflecken 13, 14 hinsichtlich des Abstrahlwinkels voneinander, unter dem das von den entsprechenden Positionen auf dem Matrixdisplay 2 emittierte Licht von dem Objektiv 3 erfasst wird. Es kommt als Messeinheit (Kolorimeter) ein bildgebendes Spektrometer 17 (Hyperspektralkamera) zum Einsatz. Die beiden Fasern 11 , 12 führen zu unterschiedlichen (vertikalen) Positionen auf dem Eintrittsspalt des bildgebenden Spektrometers 17, so dass jeder Messfleck 13, 14 einem anderen Bildbereich des bildgebenden Spektrometers zugeordnet ist. So ist das Spektrometer 17 (bzw. der damit verbundene Computer) dazu in der Lage, für jeden Messfleck 13, 14 separat ein Spektrum zu erfassen und daraus jeweils die Farbkoordinaten zu ermitteln. Das bildgebende Spektrometer 17 ist ebenfalls mit dem Computer verbunden. Der Computer weist eine Programmierung auf, durch welche die Bildwerte der Bildpunkte des von dem Bildsensor 7 ausgegebenen Bildes in Farbkoordinaten im CIE-Normvalenzsystem transformiert werden. Dabei werden die mittels des Spektrometers für die Messflecken 13, 14 präzise erfassten Farbkoordinaten als Referenz berücksichtigt.

Bei dem Ausführungsbeispiel der Figur 2 ist eine im Strahlverlauf des zweiten Teils 6 des Lichts angeordnete, die Messflecken 13, 14 definierende Lochmaske 18 vorgesehen, wobei die Messeinheit, hier das Kolorimeter 19, ein Spektrometer mit einem dispersiven optischen Element 20, hier ein sog. GRISM, d.h. eine Prima-Gitter-Prisma-Anordnung, und einen weiteren Bildsensor 21 umfasst. Jedes der Löcher der Lochmaske entspricht einem Messfleck 13, 14. D.h. die räumliche Anordnung der Löcher bestimmt die Positionen der Messflecken 13, 14 auf dem Matrixdisplay 2. Figur 3 illustriert das Funktionsprinzip des Kolorimeters 19. Die Abbildung 22 in Figur 3 zeigt ein beispielhaftes Lochmuster der Lochmaske 18. Das dispersive Element 20 bewirkt eine räumliche Separation der Wellenlängenkomponenten auf dem Bildsensor 21 für jeden Messfleck, wie die Abbildung 23 in Figur 3 veranschaulicht. Die räumliche Separation der Wellenlängenkomponenten beispielhaft für den äußersten rechten Messfleck ist bei 24 markiert. Durch Analyse der Ausgabe des Bildsensors 21 kann entsprechend für jeden Messfleck ein Spektrum, wie in der Abbildung 25 dargestellt, erfasst werden. Daraus können dann wiederum die Farbkoordinaten für den betreffenden Messfleck mittels des Computers abgeleitet werden.

Bei dem Ausführungsbeispiel der Figur 4 wird das über die beiden Fasern 11 , 12 von den Messflecken 13, 14 emittierte Licht zwei separaten Kolorimetern 15, 16, beispielsweise herkömmlichen Filterkolorimetern, als Messeinheitenzugeführt. Dementsprechend erfassen die Kolorimeter 15, 16 die Farbkoordinaten des emittierten Lichts separat für jeden der beiden Messflecken 13, 14. Die beiden Kolorimeter 15, 16 sind mit dem Computer verbunden. Der Computer weist eine Programmierung auf, durch welche die Bildwerte der Bildpunkte des von dem Bildsensor 7 ausgegebenen Bildes in Farbkoordinaten im CIE-Normvalenzsystem transformiert werden. Dabei werden die mittels der Kolorimeter 15, 16 für die Messflecken 13, 14 präzise erfassten Farbkoordinaten als Referenz berücksichtigt. Es sei darauf hingewiesen, dass die Ausführungsbeispiele der Figuren 1 , 2 und 4 jeweils aus Übersichtlichkeitsgründen beispielhaft nur zwei Messflecken 13, 14 zeigen. Die Darstellung dient jeweils nur der Erläuterung des Prinzips. Ohne Weiteres können die Ausführungsbeispiele auf eine größere Anzahl von (z. B. drei, fünf, neun oder mehr) Messflecken in vollständig analoger Weise erweitert werden. Die Figur 3 illustriert, ebenfalls nur beispielhaft, eine Ausgestaltung mit insgesamt 36 Messflecken.

Bei einer möglichen, nicht dargestellten Variante der in den Figuren 1 , 2 und 4 gezeigten Ausführungsformen kann das Objektiv 3 ein konoskopisches Objektiv sein, das dazu ausgelegt ist, das von einem begrenzten (ggf. annähernd punktförmigen) Bereich auf dem Testobjekt 2 unter verschiedenen Winkeln emittierte Licht auf den Bildsensor 7 in der Weise abzubilden, dass jedem Bildpunkt des zweidimensionalen digitalen Bildes ein räumlicher Emissionswinkel (z.B. gegeben durch den Polarwinkel und den Azimut der Abstrahlung) zugeordnet ist. Dies ermöglicht es, die winkelabhängige Abstrahlcharakteristik des Testobjektes 2 präzise zu vermessen. Bei der Variante der Figur 1 , aber mit konoskopischem Objektiv 3, mit in der gemeinsamen Ebene 8 innerhalb des Strahlquerschnitts angeordneten Koppeleinheiten 9, 10 der lichtleitenden Fasern 11 bzw. 12, bestimmen die Positionen, an denen sich die die beiden Koppeleinheiten 9, 10 befinden, die (beiden) Messwinkel, unter denen das Licht von dem Matrixdisplay 2 emittiert wird. Bei der entsprechend modifizierten Variante der Figur 2 bestimmt die räumliche Anordnung der Löcher in der Lochmaske 18 die (hier zwei) Messwinkel.

Wie oben erläutert, kann die Transformation der Bildwerte des Bildsensors 7 in CIE-Farbkoordinaten auf Basis einer vorab durchgeführten Kalibrierung mit anschließender Korrektur anhand der für die Messflecken 13, 14 ermittelten Farbkoordinaten erfolgen, ähnlich wie in der zitierten EP 3 054 273 A1 beschrieben. Per Kalibrierung wird einmalig vorab eine Transformationsvorschrift ermittelt, z.B. in Form einer Transformationsmatrix, die den Bildwertvektor für jeden Bildpunkt des Bildes des Bildsensors 7 in einen Vektor der Farbkoordinaten umsetzt. Während der eigentlichen Messung des Testobjektes, d.h. des Matrixdisplays 2 erfolgt dann zunächst eine Transformation der Bildwerte des von dem Bildsensor 7 erzeugten Bildes in Farbkoordinaten auf Basis der Transformationsmatrix, d.h. auf Basis der erfolgten Kalibrierung. Danach erfolgt eine Korrektur anhand der für die Messflecken 13, 14 parallel von dem Matrixdisplay 2 erfassten Farbkoordinaten. Die Figur 5 illustriert, dass die Korrektur dabei ein Unterteilen des Bildes 28 in räumlich separate Zonen (Zone 1 , Zone 2) vorsehen kann, wobei jeder Zone ein Messfleck 13, 14 zugeordnet ist. Die Korrektur wird dabei für jede Zone aus einem Vergleich der zuvor durch Transformation auf Basis der Kalibrierung erhaltenen Farbkoordinaten innerhalb dieser Zone mit den für den dieser Zone zugeordneten Messfleck 13, 14 erfassten Farbkoordinaten abgeleitet. Die Korrektur kann z.B. eine einfache Skalierung der einzelnen Farbkoordinaten X, Y und Z sein, entsprechend dem Verhältnis der per Transformationsmatrix zunächst für die Positionen der Messflecken 13, 14 erhaltenen Farbkoordinaten und den per Kolorimeter 15, 16, 17, 19 für den jeweils korrespondieren Messfleck 13, 14 präzise erfassten Farbkoordinaten. Diese Korrektur wird dann auf alle per Transformation erhaltenen Farbkoordinaten innerhalb der betreffenden Zone angewendet. Die Figur 5 zeigt zwei mögliche Varianten zur Unterteilung in Zonen. Die Unterteilung wird zweckmäßig entsprechend dem Änderungsverlauf der Lichtemission über die Oberfläche des Matrixdisplays 2 gewählt.

Alternativ zu der zuvor beschriebenen Korrekturmethode kann die Transformation der Bildwerte des Bildes des Bildsensors 7 auf Basis einer Transformationsvorschrift erfolgen, die aus den Bildwerten des von dem Matrixdisplay 2 erfassten digitalen Bildes und den von demselben Matrixdisplay 2 (parallel oder sequentiell) für die Messflecken 13, 14 per Kolorimeter 15, 16, 17, 19 erfassten Farbkoordinaten abgeleitet wird. Die Transformationsvorschrift wird dabei gleichsam „in situ“ anhand der für die Messflecken 13, 14 per Bildsensor 7 erfassten Bildwerte und außerdem der per Kolorimeter 15, 16, 17, 19 erfassten Farbkoordinaten ermittelt.

Dieses Prinzip wird nachfolgend anhand der Figur 6 erläutert. Bei dem Beispiel der Figur 6 kommt ein Bildsensor 7 mit neun Spektralkanälen zum Einsatz (wie bei einer Multispektralkamera). Das Diagramm 29 illustriert die Empfindlichkeiten der neun Spektralkanäle des Bildsensors 7. Die Abbildung 30 zeigt eine Draufsicht auf das zu vermessende Matrixdisplay 2 mit einer Anzahl von neun darauf befindlichen Messflecken bei neun verschiedenen Abständen R1-R9 vom Zentrum des Matrixdisplays 2. Für sämtliche der Messflecken werden per Kolorimeter 15, 16, 17, 19 parallel oder sequentiell die XYZ-Farbkoordinaten der Lichtemission präzise erfasst. Das Diagramm 31 zeigt die Spektren der Lichtemission an den verschiedenen Messflecken mit zunehmendem Abstand (Pfeilrichtung) vom Zentrum des Matrixdisplays 2. Deutlich ist die abstandsabhänge Verschiebung des Emissionsspektrums zu erkennen. Es ergeben sich für die neun Messflecken entsprechend neun Sätze von XYZ- Farbkoordinaten:

Aus der Messung mittels des multispektralen Bildsensors 7 ergeben sich für jeden der neun Messflecken neun Bildwerte entsprechend den neun Spektralkanälen des Bildsensors 7:

Die 9x3-Matrix der XYZ-Farbkoordinaten ist über die gesuchte Transformationsvorschrift (nachfolgend als Matrix CCM bezeichnet) mit der 9x9- Matrix der Bildwerte verknüpft:

XYZ = CCM * C

Die Transformationsvorschrift CCM kann durch numerisches Lösen des inversen Problems mittels des Computers in Echtzeit ermittelt werden (beispielsweise auf Basis der bekannten Methode der Minimierung der Abweichungsquadrate oder unter Verwendung anderer bekannter Algorithmen). Bei einer ausreichenden Anzahl von Messflecken (hier mindestens neun, entsprechend der Anzahl der Spektralkanäle des Bildsensors 7) kann sichergestellt werden, dass genügend Daten für die Lösung des inversen Problems zum Auffinden der korrekten Transformationsvorschrift CCM vorliegen. Diese Vorgehensweise bei der Transformation der Bildwerte des Bildsensors 7 in CIE-Farbkoordinaten unter Berücksichtigung der für die Messflecken direkt kolorimetrisch erfassten Farbkoordinaten ist besonders vorteilhaft, weil sie ohne vorab durchzuführende Kalibrierung auskommt und zudem automatisch inhomogene Emissionseigenschaften des vermessenen Matrixdisplays 2 berücksichtigt.

Es ist darauf hinzuweisen, dass die anhand der Figur 6 beschriebene Vorgehensweise nicht auf den Einsatz eines multispektralen Bildsensors 7 angewiesen ist. Dieselbe Methode kann analog z.B. auch mit einem RGB- Bildsensor 7 oder einem bildgebenden Filterrad-Kolorimeter mit monochromem Bildsensor angewendet werden, der bzw. das nur drei Spektralkanäle aufweist. Es genügt dann entsprechend ein Minimum von drei Messflecken, um die Transformationsvorschrift CCM zu ermitteln. Eine Anzahl von Messflecken, die sogar größer ist als die Anzahl von Spektralkanälen kann vorteilhaft sein, um die Transformationsvorschrift CC/W mit größerer Genauigkeit numerisch zu ermitteln. Das zu lösende inverse Problem ist dann überbestimmt.

Es ist auch der Einsatz z.B. eines RGB-Bildsensors 7 in Kombination mit der Anordnung der Messflecken gemäß Abbildung 30 in Figur 6 denkbar. Dabei ist die Anzahl der Messflecken deutlich größer als die Zahl der Spektralkanäle des Bildsensors 7. In diesem Fall kann für unterschiedliche räumliche Bereiche des Testobjekts, d.h. des Matrixdisplays 2, jeweils eine Transformationsvorschrift ohne vorherige Kalibrierung abgeleitet werden. Aus den Messflecken bei den Abständen Ri, R2, R3 kann z.B. eine Transformationsvorschrift CCM1 abgeleitet werden, aus den Messflecken bei den Abständen R2, R3, R4 eine Transformationsvorschrift CCM2, aus den Messflecken bei den Abständen R3, R4, Rs eine Transformationsvorschrift CCM3 usw.. Diese Transformationsvorschriften werden dann jeweils zur Transformation der RGB-Bildwerte in Farbkoordinaten für die Bildpunkte in den verschiedenen Bereichen, d.h. hier in den durch die entsprechenden Abstände Ri bis R9 vom Zentrum bestimmten ringförmigen Bereichen, angewendet.