Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR THE SCANNING MEASUREMENT OF A DENTAL OBJECT, AND INTRAORAL SCANNER
Document Type and Number:
WIPO Patent Application WO/2013/143882
Kind Code:
A1
Abstract:
The invention relates to a method for measuring the form of at least one section of an object by projecting a pattern onto the section and portraying on a sensor the pattern projected back. In order to accurately measure the at least one section of the object with constructively simple actions, the invention proposes that the pattern projected back onto the sensor is analysed on the basis of the light field principle.

Inventors:
ZAEPER KLAUS (DE)
VOLLMANN MARKUS (DE)
Application Number:
PCT/EP2013/055369
Publication Date:
October 03, 2013
Filing Date:
March 15, 2013
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
DEGUDENT GMBH (DE)
ZAEPER KLAUS (DE)
VOLLMANN MARKUS (DE)
International Classes:
A61C9/00; G01B11/00; G01N21/00
Foreign References:
DE102007019267A12008-10-30
DE10356412A12005-06-23
US20070188769A12007-08-16
Attorney, Agent or Firm:
STOFFREGEN, Hans-Herbert (DE)
Download PDF:
Claims:
Patentansprüche

Verfahren zum scannenden Messen eines dentalen Objektes sowie Intraoral-Scanner

1. Verfahren zum scannenden Messen der Form von zumindest einem Abschnitt eines dentalen Objektes (5) durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor (8),

dadurch gekennzeichnet,

dass zur Bestimmung der 3D-Form des zumindest einen Abschnitts des dentalen Objektes entweder

das auf den Sensor (8) rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips oder

das mehrfach auf den Sensor rückprojizierte Muster epipolargeometrisch analysiert wird.

2. Verfahren nach Anspruch 1,

dadurch gekennzeichnet,

dass das rückprojizierte Muster zumindest eine Optik (7, V) durchsetzt, der ein Linsenarray (6, 6') vor- oder nachgeordnet wird.

3. Verfahren nach Anspruch 1 oder 2,

dadurch gekennzeichnet,

dass auf den Abschnitt des Objekts (5) ein statisches oder variierendes Muster abgebildet wird.

4. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass das Muster durch auf den Abschnitt des Objekts (5) projizierte Laserpunkte erzeugt wird.

5. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,

dass das Linsenarray (6, 6') aus Linsen gebildet wird, die gleiche Brennweiten aufweisen.

6. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass das Linsenarray (6, 6') aus Linsen gebildet wird, die oder Untergruppen dieser von voneinander abweichender Brennweiten aufweisen.

7. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass auf den Abschnitt des Objekts (5) gleichzeitig zumindest zwei Muster mit voneinander abweichenden Wellenlängen oder Wellenlängenbereichen projiziert werden.

8. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass unter Verwendung des Hough-Raums und mittels einer Hough- Transformation virtuelle Fokusebenen der rückprojizierten Elemente des Musters berechnet werden.

9. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass mittels des Fourier-Slice-Theorems virtuelle Fokusebenen der rückprojizierten Elemente des Musters berechnet werden.

10. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass in einem Intraoralscanner ein Mustererzeuger (1), die zumindest eine Optik (7, 7'), das Linsenarray (6, 6') und der Sensor (8) integriert werden, dass der Intraoralscanner kabellos betrieben wird und dass Signale des Sensors durch Fernzugriff, wie WLAN oder BLUETOOTH, an einen Rechner übertragen werden.

11. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass zur Erzielung von Farbinformationen des zumindest einen Abschnitts auf diesen das Muster mittels multichromatischer Lichtquelle, insbesondere breitbandiger Weißlichtquelle projiziert wird.

12. Intraoralscanner, umfassend einen Erzeuger (1) eines auf einen dentalen Bereich (5) abzubildenden Musters, zumindest eine erste Optik (7, V) und einen dieser nachgeordneten rückprojiziertes Muster erfassenden Sensor (8),

dadurch gekennzeichnet,

dass das Linsenarray (6, 6') mit der ersten Optik (7, 7') und dem Sensor (8) entweder eine Lichtfeldkamera oder ein multifokales Messsystem bildet.

13. Intraoralscanner nach Anspruch 12,

dadurch gekennzeichnet,

dass das Linsenarray (6, 6') in dem Intraoralscanner der ersten Optik (7, 7') vor- oder nachgeordnet ist.

14. Intraoralscanner nach Anspruch 12 oder 13,

dadurch gekennzeichnet,

dass das Muster aus Laserpunkten, insbesondere monochromatischer Strahlung besteht.

15. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 14,

dadurch gekennzeichnet,

dass das Muster ein statisches oder variierendes Muster ist. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 15, dadurch gekennzeichnet,

dass das Linsenarray (6, 6') aus Linsen mit gleichen Brennweiten oder aus Linsen oder Linsengruppen mit voneinander abweichenden Brennweiten besteht.

17. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 16,

dadurch gekennzeichnet,

dass der Intraoralscanner eine das Muster auf den dentalen Bereich (5) projizierende zweite Optik (3) aufweist.

18. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 17,

dadurch gekennzeichnet,

dass das Muster durch eine oder mehrere multichromatische Lichtquellen, insbesondere durch eine vorzugsweise breitbandige Weißlichtquelle erzeugbar ist.

GEÄNDERTE ANSPRÜCHE

beim Internationalen Büro eingegangen am 26. August 2013 (26.08.2013)

1. Verfahren zum scannenden Messen der Form von zumindest einem Abschnitt eines dentalen Objektes (5) durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor (8),

dadurch gekennzeichnet,

dass zur Bestimmung der 3D-Form des zumindest einen Abschnitts des dentalen Objektes entweder

das auf den Sensor (8) rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips oder

das mehrfach auf den Sensor rückprojizierte Muster epipolargeometrisch analysiert wird.

2. Verfahren nach Anspruch 1,

dadurch gekennzeichnet,

dass das rückprojizierte Muster zumindest eine Optik (7, 7') durchsetzt, der ein Linsenarray (6, 6') vor- oder nachgeordnet wird.

3. Verfahren nach Anspruch 1 oder 2,

dadurch gekennzeichnet,

dass auf den Abschnitt des Objekts (5) ein statisches oder variierendes Muster abgebildet wird.

4. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass das Muster durch auf den Abschnitt des, Objekts (5) projizierte Laserpunkte erzeugt wird.

GEÄNDERTES BLATT (ARTIKEL 19)

5. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,

dass das Linsenarray (6, 6') aus Linsen gebildet wird, die gleiche Brennweiten aufweisen.

6. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass das Linsenarray (6, 6') aus Linsen gebildet wird, die oder Untergruppen dieser voneinander abweichende Brennweiten aufweisen.

7. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass auf den Abschnitt des Objekts (5) gleichzeitig zumindest zwei Muster mit voneinander abweichenden Wellenlängen oder Wellenlängenbereichen projiziert werden.

8. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass unter Verwendung des Hough-Raums und mittels einer Hough- Transformation virtuelle Fokusebenen der rückprojizierten Elemente des Musters berechnet werden.

9. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass mittels des Fourier-Slice-Theorems virtuelle Fokusebenen der rückprojizierten Elemente des Musters berechnet werden.

10. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass in einem Intraoralscanner ein Mustererzeuger (1), die zumindest eine Optik (7, 7'), das Linsenarray (6, 6') und der Sensor (8) integriert werden, dass der Intraoralscanner kabellos betrieben wird und dass Signale des Sensors durch

GEÄNDERTES BLATT (ARTIKEL 19) Fernzugriff, wie WLAN oder BLUETOOTH, an einen Rechner übertragen werden.

11. Verfahren nach zumindest einem der vorhergehenden Ansprüche,

dadurch gekennzeichnet,

dass zur Erzielung von Farbinformationen des zumindest einen Abschnitts auf diesen das Muster mittels multichromatischer Lichtquelle, insbesondere breitbandiger Weißlichtquelle projiziert wird.

12. Intraoralscanner, umfassend einen Erzeuger (1) eines auf einen dentalen Bereich (5) abzubildenden Musters, zumindest eine erste Optik (7, 7') und einen dieser nachgeordneten rückprojiziertes Muster erfassenden Sensor (8),

dadurch gekennzeichnet,

dass das Linsenarray (6, 6') mit der ersten Optik (7, 7') und dem Sensor (8) entweder eine Lichtfeldkamera oder ein multifokales Messsystem bildet, mittels dessen das auf den dentalen Bereich abzubildende Muster durch das Linsenarray mehrfach auf den Sensor projiziert wird.

13. Intraoralscanner nach Anspruch 12,

dadurch gekennzeichnet,

dass das Linsenarray (6, 6') in dem Intraoralscanner der ersten Optik (7, 7') vor- oder nachgeordnet ist.

14. Intraoralscanner nach Anspruch 12 oder 13,

dadurch gekennzeichnet,

dass das Muster aus Laserpunkten, insbesondere monochromatischer Strahlung besteht.

15. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 14,

dadurch gekennzeichnet,

dass das Muster ein statisches oder variierendes Muster ist.

GEÄNDERTES BLATT (ARTIKEL 19)

16. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 15, dadurch gekennzeichnet,

dass das Linsenarray (6, 6') aus Linsen mit gleichen Brennweiten oder aus Linsen oder Linsengruppen mit voneinander abweichenden Brennweiten besteht.

17. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 16,

dadurch gekennzeich et,

dass der Intraoralscanner eine das Muster auf den dentalen Bereich (5) projizierende zweite Optik (3) aufweist.

18. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 17,

dadurch gekennzeichnet,

dass das Muster durch eine oder mehrere multichromatische Lichtquellen, insbesondere durch eine vorzugsweise breitbandige Weißlichtquelle erzeugbar ist.

GEÄNDERTES BLATT (ARTIKEL 19)

Description:
Verfahren zum scannenden Messen eines dentalen Objektes sowie Intraoral-Scanner

Die Erfindung bezieht sich auf ein Verfahren zum scannenden Messen der Form von zumindest einem Abschnitt eines dentalen Objektes durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor. Auch nimmt die Erfindung Bezug auf einen Intraoral-Scanner, umfassend einen Erzeuger eines auf einen Dentalbereich abzubildenden Musters, einen Sensor und eine diesem vorgeordnete erste Optik.

Es ist bekannt, ein Muster auf ein dentales Objekt abzubilden, um sodann das rückprojizierte Muster eine Lochmaske durchsetzen zu lassen. Die im Fokus der Lochmaske rückprojizierten Muster wie Lichtpunkte, die im Fokus der Lochmaske liegen, passieren diese mit hoher Intensität, um sodann auf den Sensor zu fallen. Lichtpunkte außerhalb des Fokus strahlen nur mit geringer Intensität auf den Sensor. Der Sensor und/oder die Lochmaske werden iterativ axial verschoben, wobei Intensitätsmaxima die Fokusebenen ergeben, aus der sodann der Z- Abstand berechnet werden kann. Alternativ besteht die Möglichkeit, das Muster mittels eines Objektivs auf den Gegenstand abzubilden, das eine große chromatische Aberration aufweist, so dass sich eine wellenlängenabhängige Fokussierung und somit ein multifokales Muster ergibt. In Abhängigkeit von den Wellenlängenpeaks kann sodann die Fokusebene ermittelt werden (DE-A-10 2007 019 267). Die Literaturstelle K. Harding et al.:„3D imaging System for biometric applications"; SPIE Defense, Security and Sensing, 2010, S. 76900J-1 - 76900J-12, beschreibt das Prinzip eines Multi-Image-Systems mit nahezu identischer Bildaufsplittung durch ein Linsenarray das dem Prinzip der stereoskopischen Analyse mit der Einschränkung entspricht, dass nicht nur zwei Kameras/Blickwinkel, sondern mehrere Kameras/Blickwinkel benutzt werden, um ein Bild in mehrere Bilder leicht unterschiedlicher Blickwinkel und Fokusebenen aufzuspalten. Mittels eines einer Optik nachgeordneten Linsenarrays wird ein zu analysierendes Bild mehrfach auf einen Sensor abgebildet. Das Verfahren wird biometrisch genutzt, um z. B. einen Fingerabdruck oder eine Gesichtspartie zu erfassen.

Zur 3D-Bestimmung von dentalen Objekten sind Intraoralscanner bekannt, die nach dem Triangulationsverfahren (DE-A-10 2007 054 907) oder dem Prinzip der konfokalen Mikroskopie (DE-A-10 2004 059 526) arbeiten.

Der EP-A 2 377 464 ist eine Anordnung von telezentrischen Optiken zur Ermittlung einer Fokusebene zu entnehmen. Hierzu werden die Fokusebenen physikalisch verstellt, um anschließend iterativ über alle Bilder die tatsächliche Fokusebene zu berechnen.

In der Literaturstelle R. Ng et al.:„Light field photography with a hand-held plenoptic camera", Computer Science Technical Report CSTR, Vol. 2, 2005, S. 1 - 11, wird das plenoptische Prinzip beschrieben. Dabei wird vorrangig auf eine mögliche nachträgliche Berechnung virtueller Fokusebenen eingegangen, um im Nachhinein Bildausschnitte in den Fokus zu bekommen bzw. durchgängig fokussierte Aufnahmen zu erhalten. Als Verfahren zur Rekonstruktion wird das Fourier-Slice-Theorem vorgeschlagen, das aus der Tomographie bekannt ist. Während jedoch in der Tomographie Bilder aus verschiedenen Durchleuchtung s winkeln durch das Fourier- Slice-Theorem mathematisch rückprojiziert werden, werden bei Ren Ng et al. die verschiedenen Projektionsebenen analytisch berechnet. Auch die Literaturstelle R. Ng. „Fourier slice photography"; ACM Transactions on Graphics (TOG), Vol. 24, No. 3, 2005, S. 735 - 744, beschreibt das plenoptische Prinzip.

In der Literaturstelle L. Nalpantidis et al.:„Obtaining reliable depth maps for robotic applications from a quad-camera System"; Intelligent Robotics and Applications, 2009, S. 906 - 916, ist die stereoskopische Auswertung mehrfacher Kamerabilder beschrieben.

Der vorliegenden Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und einen Intraoral-Scanner der eingangs genannten Art so weiterzubilden, dass die dreidimensionale Form von zumindest einem Abschnitt eines dentalen Objekts nach einem alternativen Verfahren gemessen werden kann, wobei sich im Vergleich zu bekannten Verfahren konstruktive Vereinfachungen ergeben sollen.

Zur Lösung der Aufgabe wird verfahrensmäßig im Wesentlichen vorgeschlagen, dass zur Bestimmung der 3D-Form des zumindest einen Abschnitts des dentalen Objekts entweder das rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips virtuell rein rechnerisch fokussiert wird, also die virtuellen Fokusebenen ermittelt werden, oder das mehrfach auf den Sensor rückprojizierte Muster epipolargeometrisch zur 3D-Informationsgewinnung analysiert wird.

Nach der ersten Alternative wird ein Mikrolinsenarray zwischen einer Optik und einem Sensor angeordnet. Sodann kann nach dem plenoptischen Prinzip der Strahlverlauf (das Lichtfeld) nachvollzogen werden, um somit im Nachhinein verschiedene Fokusebenen berechnen zu können. Hinter jeder Mikrolinse des Mikrolinsenarrays wird nicht der gesamte interessierende Bereich komplett auf den Sensor projiziert. Somit wird das Gesamtbild als Ganzes nicht mehrfach auf den Sensor projiziert, sondern lediglich die Teilbereiche zum Erhalt der plenoptischen Information aufgeweitet. Bei größerer Distanz erkennt man daher auch statt eines mehrfach duplizierten Bildes das Gesamtbild. Die unterhalb jeder einzelnen Mikrolinse befindlichen Sensorelemente stellen dabei zusammengefasst eine Art„SuperPixel" dar, dessen Lichtintensität sich aus der Summe aller darunter befindlichen Unter- Sensorelemente ergibt. Hierdurch erscheint das Gesamtbild dann auch größer gepixelt. Ein Heranzoomen auf die einzelnen Sensorelemente der jeweiligen„Superpixel" lässt dabei dann die jeweils aufgeweiteten Teilausschnitte erkennen, aus denen die plenoptische Information gewonnen werden kann, d. h., die Bestimmung der Richtung aus der alle auf den„Superpixel" fallenden Lichtstrahlen herkommen.

Nach der zweiten Alternative werden in Abhängigkeit von der Anzahl der Linsen des Arrays, die insbesondere nahe an der Optik liegen statt dem Sensor direkt vorgeordnet zu sein, entsprechend der Anzahl der Linsen beinahe identische komplette Bilder des interessierenden Bereichs, also Bilder mehrfach projiziert. Es erfolgt eine Mehrfachabbildung, so dass prinzipiell eine Darstellung erfolgt, als würde der interessierende Bereich von mehreren Kameras erfasst. Die Gewinnung der Tiefeninformation erfolgt unter Ausnutzung der Epipolargeometrie.

Das Prinzip, das bei der plenoptischen Lichtfeldanalyse benutzt wird, ist Folgendes. Liegt die aufgenommene Brennebene einer herkömmlichen Digitalkamera genau in der Fokusebene eines abgebildeten Objektpunktes, so wird dieser im Prinzip auf genau einem Pixel eines Matrixsensors wie CCD-Sensors abgebildet, da sich sämtliche von dem Objektpunkt ausgesandte Lichtstrahlen im Prinzip in einem Fokuspunkt bündeln. Liegt die Brennebene nur etwas abseits von der Fokusebene dieses Objektpunktes, verteilt sich die ausgesandte Lichtintensität auf eine größere Fläche, also mehrere Pixel. Mit zunehmendem Abstand der Brennebene zur Fokusebene nimmt die Fläche, auf die der Objektpunkt unscharf abgebildet wird, quadratisch zu. Die Lichtintensität an jedem einzelnen Punkt entsprechend quadratisch ab: der abgebildete Objektpunkt „verschwimmt mit seiner Umgebung". Bei der Verwendung eines Sensors ohne Mikrolinsenarray würde daher an dieser Stelle lediglich ein mit seinen Nachbarelementen verschwommenes Objekt abgebildet. Auf jedem Sensorelement werden dabei sämtliche auftreffenden Strahlen, egal aus welcher Richtung sie stammen, einfach aufaddiert, ohne dass man im Nachhinein die aus unterschiedlicher Richtung und damit von unterschiedlichen Objekten stammenden Lichtstrahlen unterscheiden könnte. Hier setzt die Funktion der Mikrolinsen ein, die dem Sensor im Bereich der Brennebene vorgelagert werden. Statt die Lichtstrahlen unabhängig von deren Richtung einfach aufzuaddieren, werden diese nochmals gebrochen und treffen je nach Richtung, aus der sie kommen, auf jeweils unterschiedliche Sensorelemente. Ein auf eine Mikrolinse senkrecht auftreffendes fokussiertes Lichtbündel würde somit zu einem Kegel erweitert und auf der Sensorfläche kreisförmig abgebildet, ein schräg auftreffendes Lichtbündel entsprechend ellipsenförmig weiter am Rand.

Mit Hilfe dieser Information, aus welcher Richtung die auf die Mikrolinsen auftreffenden Lichtstrahlen stammen, lässt sich sodann im Nachhinein für verschiedene Ebenen berechnen, wie ein auf eine virtuelle Fokusebene projiziertes Bild ausgesehen hätte. Damit lässt sich im Nachhinein bestimmen, wo die Fokusebene zu einem Objektpunkt liegt und damit sodann auch der Abstand, also die Tiefeninformation berechnen.

Den alternativen Lösungsmöglichkeiten, also einerseits das mehrfach aufgesplittete Projizieren des Musters und andererseits der plenoptischen Lichtbrechung der Bildpunkte ist gemeinsam, dass jeweils ein Linsenarray der Optik vor oder nach geschaltet ist. Bei der Mehrfachprojektion werden im Vergleich zur zweiten Alternative eine geringere Anzahl größerer Linsen verwendet, wobei die Linsen abstandsmäßig näher an der Optik als am Sensor liegen. Bei der Nutzung des plenoptischen Prinzips werden eine Vielzahl kleiner Mikrolinsen verwendet, die im Bereich der Brennebene der Optik angeordnet sind und damit dichter am Sensor, der aus der Brennebene der Optik heraus hinter die Mikrolinsen verschoben ist.

Beim plenoptischen Prinzip werden im Nachhinein die Fokusebenen durch eine plenoptische Lichtfeldanalyse errechnet. Dabei ist erfindungs gemäß vorgesehen, dass ein einfaches Muster statt eines komplexen Bildes benutzt wird, um die Analyse durchzuführen. Hierdurch bedingt ergibt sich eine Reduktion der notwendigen spatialen (x/y-) Auflösung mit dadurch schnelleren Berechnung der Fokusebene und gleichzeitigen Steigerung der räumlichen (z-) Auflösung und damit der gewünschten Information. Dabei macht sich insbesondere vorteilhaft bemerkbar, dass zusätzlich schnelle Rechenzeiten dann erzielbar sind, wenn eine erfindungsgemäß angepasste Hough- Analyse verwendet wird. Hierbei handelt es sich um einen eigenerfinderischen Vorschlag.

Erfindungsgemäß wendet man das plenoptische Prinzip an, um virtuelle Fokusebenen für die rückprojizierten Bildpunkte des Musters zu berechnen und so die gewünschten Tiefeninformationen zu erhalten.

Es ist vorgesehen, dass das rückprojizierte Muster, das aus einzelnen Lichtelementen wie Lichtpunkten besteht, mittels einer Optik auf den Sensor abgebildet wird, wobei der Optik das Linsenarray nachgeordnet ist. Bei der Mehrfachabbildung des Musters und der sodann erfolgenden epipolargeometrischen Analyse sollte das Linsenarray der Optik vorgeordnet sein.

Unabhängig hiervon ist in Weiterbildung der Erfindung vorgesehen, dass das Muster vorzugsweise mittels monochromatischen Lichts auf den Abschnitt abgebildet wird. Dabei besteht die Möglichkeit, auf den Abschnitt ein statisches oder variierendes Muster zu projizieren. Insbesondere ist vorgesehen, dass das Muster durch auf den Abschnitt projizierte Laserpunkte erzeugt wird.

Die Laserpunkte sollten einen genügenden Abstand zueinander aufweisen, damit die über das Linsenarray auf den Sensor projizierten Teilbilder überlappungsfrei abgebildet werden, so dass die Auswertung vereinfacht und beschleunigt wird.

Weisen die Linsen des Linsenarrays vorzugsweise gleiche Brennweiten auf, so besteht auch die Möglichkeit, dass diese unterschiedliche Brennweiten besitzen. Hierdurch lassen sich die individuellen Projektionspositionen in den von den einzelnen Linsen des Linsenarrays abgebildeten Teilbildern stärker differenzieren und somit die Genauigkeit der Auswertung steigern.

Um eine einfache Auswertung der Teilbilder zur Bestimmung der dreidimensionalen Form des Abschnitts des Objekts zu ermöglichen, sieht die Erfindung bevorzugterweise vor, dass mittels der Hough-Transformation die Fokusebenen der rückprojizierten Elemente des Musters ermittelt werden.

Es besteht aber auch die Möglichkeit, mittels des Fourier-Slice-Theorems die Fokusebenen der rückprojizierten Elemente des Musters zu ermitteln.

Ein Intraoralscanner der eingangs genannten Art zeichnet sich dadurch aus, dass das Linsenarray mit der ersten Optik und dem Sensor entweder eine Lichtfeldkamera oder ein multifokales Messsystem bildet.

Hierzu sieht die Erfindung insbesondere vor, dass in einem Intraoralscanner ein Erzeuger des Musters und die Optik, das Linsenarray und der Sensor integriert werden, dass der Intraoralscanner kabellos betrieben wird und Signale des Sensors durch Fernzugriff wie WLAN oder Bluetooth an einen Rechner übertragen werden.

Dabei kann das Linsenarray in Bezug auf die optische Achse der Optik vor- oder nachgeordnet sein.

Das Muster, das auf den zu messenden Dentalbereich projiziert wird, besteht vorzugsweise aus Laserpunkten, insbesondere monochromatischer Strahlung, wobei blau zu bevorzugen ist.

Das Muster kann aber auch durch multichromatische, insbesondere breitbandige Weißlichtquellen projiziert werden, um mittels Farbsensoren zugleich Farbinformationen über das zu scannende Objekt zu gewinnen.

Das Muster selbst kann ein statisches oder ein variierendes Muster sein.

Das Linsenarray kann aus Linsen bestehen, die gleiche Brennweiten aufweisen. Es besteht jedoch auch die Möglichkeit, das Linsen oder Linsengruppen mit voneinander abweichenden Brennweiten das Linsenarray bilden. Ferner sollte der Intraoralscanner eine zweite das Muster auf das Objekt abbildende Optik enthalten.

Weitere Einzelheiten, Vorteile und Merkmale der Erfindung ergeben sich nicht nur aus den Ansprüchen, den diesen zu entnehmenden Merkmalen - für sich und/oder in Kombination - sondern auch aus der nachfolgenden Beschreibung.

Es zeigen:

Fig. 1 bis 3 Prinzipdarstellungen zur Erläuterung der Epipolar-Geometrie,

Fig. 4 eine Prinzipdarstellung der Funktion einer Kamera unter Anwendung der multifokalen Bildaufsplittung,

Fig. 5 eine Ausführungsform einer Intraoralkamera mit multifokaler

Bildaufsplittung,

Fig. 6 Prinzipdarstellungen der plenoptischen Funktion,

Fig. 7, 8 Prinzipdarstellungen eines Lichtfeldes,

Fig. 9 eine Prinzipdarstellung zur Ermittlung einer virtuellen Fokusebene,

Fig. 10 eine Ausführungsform eines Intraoralscanners nach dem plenoptischen

Prinzip und

Fig. 11 ein Ablaufdiagramm.

Erfindungsgemäß werden zum Ermitteln der dreidimensionalen Form zumindest eines Abschnitts eines dentalen Objektes, insbesondere eines semitransparenten Objektes, Grundprinzipien der Optik angewendet, auf die nachstehend eingegangen wird. Wird ein Objektpunkt gleichzeitig in zwei Kameras abgebildet, gibt es grundlegende Beziehungen, die mit Hilfe der sogenannten Epipolar-Geometrie beschrieben werden. Dies wird anhand der Fig. 1 erläutert.

Der Projektionspunkt x des Bildpunktes X auf den Sensor S, S ' einer der beiden nicht dargestellten Kameras wird - vereinfacht gesehen - nach dem Lochkamera-Prinzip durch den Strahl vom Bildpunkt zum Projektionszentrum C der Kamera beschrieben. Das Projektionszentrum ist dabei bei unveränderter Kameraeinstellung für alle Bildpunkte stets an der gleichen Position.

Da alle Punkte, die auf der Geraden g liegen auf den gleichen Punkt x projiziert werden, kann mit nur einer Kamera prinzipiell keinerlei Tiefen- Information gewonnen werden. So sind in der obigen Abbildung die Punkte X und Y für die linke Kamera nicht unterscheidbar.

Kommt nun jedoch eine zweite Kamera aus anderem Blickwinkel ins Spiel, werden hier die Punkte X und Y auf verschiedene Bildpunkte x' und y' projiziert. Bei bekannten Projektionszentren C und C kann daher aus den korrespondierenden Bildpunkten x und x' unter optimalen Bedingungen die dreidimensionale Position des Objektpunktes X genau bestimmt werden: Der Punkt liegt im Schnittpunkt der Geraden g ( C.i) und C'x'.

Man gewinnt also Tiefeninformation, wobei die Bedingungen natürlich niemals so optimal sind wie dargestellt: Insbesondere werden sich unter praktischen Bedingungen die Geraden Cx und C'x' in vielen Fällen gar nicht schneiden, so dass der Punkt X oft nur angenähert als Punkt X des kleinsten Abstandes zwischen den beiden Geraden bestimmbar wird.

Sollen nun mehrere Objektpunkte gleichzeitig vermessen werden, wird die Auswertung dadurch erschwert, dass für jeden Bildpunkt x in der einen Kamera viele hierzu möglicherweise passende Punkte in der anderen Kamera existieren und es schwer wird, den tatsächlich hiermit korrespondierenden, d. h. tatsächlich ebenfalls vom Objektpunkt X projizierten Punkt x' herauszufinden. Ist z. B. x in Fig. 1 die linke Kamera-Projektion eines Objekt- Punktes X und wird nun statt x' die Projektion y' eines ganz anderen Objekt-Punktes miteinander korrespondierend verrechnet, erhält man als Koordinaten für X komplett falsche Koordinaten. Zur stereoskopischen dreidimensionalen Vermessung mehrerer Objektpunkte ist es daher wichtig, für jeden Bildpunkt in der linken Kamera auch den hiermit tatsächlich korrespondierenden Bildpunkt in der rechten Kamera zu finden.

Um für einen Bildpunkt x die geometrische Position im zweiten Bild zu bestimmen, lässt sich die Suche aber auf eine Gerade P reduzieren: Die mit Bildpunkt x korrespondierende so genannte Epipolar-Gerade. Die Gerade ist P hierbei durch den Schnitt der von C, C und x aufgespannten Ebene mit der Sensorebene der rechten Kamera bestimmt. Alle möglichen mit Bildpunkten im linken Bild korrespondierenden Epipolar-Geraden im rechten Bild schneiden sich dabei im so genannten Epipol e', der zugleich der Projektionspunkt des linken Projektionszentrum C im rechten Bild darstellt.

Sind beide Sensorebenen parallel zueinander ausgerichtet, vereinfachen sich die Epipolar-Geraden, da sie genau parallel zu den Bildzeilen des Sensors verlaufen. Beim so genannten Stereonormalfall, bei dem die Sensorebenen parallel ausgerichtet sind und auch die Projektionszentren auf einer Höhe liegen (Fig. 3), lässt sich die Suche nach korrespondierenden Punkten durch die Angabe korrespondierender Bildzeilen vereinfachen. In der Praxis lässt sich diese Bedingung jedoch nur näherungsweise erreichen, da eine Verschiebung der Projektionszentren und unterschiedliche Abbildungsfehler bei verschiedenen Linsensystemen zu Abweichungen führen.

Nach dem Ansatz von Georgiev et al. [„Spatio-angular resolution tradeoffs in integral photography", 2006] wird vor dem eigentlichen Objektiv ein Linsenarray angebracht (Fig. 4). Georgiev et al. konnten dabei zeigen, dass dies äquivalent zu einem System von mehreren leicht zueinander verschobenen Kameras ist. Auf dem Sensor wird hierbei der aufgenommene Bildabschnitt mehrfach dargestellt, wobei je nach Entfernung der Objektpunkte die Positionen der projizierten Bildpunkte untereinander variieren. Bei Verwendung einer solchen Kamera mit vorgelagertem Mikrolinsen-Array lassen sich mit Hilfe der Epipolar-Geometrie und den parallel zueinander ausgerichteten Sensorebenen (Stereonormalfall nur näherungsweise) korrespondierende Bildpunkte und damit die Tiefeninformationen berechnen. Die tatsächliche Tiefeninformation kann durch Minimierungs-Algorithmen über alle Punkt-Paare berechnet bzw. allgemein weiter präzisiert werden.

Das diesbezügliche Prinzip wird erfindungsgemäß bei einem Intraoral-Scanner eingesetzt, wie dieser prinzipiell der Fig. 5 zu entnehmen ist. Hierzu wird zur einfachen Detektion korrespondierender Punkte mittels eines Muster-Projektors 1 ein statisches oder variierendes Muster auf ein dentales Objekt 5 projiziert. Bei genügend großer Kamera-Auflösung bzw. hinreichend großer Texturierung des dentalen Objekts könnte der Muster-Projektor ggf. sogar durch eine einheitliche Beleuchtungs-Quelle ersetzt werden.

Allerdings sollte eine zusätzliche Muster-Projektion bei oftmals glatten nur schwach texturierten Objekten - wie bei Zähnen - erfolgen, um eindeutige korrespondierende Punkte detektieren zu können.

Als Muster-Projektor können dabei Laser mit vorgeschalteter Optik oder aber andere herkömmliche Musterprojektoren mit LEDs oder anderen Lichtquellen verwendet werden. Das reflektierte Muster wird dann über ein Linsensystem 3 zunächst gebündelt und wird - ggf. über einen Strahlteiler 2 abgelenkt - von einem Kamerasystem, bestehend aus einem Linsensystem 7 und Fotosensor 8, erfasst. Dem Kamerasystem ist dabei ein Linsen-Array 6 vorgeschaltet. Durch dieses Linsenarray 6 werden auf der Bildebene, in der sich ein Flächensensor 8 wie Matrix-CCD-Sensor befindet, mehrere Bilder erzeugt, die für sich selbst eine Einheit bilden und das projizierte Muster abbilden. Innerhalb jedes Unterbildes sind die jeweiligen relativen Bildpositionen je nach Distanz des reflektierten Musters - und damit dentalen Objektpunktes - leicht unterschiedlich, woraus man die 3D-Information erhält.

Die mehrfach projizierten Bilder werden sodann stereoskopisch bzw. multifokal ausgewertet, indem in jedem Teilbild jeweils korrespondierende Punkte - wie oben skizziert - miteinander verrechnet werden. Aufgrund der gegebenen parallelen Bildebenen, da auf gleichen Sensor projiziert, gestaltet sich die Suche nach korrespondierenden Bildpunkten relativ einfach. Die sodann für jeden 2D-Bildpunkt bestimmbaren 3D-Koordinaten erhält man durch Minimierungs-Algorithmen auf der Grundlage schneller Matrix-Berechnungen. Insgesamt gestaltet sich die Berechnung bis hin zur 3D-Information der projizierten Musterpunkte relativ einfach und damit schnell genug, um live die Punktwolke zu erhalten, die mit Verschiebung des Intraoral- Scanners zum kompletten 3D-Modell des Dentalobjektes ergänzt wird. Die Punktewolken der jeweiligen Scandaten werden hierzu gematcht.

Die Auswertung lässt sich noch weiter beschleunigen, wenn das projizierte Muster weiter vereinfacht wird, indem z. B. nur einzelne Laserpunkte projiziert werden, die einen genügend großen Abstand haben, damit sie in allen Teilbildern überlappungsfrei abgebildet werden.

Mit steigender Anzahl an Linsen im vorgeschalteten Linsen-Array 6 steigt die Genauigkeit der errechneten Tiefeninformation auch bei sonst teilweise uneindeutigen Projektionen. Zugleich sinkt aber die spatiale (geometrische) Auflösung der Punkte. Somit ist jeweils - je auch nach vorhandener Auflösung des Fotosensors 8 - der optimale Ausgleich zu bestimmen.

Die vorgeschalteten Linsen des Linsenarray 6 können jeweils unterschiedliche Brennweiten aufweisen. Hierdurch lassen sich ggf. die individuellen Projektions- Positionen in den Teilbilder stärker differieren und die Genauigkeit der Auswertung steigern.

Ist anhand der Fig. 1 bis 5 erläutert worden, wie Tiefeninformationen eines dentalen Objektes unter Zugrundelegung der Epipolar-Geometrie ermittelt werden können, wobei entsprechend der Darstellung in Fig. 5 das Linsenarray 6 vor dem Linsensystem 7 angeordnet ist, so ist bei der Anwendung des plenoptischen Prinzips, wie dies anhand der Fig. 6 bis 11 erläutert wird, ein Mikrolinsen-Array 6' zwischen einem Fotosensor 8 und einem Linsensystem V angeordnet, wie die Fig. 10 prinzipiell verdeutlicht.

Im Zusammenhang mit der diesbezüglichen und der Fig. 10 zu entnehmenden Anordnung gelangen erfindungs gemäß Prinzipien der an und für sich bekannten Lichtfeldkamera zur Anwendung, wobei auf Grundlagen Bezug genommen wird, die der Disseration von R. Ng„Digital light field photography," 2006, zu entnehmen sind. In seiner Dissertation beschreibt Ren Ng das Prinzip seiner Lichtfeldkamera, das zum Verständnis mitsamt einiger Begriffsdefinitionen im Folgenden stark vereinfacht erläutert wird.

Die plenoptische Funktion wurde erstmals 1991 von Adelson und Bergen („The plenoptic function and the elements of early vision, Cambridge: MIT Press, 1991) definiert. Sie beschreibt die Intensität eines Lichtstrahls mit beliebiger Wellenlänge λ, zu jedem Zeitpunkt t in jedem möglichen Winkel Θ und φ, der auf eine Kamera am Ort x, y, z fällt: l 7 — 1 7 (β,φ,. χ,. γ,. Σ, t,l)

Damit hat diese allgemeinste Beschreibung eines Lichtstrahls im Raum sieben Dimensionen. Durch Einschränkung auf statische Szenen und Vernachlässigung der Wellenlänge (diese wird oft nicht benötigt oder kann bei Bedarf z. B. vom Flächen- CCD-Sensor erfasst werden) verbleibt dann noch die dargestellte fünfdimensionale plenoptische Funktion: I = L(x,y, z, θ, ψ) (s. Fig. 6, Quelle: http:/de.wikipedia.ord/wiki/Plenoptische_Kamera).

Der Begriff Lichtfeld wurde 1936 von A. Gershun („The Light Field", Journal of Mathematics and Physics, Seiten 51-151) geprägt. Begrenzt man die Beschreibung der Lichtstrahlen auf ein definiertes Volumen und transformiert die sphärischen Koordinaten in planare Bildkoordinaten, lassen sich die Lichtstrahlen durch zwei Ebenen (u, v) und (x, y) parametrisieren, wobei ein Lichtstrahl durch einen Punkt auf der u, v-Ebene und der x, y-Ebene festgelegt ist (Fig. 7). Das Volumen zwischen den beiden Ebenen wird als Lichtfeld bezeichnet.

Diese Parametrisierung kann verwendet werden, um die in eine Kamera eintreffenden Lichtstrahlen einzeln zu beschreiben. Vorausgesetzt die Kamera ist fest fokussiert, d. h. der Abstand zwischen Objektiv und Sensor statisch fixiert, kann ein Lichtstrahl durch den Eintrittspunkt an der Blende und den Punkt seines Auftreffens am Sensor eindeutig charakterisiert werden. Fig. 8 stellt dies vereinfacht als 2D-Lichtfeld dar. Die Blendenebene wird als (u, v)-Ebene, die Sensorebene als (x, y)-Ebene betrachtet, wobei das bei notwendigerweise festem Fokus zu betrachtende konstante Volumen zwischen den Ebenen das Lichtfeld bezeichnet. Durch die vorgegebene Bildauflösung des Bildsensors kann die plenoptische Funktion dabei zugleich auch als Abtasttheorem für optische Strahlen betrachtet werden.

Ren Ng beschreibt in seiner Dissertation (s. o.) eine Lichtfeldkamera, bei der vor der Sensorebene ein Mikrolinsen-Array angeordnet ist. Statt an dieser Stelle in herkömmlicher Weise direkt auf ein Sensorelement zu treffen wird jeder Bildpunkt durch dieses Linsengitter nochmals gebrochen und trifft dann je nach Einfallswinkel auf unterschiedliche Sensorelemente. Man kann sich dieses Mikrolinsenarray wie ein Array aus vielen Kleinst-Kameras vorstellen, die jeweils auf einen individuellen, sich aber überlappenden Teilbereich der u/v-Ebene im Blendenbereich der Kamera gerichtet sind. Hierdurch lässt sich neben dem Eintrittspunkt in der x/y- Ebene auch der jeweilige Punkt in der u/v-Ebene für jeden Lichtstrahl, d.h. das Lichtfeld bestimmen.

Der Photosensor hat natürlich nur eine gewisse Auflösung, die sich durch Verwendung in einer Lichtfeld- Kamera aufteilt. Die spatiale (räumliche) Auflösung wird durch die Größe der Mikrolinsen bestimmt. Im Vergleich zur herkömmlichen Kamera ist diese stark verkleinert, da die Mikrolinsen zur Auflösung des Lichtfeldes stets auf mehrere Sensorelemente einstrahlen. Die spatiale Auflösung des Sensors verringert sich entsprechend um diesen Faktor. Die Genauigkeit zur Bestimmung der u/v-Ebene wird dagegen durch die Anzahl der Sensorelemente bestimmt, auf die jede Mikrolinse einstrahlt. Auf je mehr Sensorelemente jede Mikrolinse einstrahlt, umso höher wird damit die Auflösung der u/v-Ebene und steigt damit letztlich auch die Tiefeninformation. Umso stärker sinkt aber auch die spatiale Auflösung der x/y-Ebene. Somit ist je nach Anwendung stets der optimale Ausgleich zwischen beiden Auflösungen zu bestimmen.

Aufgrund der zusätzlichen Information über die u/v-Ebene ist es möglich, bei einer Lichtfeld- Kamera auch im Nachhinein die Fokusebene zu verändern. Bei einem einzelnen Pixel einer herkömmlichen Kamera werden auf der x/y-Ebene sämtliche Intensitäten aller eintreffenden Lichtstrahlen miteinander addiert, was im Lichtfeld betrachtet im Prinzip (abgesehen von einem Vignettierungs-Faktor cos 4 9 und anderen Einflüssen) einer Integration über alle Strahlen der u/v-Ebene entspricht: E F (x r y) =— ^ JJ L F (x, y,ii, i?) cos 4 0du.it

Nach der Fig. 9 lässt sich bei bekanntem Lichtfeld auf der Aufnahmeebene das Lichtfeld einer virtuellen Fokusebene mit «=— berechnen durch:

F x Ii y v

L F '(x',y' r u. r v) = L F u + , v H—

Hieraus ergibt sich bei vereinfachter Betrachtung ohne Vignettierung und anderen Einflüssen für die Lichtintensität an der Position x'/y' auf der virtuellen Fokusebene:

*C«rt fr ', ) = ^i fl ^ («(l - + X -, v (l - + } -,u f vj dudv

Es sei angemerkt, dass für die praktische Berechnung der einzelnen virtuellen Fokusebenen das so genannte Fourier-Slice-Theorem Anwendung findet. Bei diesem macht man sich zu Nutze, dass die Fouriertransformierten der jeweiligen Fokusebenen bestimmten fest definierten Schnitten durch den 4-dimensionalen Fourierraum des 4D- Lichtfeldes entsprechen. Man erhält die virtuellen Fokusebenen, indem auf das Lichtfeld zunächst eine 4D-Fouriertransformation angewandt wird, danach eine Koordinaten-Transformation und abschließend für jeden 2D-Schnitt eine inverse Fourier- Transformation.

Diese Berechnung gestaltet sich allerdings relativ rechenintensiv.

Erfindungsgemäß wird die Lichtfeldkamera in dem Verfahren nach Ng zur Vermessung dreidimensionaler Strukturen auf dem Dentalbereich angewendet, wobei aufgrund des Lichtfeldes und damit möglicher Refokussierung entsprechende Tiefeninformationen gewonnen werden, wie dies bereits zuvor und insbesondere im Zusammenhang mit den Fig. 6 bis 8 erläutert worden ist.

Der Fig. 10 ist ein Ausführungsbeispiel rein prinzipiell zu entnehmen, das bei einem Intraoral-Scanner zum Einsatz gelangen kann, indem eine Lichtfelderfassung durch ein Mikrolinsenarray erfolgt. Dabei werden entsprechend der Darstellung der Fig. 5 für gleiche Elemente gleiche Bezugszeichen verwendet.

Folglich wird mittels des Muster-Projektors 1 ein statisches oder variierendes, einfaches Muster auf das dentale Objekt 5 projiziert. Das dabei vom dentalen Objekt rückprojizierte Muster gelangt z. B. über einen Umlenk-Spiegel 4, möglicherweise Polarisations-/Farb- oder andere Filter, das Linsensystem 3 und ggf. den Strahlteiler 2 in eine Lichtfeldkamera, bestehend aus einem Linsensystem 7< zur Fokussierung, dem Fotosensor 8 zur Bilderfassung und einem Mikrolinsen-Array 6' zur Erfassung der benötigten Lichtfeld- Information, wie zuvor ausführlich erläutert worden ist.

Die Verwendung eines einfachen Musters hat zur Folge:

1. Die Sicherstellung einer deutlichen Textur zum optimalen Auffinden der Fokusebene und damit der Tiefeninformation

2. Eine geringere flächige (x/y-) Auflösung mit verbundener Steigerung der räumlichen (z-) Auflösung

3. Die vereinfachte und damit deutlich schnellere Analyse durch Berechnung nur einzelner, deutlicher Abschnitte anstatt des gesamten Bildes mitsamt allen Fokus-Ebenen.

Zur Musterprojektion kann z. B. ein Array aus Laserpunkten oder ein Lasergitter verwendet werden, wie es mit entsprechend vorgeschalteter Optik Stand der Technik ist. Auch andere herkömmliche Musterprojektoren mit LEDs oder anderen Lichtquellen, die ein Muster auf einer Ebene scharf projizieren und auf anderen Ebenen rasch unscharf werden, sind entsprechend denkbar.

Besteht das Muster vorzugsweise aus Bildpunkten kreisförmiger Geometrie, so können andere Geometrien gleichfalls zum Einsatz gelangen. Insbesondere besteht die Möglichkeit, Muster bestehend aus Lichtstrichen oder -kreuzen auf das dentale Objekt abzubilden. Neben der Projektion eines statischen Musters ist auch ein sich dynamisch veränderndes Projektionsmuster denkbar, durch das auch bei unbewegtem Scanner-Kopf Tiefen- Informationen von weiteren Zwischen-Punkten gewonnen werden. Es sollten vorzugsweise Lücken zwischen den projizierten Musterpunkten vorhanden sein, damit eine einfache Verarbeitbarkeit möglich wird, um folglich den Informationsgehalt zu vereinfachen.

Unter sich verändernden oder variierenden Mustern versteht man ganz allgemein, dass nicht konstant das gleiche Muster, sondern wechselnde Muster projiziert werden. Dies kann mittels eines Mustergenerators erreicht werden, mittels dessen die Muster nicht stets an die gleichen x/y-Koordinaten projiziert werden. Vielmehr werden die Positionen variiert, um auch beim Grobmuster Informationen über Zwischenbereiche zu erhalten.

Vorzugsweise sollte ein monochromer Mustergenerator zum Einsatz gelangen. Dieser hat den Vorteil, dass der Intraoralscanner durch Färb- und ggf. Polarisationsfilter unempfindlicher gegenüber Streulicht und anderen Störquellen gemacht werden kann, indem das rückprojizierte Muster eindeutiger schon physikalisch herausgefiltert werden kann.

Die Verwendung mehrerer, verschiedenfarbiger Muster ist gleichfalls möglich. Hierdurch ergibt sich der Vorteil, gleichzeitig mehrere Muster getrennt auszuwerten, um so die Punktdichte des projizierten Musters weiter zu erhöhen. Dies führt zu einer deutlich gesteigerten Anzahl an Messpunkten und damit dichteren 3D-Punktewolke. Voraussetzung hierfür ist ein Farbsensor als Sensor 8. Zur größeren Fehlertoleranz könnten die mehrfachen Muster ggf. auch unterschiedlich fokussiert sein. Ein multichromatisches Muster durch z. B. eine breitbandige Lichtquelle könnte zudem eine zusätzliche Auswertung der Farbinformation des gescannten Objektes ermöglichen.

Auch ist es ggfs. sinnvoll, das Muster nicht senkrecht auf das dentale Objekt einzustrahlen, sondern unter einem gewissen, leicht gekippten Winkel. Dies erhöht die Auflösung der Tiefeninformation, da neben des je nach Fokusebene unterschiedlichen u/v-Ebenen-Lichtfeldes zusätzlich eine je nach Fokusebene unterschiedliche x/y- Translation vorhanden ist. Je nach Auflösung des Sensors und Größe der verwendeten Mikrolinsen - die damit die x/y- Auflösung verringern bzw. die u/v- Auflösung erhöhen-, ergibt sich hieraus ein Auflösungs- Vorteil für die resultierende Punktwolke.

Die Kippung sollte jedoch derart begrenzt sein, dass eine Abschattung in Bereichen wie Zahnzwischenräumen unterbleibt.

Zu dem Haupt- Linsensystem 7, V vorgeordneten Mikrolinsenarray 6 bzw. nachgeordnetem Mikrolinsenarray 6' und dem Sensor 8 ist Folgendes ergänzend anzumerken. Grundsätzlich ist als Sensor 8 jeder flächige Sensor mit seinen in der normalen Fotografie anfallenden Vor- und Nachteilen geeignet. Bei einer einfachen Musterprojektion kann ein Graustufen-Sensor verwendet werden, da dieser im Vergleich zu einem Farbsensor höher auflösend und preiswerter ist. Wird ein Muster verschiedener Wellenlängen benutzt, gelangt ein Farbsensor zum Einsatz. Zu bevorzugen ist ein Foveon CMOS-Sensor, der übereinander liegende Farbsensorschichten besitzt und im Farbfall eine höhere Auflösung als ein CCD- Farbsensor mit nebeneinander liegenden Farbpixeln besitzt.

Von der Auflösung her gilt der Grundsatz, dass je höher die Auflösung ist, umso größer ist die prinzipielle Auflösung der Tiefeninformation, wobei auch die Anzahl der Mikrolinsen zu berücksichtigen ist. Bevorzugt sollte ein möglichst hoch auflösender Sensor 8 zum Einsatz gelangen. Bezüglich des Linsenarrays 6, 6' ist Folgendes anzumerken. Je mehr Pixel des Sensors 8 unter eine Linse des Linsenarrays 6, 6' liegen, also einer Linse zugeordnet sind und somit ein Superpixel bilden, umso größer ist die Auflösung der Tiefeninformation. Es gilt somit, dass je größer eine Mikrolinse ist, umso mehr Tiefeninformationen gewinnt man. Allerdings ist die Anzahl der Mikrolinsen bei vorgegebener Größe des Sensors, also deren Pixelanzahl im Vergleich zu einem Mikrolinsenarray mit kleiner flächiger Erstreckung jeder Linse geringer. Bei einer geringen Anzahl von Mikrolinsen verliert man jedoch die spatiale (geometrische) x/y-Auflösung. Dies kann dadurch ausgeglichen werden, dass das projizierte Muster gröber gewählt wird. Der Sensor 8 sollte daher möglichst hoch auflösend sein. Bevorzugt ist jedoch, dass jede Mikrolinse möglichst viele Sensorelemente abdeckt, die ein Superpixel darstellen, da größere Linsen wiederum durch einen größeren Musterabstand korrigiert werden können.

Zur Bestimmung der virtuellen Fokusebene und damit des z-Abstandes - die x/y- Koordinate wird durch die Koordinaten des Teilbildes auf dem Fotosensor 8 ermittelt - kann das zuvor erläuterte Fourier-Slice-Theorem zur Anwendung gelangen. Es besteht jedoch auch die Möglichkeit, durch ein vereinfachtes Muster schneller notwendige Tiefeninformationen bzw. eine 3D-Punktwolke zu erhalten. Dabei ist von folgendem Ansatz auszugehen.

Je nachdem, ob ein Punkt fokussiert wurde, werden die von diesem Punkt ausgehenden Strahlen auf einen Punkt der x/y-Ebene fokussiert oder aber auf mehrere Pixel des Sensors wie CCD-Sensor verteilt. Demnach stellt bei einem einfachen Muster für einen gegebenen Bildpunkt (x, y) diejenige virtuelle Ebene mit der größten Lichtintensität die gesuchte Fokusebene dar, sofern keine Einflüsse aus anderen Quellen vorliegen.

Nach den Erläuterungen im Zusammenhang mit der Fig. 9 wird für jeden Musterpunkt (x, y) derjenige Abstand aF gesucht, für den E< KF ) (x, y) maximal wird:

= aremax— -— - | ί L F dtidv

Hieraus ist unter Berücksichtigung der Ausführungen im Zusammenhang mit den Fig. 6 bis 8 die gesuchte Tiefeninformation g (x, y) direkt bestimmbar durch

wird eine Hough-Transformation

bevorzugt. Hierzu wird zunächst ein diskreter dreidimensionalen Hough-Raum über den Parametern x, y und α aufgespannt und mit jeweils 0 initialisiert. Anschließend wird über alle denkbaren Parameter- Kombinationen (x,y,u,v,a) iteriert, wobei der Hough- Raum an der Stelle (x,y,a) jeweils um den gemessenen Wert

Fokus-Punkte können dadurch

detektiert werden, dass lokale Maxima (x, y, a); in dem so gewonnenen Hough- Akkumulator bestimmt werden. Aus diesen lokalen Maxima lassen sich sodann in direkter Weise zugehörige Punkte (x MF ,y WJ z w ) i im D- Raum bestimmen, wobei zunächst z wi = ττ~^~ berechnet und anschließend 6v w ,y w> z*-); mittels der bekannten

aF—f

Lochkamera-Rückprojektion vom Bildpunkt(x, jp)in der Entfernung z wi bestimmt wird.

Die notwendige Iteration über alle denkbaren Kombination von fünf Parametern erscheint zunächst sehr aufwändig und rechenintensiv. Die möglichen u, v- Kombinationen bei der beschriebenen Lichtfeld- Kamera stellen jedoch lediglich Unterbilder auf dem Gesamt-Sensor-Bild dar. Somit stellt die Iteration über alle denkbaren Parameter (x, y, u, v) lediglich eine Iteration über alle Pixel des Sensors dar mit entsprechender Indexierung auf (x, y, u, v). Auch für α kommen nur wenige diskrete Werte in Frage.

Da auch andere Hough-Transformationen mit Iterationen über alle Sensorelemente z. B. zum Auffinden von Linien und Kreisen beinahe in Echtzeit ablaufen, ist eine Online- Berechnung der entsprechenden 3D-Punktewolke aus den Fokuspunkten des beschriebenen Hough-Raumes möglich.

Denkbar ist zudem, dass sich bei entsprechender Kalibration bestimmte lokale Bildmuster direkt 3D-Objekt-Koordinaten zuordnen lassen.

Insgesamt können bei beiden Verfahren (Hough-Transformation oder direkte Zuordnung nach Kalibration) das Muster so einfach aufgebaut sein bzw. die einzelnen projizierten Musterpunkte einen solchen Mindestabstand haben, dass die lokalen Intensitäts-Maxima tatsächlich Fokuspunkte darstellen und sich nicht durch Überlagerung verschiedener Musterpunkte ergeben. Ein sicherer Abstand lässt sich aus der notwendigen Genauigkeit und Breite für α und der sich daraus ergebenden möglichen Minimaldistanz im Hough-Raum abschätzen. Die zuvor erläuterten Verfahren zur Ermittlung der virtuellen Fokusebenen und damit die Berechnung der Tiefeninformationen (z- Achse) unter Berücksichtigung des Fourier- Slice-Theorems von Ng bzw. bevorzugterweise des Hough-Raums gelten insbesondere dann, wenn das Mikrolinsen-Array der Hauptoptik nachgeordnet, also unmittelbar vor dem Sensor positioniert ist. Unabhängig hiervon ist die erfindungs gemäße Lehre insbesondere unter Anwendung der angepassten Hough-Transformation realisierbar, die eigenerfinderisch ist.

In herkömmlichen Kameras können Objektpunkte scharf abgebildet, d. h. fokussiert werden, indem der Abstand zwischen Sensorebene und Objektiv angepasst wird. Ein Gegenstand wird nach der Gaußschen Linsenformel für dünne Linsen genau dann scharf abgebildet, wenn Gegenstandsweite g (Abstand Gegenstand zu Blende) und Bildweite b (Abstand Sensorebene zu Blende) der folgenden Gleichung entsprechen:

- + - = - , wobei f der Brennweite der Linse entspricht.

S i> f

Sofern Objektpunkte exakt fokussiert sind, d. h. scharf abgebildet werden, lässt sich

£P f

damit der Objektabstand g bestimmen mittels g= -ς^. Dieses Prinzip wird z. B. bei der

Erfassung kleinster Strukturen wie z. B. Papierfasern angewandt, die mittels eines exakt fokussierbaren Lichtmikroskops nanometergenau vermessen werden können, indem für jede Struktur genau deren schärfster Punkt angefahren wird.

Bei einer herkömmlichen Kamera kann bei bekanntem Projektionszentrum - dieses kann durch eine Kamera-Kalibration ermittelt werden - für jeden Bildpunkt nach dem Lochkamera-Modell zwar ermittelt werden, aus welcher Richtung der Hauptstrahl eintraf (Fig. 1, 2). Sämtliche aus verschiedenen Richtungen auf das Sensorelement eintreffenden Lichtstrahlen können jedoch nicht unterschieden werden, sondern werden in ihrer Lichtintensität einfach addiert. Das Lichtfeld kann daher aufgrund der nicht bestimmbaren u/v-Ebene nicht näher spezifiziert werden.

Insbesondere, wenn Punkte nicht fokussiert wurden,„verschwimmen" die Bildpunkte mit deren Nachbarpunkten und werden unscharf dargestellt. D.h. die von einem einzelnen Objektpunkt ausgesandten und auf der (gedachten) u/v-Ebene eintreffenden Lichtstrahlen werden gleich auf mehrere Punkte der x/y-Ebene projiziert.

Zwar lassen sich bei vereinzelten Objektpunkten mit wenig umgebenden Störfaktoren auch aus dem sich ergebenden Unscharf-Bildverlauf Rückschlüsse auf den Objekt- Abstand gewinnen (vgl. z. B. „Depth from Defocus" in C. Wöhler, 3D Computer Vision, Heidelberg: Springer, 2009, Seiten 162 ff). Dies ist aber zum einen relativ ungenau und setzt im Allgemeinen gut separierbare einzelne Punkte voraus.

Der Verfahrensablauf, der beim intraoralen Scannen unter Verwendung des plenoptischen Prinzips durchgeführt wird, wird rein prinzipiell noch einmal anhand der Fig. 11 erläutert.

Im Verfahrensschritt a) wird ein Muster auf ein dentales Bild projiziert. Beispiele von entsprechenden Mustern, bei denen es sich um Punkte, um Geraden oder Kreuze handelt, sind beispielhaft dargestellt.

An das Muster sollte die Anforderung gestellt werden, dass es einfach ist, um eine schnelle und einfache Detektion und Auswertung zu ermöglichen.

Ferner sollte das projizierte Muster auf den Messbereich scharf eingestellt werden bzw. das Muster innerhalb eines gewissen Bereichs scharf abgebildet sein und nicht ineinander übergehende Verläufe aufweisen. Mit anderen Worten sind hochfrequente Teile innerhalb einer Fourier- Analyse des projizierten Musters, die z. B. scharfen Kanten und Linien entsprechen, von Vorteil, da Unschärfe wie ein Tiefpassfilter wirkt, d. h. vorrangig hochfrequente Anteile beeinflusst. Je schärfer die Details sind, umso präziser lässt sich die Fokusebene bestimmen. Ferner sollte die definierte Fokusebene des auf das dentale Objekt projizierten Musters im mittleren Abtastbereich mit rascher Defokussierung jenseits des Schärfebereichs liegen.

Als Lichtquelle zur Erzeugung des Musters kann eine feine Lochmaske benutzt werden, die von der Strahlung der Lichtquelle durchsetzt wird. Der Lochmaske ist sodann eine Linse nachgeordnet, mittels der fokussiert wird. Es besteht auch die Möglichkeit, ein von Laserstrahlung erzeugtes Muster zu benutzen. Das Lasermuster kann z. B. aus Punkten oder Kreuzen mit begrenztem Schärfebereich bestehen.

Im Verfahrensschritt b) wird das auf das dentale Objekt projizierte Muster vom dentalen Objekt zurückprojiziert. Je nach Abstand von der vorgegebenen Fokusebene wird das Muster unscharf auf den Sensor abgebildet, d. h., die Lichtintensität des Musters „verschmiert" über mehrere Pixel. Fällt die das Muster bildende Strahlung geneigt auf das Objekt, wird das zurückprojizierte Muster zudem verzerrt.

Es können Polarisations-, Färb- oder andere Filter dem Objekt vorgeordnet werden, um z. B. Störstrahlung zu minimieren.

Die projizierte Strahlung wird im Verfahrens schritt c) durch ein oder mehrere Linsensysteme gebündelt. Anstelle der Integration der Lichtintensität wird jeder Bildpunkt durch die Linsen des Mikrolinsenarrays 6', nochmals gebrochen, und trifft je nach Einfallswinkel auf unterschiedliche Sensorelemente. Neben der Position dieser als Superpixel zu bezeichnenden unterschiedlichen Sensorelemente kann die Richtung der Lichtstrahlen bestimmt werden. Das vorgeschaltete Mikrolinsenarray ermöglicht die lichtfeld/plenoptische Analyse mit nachträglicher berechenbarer virtuellen Fokusänderung. Superpixel bedeutet folglich, dass mehrere Pixel des Sensors in Abhängigkeit von der flächigen Erstreckung der jeweiligen Linse zusammengefasst sind. In der x/y-Richtung, d. h. der spatialen Auflösung, liegt die Auflösung vor, die durch die Anzahl an Mikrolinsen vorgegeben ist.

Im Verfahrens schritt d) werden sodann virtuelle Fokusebenen berechnet. Je nach Entfernung der rückprojizierten Objektpunkte ergibt sich ein unterschiedliches Muster auf der Sensorebene. Dieses hängt bei senkrechter Strahlung hauptsächlich vom Grad der Fokussierung ab, daneben auch vom Winkel der Projektion. Aufgrund der Lichtfeldtechnik lassen sich aus diesen Informationen durch bekannte Verfahren virtuelle Fokusebenen errechnen. Dabei wird bevorzugterweise eine erfindungs gemäß adaptierte Hough-Transformation verwendet.

Sodann werden im Verfahrensschritt e) 3D-Einzelpunkte ermittelt. Die axiale Position, also z-Koordinate, lässt sich durch virtuelle Fokusebenen eingrenzen. Durch die x-y- Koordinate wird sodann die Position der Pixel berechnet, in der das Teilbild scharf abgebildet ist, also in der virtuellen Fokusebene.

Die Genauigkeit der z-Koordinate, also der Entfernungsmessung hängt vorrangig von der Anzahl der Sensorelemente und die der Mikrolinsen ab, wird aber auch - insbesondere bei geneigter Projektion des Musters auf das Objekt - von der lateralen „SuperpixeP'-Position (Mikrolinse) bestimmt.

Eine Interpolation auf Subpixel-Ebene kann die Genauigkeit steigern.

Unabhängig hiervon ist insbesondere vorgesehen, dass der Abstand zwischen den einzelnen Elementen des Musters, also den projizierten Punkten, die jedoch nicht die Geometrie eines Punktes aufweisen müssen, sondern z. B. kreuzförmig oder linienförmig sein können, bevorzugterweise so zu wählen ist, dass im zu erfassenden Abtastbereich jeweils überlappungsfreie Projektionen erfolgen.

Schließlich wird im Verfahrens schritt f) beim Scannen durch Registrierung bzw. Matchen die 3D-Form des zu messenden Abschnitts des Objektes wie dentalen Bereichs erfasst.

Aufgrund der erfindungsgemäßen Lehre werden im Vergleich zu bekannten Verfahren weniger komplexe Linsensysteme benötigt. Somit kann ein kostengünstiges und relativ leichtes Handgerät zur Verfügung gestellt werden, das als Intraoralscanner Verwendung findet. Die feinmechanische Ausrichtung zwischen den projizierten Mustern und dem Mikrolinsenarray kann problemlos erfolgen. Der Einsatz eines monochromatischen Lasers oder anderer einfacher Musterprojektionen ermöglicht es, diese in den Oralscanner zu integrieren, ohne dass es der nach dem Stand der Technik erforderlichen Lichtleiterkabel bedarf. Der Intraoralscanner kann sogar dann kabellos arbeiten, wenn die Daten durch Fernzugriff wie WLAN oder BLUETOOTH erfasst werden.

Dabei zeigt die monochromatische Lichtquelle erhebliche Vorteile sowohl hinsichtlich der Kosten als auch der Handhabbarkeit im Vergleich zu solchen, die nach dem Stand der Technik bei Intraoralscannern zum Einsatz gelangen können, wie Xenon- Lichtquellen.