Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
STEREO CAMERA SYSTEM
Document Type and Number:
WIPO Patent Application WO/2020/254445
Kind Code:
A1
Abstract:
The present invention relates to a stereo camera system for measuring three-dimensional surface topologies. In this way, depth information of objects, which move along on a conveying device in front of a stereo camera system, can be detected. The stereo camera system can be a component of a production monitoring device.

Inventors:
ECKHARD TIMO (DE)
SCHNITZLEIN MARKUS (DE)
KLAMMER MAXIMILIAN (DE)
Application Number:
PCT/EP2020/066826
Publication Date:
December 24, 2020
Filing Date:
June 17, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
CHROMASENS GMBH (DE)
International Classes:
H04N13/218; H04N5/369; H04N13/239
Domestic Patent References:
WO2014017977A12014-01-30
WO2014017977A12014-01-30
WO2002040970A12002-05-23
Foreign References:
US6795575B12004-09-21
US6671397B12003-12-30
DE102015111120A12017-01-12
US7724362B12010-05-25
DE102013103897A12013-10-31
Other References:
GODBER S X ET AL: "LINE-SCAN SENSOR: AN ALTERNATIVE SENSOR MODALITY FOR THE EXTRACTION OF THREE-DIMENSIONAL COORDINATE INFORMATION", OPTICAL ENGINEERING, SOC. OF PHOTO-OPTICAL INSTRUMENTATION ENGINEERS, BELLINGHAM, vol. 34, no. 10, 1 October 1995 (1995-10-01), pages 3044 - 3053, XP000534328, ISSN: 0091-3286, DOI: 10.1117/12.210746
AJAY K. PRASADKIRK JENSEN: "Scheimpflug stereocamera for particle image velocimetry in liquid flows", APPLIED OPTICS, vol. 34, 1995, pages 30
Attorney, Agent or Firm:
GANAHL, Bernhard (DE)
Download PDF:
Claims:

1. Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien ei nes Objektes mit

zumindest zwei zellenförmigen Sensorbereichen und

zumindest einem Objektiv zum Abbilden des Objektes auf die Sensorbereiche,

wobei die Sensorbereiche und das oder die Objektive derart angeordnet sind,

dass ein Objektbereich mit zwei unabhängigen Strahlengängen jeweils gleichzeitig auf einem der Sensorbereiche abgebildet wird,

dadurch gekennzeichnet,

dass entlang zumindest einem der Strahlengänge die Scheimpflug-Bedingung erfüllt ist.

2. Stereokamerasystem nach Anspruch 1,

dadurch gekennzeichnet,

dass entlang aller Strahlengänge die Scheimpflug-Bedingung erfüllt ist.

3. Stereokamerasystem nach Anspruch 1 oder 2,

dadurch gekennzeichnet,

dass ein oder mehrere der Strahlengänge mit zumindest einem Spiegel gelenkt werden.

4. Stereokamerasystem nach einem der Ansprüche 1 bis 3,

dadurch gekennzeichnet,

dass die Strahlengänge auf jeweils einen separaten Teil eines einzigen Sensors projiziert werden,

welcher in die Anzahl der Strahlengänge unterteilt ist.

5. Stereokamerasystem nach einem der Ansprüche 1 bis 3,

dadurch gekennzeichnet,

dass die Strahlengänge auf jeweils einen separaten Sensor projiziert werden und dass zumindest ein Spiegel je Strahlengang vorgesehen ist und der Strahlengang je Strah lengang in Scheimpflug-Anordnung konfiguriert ist.

6. Stereokamerasystem nach einem der Ansprüche 1 bis 3,

dadurch gekennzeichnet,

dass die Strahlengänge auf jeweils einen separaten Sensor projiziert werden und

dass zwei Spiegel je Strahlengang vorgesehen sind und der Strahlengang je Strahlengang in

Scheimpflug-Anordnung konfiguriert ist.

7. Stereokamerasystem nach einem der Ansprüche 1 bis 6,

dadurch gekennzeichnet,

dass die zellenförmigen Sensorbereiche nebeneinander auf einer Linie angeordnet sind, die jeweils durch einen Zeilensensor dargestellt werden.

8. Stereokamerasystem nach einem der Ansprüche 1 bis 5,

dadurch gekennzeichnet,

dass die zellenförmigen Sensorbereiche parallel nebeneinander angeordnet sind.

9. Stereokamerasystem nach Anspruch 8,

dadurch gekennzeichnet,

dass die zellenförmigen Sensorbereiche Bildpunkt-Zeilen eines Flächensensors sind.

10. Stereokamerasystem nach einem der Ansprüche 1 bis 9,

dadurch gekennzeichnet,

dass in allen Strahlengängen ein gemeinsames Objektiv angeordnet ist.

11. Stereokamerasystem nach einem der Ansprüche 1 bis 10,

dadurch gekennzeichnet,

dass in zumindest einem der Strahlengänge ein Glaselement angeordnet ist.

12. Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien ei nes Objektes, insbesondere nach einem der Ansprüche 1 bis 11, mit

- zumindest einem Farbsensor, wobei der Farbsensor mehrere Bildpunkte aufweist, die auf unterschiedliche Farben empfindlich sind,

- zumindest einem hyperchromatischen Objektiv zum Abbilden des Objektes auf den Sensor, dadurch gekennzeichnet,

dass der Farbsensor zum Objektiv derart angeordnet ist, dass unterschiedliche Fokusebenen jeweils auf die Bildpunkte der gleichen Farbe abgebildet werden.

13. Stereokamerasystem nach Anspruch 12,

dadurch gekennzeichnet,

dass Farbkanäle des Farbsensors separat ausgewertet werden.

14. Stereokamerasystem zur Messung von dreidimensionalen Oberflächentopologien ei nes Objektes mit

- zumindest zwei Flächensensoren,

wobei die Flächensensoren derart ausgebildet sind, dass sie mehrere parallele nebeneinan der angeordnete Bildpunkt-Zeilen aufweisen,

- zumindest zwei Objektiven zum Abbilden des Objektes auf jeweils einem der Flächensenso ren,

dadurch gekennzeichnet,

dass ein Objektbereich mit zwei unabhängigen Strahlengängen jeweils gleichzeitig auf einem der Sensoren abgebildet wird,

dass ein zellenförmiger Objektbereich auf die Bildpunktzeilen eines Flächensensors abgebil det wird,

wobei in der Zeilen-Ebene der Strahlengänge, die den zellenförmigen Objektbereich schnei det, die Scheimpflug-Bedingung insbesondere nach einem der Ansprüche 1 bis 11 erfüllt ist, und

dass der Flächensensor um eine Achse derart gekippt ist, dass die Fläche nicht parallel zu einem abzutastenden Objektbereich ist, so dass die einzelnen Zeilen des Flächensensors un terschiedliche Ebenen des zellenförmigen Objektbereiches abbilden.

15. Stereokamerasystem nach Anspruch 14,

dadurch gekennzeichnet,

dass die Sensoren Farbsensoren und das Objektiv ein hyperchromatischem Objektiv nach Anspruch 11 oder 12 sind.

16. Stereokamerasystem nach einem der Ansprüche 1 bis 15,

dadurch gekennzeichnet, dass die aufgenommenen Daten In-Iine registriert werden, um die Rektifizierung nach zu korrigieren.

17. Stereokamerasystem nach einem der Ansprüche 1 bis 16,

dadurch gekennzeichnet,

dass die Bildpunkt-Zeilen von Sensoren sich derart synchronisieren,

so dass sie zeilensynchron aufnehmen und einen gleichzeitigen Bildstart haben.

18. Oberflächentopologie-Erfassungseinrichtung mit zumindest

- einem Stereokamerasystem nach einem der Ansprüche 1 bis 17 zur Messung von dreidi mensionalen Oberflächentopologien eines Messobjektes,

- einer Transporteinrichtung zum Transport des Messobjektes,

- einer Synchronisierungseinrichtung, um die Geschwindigkeit des Transportes mit den Mes sungen der dreidimensionalen Oberflächentopologie zu synchronisieren, und

- einer Auswerteeinrichtung, um die Messungen der dreidimensionalen Oberflächentopologie auszuwerten.

Description:
Stereokamerasvstem

Die vorliegende Erfindung betrifft ein Stereokamerasystem zur Messung von dreidimensiona len Oberflächentopologien. Hiermit können Tiefeninformationen von Objekten, die sich auf einer Fördereinrichtung vor dem Stereokamerasystem entlang bewegen, erfasst werden. Das Stereokamerasystem kann Bestandteil einer Produktionsüberwachungsvorrichtung sein.

Produktionsüberwachungsvorrichtungen mit einer Fördereinrichtung und einer Kamera, um die auf der Fördereinrichtung beförderten Produkte optisch abzutasten, sind bekannt und werden beispielsweise in Paketsortieranlagen oder Produktionsanlagen verwendet.

Üblicherweise wird über eine Messeinrichtung, wie z. B. einem Lichtvorhang, die Höhe des abzutastenden Produktes bzw. Objektes ermittelt. Die Kamera weist ein verstellbares Objek tiv auf, das auf eine vorher erfasste Höhe eines abzutastenden Objektes eingestellt wird, um deren Oberfläche korrekt abzutasten. Die Kamera kann ein Zoomobjektiv aufweisen, dessen Brennweite veränderlich ist, sodass es zum Abtasten unterschiedlich hoher Objekte entspre chend eingestellt werden kann. Es ist auch möglich, ein Objektiv mit einer festen Brennweite zu verwenden, deren Fokus nachgeführt wird, sodass unterschiedliche Höhen scharf auf dem Sensor abgebildet werden.

Bei Zoomobjektiven werden mehrere Linsen relativ zueinander verschoben. Das Zoomobjek tiv weist eine bewegliche Mechanik innerhalb des Objektivs auf, das mehrere Linsen zuei nander verschiebt. Mit einem Zoomobjektiv kann der Maßstab über den Verstellweg konstant gehalten werden.

Wird ein Objektiv mit fester Brennweite verwendet, so ist das gesamte Objektiv längs zur optischen Achse zu verschieben, sodass der Schärfebereich auf der gewünschten Höhe liegt. Der Abbildungsmaßstab erhöht sich bei Verringerung der optischen Länge. Sowohl bei einem Zoomobjektiv als auch bei einem Objektiv mit fester Brennweite gibt es mechanische Teile, die bewegt werden müssen. Diese Bewegungen unterliegen einem Ver schleiß. Bei industriellen Anwendungen werden Benutzungszyklen von mehreren Millionen gefordert. Diese übersteigen normalerweise die Lebensdauer dieser beweglichen Teile bei weitem.

Sollen in der Produktüberwachungsvorrichtung neben den optischen auch Höheninformatio nen ausgewertet werden, so haben sich verschiedene Methoden etabliert.

Eine Möglichkeit bietet das sogenannte Lichtschnittverfahren. Dabei wird ein dünner gerader Lichtstreifen auf das zu vermessende Objekt geworfen und eine Flächenkamera nimmt die sen Lichtstreifen dann auf. Anhand der Verzerrung, die das Objekt auf dem Lichtstreifen er zeugt, kann die Oberfläche des Objektes zurückberechnet werden.

Eine weitere Möglichkeit bietet die Stereoskopie. Ein Kamerasystem nimmt dabei das Objekt aus zwei verschiedenen Blickrichtungen auf und kann aufgrund des Versatzes korrespondie render Bildpunkte die topologischen Oberflächeninformationen des Objektes bestimmen. Nachteilig an diesem Verfahren ist jedoch die Beschränkung auf eine Fokusebene.

Solche Stereokamerasysteme weisen zwei Kameramodule auf, mit welchen aus zwei unter schiedlichen Blickrichtungen derselbe Objektbereich abgetastet werden kann. Die Kame ramodule sind mit einem Objektiv versehen, um den Objektbereich auf einem Sensor des jeweiligen Kameramoduls abzubilden. Eine optische Achse des Objektivs ist eine Symmetrie achse des Objektivs, welche etwa quer zu den Oberflächen einer oder mehrerer im Objektiv enthaltener Linsen verläuft. Als Objektivebene gilt die objektseitige Hauptebene des Objek tivs. Eine Sensorebene ist die Ebene, in welcher die lichtempfindliche Sensorfläche liegt. Eine Objektebene ist die Ebene, die scharf vom Objektiv auf die Sensorfläche abgebildet wird.

Bei herkömmlichen Stereokamerasystemen sind meistens die Objektivebene, die Objektebe ne und die Sensorebene zueinander parallel angeordnet. Die parallele Ausrichtung der Ob jektebene zur Objektivebene sowie zur Sensorebene wird im Folgenden als Parallelitäts- Anordnung bezeichnet.

Entscheidend für die Auflösung einer dreidimensionalen Oberflächentopologie mit einem Ste reokamerasystem ist ein Basis-Winkel a, welcher der Winkel ist, der von den Blickrichtungen der beiden Kameramodule des Stereokamerasystems auf den Objektbereich aufgespannt wird. Der Basis-Winkel a wird im Wesentlichen durch die Größe einer Basis B, welche der Abstand zwischen den beiden Sensorflächen der beiden Kameramodule Sl, S2 ist, einge stellt. Dies bedeutet, je größer die Basis B ist, desto größer ist der Basis-Winkel a und dem entsprechend besser ist die Höhenauflösung des Stereokamerasystems (Fig. 8).

Im Folgenden wird, sofern nicht anders angegeben, von einem gleichbleibenden Abstand der Sensorebene SP (sensor plane), Objektivebene LP (lens plane) und Objektebene OP (object plane) zueinander ausgegangen, so dass allein die Basis B den Basis-Winkel a bestimmt.

Objektive weisen einen Öffnungswinkel y auf, welcher den maximalen Einfallswinkel des ein fallenden Lichts zur optischen Achse angibt, innerhalb dem ein Objekt im Wesentlichen ver zerrungsfrei abgebildet werden kann (Fig. 8). Je nach Ausführung des Objektivs kann der maximale Öffnungswinkel des Objektivs variieren. Im Folgenden wird als Strahlengang das Strahlenbündel durch das Objektiv bezeichnet, welcher alle Strahlen innerhalb des Öff nungswinkels umfasst und sich zwischen der Sensorfläche und dem Objekt erstrecken.

Bei einem Stereokamerasystem mit der oben erläuterten Parallelitäts-Anordnung kann die Basis jedoch nicht beliebig groß gewählt werden, da bei einer zu großen Basis sich die durch den Einfallswinkel begrenzten Abschnitte im Objektbereich nur noch geringfügig oder gar nicht überlappen und somit der scharf abbildbare Abschnitt des Objektbereichs klein oder gar nicht mehr vorhanden ist.

Nur ein Überlappbereich, also der Bereich des Objektes, der von beiden Sensoren zugleich erfasst wird, kann für eine Auswertung der dreidimensionalen Oberflächentopologie genutzt werden. Die Randbereiche dieses Überlappbereiches werden unter einem großen Öffnungs winkel des Objektivs y abgebildet. Die Verzeichnung ist somit in den Randbereichen des Überlappbereichs am größten. Des Weiteren wird die Abbildungsleistung, welche unter ande rem durch einen Farbfehler und eine Modulationsübertragungsfunktion (MTF) charakterisiert werden kann, im Randbereich des Überlappbereichs schlechter als im Zentrum der Über lappbereichs. Der Farbfehler beschreibt die Verlust der Farbabbildung. Die MTF beschreibt einen Detailkontrastverlust.

In„Scheimpflug Stereocamera for particle image velocimetry in liquid flows", Ajay K. Prasad und Kirk Jensen, APPLIED OPTICS 34, 30 (1995), wird eine Stereovideokamera mit Schei- mpflug-Bedingung und einem Flächensensor beschrieben. Das System wird genutzt, um die Geschwindigkeitsverteilung von kleinen Teilchen in Flüssigkeiten zu bestimmen.

Bei einer solchen Scheimpflug-Kamera wird die Parallelitäts-Anordnung aufgehoben, indem die Objektivebene LP gegenüber der Sensorebene gekippt wird, so dass eine große Basis möglich ist, ohne dass der Objektbereich durch den limitieren Einfallswinkel beschränkt wird. Bei einer Scheimpflug-Kamera ist die sogenannte Scheimpflug-Bedingung erfüllt, gemäß der sich die Objektivebene, die Sensorebene und die Objektebene in einer gemeinsamen Schnit tachse schneiden. Ein Scheimpflug-Winkel ß wird durch die Objektebene OP und die Sensor ebene SP aufgespannt (Fig. 9). Ist die Scheimpflug-Bedingung erfüllt wird der Objektbereich durch das Objektiv scharf auf den Sensor abgebildet. In der Literatur wird manchmal eine Schnittachse in unendlicher Entfernung zum Stereokamerasystem beschrieben. In diesem Sonderfall entspräche die Scheimpflug-Bedingung der Parallelitäts-Anordnung. Für die fol gende Betrachtung gilt jedoch, dass die Scheimpflug-Bedingung nicht erfüllt ist, wenn sich diese Ebenen bzw. Achsen im Unendlichen schneiden. Sie müssen sich somit in einem endli chen Punkt schneiden, damit die Scheimpflug-Bedingung erfüllt ist. Ein oder mehrere Spiegel können im Strahlengang vorgesehen sind, wodurch der Strahlengang gefaltet wird und die tatsächliche Objektivebene, die Sensorebene und die Objektebene sich nicht in einer ge meinsamen Schnittachse schneiden. Die Scheimpflugbedingung ist bei einer solchen Anord nung auch dann erfüllt, wenn bei einem entfalteten Strahlengang ohne die jeweiligen Spiegel aber mit einer gleichwirkenden Anordnung des jeweiligen Objektivs, Sensors und Objektes die Objektivebene, die Sensorebene und die Objektebene sich in einer gemeinsamen Schnit tachse schneiden.

Bei Stereokamerasystemen mit Scheimpflug-Bedingung hingegen kann ein breiterer Basis- Winkel gewählt werden als bei Stereokamerasystemen ohne Scheimpflug-Bedingung bei gleichbleibenden Objektiven und Bildqualität. Bei einer großen Basis kann durch die Schräg stellung der Objektive der Einfallswinkel verkleinert und damit optimiert werden. Somit sind auch Objektive mit einem kleinen Öffnungswinkel y geeignet. Bedingung ist durch den klei neren Öffnungswinkel die Bildqualität, insbesondere die MTF, über den Überlappungsbereich hinweg konstanter als bei Stereokamerasystemen ohne Scheimpflug-Bedingung. Eine lineare Verzeichnung entlang des Überlappungsbereiches hinweg wird in Kauf genommen, da dieser durch eine Rektifizierung korrigiert werden kann. Je größer die Basis gewählt wird, desto stärker müssen Sensorebene und Objektivebene bezogen auf die Objektebene verkippt wer den, um den Einfallswinkel zu verkleinern. Ein weiteres Problem bei Stereokamerasystemen ohne Scheimpflug-Bedingung ist die Rück- reflexion. Durch die parallele Anordnung bei einem schmalen Basis-Winkel bildet das Objek tiv nicht nur das Objekt auf dem Sensor, sondern auch den Sensor auf dem Objekt ab. Diese Abbildung des Objektivs kann durch Reflexion an einer sich spiegelnden Oberfläche des Ob jektes wieder zurück auf den Sensor abgebildet werden. Der Sensor nimmt somit sein eige nes Spiegelbild auf. Durch eine Verkippung, z.B. durch Scheimpflug, kann eine ein breiter Basis-Winkel gewählt werden, wodurch solche Rückreflexion vermieden wird. Auch wenn die Reflexion weiter bestehen bleibt, kann die Abbildung der Reflexion z.B. auch einen neutralen Hintergrund darstellen. Die Auswirkungen der Reflexion werden somit vermindert.

Weitere Messsysteme mit einer Stereokamera bei welchen die Scheimpflugbedingung erfüllt ist, gehen aus der WO 2014/017977 Al, der US 6,671,397 Bl und der WO 02/040 970 Al hervor.

Die WO 2014/017977 Al offenbart ein Verfahren und eine Vorrichtung zur Bestimmung der Koplanarität in integrierten Schaltungsgehäusen. Um Planarität zu bestimmen, werden zwei Sensoren mit jeweils zwei Strahlengängen derart angeordnet, dass sie dem Scheimpflug- Prinzip folgen.

In der WO 02/040 970 Al ist ein Messsystem mit einer Kamera mit einem Objektiv und ei nem separaten Sensor offenbart. Das Messsystem weist eine erste Kamera mit einem Objek tiv und einem separaten Sensor auf, die so montiert sind, dass sich ihre Ebenen nach dem Scheimpflug-Prinzip in einer Objektebene schneiden. Eine zweite Kamera ist senkrecht zur Objektebene angeordnet. Die Kamerasysteme sind Flächenkameras.

Aus der WO 02/040 970 Al geht ein optisches Verfahren und ein Gerät zur Inspektion von großflächigen planaren Objekten hervor. Hierbei nehmen in einem Ausführungsbeispiel zwei Flächenkameras einen Wafer auf, die unter Scheimpflug-Bedingung angeordnet sind.

Oben werden die Vorteile von Stereokamerasystemen mit Scheimpflug-Bedingung erläutert. Jedoch treten bei Stereokamerasystemen mit Scheimpflug-Bedingung Effekte auf, die bei der Verwendung von Flächensensoren die Qualität der Stereoskopie negativ beeinflussen. Dies geht auf den sogenannten Keystone-Effekt zurück, der die Verzerrung der projizierten Sen sorfläche beschreibt. Mit einem Flächensensor wird vom Objektbereich ein zweidimensionales Bild aufgenommen. Bei herkömmlichen Stereokamerasystemen ist eine Kante des Flächensensors parallel zur Basis angeordnet. Somit erstrecken sich auch die Flauptachsen des aufgenommenen zweidi mensionalen Bildes entweder parallel zur Basis und quer zur Basis. Die Richtung parallel zur Basis wird im Folgenden als Basisrichtung und die Richtung quer zur Basis wird im Folgenden als Querrichtung bezeichnet.

Bei der Abbildung des Objektbereichs durch ein Stereokamerasystemen findet eine Stau chung der Abbildung sowohl in Querrichtung als auch in Basisrichtung statt. Diese Stauchung wird dadurch verursacht, dass die einzelnen Punkte eines ebenflächigen Objektes unter schiedlich weit von der Sensorfläche beabstandet sind. Je weiter zwei Punkte von der Sen sorfläche entfernt sind, desto kleiner wird der Abstand der Punkte abgebildet. Die Stauchung wird stärker je größer die Basis ist. In Querrichtung tritt eine Querstauchung und in Basis richtung eine Basisstauchung auf.

Zum Beispiel wird ein quadratischer Objektbereich bei möglichst kleiner Basis und zentraler Anordnung der Kamerasysteme nahezu verzerrungsfrei abgebildet. Bei einer großen Basis bildet die Abbildung des Quadrates jedoch die Form eines Trapezes oder Schlüsselsteins (engl. Keystone). Der Abstand der weiter entfernt liegenden Ecken zueinander wird kleiner abgebildet als der Abstand der näher zum Objektiv liegenden Ecken zueinander.

Der Effekt tritt bei Stereokamerasystemen sowohl mit als auch ohne Scheimpflug-Bedingung auf. Bei denen ohne Scheimpflug-Bedingung ist durch die Beschränktheit der Basis dieser Effekt ebenfalls beschränkt. Da Stereokamerasysteme mit Scheimpflug-Bedingung eine be sonders große Basis aufweisen können, tritt hier der Effekt besonders stark hervor.

Der Keystone-Effekt sorgt für einen Verlust von Auflösungsvermögen. Das Auflösungsvermö gen ist der minimale Abstand, den zwei punktförmige Objekte haben müssen, damit sie als getrennte Objekte wahrgenommen werden können. Durch die Stauchung werden zwei Punk te, die weiter von der Sensorfläche entfernt sind, näher beieinander abgebildet. Diese Punkte können ab einer bestimmten Entfernung zum Objektiv nicht mehr als getrennt wahrgenom men werden. Das Auflösungsvermögen parallel zur Basis wird im Folgenden als Basis- Auflösungsvermögen und das Auflösungsvermögen quer zur Basis wird im Folgenden als Quer-Auflösungsvermögen bezeichnet. Des Weiteren erhöht der Keystone-Effekt den Rechenaufwand. Um die Abbildungen für eine Auswertung der dreidimensionalen Oberflächentopologie zu nutzen, müssen sowohl die Ba sis- als auch die Querstauchung durch Rektifizierung aus den Bilddaten heraus berechnet werden. Die Rektifizierung ist ein Verfahren zur Eliminierung von geometrischen Verzerrun gen in Bilddaten, die zum Beispiel durch zentral perspektivische Aufnahmen entstehen kön nen. Durch die Rektifizierung werden die einzelnen Bildpunkte derart verschoben, dass bei einer Überlagerung der Bildpunkte der beiden Sensoren die gleiche Position am Objekt dar gestellt wird. Des Weiteren wird die Verzeichnung korrigiert, damit die berechnete Disparität linear abhängig zum Höhenprofil des Objektes ist.

Bei der Stereoskopie wird jedem Punkt einer Abbildung eines Kameramoduls ein Punkt einer Abbildung des zweiten Kameramoduls zugeordnet. Ein rechteckiger Sensor erfasst bei einer Schrägstellung des Sensors gegenüber dem Objekt aufgrund des Keystone-Effekts ein Tra pez TI der Objektfläche (Fig. 10). Der andere Flächensensor erfasst ein zweites Trapez T2 der Objektfläche. Bei der Zuordnung der Punkte überlappen sich diese Trapeze, wobei je weils die lange Stirnseite mit der kurzen Stirnseite des anderen Trapezes zusammenfällt. Hierdurch ergibt sich ein sechseckförmiger Überlappungsbereich (schraffiert in Fig. 10).

Hierbei ist nachteilig, dass ein Teil der erfassten Information aus den nicht überlappenden Bereichen verloren geht. Nur der Überlappungsbereich kann zur Auswertung der dreidimen sionalen Oberflächentopologie genutzt werden.

Des Weiteren muss der Öffnungswinkel des Objektivs so groß sein, dass der Überlappungs bereich vollständig erfasst wird. Dies ist gegeben, wenn eine Diagonale D des sechseckför migen Überlappungsbereichs vom Objektiv erfasst wird.

Aus der DE 10 2015 11 11 20 Al geht ein Verfahren zum Abtasten von Oberflächen mit einer Stereokamera mit zumindest zwei Kameramodulen hervor. Die Kameramodule sind derart angeordnet, dass sie von einem gemeinsamen Bereich einer abzutastenden Oberfläche je weils ein Bild erfassen. Die Kameramodule können eine Zeilenkamera mit mehreren unter schiedlichen Sensorzeilen aufweisen. Mit einer jeden Sensorzeile wird ein separates Zeilen bild erfasst. Die einzelnen Zeilenbilder werden mittels einer geometrischen Abbildung überla gert. Stereokamerasysteme mit Zeilensensoren und Parallelitäts-Anordnung weisen die gleiche Problematik auf wie Stereokamerasysteme mit Flächensensoren und Parallelitäts-Anordnung. Wie oben beschrieben, kann die Basis nicht beliebig groß gewählt werden, da bei einer zu großen Basis sich die durch den Einfallswinkel begrenzten Abschnitte im Objektbereich nur noch geringfügig oder gar nicht überlappen und somit der scharf abbildbare Abschnitt des Objektbereichs klein oder gar nicht mehr vorhanden ist.

Prinzipiell sind Stereokamerasysteme denkbar, die weder die Scheimpflug-Bedingung noch die Parallelitäts-Anordnung erfüllen. So könnte nur die Objektebene OP und die Sensorebene SP parallel zueinander sein, während die Objektivebene LP derart zu den anderen beiden Ebenen verkippt ist, dass der Objektbereich nicht durch den limitieren Einfallswinkel be schränkt wird. Eine Abbildungsebene, welche der Ebene entspricht, auf der das Objektiv die Objektebenen scharf abbildet, ist schräg zur Objektebene oder Objektachse angeordnet. Nur im Schnittbereich der Abbildungsebene und der Sensorebene wird der Objektbereich scharf auf dem Kamerasensor abgebildet (Fig. 11). Je stärker die Verkippung der Objektivachse relativ zur Objektachse ist, umso schmaler ist ein Fokusbereich, in dem das Objekt scharf abgebildet wird. Je größer die Tiefenschärfe TS ist, umso breiter ist der Fokusbereich. Bei einem schmalen Fokusbereich stehen nur von einem geringen Ausschnitt des Objektes aus reichend Informationen für eine Auswertung der dreidimensionalen Oberflächentopologie zur Verfügung.

Für eine Abbildung der dreidimensionalen Oberflächentopologie ist eine scharfe Abbildung jedoch sehr wichtig. Ebenso ist es erstrebenswert, die vollständige Fläche eines Sensors zu nutzen.

Im Folgenden sind mit Stereokamerasystemen ohne Scheimpflug-Bedingung Stereokame rasysteme gemeint, die die Parallelitäts-Anordnung aufweisen.

Aus„Zeilenkameras zur Inspektion der Dichtflächen einer O-Ring-Nut", Photonik 5/2012 ist ein System bekannt, bei dem drei Zeilenkameras parallel betrieben werden, um jeweils eine Seite einer Nut abzubilden. Die Seitenwände der Nut werden durch Zeilenkameras mit Sche impflug-Bedingung abgebildet. Aus der US 7,724,362 Bl geht ein System zur Makro-Wafer-Inspektion mit schrägem Einfall hervor. Die Wafer werden hierbei von einer Zeilenkamera erfasst, die schräg auf den Wafer gerichtet ist, wobei der Strahlengang die Scheimpflug-Bedingung erfüllt.

Aus der DE 10 2013 103 897 Al geht ein Kameramodul zum zeilenweisen Abtasten eines Objekts hervor. Das Kameramodul umfasst ein zellenförmigen Sensor und ein Objektiv zum Abbilden des Objekts auf den Sensor. Das Kameramodul weist mehrere Zeilensensoren auf. Die Zeilensensoren sind mit unterschiedlichem Abstand zum Objektiv angeordnet, wodurch Bildlinien mit unterschiedlichem Abstand zum Objektiv auf die jeweiligen Zeilensensoren ab gebildet werden.

Der Erfindung liegt die Aufgabe zugrunde, ein Stereokamerasystem zu schaffen, mit wel chem auf einfache Art und Weise eine gute räumliche Auflösung über einen großen Abtast bereich bewirkt wird.

Eine weitere Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, wel ches eine zuverlässige Abtastung von räumlichen Gegenständen erlaubt.

Eine weitere Aufgabe der Erfindung liegt in der Schaffung eines Stereokamerasystems, mit welchem auf einfache Art und Weise ein großer Bildbereich erfasst werden kann.

Eine zusätzliche Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, das kompakt gebaut ist.

Eine weitere Aufgabe der Erfindung liegt darin, ein Stereokamerasystem zu schaffen, das verschiedene Gegenstandsebenen gut abbildet.

Eine oder mehrere Aufgaben werden durch die Gegenstände der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen und bevorzugte Ausführungsformen bilden den Gegen stand der Unteransprüche.

Ein erfindungsgemäßes Stereokamerasystem zur Messung von dreidimensionalen Oberflä chentopologien eines Objektes weist zumindest zwei zellenförmige Sensorbereiche und zu mindest ein Objektiv zum Abbilden eines Objektes auf die Sensorbereiche auf. Das Objektiv ist derart angeordnet, dass ein Objektbereich auf zwei unabhängige Strahlengänge jeweils auf einem Sensorbereich abgebildet wird. Das Stereokamerasystem zeichnet sich dadurch aus, dass entlang zumindest einem der Strahlengänge die Scheimpflug-Bedingung erfüllt ist.

Wie bereits erläutert, kann ein Stereokamerasystem mit Berücksichtigung der Scheimpflug- Bedingung eine größere Basis aufweisen als bei einem Stereokamerasystem mit Parallelitäts- Anordnung ohne dass die Abbildungen durch das Objektiv verzeichnet werden. Durch die größere Basis wird die Auflösung der dreidimensionalen Oberflächentopologie größer.

Ein solches Stereokamerasystem kann dazu eingesetzt werden, um einen Objektbereich quer zur Zeilenrichtung zeilenweise abzutasten, wobei das Stereokamerasystem relativ zum Ob jekt bewegt wird. Die Richtung parallel zu den Zeilensensoren wird als Zeilenrichtung und die Richtung quer zu den Zeilensensoren als Scanrichtung bezeichnet. Der Abstand zweier Punk te, die in Scanrichtung zueinander liegen, wird unabhängig des Keystone-Effekts und der Position entlang der Zeilenrichtung mit dem gleichen Auflösungsvermögen aufgenommen. Die Abbildung wird dadurch entlang der Scanrichtung nicht gestaucht. Dies erhöht das Auflö sungsvermögen entlang der Scanrichtung.

Ebenfalls wird eine Trapezbildung unterbunden. Beide Zeilensensoren können mit der ge samten Sensorzeile den gleichen Bereich umfassen. Es gehen somit keine Informationen verloren. Der Überlappungsbereich von Zeilensensoren wird im Folgenden Überlappungszeile genannt.

Bei einem Zeilensensor muss der Öffnungswinkel der Objektive lediglich die Überlappungs zeile umfassen. Die Überlappungszeile ist bei gleicher Sensorlänge kleiner als die Diagonale des Überlappungsbereichs zweier Flächensensoren, der, wie oben beschrieben, eine sechs eckige Form bildet. Dadurch ist der benötigte Öffnungswinkel bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Flächensensoren größer als bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Zeilensensoren. Bei einem Stereokamerasystem mit Schei mpflug-Bedingung und Zeilensensoren kommt es dadurch zu einer geringeren Verzeichnung als bei einem Stereokamerasystem mit Scheimpflug-Bedingung und Flächensensoren.

Durch die Reduzierung der Stauchung verringert sich auch die benötigte Rektifizierung. Dies reduziert den Rechenaufwand und die Bilddaten stehen somit schneller zur Verfügung. Zusammenfassend kann festgehalten werden, dass durch die Verwendung von Stereokame rasystemen mit Scheimpflug-Bedingung die Basis groß gewählt werden kann, ohne dass hierdurch Verzeichnungen wie bei Stereokamerasystemen ohne Scheimpflug-Bedingungen auftreten. Eine große Basis erlaubt eine präzise Höhenauflösung. Die Scheimpflug-Bedingung erlaubt bei guter Bildqualität kleine Öffnungswinkel der Objektive. Die Scheimpflug- Bedingung sorgt jedoch bei Flächensensoren durch den Keystone-Effekt für unerwünschte Verzerrungen in beide Richtungen. Bei Verwendung von Zeilensensoren treten die Verzer rungen nur in einer Richtung auf, wodurch die Qualität des Bildes höher ist. Außerdem ist der benötigte Öffnungswinkel der Objektive bei Zeilensensoren geringer als bei Flächen sensoren, da die projizierte Breite des Zeilensensors kleiner ist, als die projizierte Diagonale der Flächensensoren. Zudem können im Gegensatz zu Flächensensoren alle Bildpunkte des Sensors genutzt werden.

Daher kann mit einem Stereokamerasystem, das der Scheimpflug-Bedingung genügt und Zeilensensoren aufweist, mit vergleichsweise einfachen Mitteln Abbildungen erzeugt werden, die eine hohe Höhenauflösung ermöglichen.

Vorzugsweise ist entlang aller Strahlengänge die Scheimpflug-Bedingung erfüllt. Grundsätz lich können die Strahlengänge unterschiedliche Anordnungen der Sensorbereiche und Objek tive aufweisen. Dadurch, dass alle Strahlengänge die Scheimpflug-Bedingung erfüllen, kann eine größere Basis als bei Stereokamerasystemen, in der nur ein Strahlengang die Schei mpflug-Bedingung erfüllt, gewählt werden.

Vorzugsweise sind die Strahlengänge spiegelsymmetrisch angeordnet. Durch die spiegel symmetrische Anordnung wird eine Justierung des Kamerasystems vereinfacht. Asymmetrien fallen bei der Justage leicht auf und können korrigiert werden. Auch die Auswertung der Bilddaten ist dadurch vereinfacht, da jeder Sensor gleichweit vom Objektbereich entfernt ist. Somit sind auch die aufgenommenen Bildpunkte gleichweit versetzt.

Vorzugsweise werden ein oder mehrere der Strahlengänge mit zumindest einem Spiegel ge lenkt. Dadurch können die Strahlengänge durch Spiegel gefaltet werden. Das Bild des Mess objektes wird ein- oder mehrfach von Spiegeln reflektiert, wodurch die Länge des Strahlen ganges erhalten bleibt. Jedoch ist das Volumen, das von der Anordnung der optischen Linsen eingenommen wird, zum Teil erheblich reduziert. Insbesondere kann eine große Basis des Stereokamerasystems gewählt werden und dennoch bleiben die beiden Sensorhälften dicht beieinander. Dadurch sind kompaktere Bauformen möglich als bei Aufbauten ohne Strahl gangfaltung.

Bei einer Faltung des Strahlenganges kann unterschieden werden zwischen einer objektseiti gen Faltung, bei der die Spiegel, die den Strahlengang falten, zwischen Objektiv und Objekt angeordnet sind, einer sensorseitigen Faltung, bei der die Spiegel, die den Strahlengang fal ten, zwischen Objektiv und Sensor angeordnet sind, und einer beidseitigen Faltung, bei der die Spiegel, die den Strahlengang falten, sowohl zwischen Objektiv und Objekt als auch zwi schen Objektiv und Sensor angeordnet sind. Bei der objektseitigen Faltung kann der Arbeits abstand, der Abstand zwischen Objektiv und Objekt, reduziert werden.

Die Strahlengänge werden vorzugsweise auf jeweils einen separaten Teil eines einzigen Sen sors projiziert. Diese Teile bilden jeweils einen Sensorbereich einer der zumindest zwei Ka- meramodule. Der Sensor kann in mehrere Sensorbereiche unterteilt sein, denen jeweils ein Strahlengang zugeordnet ist. Beispielsweise ist bei Stereokamerasystem mit zwei Strahlen gängen der Sensor in zwei Bereiche unterteilt. Weist das Stereokamerasystem drei Strahlen gänge auf, so ist der Sensor dreigeteilt. Dies erhöht auch die Systemstabilität. Zusätzlich ermöglicht es eine kompakte Bauweise mit einfacher Justage.

Alternativ kann die Kamera derart ausgebildet sein, dass die Strahlengänge auf jeweils einen separaten Sensors projiziert werden und dass ein Spiegel je Strahlengang vorgesehen ist und der Strahlengang in Scheimpflug-Anordnung konfiguriert ist. Diese Bauweise ermöglicht eine kompakte Form mit größerer Sensorfläche als bei einem einzelnen Sensor. Dadurch wird die Auflösung erhöht.

Eine weitere Alternative zeichnet sich dadurch aus, dass die Strahlengänge auf jeweils einen separaten Sensor projiziert werden und dass zwei Spiegel je Strahlengang vorgesehen sind und der Strahlengang in Scheimpflug-Anordnung konfiguriert ist. Diese Bauweise ermöglicht eine kompakte Form.

Vorzugsweise sind die zellenförmigen Sensorbereiche nebeneinander auf einer Linie ange ordnet, die jeweils durch einen Zeilensensor dargestellt werden. Durch diese Linienanord nung kann die Justage vereinfacht werden, da die zellenförmigen Sensorbereiche auf einem gemeinsamen Träger befestigt werden können. Zum Beispiel bei einer Verkippung des Trä gers müssen die Sensorbereiche nicht neu zueinander ausgerichtet werden. Bei stereoskopischen Verfahren ist es zweckmäßig, wenn der Versatz nur in eine Richtung erfolgt. Das bedeutet, dass die Sensoren parallel oder senkrecht zu einer Sensorachse ange ordnet sind. Dies wird durch die Linienanordnung unterstützt.

Gemäß einer weiteren Abwandlung können die zellenförmigen Sensorbereiche parallel ne beneinander angeordnet sein. Auch hier ist der Versatz der beiden Strahlengänge nur in eine Richtung erfolgt.

Es ist möglich, dass die zellenförmigen Sensorbereiche Bildpunkt-Zeilen eines Flächensensors sind. Ein bestehendes Stereozeilenkamerasystem kann so einfach nachgerüstet werden.

Für alle Strahlengänge kann ein gemeinsames Objektiv vorgesehen sein. Dadurch können besonders kompakte Stereozeilenkamerasysteme realisiert werden. Durch die Verringerung der Objektivanzahl können auch die Kosten gering gehalten werden.

Die Strahlengänge können unterschiedliche Abstände zwischen der Objektebene und der Sensorebene aufweisen. Hierbei kann es zweckmäßig sein, den optischen Weg aufgrund der unterschiedlichen Abstände mittels eines oder mehrerer Glaselemente, welches/welche in den jeweiligen kürzeren Strahlengängen angeordnet ist/sind, auszugleichen.

Durch das Glaselement wird die Geschwindigkeit des Lichtes innerhalb des Glaselements abgebremst. Das Licht benötigt dadurch eine längere Zeit zum Sensor. Dies hat dadurch den gleichen Effekt wie eine optische Wegverlängerung. Unterschiedliche Abstände können somit ausgeglichen werden.

Nach einem weiteren erfindungsgemäßen Aspekt, umfasst ein Stereozeilenkamerasystem zur Messung von dreidimensionalen Oberflächentopologien zumindest einen Farbsensor, wobei der Farbsensor mehrere Bildpunkte aufweist, die auf unterschiedliche Farben empfindlich sind, und zumindest ein hyperchromatisches Objektiv zum Abbilden des Objektes auf den Sensor vorgesehen ist. Der Farbsensor ist zum Objektiv derart angeordnet, dass unterschied liche Fokusebenen jeweils auf die Bildpunkte der gleichen Farbe abgebildet werden.

Bei hyperchromatischen Objektiven ist der Fokus wellenlängenabhängig. Jede Farb-Zeile des Sensors ist somit einer anderen Fokusebene zugeordnet. Dies kann zur Messung von dreidimensionalen Oberflächentopologien genutzt werden. Jede unterschiedliche Höhe des Objektbereichs weist eine andere Fokusebene auf. Dadurch wird jede der Höhen in einem bestimmten Farbbereich scharf auf dem Sensor abgebildet. Die Auflösung der Höhe entspricht hierbei die der Farbauflösung. Dieses Verfahren wird im Fol genden hyperchromatische Tiefenbestimmung genannt. Sie ist besonders geeignet, kleine Höhenunterschiede wahrzunehmen.

Vorzugsweise wird die hyperchromatische Tiefenbestimmung zusammen mit dem stereosko pischen Verfahren mit der Scheimpflug-Bedingung angewandt. Mit der hyperchromatischen Tiefenbestimmung werden feine Höhenunterschiede erfasst, wohingegen mit dem stereo skopischen Verfahren über einen größeren Bereich Höhenunterschiede detektiert werden.

Vorzugsweise werden die Farb-Zeilen in Bezug zum Objektiv verkippt. Die Verkippung erfolgt um eine Achse, die parallel zu den einzelnen Farb-Zeilen ist. Entlang einer Zeile bleibt die Scheimpflug-Bedingung erhalten. Durch diese Verkippung ändert sich der Abstand einer Farb-Zeile zum Objektiv, wodurch sich auch die Fokusebene verschiebt. Effektiv kann dadurch der maximale Höhenunterschied, der durch die hyperchromatische Tiefenbestim mung messbar ist, variiert werden.

Vorzugsweise werden die Farbkanäle des Farbsensors separat ausgewertet. Dadurch können die unterschiedlichen Fokusebenen separat berechnet werden.

Nach einem weiteren erfindungsgemäßen Aspekt, umfasst eine Stereozeilenkamera zur Mes sung von dreidimensionalen Oberflächentopologien zumindest zwei Flächensensoren, wobei die Flächensensoren derart ausgebildet sind, dass sie mehrere parallele nebeneinander an geordnete Bildpunkt-Zeilen aufweisen, und zumindest zwei Objektive zum Abbilden des Ob jektes auf jeweils einem der Flächensensoren. Die Stereozeilenkamera zeichnet sich dadurch aus, dass ein Objektbereich mit zwei unabhängigen Strahlengängen jeweils gleichzeitig auf einem der Sensoren abgebildet wird, so dass ein zellenförmiger Objektbereich auf die Bild punktzeilen eines Flächensensors abgebildet wird, wobei in der Zeilen-Ebene der Strahlen gänge, die den zellenförmigen Objektbereich schneidet, die Scheimpflug-Bedingung erfüllt ist, und dass der Flächensensor um eine Achse derart gekippt ist, dass die Fläche nicht paral lel zu einem abzutastenden Objektbereich ist, so dass die einzelnen Zeilen des Flächen sensors unterschiedliche Ebenen des zellenförmigen Objektbereiches abbilden. Durch die Verkippung weist jede Bildpunkt-Zeile einen anderen Abstand zum Objektiv auf. Entlang einer Zeile bleibt die Scheimpflug-Bedingung erhalten. Jede Zeile weist somit eine eigene Fokusebene auf. Jede unterschiedliche Höhe des Objektbereichs wird somit auf einer anderen Bildpunkt-Zeile scharf abgebildet. Die Auflösung der Höhe entspricht hierbei der Zeilenauflösung. Dieses Verfahren wird im Folgenden inklinationeile Tiefenbestimmung ge nannt (lat. : inclinatio = Neigung).

Der maximale Höhenunterschied, der durch die inklinationeile Tiefenbestimmung messbar ist, kann durch eine Änderung der Verkippung variiert werden.

Die Auflösung der Höhe kann bei der Kombination von der inklinationeilen Tiefenbestimmung mit dem stereoskopischen Verfahren mit Scheimpflug Bedingung verbessert werden. Die Höhe wird nun mit zwei unterschiedlichen Methoden erfasst, wodurch eine Messabweichung reduziert wird.

Vorzugsweise sind die Sensoren Farbsensoren und das Objektiv ein hyperchromatisches Ob jektiv. Dadurch können die einzelnen Fokusebenen, die durch die Verkippung des Flächen sensors entstehen, nochmals unterteilt werden, wodurch eine feinere Auflösung der Fokus ebenen entsteht.

Vorzugsweise werden die Bilddaten In-Iine rektifiziert. Hierbei werden die Bilddaten der Bil der des Stereobild paares zeilenweise in Übereinstimmung gebracht, wobei sowohl ein Ver satz als auch eine unterschiedliche Verzeichnung durch die beiden Objektive korrigiert wird. Durch diese Rektifizierung, welche auch off-line möglich ist, sind die Positionsangaben der jeweiligen Verzerrung angepasst, wodurch die Bilddaten verzerrungsfrei dargestellt sind und weiterberechnet werden können. Da ein weiterer Konvertierungsschritt der Positionsangaben nicht nötig ist, erhöht sich die Geschwindigkeit der Berechnungen.

Zeilensensoren mit charge-coupled device (CCD)-Sensoren weisen Schieberegister auf, in welchen detektierte Helligkeitswerte abgespeichert werden. Diese Schieberegister werden seriell ausgelesen. Im Allgemeinen werden beim Auslesen des Schieberegisters der einzelnen Zeilen den jeweiligen Bildpunkten gleichmäßige Positionsangaben zugeordnet. Vorzugsweise werden die Bildpunkt-Zeilen von Sensoren sich derart synchronisieren, dass sie zeilensynchron aufnehmen und einen gleichzeitigen Bildstart haben. Hierdurch wird der Auf wand bei der Rektifizierung deutlich reduziert. Insbesondere in Kombination mit der Rektifi zierung wird dadurch einem aufgenommenen Bildpunkt eines Kameramoduls zur gleichen Zeit der gleiche Punkt am Objekt zugeordnet wie ein zweiter aufgenommener Bildpunkt des zweiten Kameramoduls. Dies hat den Vorteil, dass bei der Stereoberechnung jeder Zeile ei nes Sensorbereiches schon automatisch die passende Zeile des zweiten Sensorbereiches zugeordnet ist. Dadurch ist die Stereoberechnung nur in einer Dimension notwendig.

Ein weiterer Aspekt der vorliegenden Erfindung betrifft eine Oberflächentopologie- Erfassungseinrichtung. Die Oberflächentopologie-Erfassungseinrichtung weist zumindest ein Stereokamerasystem, wie es zuvor erläutert ist, um dreidimensionale Oberflächentopologien eines Messobjektes zu erfassen, auf. Die Oberflächentopologie-Erfassungseinrichtung um fasst eine Transporteinrichtung zum Transport des Messobjektes oder des Kamerasystems, eine Synchronisierungseinrichtung, um die Geschwindigkeit des Transportes mit den zellen förmigen Abtastungen der dreidimensionalen Oberflächentopologie zu synchronisieren, und eine Auswerteeinrichtung, um die Messungen der dreidimensionalen Oberflächentopologie auszuwerten.

Eine Transporteinrichtung kann beispielsweise ein Förderband sein.

Die Synchronisierungseinrichtung gibt ein Signal an das Stereokamerasystem und/oder an die Auswerteeinheit aus, um die Geschwindigkeit des Transportes mit der Messung der drei dimensionalen Oberflächentopologie zu synchronisieren. Geht das Signal an das Stereokame rasystem kann das Signal eine Messung triggern. Gelangt das Signal an die Auswerteeinheit, kann die Geschwindigkeit der Transporteinrichtung bestimmt werden. Bei bekannter Bilder zeugungsfrequenz kann dadurch bestimmt werden, wie weit eine Bildzeile von der nächsten entfernt ist.

Die Synchronisierungseinrichtung kann beispielsweise ein Inkrementalgeber sein, der von der Transporteinrichtung ausgelöst wird. Ist die Transporteinrichtung ein Förderband, kann z.B. durch ein Rad, das an das Förderband gekoppelt ist, die Radstellung durch die Synchronisie rungseinrichtung bestimmt werden. Bei bestimmten Radstellungen wird dann ein Signal aus gegeben. Alternativ könnte die Synchronisierungseinrichtung eine Kameraeinheit aufweisen, die Markierungen auf dem Förderband wahrnimmt und anhand dieser ein Signal ausgibt. Die Synchronisierungseinrichtung kann auch als Modul der Auswerteeinheit ausgebildet sein. Ist die Bilderzeugungsfrequenz und die Geschwindigkeit der Transporteinrichtung bekannt, kann durch Berechnung die Entfernung zwischen zwei aufgenommenen Bildzeilen bestimmt werden.

Die Auswerteeinheit ist ein Modul auf einer Recheneinheit und berechnet aus den aufge nommenen Bilddaten die dreidimensionale Oberflächentopologie.

Die Erfindung wird nachfolgend beispielhaft anhand der in den Zeichnungen dargestellten Beispiele näher erläutert. In den Zeichnungen zeigen schematisch jeweils in einer Seitenan sicht:

Figur 1 ein erstes Ausführungsbeispiel einer Kamera mit zwei Objektiven und zwei

Sensoren,

Figur 2a ein zweites Ausführungsbeispiel einer Kamera mit zwei Objektiven,

vier Spiegeln und einem Sensor,

Figur 2b eine Abwandlung des zweiten Ausführungsbeispiels einer Kamera mit zwei

Objektiven, vier Spiegeln und zwei Sensoren,

Figur 2c eine weitere Abwandlung des zweiten Ausführungsbeispiels einer Kamera mit zwei Farbfiltern, zwei Objektiven, vier Spiegeln und zwei Sensoren,

Figur 3 ein drittes Ausführungsbeispiel einer Kamera mit zwei Objektiven,

zwei Spiegeln und zwei Sensoren,

Figur 4 ein hyperchromatisches Objektiv, wobei verschiedene Fokusebenen auf unterschiedliche Farb-Zeilen fallen,

Figur 5 ein viertes Ausführungsbeispiel einer Kamera mit drei Objektiven,

vier Spiegeln und einem Farb-Zeilensensor,

Figur 6 eine Abwandlung des vierten Ausführungsbeispiels einer Kamera mit einem

Objektiv, vier Spiegeln, einem Glaselement und einem Farb-Zeilensensor,

Figur 7 eine Oberflächentopologie-Erfassungseinrichtung, welche eine erfindungsge mäße Stereokamera verwendet, in einem Blockschaltbild,

Figur 8 eine schematische Anordnung von Sensoren und Objektiven zweier Kame- ramodule einer Stereokamera, welche nicht der Erfindung entspricht,

Figur 9 eine schematische Anordnung von Sensoren und Objektiven zweier Kame- ramodule einer Stereokamera, und Figur 10 projizierte Sensorflächen auf einer Objektebene, und

Figur 11 eine Oberflächentopologie-Erfassungseinrichtung, welche eine erfindungsge mäße Stereokamera verwendet, in einem Blockschaltbild.

Bei einem ersten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 zwei Kameramodule la und lb (Figur 1).

Jedes Kameramodul 1 ist aus einem Objektiv 2 und einem Zeilensensor 3 ausgebildet. Die Zeilensensoren 3 erfassen jeweils mit einem Sensorbereich 13 eine vom Objektiv 2 hierauf abgebildete Abbildung. Die zwei Kameramodule 1 sind so angeordnet, dass sie aus zwei un terschiedlichen Blickrichtungen einen gemeinsamen Objektbereich 6 abtasten.

Bei jedem Kameramodul 1 verläuft eine Kameraachse 5 durch jeweils einen Mittelpunkt des Sensorbereiches 13 und einen Mittelpunkt des Objektivs 2. Die beiden Kameraachsen 5 ver laufen somit in Blickrichtung der Sensorbereiche 13 zum Objektbereich 6.

Die beiden Kameraachsen 5 liegen in einer optischen Ebene. In dieser optischen Ebene lie gen auch die beiden Zeilensensoren 3, bzw. deren Sensorbereiche 13. Diese optische Ebene ist deckungsgleich zur Zeichenebene von Figur 1.

Die Basis B ist der Abstand zwischen den Mittelpunkten der beiden Sensorbereiche 13. Die Kameraachsen 5 schneiden sich in einer Objektachse 10 und begrenzen den Basis-Winkel a.

Da das Kamerasystem Zeilensensoren 3 verwendet, sind für die weitere Betrachtung lediglich eine Sensorachse 8, eine Objektivachse 9 und eine Objektachse 10 relevant, welche die Ge raden sind, die in der optischen Ebene und zugleich in der oben definierten Sensorebene, der Objektivebene bzw. der Objektebene liegen.

Der Zeilensensor 3 nimmt ein Abbild des Objektbereichs 6, welches durch das Objektiv 2 auf den Zeilensensor 3 abgebildet wird, auf. Der Zeilensensor 3 ist ein CCD-Sensor und umfasst ein Schieberegister und ein eindimensionales Array aus Fotodetektoren, wobei jeder Fotode tektor zur Aufnahme eines Pixels dient. Bei jedem Zeilensensor 3 verläuft die Sensorachse 8 deckungsgleich mit der Sensorzeile. Die Objektive 2 der Kameramodule 1 sind derart zu dem jeweiligen Zeilensensor 3 angeord net, dass der Objektbereich 6 scharf in der Ebene des Zeilensensors 3 abgebildet wird. Das Objektiv 2 kann aus einer einzelnen Linse oder aus mehreren Linsen ausgebildet sein. Eine optische Achse des Objektivs 2 ist eine Symmetrieachse des Objektivs 2, welche senkrecht zur Objektivachse 9 in der optischen Ebene verläuft.

Der Objektbereich 6 liegt auf der Objektachse 10 und wird scharf auf die Sensorbereiche 13 abgebildet.

Die Sensorachse 8, die Objektivachse 9 und die Objektachse 10 schneiden sich in einem ge meinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug- Bedingung erfüllt.

Nachfolgend wird ein zweites Ausführungsbeispiel (Figur 2a) erläutert, wobei gleiche Ele mente wie beim ersten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts anderes hierzu ausgeführt ist.

Beim zweiten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 wiederum zwei Kameramodule la und lb. Jedes Kameramodul 1 umfasst ein Objektiv 2, zwei Spiegel 11, 12 und einen Zeilensensorbereich 13. Die Kameraachse 5 wird durch die beiden Spiegel 11, 12 umgelenkt. Der Zeilensensorbereich 13 eines jeden Kameramodules la und lb liegt in einer Linie hintereinander und bildet zusammen einen Zeilensensor 3.

Die Spiegel 11, 12 sind derart zwischen Objektiv 2 und Zeilensensorbereich 13 angeordnet, dass der Objektbereich 6 auf den Zeilensensorbereich 13 fällt.

Die Sensorachse 8 wird am Spiegel 11 gespiegelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die Sensorachse 8' wird wiederum am Spiegel 12 gespiegelt. Sensorachse 8" (nicht eingezeichnet) ist die gespiegelte Sensorachse 8', beziehungsweise die doppelt gespiegelte Sensorachse 8.

Eine Basis B des Stereokamerasystems 25 ist durch den Abstand der Mittelpunkte von Pro jektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespie gelt werden.

Die Sensorachse 8", die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug- Bedingung erfüllt.

Das zweite Ausführungsbeispiel unterscheidet sich vom ersten Ausführungsbeispiel darin, dass jeweils zwei Spiegel 11, 12 pro Kameramodul la, lb die Fokii des Objektbereichs 10 derart umlenken, dass diese auf einer gemeinsamen Achse, der jeweiligen Sensorachse 8, liegen. Somit werden keine zwei separaten Sensoren benötigt, sondern beide Strahlengänge können auf einen Zeilensensor 3 projiziert werden, der in zwei Zeilensensorbereiche 13 un terteilt ist.

In diesem Ausführungsbeispiel ist die Sensorachse 8 parallel zur Objektachse 10. Es ist aber auch vorstellbar, dass diese beiden Achsen nicht parallel sind. Beide Kameramodule sind dann nicht spiegelsymmetrisch aufgebaut.

Alternativ weist das Stereokamerasystem 25 einen Abstand zwischen den beiden Zeilen sensorbereichen 13 auf (Figur 2b). Jeder Zeilensensor 3 umfasst nun einen Zeilensensorbe reich 13. Dieses Ausführungsbeispiel weist gewisse Ähnlichkeiten zum Hyperskop auf, wel ches jedoch nicht den Scheimpflug-Bedingungen unterliegt.

Eine weitere Möglichkeit dieser Ausführungsform besteht darin, dass sich die beiden opti schen Achsen überschneiden, sodass das erste Bild des Objektbereichs 6 auf dem gegen überliegenden Zeilensensor 3b, bzw. Zeilensensorbereich 13b projiziert wird. Ohne Schei- mpflug-Bedingung ist diese Anordnung als Pseudoskop bekannt.

Eine weiteres Ausführungsbeispiel besteht darin, dass das Stereokamerasystem 25 einen Aufbau gemäß dem zweiten Ausführungsbeispiel (Fig. 2c) hat, jedoch sind die Sensorberei che 13 nicht entlang der Sensorachse 8 in einer Linie nebeneinander angeordnet, sondern senkrecht zur Sensorachse 8 parallel zu einander angeordnet. Diese Sensorbereiche 13 kön nen, wie es unten näher erläutert ist, jeweils durch die unterschiedlichen Farbzeilen eines Zeilensensors 3 ausgebildet sein. Beide Strahlengänge sind senkrecht zum Zeilenfarbsensor 3 derart zueinander versetzt angeordnet, dass die beiden unterschiedlichen Strahlengängen leicht versetzt auf den Zeilenfarbsensor 3 treffen. Die beiden Spiegel 11 sind nebeneinander angeordnet. . Entlang jedem Strahlengang wird dann ein Farbfilter 26 positioniert. Somit trifft das Bild des einen Kameramodules la als z.B. rotes Bild auf den Zeilenfarbsensor 3 und das Bild des anderen Kameramodules lb als z.B. grünes Bild auf den Zeilenfarbsensor 3. Dadurch kann ein Zeilenfarbsensor 3 gleichzeitig zwei, oder sogar mehrere, Bilder des Ob jektbereichs 6 aufnehmen. Die Oberfläche des Objektes sollte hierbei nicht in der Farbe einer der Farbfilter 26 sein, da ansonsten die Bildinformationen der Oberfläche herausgefiltert werden. Der Strahlengang mit dem Farbfilter einer ersten Farbe trifft somit auf die Sensor zeile, die die erste Farbe erkennt. Der Strahlengang mit dem Farbfilter der zweiten Farbe trifft auf die Sensorzeile, die die zweite Farbe erkennt.

Bevorzugt werden Objekt-Oberflächen, die weiß sind oder Graustufen aufweisen. Weiß oder Graustufen weisen für jede Farbe des Farbspektrums gleiche Intensitätswerte auf. Gelangt das Licht durch den jeweiligen Farbfilter 26, wird die integrierte Intensität des Lichtes über alle Farben entsprechend unabhängig der Farbe des Farbfilters gleichermaßen reduziert. Werden die Farbkanäle des Zeilensensors 3 als Graustufen ausgewertet, unterscheiden sich die daraus entstehenden Abbildungen beider Strahlengänge in ihrer Graustufenintensität nur durch die unterschiedlichen Betrachtungswinkel zum Objekt und nicht durch die unterschied liche Farbe des Strahlenganges.

In diesem Ausführungsbeispiel sind die Farbfilter 26 vor dem Objektiv 2a und 2b angeordnet (Fig 2c). Sie können jedoch auch zwischen Spiegel 12 und Objektiv 2a, 2b oder zwischen Spiegel 11 und 12 oder auch zwischen Zeilenfarbsensor 3 und Spiegel 11 angeordnet sein.

Alternativ können statt der Farbfilter 26 auch unterschiedliche Polfilter entlang dem Strah lengang verwendet werden, sofern der Zeilensensor 3 entsprechend unterschiedlich polari sierte Bilder des Objektbereichs 6 getrennt aufnehmen kann. Jeder Strahlengang des Stereo kamerasystems 25 weist somit eine andere Polarisation auf, wenn er auf den Zeilensensor 3 trifft. Wird die Phase und die Intensität der Bilder aufgenommen, so lässt sich dieses Verfah ren auch in der Holographie verwenden. Die Oberfläche des Objektes darf hierbei die Polari sation nicht ändern, da ansonsten die Polfilter Bildinformationen herausfiltern, die zur Be rechnung der Höheninformationen notwendig sind.

Im Folgenden wird ein drittes Ausführungsbeispiel (Figur 3) beschrieben, wobei gleiche Ele mente wie beim ersten und zweiten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts anderes hierzu ausgeführt ist.

Beim dritten Ausführungsbeispiel umfasst ein Stereokamerasystem 25 wiederum zwei Kame- ramodule la und lb. Jedes Kameramodul 1 umfasst ein Objektiv 2, einen Spiegel 11 und einen Zeilensensor 3. Die Kameraachse 5 wird durch den Spiegel 11 umgelenkt.

Die Spiegel 11 ist derart zwischen Objektiv 2 und Zeilensensor 3 angeordnet, dass der Ob jektbereich 6 auf den Zeilensensor 3 fällt.

Die Sensorachse 8 wird am Spiegel 11 gespiegelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die beiden Sensorachsen 8 der beiden Kameramodule 1 sind in diesem Ausführungsbeispiel nicht unbedingt parallel zueinander.

Eine Basis B des Stereokamerasystems 25 ist durch den Abstand der Mittelpunkte von Pro jektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespie gelt werden.

Die Sensorachse 8', die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug- Bedingung erfüllt.

Im Unterschied zum zweiten Ausführungsbeispiel liegen die beiden Zeilensensorbereiche 13 nicht mehr in einer Linie hintereinander. Des Weiteren können durch die Spiegel 11 die Sen soren 3 senkrecht oder nahezu senkrecht zum Objektbereich 6 angeordnet werden, wodurch eine sehr kompakte Bauform gewählt werden kann.

Nachfolgend wird ein viertes Ausführungsbeispiel (Figur 5) erläutert, wobei gleiche Elemente wie beim ersten Ausführungsbeispiel mit den gleichen Bezugszeichen versehen sind. Für gleiche Elemente gelten die oben angeführten Erläuterungen, sofern nachfolgend nichts an deres hierzu ausgeführt ist.

Beim vierten Ausführungsbeispiel umfasst ein erfindungsgemäßes Stereokamerasystem 25 drei Kameramodule la, lb und lc. Statt eines einfachen Zeilensensors umfasst das Stereo- kamerasystem 25 einen Dreizeilensensor 15. Der Dreizeilensensor 15 umfasst drei parallele, nebeneinander angeordnete Sensorbereiche 13. Die Sensorachsen 8 sind senkrecht zur opti schen Ebene angeordnet.

Jedes Kameramodul la und lc umfasst ein Objektiv 2, zwei Spiegel 11, 12 und einen der drei Zeilensensorbereiche 13. Das Kameramodul lb umfasst ein Objektiv 2 und einen der drei Zeilensensorbereiche 13. Die Kameramodule 1 tasten aus drei unterschiedlichen Blick richtungen einen gemeinsamen Objektbereich 6 ab.

Bei den äußeren Kameramodulen la und lc wird die Sensorachse 8 am Spiegel 11 gespie gelt. Sensorachse 8' (nicht eingezeichnet) ist die gespiegelte Sensorachse 8. Die Sensorachse 8' wird wiederum am Spiegel 12 gespiegelt. Sensorachse 8" (nicht eingezeichnet) ist die ge spiegelte Sensorachse 8', beziehungsweise die doppelt gespiegelte Sensorachse 8.

Werden drei Kameramodule 1 bei einem Stereokamerasystem 25 verwendet, so sind drei Basislängen B für jede Kombination zweier Kameramodule 1 möglich. Eine Basis B ist durch den Abstand der Mittelpunkte von Projektionen der beiden Zeilensensoren 3 gegeben, wobei die Projektion eines Zeilensensors der Ort ist, wo der Zeilensensor 3 wäre, würde das Abbild des Objektivbereichs 6 nicht gespiegelt werden.

Die Sensorachse 8, bzw. 8", die Objektivachse 9 und die Objektachse 10 schneiden sich in einem gemeinsamen Punkt, der jedoch nicht im Unendlichen liegt. Damit ist die Scheimpflug- Bedingung erfüllt.

Alternativ umfasst das Stereokamerasystem 25 anstatt der drei Objektive 2a bis 2c lediglich ein einzelnes Objektiv 2, das alle drei Kameramodule la, lb und lc umschließt. Zum Aus gleich weist das mittlere Kameramodul lb ein Glaselement 19 auf (Figur 6).

Das vierte Ausführungsbeispiel unterscheidet sich von den vorhergehenden Ausführungsbei spielen dadurch, dass die Zeilensensorbereiche 13 parallel nebeneinander und nicht in einer Linie hintereinander angeordnet sind.

In einer alternativen Ausführungsform der oben genannten Ausführungsbeispiele ist das Ob jektiv eines jeden Kameramodules 1 ein hyperchromatisches Objektiv 14, dessen Fokus be sonders von der jeweiligen Wellenlänge abhängig ist (siehe Figur 4). Des Weiteren ist der Dreizeilensensor 15 ein Dreizeilenfarbsensor 15, welcher eine Rot- 16a, Grün- 16b und Blau zeile 16c aufweist. Durch das hyperchromatische Objektiv 14 weist die jeweilige Rot-, Grün- und Blauzeile (16a, 16b, 16c) des Dreizeilenfarbsensors 15 jeweils eine andere Fokusebene 17a, 17b und 17c auf. Dadurch misst jede Farbzeile 16a, 16b und 16c einen anderen Hö- henmessbereich 18a, 18b und 18c. Die Auflösung der Flöhe entspricht hierbei die der Farb- auflösung.

Vorzugsweise werden die Farb-Zeilen 16 in Bezug zum Objektiv 14 verkippt. Die Verkippung erfolgt um eine Achse, die parallel zu den einzelnen Farb-Zeilen 16 ist. Entlang einer Farb- Zeile 16 bleibt die Scheimpflug-Bedingung erhalten. Durch diese Verkippung ändert sich der Abstand einer Farb-Zeile 16 zum Objektiv 14, wodurch auch die Fokusebene 17 sich ver schiebt.

Eine weitere Möglichkeit der Erfindung besteht darin, dass die Kameramodule 1 anstatt eines Zeilensensors 3 einen Flächensensor aufweisen. Der Flächensensor ist zweidimensionales Array aus Fotodetektoren, wobei jeder Fotodetektor einen Pixel entspricht. In diesem Aus führungsbeispiel wird der Flächensensor als eine Aneinanderreihung paralleler Zeilensenso ren 3 betrachtet.

Der Flächensensor ist um einer Kippachse gekippt. Die Kippachse ist parallel zu den einzel nen Zeilensensoren 3. Die einzelnen Zeilen, sowie deren zugeordnete Sensorachsen 8, bzw. 8' oder 8", sind derart angeordnet, dass sie in einem Punkt die Objektivachse 9 und die Ob jektachse 10 schneiden und somit die Scheimpflug-Bedingung erfüllen.

Der Betrag des Winkels zwischen der Normalen des Flächensensors und der optischen Achse ist hierbei kleiner als 90°. Jede Zeile des Flächensensors weist einen anderen Flöhenmessbe- reich 18 auf. Die aneinander liegenden Flöhenmessbereiche führen zu einer Flöhenbe- reichserweiterung. Für Objekte mit unterschiedlicher Flöhe kann somit der gleiche Kamera aufbau genutzt werden. Jede Flöhe des Objektes wird zumindest eine entsprechende Zeile des Flächensensors mit dazugehörigem Flöhenmessbereich zugeordnet.

In einer alternativen Ausführungsform der oben genannten Ausführungsbeispiele werden anstatt eines geraden Spiegels 11 derart gekrümmte Spiegel verwendet, so dass die Bilder des Messobjektes 1 verzerrungsfrei auf den Zeilensensor 3 auftreffen. Die oben genannten Ausführungsbeispiele umfassen jeweils zwei oder drei Kameramodule 1. Prinzipiell können beliebig viele, zumindest jedoch zwei Kameramodule zur stereoskopischen Bestimmung von Oberflächentopologien vorgesehen sein. Je höher die Anzahl an Kame ramodulen ist, desto kleiner wird der statistische Fehler. Allerdings steigen auch die Kosten. Die Anzahl der Basis-Längen ergibt sich aus der Dreieckszahl. Beispielsweise ist bei zwei Ka meramodulen 1 nur eine Basis möglich, bei drei Kameramodulen 1 sind es drei, bei vier sind es sechs Möglichkeiten und bei fünf gibt es zehn verschiedene Basis-Längen.

Im Folgenden wird eine Oberflächentopologie-Erfassungseinrichtung 20 erläutert (Figur 7).

Die Oberflächentopologie-Erfassungseinrichtung umfasst ein Stereokamerasystem 25, wie es in einem der obigen Ausführungsbeispiele gemäß einer der Figuren 1 bis 6 ausgeführt wur de, zur Messung von dreidimensionalen Oberflächentopologien eines Messobjektes 4, eine Transporteinrichtung 21 zum Transport des Messobjektes 4, eine Synchronisierungseinrich tung 22, um die Geschwindigkeit des Transportes mit den Messung der dreidimensionalen Oberflächentopologie zu synchronisieren, und eine Auswerteeinrichtung 23, um die Messun gen der dreidimensionalen Oberflächentopologie auszuwerten.

Die Transporteinrichtung 21 ist in diesem Ausführungsbeispiel ein Förderband.

Die Synchronisierungseinrichtung 22 ist in diesem Ausführungsbeispiel ein Inkrementalgeber 22. Der Inkrementalgeber ist an das Förderband 21 gekoppelt, sodass es sich bei einer Fort bewegung des Förderbandes dreht. Bei der Drehung um einen vorbestimmten Drehwinkel wird ein Taktsignal ausgegeben. Damit legt das Förderband einen vorbestimmten Weg zwi schen zwei aufeinander folgenden Taktsignalen zurück. Diese Taktsignale werden an eine Auswerteeinrichtung 23 übermittelt. Die Auswerteeinrichtung 23 ist auch so mit den Kam mermodulen 1 verbunden, um die mit den in den Kammermodulen angeordneten Sensoren 3 erfassten Bildsignale zu erhalten. Die Auswerteeinrichtung 23 ist derart ausgebildet, dass sie den Zeitpunkt, an welchem die jeweiligen Kameramodule das Messobjekt 4 abtasten, steu ert. Hierdurch kann die Auswerteeinrichtung 23 entsprechend dem vom Inkrementalgeber 22 erhaltenen Taktsignal die Abtastung des Messobjektes 4 mit der Bewegung des Förderban des bzw. des Messobjektes 4 synchronisieren. Diese Synchronisation ist vorzugweise so aus gebildet, dass das Messobjekt in Bewegungsrichtung 7 jeweils mit gleichem örtlichen Ab stand abgetastet wird. Mehrere aufeinanderfolgende eindimensionale Abtastungen können zu einem zweidimensionalen Bild in der Auswerteeinrichtung 23 zusammengesetzt werden. Somit werden dreidimensionale Informationen von einer Oberflächentopologie erhalten.

Die erfassten Bilder können korrigiert werden. Zum einen kann ein Verschiebefehler behoben werden, der dadurch entsteht, dass das Messobjekt 7 relativ zur Kamera bewegt wird und die einzelnen Bildpunkte der Zeilenkamera aufeinanderfolgend empfindlich geschaltet sind. Hierdurch weist bei hohen Geschwindigkeiten die Abbildung eine gewisse Schräg Stellung zur Bewegungsrichtung 7 auf.

Des Weiteren können die Bilder rektifiziert werden. Durch die Rektifizierung werden geomet rische Verzerrungen in den Bilddaten eliminiert. Diese können unter anderem durch die Scheimpflug-Anordnung entstehen.

Die Nachkorrektur der Rektifizierung kann auch direkt In-Iine bei der Bildregistrierung durch geführt werden. Direkt nach der Aufnahme einer Bildzeile werden die Daten korrigiert. Hier bei wird nach der Digitalisierung des Sensorsignals die Bildsignale in einem FPGA (engl: Field Programmable Gate Array) auf der Kamera vorverarbeitet. Wenn die Parameter der Ver zeichnung der beiden Kameramodule bekannt sind, z.B. aus einer Kalibrierung des Systems, kann im FPGA das gleiche Korrekturmodell angewandt werden, wie konventionell auf einem PC. Eine weitere Korrektur in der Recheneinheit ist somit nicht nötig, wodurch die Verarbei tungsgeschwindigkeit erhöht wird.

Die so korrigierten Bilder werden für eine Tiefenrekonstruktion der aufgenommenen Oberflä che des Messobjektes 4 genutzt. Ein typisches Verfahren zur Tiefenrekonstruktion ist die Stereotriangulation. Dabei wird jedem Punkt des ersten Bildes ein zweiter Punkt beim zwei ten Bild zugeordnet. Der Abstand zwischen den beiden Punkten ist abhängig von der tat sächlichen Raumtiefe des Punktes, genauer gesagt der Entfernung des Sensors 3 zum Ob jektbereich 6 und der Basis B des Stereokamerasystems 25. Jedem Punkt des ersten Bildes wird so eine Tiefeninformation zugeordnet.

Alternativ können auch Blöcke, d.h. eine Gruppe von Pixeln, wie z.B. eine 3x3-Matrix, einan der zugeordnet werden. Dieses Verfahren wird Block-Matching genannt.

Für jede aufgenommene Bildzeile wird so eine Bildzeile berechnet, die Tiefeninformationen enthält. Werden mehrere Bildzeilen eines Messobjektes 4 aufgenommen, so können die Zei- len mit den Tiefeninformationen zusammengefügt werden, um so eine dreidimensionale Oberflächentopografie des Messobjektes zu erzeugen. Die Abstände der einzelnen Zeilen können durch Informationen der Synchronisierungseinrichtung 22 berechnet werden.

Werden statt mehrerer Zeilensensoren 3 Zeilensensorbereiche 13 genutzt, werden die Bild daten aller Kameramodule 1 auf dem gleichen Zeilensensor 3 erzeugt. Das so entstehende digitale Doppelbild wird in der Auswerteeinrichtung 23 geteilt. Die entstehenden zwei Bilder werden wie oben beschrieben korrigiert und für die Tiefenkonstruktion genutzt.

Wird ein Dreizeilenfarbsensor 15 zur Aufnahme des Messobjektes genutzt, so wird für jede Farbe ein eigenständiges Bild erzeugt. Für jede Farbe werden separat, wie oben beschrie ben, die eigenständigen Bilder korrigiert und für die Tiefenkonstruktion genutzt.Da jede Far be einen unterschiedlichen Flöhenmessbereich 18a, 18b und 18c bei Verwendung eines hy perchromatischen Objektivs aufweist, kann über eine Bildschärfeerkennung eine zusätzliche Abschätzung des Tiefen profils der Messobjektoberfläche berechnet werden. Jedem Punkt eines Bildes wird ein Punkt bei den anderen beiden Farbbereichbildern, jedoch desselben Kameramodules 1 zugeordnet. Die Position des Punktes unterscheidet sich bei den drei Bil dern nicht. Dafür ist die Bildschärfe des Punktes je nach Tiefe des realen Punktes am Mess objekt 4 und der Farbe unterschiedlich. Liegt ein Punkt tief, so wird er im blauen Bild scharf dargestellt, bei mittlerer Tiefe im grünen und bei niedriger Tiefe im roten Bild. Eine Schärfe nerkennung kann z.B. durch einen Kontrastabgleich der Bilder in einer bestimmten Pixelregi on durchgeführt werden. Ist ein Punkt schärfer, ist der Kontrast höher.

In Kombination mit der Stereoskopie-Berechnung ist so eine feine Bestimmung der Oberflä chentopologie möglich.

Alternativ zur individuellen Berechnung der einzelnen Farbbilder kann auch aus einem zu sammengesetzten RGB-Bild ein graustufen Bild berechnet werden, welches anschließend analysiert wird.

Wird ein Flächensensor zur Aufnahme des Messobjektes genutzt, so wird für jede Zeile ein eigenständiges Bild erzeugt. Für jede Zeile werden separat, wie oben beschrieben, die eigen ständigen Bilder korrigiert und für die Tiefenkonstruktion genutzt. Anschließend wird in jeden eigenständigen Bild die Schärfe eines realen Punktes am Messobjekt 4 bestimmt. So kann die Zeile bestimmt werden, welche den Punkt am schärfsten aufgenommen hat. Da die Position der Zeile und die Brennweite bekannt sind, kann dadurch die Entfernung des Punktes be- stimmt werden. Werden alle Punkte miteinander verbunden, entsteht ein Höhenprofil des Messobjektes 4.

Neben den oben erwähnten Dreizeilensensoren 15 sind auch weitere Kombinationen denk- bar, wie z.B. ein Sensor mit drei Zeilen aus RGB-Sensorpunkten, ein Sensor mit drei Zeilen aus Sensorpunkten, die auch Graustufen erkennt, ein Sensor mit drei Zeilen aus Sensorpunk ten, die nur Graustufen erkennt, etc.

Die oben erwähnten Sensoren können, wie oben erwähnt CCD-Sensoren sein, aber auch andere Sensor-Arten, wie z.B. Complementary metal-oxide-semiconductor (CMOS)- Sensoren, sind denkbar.

Bezuaszeichen

1 Kameramodul

2 Objektiv

3 Sensor

4 Messobjekt

5 Kameraachse

6 Objektbereich

7 Verschieberichtung

8 Sensorachse

9 Objektivachse

10 Objektachse

11 Spiegel 1

12 Spiegel 2

13 Zeilensensorbereich

14 Hyperchromatisches Objektiv

15 Dreizeilensensor

16 Farbzeile

17 Fokusebene

18 Höhenmessbereich

19 Glaselement

20 Oberflächentopologie-Erfassungseinrichtung

21 Transporteinrichtung

22 Synchronisierungseinrichtung

23 Auswerteeinrichtung

25 Stereokamerasystem

26 Farbfilter

a Basis-Winkel

ß Scheimpflug-Winkel

y Öffnungswinkel des Objektivs

B Basis