Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
SENSOR UNIT FOR A LIDAR SYSTEM
Document Type and Number:
WIPO Patent Application WO/2021/052859
Kind Code:
A1
Abstract:
The invention relates to a sensor device (1) for a LIDAR system, comprising a sensor array (2) having a plurality of optical sensor units (3a, 3b, 3c, 3d), which are arranged next to one another on a sensor surface in order to detect a respective pixel during an operation of the LIDAR system, wherein each of the sensor units (3a, 3b, 3c, 3d) comprises a first optical sensor (4) and a second optical sensor (5), wherein the first optical sensor (4) has a first active sensor surface (6) which converts a received optical signal into a first measurement signal, and wherein the second optical sensor (5) has a second active sensor surface (7) which converts a received optical signal into a second measurement signal, wherein the first active sensor surface (6) has a greater area than the second active sensor surface (7).

Inventors:
ANTE FREDERIK (DE)
FRITZ STEFFEN (DE)
Application Number:
PCT/EP2020/075345
Publication Date:
March 25, 2021
Filing Date:
September 10, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BOSCH GMBH ROBERT (DE)
International Classes:
G01S7/481; G01S7/4863
Domestic Patent References:
WO2006015906A12006-02-16
Foreign References:
DE102016013861A12017-05-18
DE102011005740A12012-09-20
Download PDF:
Claims:
Ansprüche

1. Sensorvorrichtung (1) für ein LiDAR-System, umfassend: einen Sensorarray (2), welcher eine Vielzahl von optischen

Sensoreinheiten (3a, 3b, 3c, 3d) umfasst, die auf einer Sensoroberfläche nebeneinander angeordnet sind, um bei einem Betrieb des LiDAR- Systems jeweils einen Bildpunkt zu erfassen, wobei jede der Sensoreinheiten (3a, 3b, 3c, 3d) einen ersten optischen Sensor (4) und einen zweiten optischen Sensor (5) umfasst, o wobei der erste optische Sensor (4) eine erste aktive Sensoroberfläche (6) umfasst, und o wobei der zweite optische Sensor (5) eine zweite aktive Sensoroberfläche (7) umfasst, wobei die erste aktive Sensoroberfläche (6) eine größere Fläche ist, als die zweite aktive Sensoroberfläche (7).

2. Sensorvorrichtung (1) gemäß Anspruch 1, dadurch gekennzeichnet, dass der Sensorarray (2) ein CCD-Chip oder SPAD-Chip ist.

3. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die erste aktive Sensoroberfläche (6) unmittelbar angrenzend zu der zweiten aktiven Sensoroberfläche (7) angeordnet ist.

4. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinheiten (3a, 3b, 3c, 3d) in einer Reihe angeordnet sind, wobei in der Reihe abwechselnd ein erster optischer Sensor (4) auf einen zweiten optischen Sensor (5) folgt.

5. Sensorvorrichtung gemäß einem der voranstehenden Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Sensoreinheiten (3a, 3b, 3c, 3d) in einer Reihe angeordnet sind, wobei die ersten optischen Sensoren (4) in einer ersten Reihe angeordnet sind und die zweiten optischen Sensoren (5) in einer zweiten Reihe angeordnet sind, wobei die erste Reihe parallel zu der zweiten Reihe ist.

6. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass jede der Sensoreinheiten (3a, 3b, 3c, 3d) ein erstes Speicherelement (8) umfasst, welches dem ersten optischen

Sensor (4) zugehörig ist, wobei das erste Speicherelement (8) dazu eingerichtet ist, eine von dem ersten optischen Sensor (4) ausgegebene erste Ladung oder einen diese erste Ladung repräsentierenden Wert zu speichern, und ein zweites Speicherelement (9) umfasst, welches dem zweiten optischen Sensor (5) zugehörig ist, wobei das zweite Speicherelement (9) dazu eingerichtet ist, eine von dem zweiten optischen Sensor (5) ausgegebene zweite Ladung oder einen diese zweite Ladung repräsentierenden Wert zu speichern.

7. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass jede der Sensoreinheiten (3a, 3b, 3c, 3d) dazu eingerichtet ist, einen in dem ersten Speicherelement (8) gespeicherten Wert in ein erstes benachbartes Speicherelement (10) zu übertragen, und einen in dem zweiten Speicherelement (9) gespeicherten Wert in ein zweites benachbartes Speicherelement (11) zu übertragen.

8. Sensorvorrichtung (1) gemäß einem der voranstehenden Ansprüche, ferner umfassend eine Auswertungseinheit (50), welche dazu eingerichtet ist, für jede der Sensoreinheiten (3a, 3b, 3c, 3d) basierend auf einem von dem ersten optischen Sensor (4) bereitgestellten ersten Messwert und basierend auf einem von dem zweiten optischen Sensor (5) bereitgestellten zweiten Messwert zu ermitteln, ob ein reflektiertes optisches Signal empfangen wurde.

9. Sensorvorrichtung gemäß Anspruch 8, dadurch gekennzeichnet, dass die Auswertungseinheit (50) erkennt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert und/oder der zweite Messwert in einem jeweils zugehörigen vorgegebenen Werteintervall liegt.

10. LiDAR-System, umfassend eine Sensoreinheit (1) gemäß einem der voranstehenden Ansprüche.

Description:
Beschreibung

Titel

Sensoreinheit für ein LiDAR-Svstem

Stand der Technik

Die vorliegende Erfindung betrifft eine Sensoreinheit für ein LiDAR-System.

LiDAR-Systeme gelten neben Video-, Ultraschall- und Radar-basierten Systemen als eine Schlüsseltechnologie für das hochautomatisierte Fahren. Derzeit sind verschiedene Ausprägungen von LiDAR-Systemen bekannt. Dazu gehören insbesondere Makroscanner, Galvo-Spiegel, MEMS-Spiegel oder Solid-state basierte Systeme. Jede dieser Varianten weist verschiedene Vor- und Nachteile bezüglich Integration, Komplexität, Baugröße und Sichtfeld auf. Als Messprinzip wird bei LiDAR-Systemen typischerweise auf das Time-Of-Flight (ToF) Verfahren zurückgegriffen. Dabei wird ein Laserpuls von einem Sender emittiert, an einem Objekt reflektiert und die Zeit bis zur Detektion an einer Sensoreinheit gemessen.

Als Detektor und somit als Sensoreinheit bieten sich hier neben APDs (avalanche photo detectors) und SPADs (single-photon avalanche detectors) auch CCDs (charged-coupled devices) an. Insbesondere SPAD- und CCD- basierte Systeme zeigen sich jedoch anfällig gegenüber einer Sättigung der einzelnen Pixel, so dass keine Aussage über die Detektion eines nahen und hochreflektiven Objektes getroffen werden kann. Beispielsweise können in Kombination mit CCD-Chips sogenannte Linienflashs verwendet werden. Dabei wird eine vertikale Laserlinie ausgesendet und die reflektierten Photonen werden auf dem CCD-Chip in einem Pixelarray zunächst vertikal aufgelöst. Die zeitliche Auflösung, durch welche eine Entfernung zum Objekt beschrieben wird, wird durch schnelles Schieben entlang nicht aktiver Pixel erzielt. Durch Rotation des Systems kann auch eine horizontale Erfassung der Umgebung erzielt werden.

Offenbarung der Erfindung Die erfindungsgemäße Sensorvorrichtung für ein LiDAR-System umfasst einen Sensorarray, welcher eine Vielzahl von optischen Sensoreinheiten umfasst, die auf einer Sensoroberfläche nebeneinander angeordnet sind, um bei einem Betrieb des LiDAR-Systems jeweils einen Bildpunkt zu erfassen. Dabei umfasst jeder der Sensoreinheiten einen ersten optischen Sensor und einen zweiten optischen Sensor, wobei der erste optische Sensor eine erste aktive Sensoroberfläche umfasst und der zweite optische Sensor eine zweite aktive Sensoroberfläche umfasst, wobei die erste aktive Sensoroberfläche eine größere Fläche ist als die zweite aktive Sensoroberfläche.

Es wird somit durch jeweils eine einzelne optische Sensoreinheit ein einzelner Bildpunkt erfasst. Durch einen Bildpunkt wird ein Abstand zu einem Punkt in der Umgebung des LiDAR-Systems beschrieben. Der Abstand wird dabei bevorzugt aus einer Laufzeit eines optischen Signals ermittelt, die sich aus einer Zeitdifferenz zwischen einem Aussenden des optischen Signals und einem Empfangen des optischen Signals durch die optische Sensoreinheit ergibt. Als Bildpunkt ist also ein Abtastpunkt zu verstehen. Das bedeutet mit anderen Worten, dass jede der optischen Sensoreinheiten dazu eingerichtet ist, ein reflektiertes optisches Signal aus der Umgebung des LiDAR-Systems zu empfangen, um Laufzeitinformationen für das zuvor ausgesandte optische Signal bereitzustellen. Dies schließt jedoch nicht aus, dass durch eine Sensoreinheit zu unterschiedlichen Zeitpunkten unterschiedliche Punkte in der Umgebung des LiDAR-Systems abgetastet werden.

Jede der optischen Sensoreinheiten umfasst einen ersten optischen Sensor und einen zweiten optischen Sensor. Da jede der optischen Sensoreinheiten dazu eingerichtet ist, jeweils einen Bildpunkt zu erfassen bedeutet dies, dass sowohl der erste optische Sensor als auch der zweite optische Sensor dazu verwendet werden, um einen einzelnen Bildpunkt zu erfassen. Der erste optische Sensor und der zweite optische Sensor sind daher insbesondere derart auf der Sensoroberfläche angeordnet, dass durch diese ein gemeinsamer Raumwinkel erfasst werden kann, also ein optisches Signal empfangen werden kann, dass aus einer gemeinsamen Richtung auf die Sensoreinheit einstrahlt. Die Vielzahl der optischen Sensoreinheiten ist insbesondere dazu eingerichtet, einfallendes Licht aus unterschiedlichen Richtungen zu detektierten, wobei bevorzugt jede der optischen Sensoreinheiten einer bestimmten Richtung der unterschiedlichen Richtungen zugeordnet ist.

Eine aktive Sensoroberfläche ist die Oberfläche des jeweiligen optischen Sensors, welche auf den Einfall von Licht reagiert. Die erste aktive Sensoroberfläche ist größer als die zweite aktive Sensoroberfläche. Das bedeutet, dass der erste optische Sensor empfindlicher auf den Einfall von Licht reagiert als der zweite optische Sensor. Das bedeutet zugleich, dass der erste optische Sensor typischerweise eher in Sättigung geht als der zweite optische Sensor. Es wird somit ermöglicht, dass durch den ersten optischen Sensor insbesondere reflektiertes Licht mit geringer Intensität erfasst werden kann und dass durch den zweiten optischen Sensor insbesondere reflektiertes Licht mit hoher Intensität empfangen werden kann. Durch die Kombination des ersten optischen Sensors mit dem zweiten optischen Sensor in einer einzelnen optischen Sensoreinheit wird die optische Sensoreinheit somit dazu angepasst, dass diese sowohl Licht mit hoher Intensität detektieren kann ohne in Sättigung zu gehen, dies erfolgt mittels des zweiten optischen Sensors, als auch Licht mit geringer Intensität detektieren zu können, da eine hinreichend große aktive Sensoroberfläche zur Verfügung steht, was durch den ersten optischen Sensor erreicht wird.

Ein Sensorarray ist insbesondere eine Anordnung mehrerer optischer Sensoreinheiten, die in beliebiger Weise nebeneinander angeordnet sein können. Die Sensoroberfläche ist dabei entweder eine ebene Fläche, kann jedoch auch eine Krümmung aufweisen. Die optischen Sensoreinheiten sind insbesondere dazu eingerichtet zeitgleich oder in zeitlicher Abfolge ein optisches Signal aus der Umgebung des LiDAR-Systems zu detektieren. Bevorzugt ist die Sensorvorrichtung dazu eingerichtet, dass der erste optische Sensor und der zweite optische Sensor einer optischen Sensoreinheit zeitgleich aktiv sind, insbesondere über einen beschränkten gleichen Zeitraum hinweg.

Insbesondere wird durch den erfindungsgemäßen Sensorarray ermöglicht, dass sowohl für niederreflektive auch für hochreflektive Objekte eine zuverlässige Detektion ermöglicht wird. Niederreflektive Objekte führen zu einem Einfall von Licht geringer Intensität auf den Sensorarray und hochreflektive Objekte führen zu einem Einfall von Licht mit hoher Intensität auf den Sensorarray. In beiden Fällen kann das reflektierte Licht erfolgreich detektiert werden, wobei verhindert wird, dass die optische Sensoreinheit keine zuverlässige Detektion ermöglicht, da diese in Sättigung geht, oder dass das reflektierte optische Signal von der optischen Sensoreinheit nicht erfasst werden kann, da eine aktive Sensoroberfläche zu gering ist.

Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.

Bevorzugt ist der Sensorarray ein CCD-Chip. Alternativ ist der Sensorarray ein SPAD-Chip. Gerade solche Sensoren sind besonders anfällig gegenüber einer Sättigung einzelner Sensoreinheiten. Daher ist es gerade bei solchen Sensoren vorteilhaft, wenn durch den zweiten optischen Sensor eine aktive Sensoroberfläche bereitgestellt wird, durch die eine Sättigung des zweiten optischen Sensors und somit der optischen Sensoreinheit vermieden werden kann.

Auch ist es vorteilhaft, wenn die erste aktive Sensoroberfläche unmittelbar angrenzend zu der zweiten aktiven Sensoroberfläche angeordnet ist. Dadurch wird es ermöglicht, dass für jeden Bildpunkt weitere optische Mittel bereitgestellt werden können, die sowohl von dem ersten optischen Sensor als auch von dem zweiten optischen Sensor genutzt werden könnten. So kann beispielsweise eine Linse von dem ersten optischen Sensor und dem zweiten optischen Sensor gemeinsam genutzt werden.

Ferner ist es vorteilhaft, wenn die optischen Sensoreinheiten in einer Reihe angeordnet sind, wobei in der Reihe abwechselnd ein erster optischer Sensor auf einen zweiten optischen Sensor folgt. Eine solche Anordnung ist besonders vorteilhaft, da von dem ersten optischen Sensor und dem zweiten optischen Sensor bereitgestellte Messwerte besonders einfach abgegriffen werden können, da Zuleitungen nicht den jeweils anderen der optischen Sensoren kreuzen müssen. Es kann somit eine besonders kompakte Sensorvorrichtung geschaffen werden. Bevorzugt weisen der erste optische Sensor und der zweite optische Sensor, insbesondere deren aktive Sensoroberflächen, dabei eine gleiche Breite auf, erstrecken sich also mit gleicher Weite in einer Richtung auf der Sensoroberfläche, die senkrecht zu der Richtung liegt, entlang derer sich die Reihe erstreckt. Ferner ist es ebenso vorteilhaft, wenn die Sensoreinheiten in einer Reihe angeordnet sind, wobei die ersten optischen Sensoren in einer ersten Reihe angeordnet sind und die zweiten optischen Sensoren in einer zweiten Reihe angeordnet sind, wobei die erste Reihe parallel zu der zweiten Reihe ist. Auf diese Weise kann ein Abstand zwischen ersten optischen Sensoren und zweiten optischen Sensoren minimiert werden und somit eine besonders hohe Winkelauflösung erreicht werden, da die optischen Sensoreinheiten besonders dicht aneinander angeordnet werden können, um eine Ausdehnung der Reihe in Richtung der ersten Reihe oder der zweiten Reihe minimiert werden kann. Bevorzugt weisen der erste optische Sensor und der zweite optische Sensor, insbesondere deren aktive Sensoroberflächen, dabei eine gleiche Höhe auf, erstrecken sich also mit gleicher Weite in einer Richtung auf der Sensoroberfläche, entlang derer sich die Reihe erstreckt.

Auch ist es vorteilhaft, wenn jede der optischen Sensoreinheiten ein erstes Speicherelement umfasst, welches dem ersten optischen Sensor zugehörig ist, wobei das erste Speicherelement dazu eingerichtet ist, eine von dem ersten optischen Sensor ausgegebene erste Ladung oder einen diese erste Ladung repräsentierenden Wert zu speichern, und ein zweites Speicherelement umfasst, welches dem zweiten optischen Sensor zugehörig ist, wobei das zweite Speicherelement dazu eingerichtet ist, eine von dem zweiten optischen Sensor ausgegebene zweite Ladung oder einen dieser zweiten Ladung repräsentierenden Wert zu speichern. Das erste Speicherelement und das zweite Speicherelement sind insbesondere jeweils ein Kondensator oder ein Register. So wird in dem Kondensator beispielsweise die von dem jeweiligen optischen Sensor abgegebene Ladung gespeichert oder der Kondensator wird durch den optischen Sensor entladen, wenn durch diesen ein optisches Signal empfangen wird. Alternativ wird das von den optischen Sensoren empfangenes optische Signal in einen digitalen Wert gewandelt und in dem Register gespeichert. Die Speicherelemente sind dabei bevorzugt ebenfalls auf der Sensoroberfläche angeordnet. Auf diese Weise können die durch die optischen Sensoreinheiten und somit die von den ersten und den zweiten optischen Sensoren erfassten Helligkeitswerte durch die nahegelegenen Speicherelemente schnell gespeichert werden, wodurch und eine hohe Abtastfrequenz des Sensorarrays erreicht werden kann. Ferner ist es vorteilhaft, wenn jede der optischen Sensoreinheiten dazu eingerichtet ist, einen in dem ersten Speicherelement gespeicherten Wert in ein erstes benachbartes Speicherelement zu übertragen, und einen in dem zweiten Speicherelement gespeicherten Wert in ein zweites benachbartes Speicherelement zu übertragen. Somit können durch jede der Sensoreinheiten in besonders schneller zeitlicher Folge Messwerte erfasst werden. Es kann somit eine besonders hohe Abtastfrequenz der Sensoreinheiten und somit des Sensorarrays erreicht werden. Das erste benachbarte Speicherelement und das zweite benachbartes Speicherelement sind dabei bevorzugt die Speicherelemente einer benachbarten optischen Sensoreinheit. Somit können die optischen Sensoreinheiten ihre Messwerte über die Speicherelemente benachbarter Sensoreinheiten weitergeben, wodurch ein Auslesen der einzelnen Sensoreinheiten vereinfacht wird, da keine gesonderte Kontaktierung für jede der optischen Sensoreinheiten benötigt wird.

Auch ist es vorteilhaft, wenn die Sensorvorrichtung eine Auswertungseinheit umfasst, welche dazu eingerichtet ist, für jede der optischen Sensoreinheiten basierend auf einem von dem ersten optischen Sensor bereitgestellten ersten Messwert und basierend auf einem von dem zweiten optischen Sensor bereitgestellten zweiten Messwert zu ermitteln, ob ein reflektiertes optisches Signal empfangen wurde. Das reflektierte optische Signal ist dabei insbesondere ein Signal, welches von einem zugehörigen LiDAR-System zuvor ausgesandt wurde und in einem Umfeld des LiDAR-Systems reflektiert wurde. Es werden somit Signale des ersten optischen Sensors und Signale des zweiten optischen Sensors in Kombination herangezogen, um zu ermitteln, ob ein reflektiertes optisches Signal empfangen wurde. Auf diese Weise kann durch jede der Sensoreinheiten in Kombination mit der Auswertungseinheit ermittelt werden, ob ein optisches Signal, welches entweder an einem niederreflektiven oder an einem hochreflektiven Objekt reflektiert wurde, zurück zu dem Sensorarray geworfen wurde.

Dabei ist es insbesondere vorteilhaft, wenn die Auswertungseinheit erkennt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert und/oder der zweite Messwert in einem jeweils zugehörigen vorgegebenen Wertintervall liegt. Die Wertintervalle können dabei variabel sein, beispielsweise von einer Umgebungshelligkeit abhängig sein, oder können abhängig von dem ersten Messwert oder dem zweiten Messwert sein. Es kann insbesondere auf den zweiten Messwert zurückgegriffen werden, wenn der erste Messwert eine Sättigung des ersten optischen Sensors anzeigt. Alternativ oder zusätzlich kann auf den ersten Messwert zurückgegriffen werden, wenn der zweite Messwert anzeigt, dass von dem zweiten optischen Sensor kein optisches Signal empfangen wurde.

Ein LiDAR-System, welches die erfindungsgemäße Sensoreinheit umfasst, weist alle Vorteile der erfindungsgemäßen Sensoreinheit auf.

Kurze Beschreibung der Zeichnungen

Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung ist:

Figur 1 eine Sensorvorrichtung gemäß einer ersten Ausführungsform der Erfindung,

Figur 2 eine Sensorvorrichtung gemäß einer zweiten Ausführungsform der Erfindung,

Figur 3 eine schematische Darstellung einer Sensorvorrichtung, welche ein erstes und ein zweites Speicherelement umfasst, und

Figur 4 eine Sensoreinheit gemäß einer dritten Ausführungsform der

Erfindung.

Ausführungsformen der Erfindung

Figur 1 zeigt eine Sensorvorrichtung 1 gemäß einer ersten Ausführungsform der Erfindung. Die Sensorvorrichtung 1 umfasst dabei ein Sensorarray 2, welcher eine Vielzahl von optischen Sensoreinheiten 3a, 3b, 3c, 3d umfasst, die auf einer Sensoroberfläche nebeneinander angeordnet sind, um bei einem Betrieb des LiDAR-Systems jeweils einen Bildpunkt zu erfassen.

Die Sensoroberfläche erstreckt sich über die in Figur 1 dargestellten Bildebene. Die Sensoroberfläche des Sensorarrays 2 ist beispielsweise ein Substrat. Dabei kann die Sensoroberfläche eine ebene Oberfläche sein oder auch eine Wölbung aufweisen. Die Sensorvorrichtung 1 ist ein CCD-Chip oder ein SPAD-Chip.

Der in Figur 1 dargestellte Sensorarray 2 weist eine erste optische Sensoreinheit 3a, eine zweite optische Sensoreinheit 3b, eine dritte Sensoreinheit 3c und eine vierte optische Sensoreinheit 3d auf. Die Anzahl der optischen Sensoreinheiten 3a, 3b, 3c, 3d ist dabei lediglich beispielhaft zu verstehen. Die erste bis vierte optische Sensoreinheit 3a bis 3d sind baugleiche optische Sensoreinheiten. Es wird daher im Folgenden lediglich der Aufbau der ersten optischen Sensoreinheit 3a der optischen Sensoreinheiten 3a, 3b, 3c, 3d beschrieben.

Die erste optische Sensoreinheit 3a umfasst einen ersten optischen Sensor 4 und einen zweiten optischen Sensor 5. Der erste optische Sensor 4 weist eine erste aktive Sensoroberfläche 6 auf. Die erste aktive Sensoroberfläche 6 liegt auf der Sensoroberfläche des Sensorarrays 2. Der zweite optische Sensor 5 ist neben dem ersten optischen Sensor 4 angeordnet und weist eine zweite aktive Sensoroberfläche 7 auf. Die zweite aktive Sensoroberfläche 7 liegt ebenfalls auf der Sensoroberfläche des Sensorarrays 2. Dabei ist die erste aktive Sensoroberfläche 6 derart gestaltet, dass diese eine größere Fläche ist, als die zweite aktive Sensoroberfläche 7. Das bedeutet, dass die erste aktive Sensoroberfläche 6 sich über einen größeren Bereich der Sensoroberfläche des Sensorarrays 2 erstreckt als die zweite aktive Sensoroberfläche 7. Dies ist bei der in Figur 1 dargestellten Ausführungsform dadurch erreicht, dass die erste aktive Sensoroberfläche 6 und die zweite aktive Sensoroberfläche 7 eine gleiche Breite aufweisen, die erste optische Sensoroberfläche 6 jedoch eine größere Höhe aufweist als die zweite optische Sensoroberfläche 7. Die erste aktive Sensoroberfläche 6 ist dabei unmittelbar angrenzend zu der zweiten Sensoroberfläche 7 auf der Sensoroberfläche des Sensorarrays 2 angeordnet. Als Breite wird dabei eine Erstreckung in Richtung entlang der Sensoroberfläche des Sensorarrays 2 in einer X-Richtung und als Höhe wird dabei eine Erstreckung in Richtung entlang der Sensoroberfläche des Sensorarrays 2 in einer Y-Richtung bezeichnet.

Die zweite Sensoreinheit 3b, die dritte Sensoreinheit 3c und die vierte Sensoreinheit 3d sind entsprechend der ersten optischen Sensoreinheit 3a aufgebaut. Die optischen Sensoreinheiten 3a, 3b, 3c, 3d sind in einer Reihe auf der Sensoroberfläche des Sensorarrays 2 angeordnet. Dabei ist in der Reihe abwechselnd ein erster optischer Sensor 4 und ein zweiter optischer Sensor 5 angeordnet. So ist in Figur 1 erkenntlich, dass die optischen Sensoreinheiten 3a, 3b, 3c, 3d in einer Reihe angeordnet sind, die sich in Figur 1 von unten nach oben erstreckt. Beginnend von oben ist zunächst ein erster optischer Sensor 4 angeordnet, auf welchen ein zweiter optischer Sensor 5 folgt. Neben dem zweiten optischen Sensor 5 der ersten optischen Sensoreinheit 3a ist der erste optische Sensor 4 der zweiten optischen Sensoreinheit 3b angeordnet. Es ergibt sich, dass beginnend von oben, immer ein erster optischer Sensor 4 neben einem zweiten optischen Sensor 5 angeordnet ist und neben dem zweiten optischen Sensor 5 wiederum ein erster optischer Sensor 4 einer folgenden optischen Sensoreinheit angeordnet ist.

Figur 2 zeigt eine Sensorvorrichtung 1 gemäß einer zweiten Ausführungsform der Erfindung. Die zweite Ausführungsform der Erfindung entspricht der ersten Ausführungsform der Erfindung, jedoch sind die ersten optischen Sensoren 4 und die zweiten optischen Sensoren 5 in einer Reihe nebeneinander angeordnet. So sind auch bei dieser zweiten Ausführungsform die optischen Sensoreinheiten 3a, 3b, 3c, 3d in einer Reihe angeordnet, dabei sind jedoch die ersten optischen Sensoren 4 in einer ersten Reihe angeordnet und die zweiten optischen Sensoren 5 in einer zweiten Reihe angeordnet, wobei die erste Reihe parallel zu der zweiten Reihe ist. Dabei weist die erste aktive Sensoroberfläche 6 des ersten optischen Sensors 4 die gleiche Höhe auf der Sensoroberfläche auf wie auch die zweite aktive Sensoroberfläche 7 des zweiten optischen Sensors 5. Dabei weist jedoch die zweite aktive Sensoroberfläche 7 eine geringere Breite auf als die erste aktive Sensoroberfläche 6 des ersten optische Sensors 4.

Aus Figur 2 ist ersichtlich, dass die ersten optischen Sensoren 4 in einer Reihe angeordnet sind, die in Figur 2 rechts gelegen ist, und die zweiten optischen Sensoren 5 in einer Reihe angeordnet sind, die in Figur 2 links gelegen ist. Es ist ersichtlich, dass auf diese Weise eine Höhe der Sensoroberfläche verringert werden kann.

In bevorzugten Ausführungsformen, welche insbesondere entsprechend der ersten Ausführungsform oder der zweiten Ausführungsform ausgestaltet sind, weist jede der Sensoreinheiten 3a, 3b, 3c, 3d ein erstes Speicherelement 8 und ein zweites Speicherelement 9 auf. Dies ist in Figur 3 dargestellt. Das erste Speicherelement 8 ist ein Speicherelement, welches dem ersten optischen Sensor 4 zugehörig ist, wobei das erste Speicherelement 8 dazu eingerichtet ist, eine von dem ersten optischen Sensor 4 ausgegebene erste Ladung oder einen diese erste Ladung repräsentierenden Wert zu speichern. In entsprechender Weise ist das zweite Speicherelement 9 ein Speicherelement, welches dem zweiten optischen Sensor 5 zugehörig ist, wobei das zweite Speicherelement 9 dazu eingerichtet ist, eine von dem zweiten optischen Sensor 5 ausgegebene zweite Ladung oder einen diese zweite Ladung repräsentierenden Wert zu speichern. Die erste Ladung repräsentiert einen Messwert des ersten optischen Sensors 4. Die zweite Ladung repräsentiert einen Messwert des zweiten optischen Sensors 5.

Bevorzugt ist das erste Speicherelement 8 auf der Sensoroberfläche des Sensorarrays 2 zwischen der ersten aktiven Sensoroberfläche 6 und der zweiten aktiven Sensoroberfläche 7 angeordnet. Das zweite Speicherelement 9 ist bevorzugt ebenfalls auf der Sensoroberfläche angeordnet, wobei das zweite Speicherelement 9 bevorzugt auf einer Seite der zweiten aktiven Sensoroberfläche 7 angeordnet ist, die der Seite gegenüberliegt, auf welcher das erste Speicherelement 8 angeordnet ist. Die Anordnung der Speicherelemente 8, 9 gegenüber den aktiven Sensoroberflächen 6, 7 ist dabei in Figur 3 lediglich beispielhaft dargestellt. Auch andere Anordnungen der Speicherelemente 8, 9 gegenüber den aktiven Sensoroberflächen 6, 7 sind vorteilhaft. So ist es insbesondere vorteilhaft, wenn die aktiven Sensoroberflächen 6, 7 zueinander angrenzend angeordnet sind, wodurch es ermöglicht wird, dass eine gemeinsame Optik eine Fokussierung von Licht auf die aktiven Sensoroberflächen 6, 7 ermöglicht. Da die Speicherelemente 8, 9 keine aktive Sensoroberfläche bilden ist es ebenfalls vorteilhaft, wenn die Speicherelemente 8, 9 nicht auf der Sensoroberfläche angeordnet sind, sondern beispielsweise hinter den aktiven Sensoroberflächen 6, 7 auf einer Rückseite des Sensorarrays 2 angeordnet sind.

Das erste Speicherelement 8 ist beispielsweise ein Kondensator, in dem eine von dem ersten optischen Sensor 4 bereitgestellte Ladung gespeichert wird, oder ein Kondensator, der durch Lichteinfall auf die erste aktive Sensoroberfläche 6 entladen wird. Alternativ ist das erste Speicherelement 8 ein Register, wobei zwischen den ersten optischen Sensor 4 und das erste Speicherelement 8 bevorzugt ein Analog-Digital-Wandler geschaltet ist, um einen von dem ersten optischen Sensor 4 erfassten Messwert als digitalen Wert in dem Register zu speichern.

Das zweite Speicherelement 9 ist beispielsweise ein Kondensator, in dem eine von dem zweiten optischen Sensor 5 bereitgestellte Ladung gespeichert wird, oder ein Kondensator, der durch Lichteinfall auf die zweite aktive Sensoroberfläche 7 entladen wird. Alternativ ist das zweite Speicherelement 9 ein Register, wobei zwischen den zweiten optischen Sensor 5 und das zweite Speicherelement 9 bevorzugt ein Analog-Digital-Wandler geschaltet ist, um einen von dem zweiten optischen Sensor 5 erfassten Messwert als digitalen Wert in dem Register zu speichern.

Bevorzugt ist dabei in dieser Ausführungsform jede der optischen Sensoreinheiten 3a, 3b, 3c, 3d dazu eingerichtet, einen in dem ersten Speicherelement 8 gespeicherten Wert oder eine in dem ersten Speicherelement 8 gespeicherte Ladung in ein erstes benachbartes Speicherelement 10 zu übertragen. Insbesondere ist dabei bevorzugt jede der optischen Sensoreinheiten 3a, 3b, 3c, 3d dazu eingerichtet, einen in dem zweiten Speicherelement 9 gespeicherten Wert oder eine in dem zweiten Speicherelement 9 gespeicherte Ladung in ein zweites benachbartes Speicherelement 11 zu übertragen. Das erste benachbarte Speicherelement 10 und das zweite benachbarte Speicherelement 11 sind dabei bevorzugt angrenzend zu dem ersten Speicherelement 8 und dem zweiten Speicherelement 9 angeordnet. Auf diese Weise kann das erste Speicherelement 8 und das zweite Speicherelement 9 in schneller Weise ausgelesen werden und die optischen Sensoreinheiten 3a bis 3d sind bereit, um ein weiteres optisches Signal zu empfangen.

Figur 4 zeigt eine Sensorvorrichtung 1 gemäß einer dritten Ausführungsform der Erfindung. Die Sensorvorrichtung 1 umfasst dabei die optischen Sensoreinheiten 3a, 3b, 3c, 3d, wie diese auch in dem zuvor beschriebenen Ausführungsformen beschrieben sind. Die optischen Sensoreinheiten 3a, 3b, 3c, 3d sind dabei als eine Gruppe aktiver Bildpunkte 12 auf der Sensoroberfläche angeordnet und bilden eine von mehreren Spalten einer Sensormatrix. Auf der Sensoroberfläche des Sensorarrays 2 sind bei in der in Figur 4 gezeigten Ausführungsform eine Gruppe von Schiebepixeln 20 angeordnet. Die Schiebepixel 20 sind entweder aktive optische Sensoreinheiten, die entsprechend der ersten bis vierten optischen Sensoreinheit 3a bis 3d aufgebaut sind oder sind passive optische Sensoreinheiten, durch welche kein Erfassen eines optischen Signals erfolgt. So wird bei der in Figur 4 gezeigten Ausführungsform durch die optischen Sensoreinheiten 3a, 3b, 3c, 3d und durch die Schiebepixel 20 eine Sensormatrix gebildet. Dabei ist jeder der optischen Sensoreinheiten 3a, 3b, 3c, 3d eine Vielzahl von Schiebepixeln zugehörig, welche insbesondere in einer gleichen Reihe der Sensormatrix liegen. So ist beispielsweise der ersten optischen Sensoreinheit 3a ein erster Schiebepixel 21, ein zweiter Schiebepixel 22, ein dritter Schiebepixel 23 und ein vierter Schiebepixel 24 zugehörig. Die der ersten optischen Sensoreinheit 3a zugehörigen Schiebepixel 21 bis 24 sind in einer Reihe mit der ersten optischen Sensoreinheit 3a angeordnet.

Jeder der optischen Sensoreinheiten 3a, 3b, 3c, 3d und jedes der Schiebepixel 20 umfasst dabei jeweils ein erstes Speicherelement 8 und ein zweites Speicherelement 9, beispielsweise entsprechend der in Figur 3 gezeigten Ausführungsform. Wird durch die erste optische Sensoreinheit 3a ein optisches Signal erfasst, so wird dieses von dem ersten optischen Sensor 4 als eine Ladung oder ein digitaler Wert ausgegeben und in dem ersten Speicherelement 8 der ersten optischen Sensoreinheit 3a gespeichert. Die in dem ersten Speicherelement 8 gespeicherte Ladung oder der von dem ersten Speicherelement 8 gespeicherte digitale Wert wird im Folgenden als erster Messwert bezeichnet. Wird durch die erste optische Sensoreinheit 3a ein optisches Signal erfasst, so wird dieses auch von dem zweiten optischen Sensor 5 als eine Ladung oder ein digitaler Wert ausgegeben und in dem zweiten Speicherelement 9 der ersten optischen Sensoreinheit 3a gespeichert. Die in dem zweiten Speicherelement 9 gespeicherte Ladung oder der von dem zweiten Speicherelement 9 gespeicherte digitale Wert wird im Folgenden als erster Messwert bezeichnet.

Ist ein Empfangszeitraum verstrichen, so wird der erste Messwert aus dem ersten Speicherelement 8 der ersten optischen Sensoreinheit 3a in ein erstes benachbartes Speicherelement 10 verschoben, welches ein erstes Speicherelement des ersten Schiebepixels 21 ist. In entsprechender Weise wird der in dem zweiten Speicherelement 9 der ersten optischen Sensoreinheit 3a gespeicherte zweite Messwert in ein zweites benachbartes Speicherelement 11 übertragen, welches das zweite Speicherelement 9 des ersten Schiebepixels 21 ist. Auf diese Weise können die von den optischen Sensoreinheiten 3a, 3b, 3c,

3d erfassten Messwerte Schritt für Schritt durch die Schiebepixel 20 zu einer Digitalisierungseinheit 30 geschoben werden.

So wird der in dem ersten Speicherelement 8 der ersten optischen Sensoreinheit 3a gespeicherte erste Messwert zuerst in das erste Speicherelement des ersten Schiebepixels 21 geschoben, von dort in das erste Speicherelement des zweiten

Schiebepixels 22 geschoben, von dort in das erste Speicherelement des dritten

Schiebepixels 23 geschoben, von dort in das erste Speicherelement des vierten

Schiebepixels 24 geschoben und von dort in einen ersten Analog-Digital-Wandler

31 der Digitalisierungseinheit 30 geschoben. Wurde der erste Messwert bereits zuvor in einen digitalen Wert gewandelt, so kann dieser in der Digitalisierungseinheit 30 nur zwischengespeichert werde oder es kann auf die Digitalisierungseinheit 30 verzichtet werden

In entsprechender Weise wird der zweite Messewert, welcher in dem zweiten Speicherelement 9 der ersten optischen Sensoreinheit 3a gespeichert wurde, zunächst in die das zweite Speicherelement 9 des ersten Schiebepixels 21 geschoben, von dort in das zweite Speicherelement des zweiten Schiebepixels

22 geschoben, von dort in das zweite Speicherelement des dritten Schiebepixels

23 geschoben, von dort in das zweite Speicherelement des vierten Schiebepixels

24 geschoben und von dort in einen zweiten Analog-Digital-Wandler 32 der Digitalisierungseinheit 30 geschoben. Wurde der zweite Messwert bereits zuvor in einen digitalen Wert gewandelt, so kann dieser in der Digitalisierungseinheit 30 nur zwischengespeichert werde oder es kann auf die Digitalisierungseinheit 30 verzichtet werden

Durch den ersten Analog-Digital-Wandler 31 und den zweiten Analog-Digital- Wandler 32 werden die von dem der ersten optischen Sensoreinheit 3a erfassten Messwerte in digitale Werte umgesetzt und in einen Multiplexer 40 übergeben. Von dort werden die Messwerte bevorzugt an eine Auswertungseinheit 50 übertragen. In entsprechender Weise werden die Messwerte, welche von der zweiten bis vierten optischen Sensoreinheit 3b, 3c, 3d erfasst wurden, über die diesen optischen Sensoreinheiten 3b, 3c, 3d jeweils zugehörigen Schiebepixel zu entsprechenden Analog-Digital-Wandlern übertragen und von dort ebenfalls an den Multiplexer 40 übertragen. Auch die Messwerte der zweiten bis vierten optischen Sensoreinheit 3b, 3c, 3d werden bevorzugt an die Auswertungseinheit 50 übertragen. Die Auswertungseinheit 50 ist dabei eine Komponente des CCD- Chips oder eine separate bauliche Komponente.

Es ist aus Figur 4 ersichtlich, dass die Schiebepixel 20 ebenfalls aktive Pixel sein können. Auf diese Weise kann die Anzahl von optischen Sensoreinheiten auf der Sensoroberfläche des Sensorarrays 2 erhöht werden. Durch das Verschieben der Messwerte von Speicherelement zu Speicherelement wird dazu ermöglicht, dass die optischen Sensoreinheiten 3a bis 3d sowie die Schiebepixel 20 ausgelesen werden können. Es wird darauf hingewiesen, dass die Anzahl der optischen Sensoreinheiten 3a bis 3d und auch die Anzahl der Schiebepixel 20 in Figur 4 lediglich beispielhaft gewählt ist.

Der Auswertungseinheit 50 liegen somit zumindest die von den optischen Sensoreinheiten 3a bis 3d erfassten ersten und zweiten Messwerte vor. Die Auswertungseinheit 50 ist dazu eingerichtet, für jede der Sensoreinheiten 3a, 3b, 3c, 3d basierend auf dem ersten optischen Sensor 4 bereitgestellten ersten Messwert und basierend auf dem von dem zweiten optischen Sensor 5 bereitgestellten zweiten Messwert zu ermitteln, ob ein reflektiertes optisches Signal empfangen wurde.

Dabei wird insbesondere dann erkannt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert und/oder der zweite Messwert in einem jeweils zugehörigen vorgegebenen Wertintervall liegt. So wird insbesondere dann erkannt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert eine Sättigung des ersten optischen Sensors 5 anzeigt und der zweite Messwert anzeigt, dass ein optisches Signal durch den zweiten optischen Sensor 5 empfangen wurde, dieser jedoch nicht in Sättigung ist. Auch wird erkannt, dass ein reflektiertes optisches Signal empfangen wurde, wenn der erste Messwert anzeigt, dass ein optisches Signal von dem ersten optischen Sensor 4 empfangen wurde, der erste optische Sensor 4 jedoch nicht in Sättigung ist, und der zweite Messwert anzeigt, dass von dem zweiten optischen Sensor 5 kein optisches Signal empfangen wurde. Basierend auf den Messwerten und basierend darauf, ob erkannt wurde, dass ein reflektiertes optisches Signal empfangen wurde, kann ein zugehöriger Zeitpunkt bestimmt werden, zu dem das reflektierte optische Signal empfangen wurde und es kann beispielsweise eine Time-Of-Flight-Messung basierend auf diesen Messwerten ausgeführt werden. Es wird somit insbesondere ein CCD-Chip so gestaltet, dass dieser insbesondere für LiDAR-Anwendungen im Bereich des automatisierten Fahrens sowohl für niederreflektive als auch für hochreflektive Objekte eine zuverlässige Detektion ermöglicht.

Dies wird durch die Kombination eines großen Pixelarrays (hohe Sensitivität) und eines kleinen Pixelarrays (niedrige Sensitivität) jeweils bestehend aus Photodioden auf einem Silizium Chip, um sowohl für nieder- als auch hochreflektive Objekte eine zuverlässige Auswertung ermöglicht. Der große Pixelarray wird dabei durch die ersten optischen Sensoren 4 gebildet und der kleine Pixelarray wird dabei durch die zweiten optischen Sensoren 5 gebildet. Die kleinen Pixelflächen (Photodioden) weisen dabei eine geringere Sensitivität gegenüber den auftreffenden Photonen auf, weshalb für die Sättigung dieser Pixel eine wesentlich höhere Photonendichte benötigt wird. Ein Pixel entspricht dabei einem Bildpunkt. Damit sind die kleinen Pixel gegenüber hochreflektiven Objekten weniger empfindlich. Vorteilhaft ist hierbei die Tatsache, dass die Apertur des Empfangsobjektivs auf die großen Pixelarrays optimiert ist.

Durch die Auswertung der beiden unabhängigen Pixelarrays und eine Plausibilisierung kann im System erkannt werden, ob sich (teilweise) hochreflektive Objekte im Sichtfeld befinden. Die Robustheit des Systems wird erhöht, da direkt im ersten Scan eine zuverlässige Aussage getroffen werden kann.

Neben der obigen schriftlichen Offenbarung wird explizit auf die Offenbarung der Figuren 1 bis 4 verwiesen.