Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR JOINING A PLURALITY OF INDIVIDUAL DIGITAL IMAGES INTO A TOTAL IMAGE
Document Type and Number:
WIPO Patent Application WO/2011/023657
Kind Code:
A1
Abstract:
In a device (11) and a corresponding method for joining a plurality of individual digital images (Ia, Ib) into a total image (G), a plurality of features in a first individual image (Ia) are determined by means of a selection unit (15) using a feature-based algorithm and subsequently tracked in a second individual image (Ib) by means of a tracking unit (16). In a transformation unit (17), a transformation matrix is calculated from the determined feature correspondences, which is used to join the individual images (Ia, Ib) in an output unit (18) into a total image (G). The individual images (Ia, Ib) can be joined in real time and with high accuracy using the feature-based algorithm, combined with a robust algorithm for calculating the transformation matrix.

Inventors:
MUENZENMAYER CHRISTIAN (DE)
WINTER CHRISTIAN (DE)
WITTENBERG THOMAS (DE)
RUPP STEPHAN (DE)
PAULUS DIETRICH (DE)
BERGEN TOBIAS (DE)
RUTHOTTO STEFFEN (DE)
Application Number:
PCT/EP2010/062251
Publication Date:
March 03, 2011
Filing Date:
August 23, 2010
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
FRAUNHOFER GES FORSCHUNG (DE)
UNIV FRIEDRICH ALEXANDER ER (DE)
MUENZENMAYER CHRISTIAN (DE)
WINTER CHRISTIAN (DE)
WITTENBERG THOMAS (DE)
RUPP STEPHAN (DE)
PAULUS DIETRICH (DE)
BERGEN TOBIAS (DE)
RUTHOTTO STEFFEN (DE)
International Classes:
G06T7/00; G06T3/40; G06V10/24
Other References:
BEHRENS, A.: "Creating Panoramic Images for Bladder Fluorescence Endoscopy", ACTA POLYTECHNICA, vol. 48, no. 3, 2008, pages 50 - 54, XP007915591
WOLBERG G ET AL: "Image Registration Using Log-Polar Mappings for Recovery of Large-Scale Similarity and Projective Transformations", IEEE TRANSACTIONS ON IMAGE PROCESSING, IEEE SERVICE CENTER, PISCATAWAY, NJ, US LNKD- DOI:10.1109/TIP.2005.854501, vol. 14, no. 10, 1 October 2005 (2005-10-01), pages 1422 - 1434, XP011139126, ISSN: 1057-7149
VON KONEN ET AL.: "Real-Time Image Mosaic for Endoscopic Video Sequences", BILDVERARBEITUNG FÜR DIE MEDIZIN, 2007
VON ALEXANDER BEHRENS: "Creating Panoramic Images for Bladder Fluorescence Endoscopy", ACTA POLYTECHNICA, vol. 48, no. 3, 2008, XP007915591
VON GEORGE WOLBERG ET AL.: "Image Registration Using Log-Polar Mappings for Recovery of Large-Scale Similarity and Projective Transformations", IEEE TRANSACTIONS ON IMAGE PROCESSING, vol. 14, no. 10, 2005, XP011139126, DOI: doi:10.1109/TIP.2005.854501
VON CARLO TOMASI; TAKEO KANADE: "Technical Report CMU-CS-91-132", 1991, CARNEGIE MELLON UNIVERSITY, article "Detection and Tracking ofPoint Features"
VON JOHN MALLON; PAUL F. WHELAN: "Preci- se Radial Un-distortion of Images", PROCEEDINGS OF 17TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, 2004
Attorney, Agent or Firm:
RAU, SCHNECK & HÜBNER (DE)
Download PDF:
Claims:
Patentansprüche

1. Verfahren zum Zusammenfügen von mehreren digitalen Einzelbildern zu einem Gesamtbild, umfassend die Schritte:

- Bereitstellen eines ersten digitalen Einzelbildes (Ia) und eines mit diesem überlappenden zweiten digitalen Einzelbildes (Ib),

Bestimmen von mehreren Merkmalen (M1 bis Mn) des ersten Einzelbildes (Ia), wobei den Merkmalen (M1 bis Mn) jeweils erste Merkmalskoordinaten (piabis pna) zugeordnet werden,

- Bestimmen der Merkmale (M1 bis Mn) in dem zweiten Einzelbild

(Ib), wobei den Merkmalen (M1 bis Mn) jeweils zweite Merkmalskoordinaten (p!b bis pnb) zugeordnet werden,

Bestimmen einer mindestens sechs Freiheitsgrade aufweisenden Transformationsmatrix (Hb>a) zwischen den Einzelbildern (Ia, Ib), indem

— eine erste Teilmenge (T1) der Merkmale (M1 bis Mn) ausgewählt wird,

— aus den ersten und zweiten Merkmalskoordinaten (p/1, ^) dieser Teilmenge (T1) eine Test-Transformationsmatrix (T) be- rechnet wird,

— zu der Test-Transformationsmatrix (T) mit einer zweiten Teilmenge (T2) der Merkmale (M1 bis Mn) ein Gütewert (N1) ermittelt wird, und

— die Transformationsmatrix (Hb a) ausgehend von der Test- Transformationsmatrix (T) ermittelt wird, wenn der Gütewert

(N1) ein Gütekriterium erfüllt, und

Zusammenfügen der Einzelbilder (Ia, Ib) zu einem Gesamtbild (G) mittels der Transformationsmatrix (Hb>a).

2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Merkmalskoordinaten (p!a bis pna, pib bis pnb) iterativ in unterschiedlichen Auflösungs stufen der Einzelbilder (Ia, Ib) ermittelt werden. 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Merkmale (M1 bis Mn) des ersten Einzelbilds (Ia) bestimmt werden, indem jeweils

aus mehreren benachbarten Pixeln ein Pixelfenster (W) gebildet wird,

- aus den Gradienten (g) zu diesen Pixeln eine Matrix (G) gebildet wird,

von der Matrix (G) die Eigenwerte (X1 , λ2) berechnet werden, das Pixelfenster (W) als Merkmal (M1 bis Mn) charakterisiert wird, wenn die Eigenwerte (X1 , X2) einen Schwellwert (X1) überschreiten, und

dem Merkmal (M1 bis Mn) erste Merkmalskoordinaten (pta bis pna) zugeordnet werden, und

die Merkmale (M1 bis Mn) in dem zweiten Einzelbild (Ib) bestimmt werden, indem jeweils

- zu dem Merkmal (M1 bis Mn) ein Fehlervektor (e) in Abhängigkeit der Gradienten (g) und der Differenzen der Pixelwerte (pa(x, y), Pb(x, y)) der Einzelbilder (Ia, Ib) im Pixelfenster (W) gebildet wird, ein Verschiebungsvektor (d) aus dem Fehlervektor (e) und der Matrix (G) berechnet wird, und

- dem Merkmal (M1 bis Mn) zweite Merkmalskoordinaten (p^ bis pnb) zugeordnet werden.

4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Berechnung des jeweiligen Verschiebungsvektors (d) iterativ erfolgt, indem

die Einzelbilder (Ia, Ib) um einen ersten Verschiebungsvektor (d(i)) relativ zueinander verschoben werden, und

mittels der verschobenen Einzelbilder (Ia, Ib) ein zweiter Verschiebungsvektor (d(i+l)) berechnet wird.

5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Berechnung des jeweiligen Verschiebungsvektors (d) unterschiedlichen Auflösungsstufen der Einzelbilder (Ia, Ib) erfolgt, indem

ein erster Verschiebungsvektor (d(j)) in einer ersten, niedrigen Auflösungsstufe der Einzelbilder (Ia, Ib) berechnet wird, die Einzelbilder (Ia, Ib) in einer zweiten, höheren Auflösungsstufe um den ersten Verschiebungsvektor (d(j)) relativ zueinander verschoben werden, und

ein zweiter Verschiebungsvektor (d(j+l)) mittels der verschobenen Einzelbilder (Ia, Ib) in der zweiten Auflösungsstufe berechnet wird. 6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass ein Pixelfenster (W) nur als Merkmal (M1 bis Mn) charakterisiert wird, wenn ein Minimalabstand (ΔM) zu den bereits bestimmten Merkmalen (M1 bis Mn) überschritten wird. 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Transformationsmatrix (Hb>a) genau acht Freiheitsgrade aufweist und eine projektive Transformation charakterisiert.

8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Merkmalskoordinaten (pta bis pna, pib bis pnb) vor der Bi rechnung der Transformationsmatrix (Hb>a) normalisiert werden. 9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Normalisierung derart erfolgt, die einem Einzelbild (Ia, Ib) zugehörigen Merkmalskoordinaten (pta bis pna, pib bis pnb) zu einem Schweφunkt (ca, Cb) einen durchschnittlichen Abstand von -Jl haben. 10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Berechnung der Transformationsmatrix (Hb a) derart erfolgt, dass für eine Wiederholungsanzahl (N)

jeweils eine erste Teilmenge (T1) der Merkmale (M1 bis Mn) ausgewählt wird,

- eine zu dieser Teilmenge (T1) zugehörige Test-Transformationsmatrix (T) berechnet wird,

zu der jeweiligen Test-Transformationsmatrix (T) als Gütewert die Anzahl (N1) der Merkmale (M1) einer zweiten Teilmenge (T2) ermittelt wird, die durch die Test-Transformationsmatrix (T) mit ei- ner definierten Genauigkeit abgebildet werden,

die Test-Transformationsmatrix (T) mit der höchsten Anzahl (N1) ausgewählt wird, und

aus den zugehörigen Merkmalen (M1), die mit der definierten Genauigkeit abbildbar sind, die Transformationsmatrix (Hb a) berech- net wird.

11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Einzelbilder (Ia, Ib) in einer planaren Projektionsfläche zusammengefügt werden. 12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass das zeitlich nachgeordnete Einzelbild (Ib) beim Zusammenfügen dem zeitlich vorgeordneten Einzelbild (Ia) überlagert wird.

13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeich- net, dass zum Zusammenfügen das verschobene Einzelbild (Ia, Ib) die x-Koordinate (x) und die y-Koordinate (y) der Pixel auf den nächsten ganzzahligen Wert gerundet werden.

14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeich- net, dass die Einzelbilder (Ia, Ib) mittels eines Endoskopsystems (1) aufgenommen sind.

15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass die Einzelbilder (Ia, Ib) vor dem Bestimmen der Merkmale (M1 bis Mn) entzerrt werden.

16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass für jedes Einzelbild (Ia, Ib) eine Glanzlichtmaske (La, Lb) erstellt wird, indem Pixelwerte (pa(x, y), Pb(x, y)) detektiert werden, die einen Glanzlichtschwellwert (tj) überschreiten und in den Glanzlichtmasken (La, Lb) keine Merkmale (M1 bis Mn) für die Berechnung der Transformationsmatrix (Hb,a) zugelassen werden.

17. Vorrichtung zum Zusammenfügen von mehreren digitalen Einzelbildern zu einem Gesamtbild mit

einer Eingabeeinheit (12) zum Bereitstellen eines ersten digitalen Einzelbildes (Ia) und eines mit diesem überlappenden zweiten digi- talen Einzelbildes (Ib),

einer Auswahleinheit (15) zum Bestimmen von mehreren Merkmalen (M1 bis Mn) des ersten Einzelbildes (Ia), die derart ausgebildet ist, dass den Merkmalen (M1 bis Mn) jeweils erste Merkmalskoordinaten (pta bis pna) zugeordnet werden,

- einer Verfolgungseinheit (16) zum Bestimmen der Merkmale (M1 bis Mn) in dem zweiten Einzelbild (Ib), die derart ausgebildet ist, dass den Merkmalen (M1 bis Mn) jeweils zweite Merkmalskoordinaten (ptb bis pnb) zugeordnet werden,

einer Transformationseinheit (17) zum Bestimmen einer mindes- tens sechs Freiheitsgrade aufweisenden Transformationsmatrix

(Hb>a) zwischen den Einzelbildern (Ia, Ib), die derart ausgebildet ist, dass

— eine erste Teilmenge (T1) der Merkmale (M1 bis Mn) ausgewählt wird,

- aus den ersten und zweiten Merkmalskoordinaten (p/1, p/5) dieser Teilmenge (T1) eine Test-Transformationsmatrix (T) berechnet wird,

— zu der Test-Transformationsmatrix (T) mit einer zweiten

Teilmenge (T2) der Merkmale (M1 bis Mn) ein Gütewert (N1) ermittelt wird, und

— die Transformationsmatrix (Hb a) ausgehend von der Test- Transformationsmatrix (T) ermittelt wird, wenn der Gütewert (N1) ein Gütekriterium erfüllt, und einer Ausgabeeinheit (18) zum Zusammenfügen der Einzelbilder (Ia, Ib) zu einem Gesamtbild (G) mittels der Transformationsmatrix

(Hb,a). 18. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, dass eine Entzerreinheit (13) zum Entzerren der Einzelbilder (Ia, Ib) vorgesehen ist.

19. Vorrichtung nach Anspruch 17 oder 18, dadurch gekennzeichnet, dass eine Glanzlichteinheit (14) zum Bestimmen von Glanzlichtmasken (La, Lb) der Einzelbilder (Ia, Ib) vorgesehen ist.

20. Endoskopsystem mit

einem an einem Schaft (2) angeordneten bildgebenden Sensor (9) zur Aufnahme von digitalen Einzelbildern (Ia, Ib) und

einer Vorrichtung (11) zum Zusammenfügen von mehreren digitalen Einzelbildern (Ia, Ib) zu einem Gesamtbild (G) nach einem der Ansprüche 17 bis 19.

Description:
Verfahren und Vorrichtung zum Zusammenfügen von mehreren digitalen Einzelbildern zu einem Gesamtbild

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Zusam- menfügen von mehreren digitalen Einzelbildern zu einem Gesamtbild.

Endoskop Systeme werden zum Inspizieren schwer zugänglicher Hohlräume im industriellen und medizinischen Bereich eingesetzt. Das eingeschränkte Blickfeld von Endoskop Systemen erschwert die Orientierung sowie die Koordination beim Inspizieren der Hohlräume, wodurch der gesamte Inspiziervorgang deutlich komplexer und zeitaufwändiger wird. Um das Blickfeld von Endoskop Systemen zu erweitern, wurden Verfahren entwickelt, die aus einer Folge von endoskopisch aufgenommenen, digitalen Einzelbildern ein Gesamtbild erzeugen. Das Zusammenfügen wird auch als Stitching oder Mosaicking bezeichnet. Durch das zusammengefügte Gesamtbild, das auch als Bildmosaik bezeichnet wird, wird das Blickfeld des Endoskopsystems künstlich erweitert.

Aus dem Fachartikel„Real-Time Image Mosaic for Endoscopic Video Se- quences" von Konen et al., veröffentlicht in„Bildverarbeitung für die Medizin", 2007, ist ein echtzeitfähiges Verfahren zum Zusammenfügen von endoskopisch aufgenommenen Einzelbildern zu einem Bildmosaik bekannt, das auf einer Berechnung des optischen Flusses basiert. Als optischer Fluss wird ein Vektorfeld bezeichnet, das zwischen je zwei Einzel- bildern für jedes Pixel die Bewegungsrichtung und -geschwindigkeit angibt. Hierbei wird angenommen, dass sich zwischen den Einzelbildern die Pixelwerte nicht verändern, sondern lediglich verschieben. Nachteilig bei diesem Verfahren ist, dass die Berechnung des optischen Flusses aufwändig ist. Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Zusammenfügen von mehreren digitalen Einzelbildern zu einem Gesamtbild zu schaffen, das schnell, insbesondere echtzeitfähig, und genau ist.

Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Das erfindungsgemäße Verfahren basiert auf einem merkmalsbasierten Algorithmus, mit dem in dem ersten Einzelbild mehrere Merkmale bestimmt und diese Merkmale in dem zweiten Einzelbild erneut bestimmt bzw. verfolgt werden. Das Verfolgen der in dem ersten Einzelbild bestimmten Merkmale wird auch als Tracking bezeichnet. Als merkmalsbasierter Algorithmus können beispielsweise der KLT-Algorithmus, der Harris-Corner-Detektor, der Monotonie-Operator, der SIFT- Algorithmus (Scale Invariant Feature Transform) oder der SURF- Algorithmus (Speeded Up Robust Features) dienen.

Aus den bestimmten und verfolgten Merkmalen wird eine Transformationsmatrix berechnet, die zum Zusammenfügen der Einzelbilder zu dem Gesamtbild dient. Die Transformationsmatrix weist mindestens sechs Frei- heitsgrade auf und ist beispielsweise eine affine Transformationsmatrix mit genau sechs Freiheitsgraden oder eine projektive Transformationsmatrix mit genau acht Freiheitsgraden. Aus der Menge der bestimmten Merkmalskorrespondenzen, also den ersten und zugehörigen zweiten Merkmalskoordinaten zu den Merkmalen M 1 bis M n wird die Transformationsmatrix be- rechnet, die die beiden Einzelbilder ineinander überführt. Die Gesamtmenge der Merkmalskorrespondenzen wird mit

A = {{ P :y ι ),{pi P b 2 ),...,{p:y n )} o) bezeichnet, wobei

P: die ersten Merkmalskoordinaten des Merkmals M n und

P : die zugehörigen zweiten Merkmalskoordinaten des

Merkmals M n sind.

Wenn die zu Grunde liegende Transformation die perspektivische Transformation ist, gilt

P a = H b , a p b (2) wobei H b,a eine Transformationsmatrix mit acht Freiheitsgraden ist, die die Punkte p a = (x a , y a , l) τ und p b = (x b , y b , l) τ miteinander verbindet.

Ausschreiben der Elemente der Matrix H ergibt

und die Koordinaten berechnen sich als - A - und

Einfaches Umformen dieser Gleichungen führt zu hi ix b + h 12 y b + h 13 - h 3 ixV - h 32 y b x a - h 33 x a = 0 (6) und h 2i x b + h 22 y b + h 23 - h 31 x b y a - h 32 y b y a - h 33 y a = 0 (7)

Jede Merkmalskorrespondenz liefert zwei homogene Gleichungen dieser Art, um die neun Parameter H 11 ... h 33 zu bestimmen. Allerdings ist die Mat- rix H b>a nur bis auf einen beliebigen Skalierungsfaktor eindeutig definiert, weshalb sie acht Freiheitsgrade besitzt. Wenn die homogenen Gleichungen durch das Element h 33 geteilt werden, bleiben acht Unbekannte, da sich dieses Element herauskürzt. Aus diesem Grund ist eine Menge von vier Merkmalskorrespondenzen ausreichend, um die Transformationsmatrix zwischen zwei Einzelbildern zu bestimmen.

Die Berechnung der Transformationsmatrix kann mittels einer Singulär- wertzerlegung durchgeführt werden. Aus den Vektoren h = (h π , h 12 , h 13 , h 21 , h 22 , h 23 , h 31 , h 32 , h 33 ) τ (8)

(X 1 = (jcf ,y b , 1,0,0,0 -xχ b -yχ b -x t a ) τ (9) P 1 = (O 9 O 9 O 9 Xf 9 Yf , l. -xfy.Vy bf _y_. aV ,y τ ,a" \)1 (10) können die homogenen Gleichungen als α^h = 0 (H) geschrieben werden. Aus den n Merkmalskorrespondenzen mit n > 4 kann nun die Systemmatrix Q für die Singulärwertzerlegung konstruiert werden

und die homogenen Gleichungen aus Gleichung (11) lassen sich schreiben als

Q h = O (14)

Die Lösung dieses Gleichungssystems ist der Nullraum von Q. Die Lösung ist eindeutig, wenn in der Menge vier oder mehr Merkmalskorresponden- zen enthalten sind, die nicht kolinear sind. Existieren mehr als vier solcher Korrespondenzen, kann ebenfalls an Hand der Singulärwertzerlegimg die Lösung mit den kleinsten Fehlerquadraten berechnet werden. Die Singu- lärwertzerlegung faktorisiert Q in drei Matrizen Q = U J V . Die Diago- nalmatrix∑ enthält die absteigend sortierten Singulärwerte σi ... σ 9 . Im Fall einer perfekten Lösung gilt σ 9 = 0 und G 1 ≠ 0 für 1 < i < 8. Im Fall eines überbestimmten Gleichungssystems gilt σ 9 ~ 0. In beiden Fällen ist der korrespondierende letzte Spaltenvektor von V der Lösungsvektor. Dieser Vektor enthält neun Elemente, die die gesuchte Transformationsmatrix erge- ben, wenn diese zeilenweise mit den Elementen aufgefüllt wird.

Für das affine Transformationsmodell kann auf entsprechende Weise die Transformationsmatrix bestimmt werden. Da diese Transformationsmatrix nur sechs Freiheitsgrade hat, reicht hier eine Menge von mindestens drei nicht kolinearen Merkmalskorrespondenzen. Es gilt σ$ = 0 und σ 9 = 0 und die korrespondierenden rechtssingulären Vektoren sind die achten bzw. neunten Einheitsvektoren. Im Fall einer perfekten Lösung gilt σ 7 = 0 und im Fall einer Lösung mit geringsten Fehlerquadraten σ 7 ~ 0. Die Lösung ist hier der siebte Spaltenvektor aus V.

Da der merkmalsbasierte Algorithmus aufgrund seiner Einfachheit, insbesondere bei endoskopisch aufgenommenen Einzelbildern, aufgrund deren schlechter Bildqualität, zu Fehlzuordnungen bei den Merkmalskorrespondenzen, also zu falsch verfolgten Merkmalen, führt, ist eine robuste Be- rechnung der Transformationsmatrix erforderlich. Hierzu wird der sogenannte RANSAC-Algorithmus (RANdom SAmple Consensus) verwendet, mit dem falsch zugeordnete Merkmalskorrespondenzen bei der Berechnung der Transformationsmatrix unberücksichtigt bleiben. Zunächst wird anhand einer ersten Teilmenge, beispielsweise einer minimalen Teilmenge von erforderlichen Merkmalskorrespondenzen, eine Test- Transformationsmatrix berechnet. Für diese Test-Transformationsmatrix wird nun ein Gütewert, der sogenannte Support, bestimmt. Das bedeutet, es wird ermittelt, ob die Test-Transformationsmatrix für eine zweite Teilmen- ge der Merkmale, beispielsweise für die restlichen Merkmale, einem vorgegebenen Gütekriterium genügt. Es wird beispielsweise ermittelt, welche Anzahl der Merkmale der zweiten Teilmenge dem Gütekriterium genügt. Die dem Gütekriterium genügenden Merkmale werden als sogenannte In- lier bezeichnet, die anderen Merkmale werden entsprechend als Outlier bezeichnet. Für eine Test-Transformationsmatrix wird eine Merkmalskorrespondenz beispielsweise als Inlier klassifiziert, wenn gilt

|p; - hpf | <;, (15) wobei ||...| den euklidischen Abstand bezeichnet.

Dieser Vorgang wird solange wiederholt, bis eine Test- Transformationsmatrix mit einem ausreichend hohen Support gefunden oder eine maximale Anzahl an Iterationen durchlaufen wurde. Die endgültige Transformationsmatrix ist dann beispielsweise die beste Test- Transformationsmatrix. Alternativ kann aus den zu der besten Test- Transformationsmatrix vorliegenden Inliern die Transformationsmatrix berechnet werden.

Der merkmalsbasierte Algorithmus ermöglicht somit die Erstellung endo- skopischer Bildmosaike bzw. eines endoskopischen Gesamtbilds aus Einzelbildern, wobei durch den RANSAC-Algorithmus eine Ausreißer- Erkennung für falsch verfolgte bzw. getrackte Merkmale bereitgestellt wird. Das erfindungsgemäße Verfahren gewährleistet somit aufgrund des merkmalsbasierten Algorithmus ein schnelles und aufgrund des RANSAC- Algorithmus ein genaues Zusammenfügen der Einzelbilder, auch wenn diese nur eine geringe Bildqualität aufweisen, wie dies bei endoskopisch aufgenommenen Einzelbildern der Fall ist. Das erfindungsgemäße Verfah- ren ist insbesondere echtzeitfähig, wobei unter Echtzeitfähigkeit mindestens zehn zusammengefügte Einzelbilder pro Sekunde bei Verwendung eines handelsüblichen PC verstanden wird.

Ein Verfahren nach Anspruch 2 ermöglicht ein Bestimmen der Merkmals- koordinaten bei verhältnismäßig großen Verschiebungen zwischen den Einzelbildern. Ausgehend von einer niedrigsten Auflösungsstufe wird ein Merkmal, beispielsweise subpixelgenau, lokalisiert und verfolgt. Das Ergebnis wird in die nächste Auslösungsstufe projiziert, wo das Merkmal erneut bestimmt und verfolgt wird. Die Verschiebungen in Pixeln sind so- mit pro Auflösungsstufe auf ein bestimmtes Maß begrenzt.

Ein Verfahren nach Anspruch 3 bietet einen guten Kompromiss zwischen Schnelligkeit und Genauigkeit. Bei diesem merkmalsbasierten Algorithmus, der auch als KLT-Algorithmus bezeichnet wird, ist das Bestimmen und Verfolgen der Merkmale optimal aufeinander abgestimmt, da ein Pixelfenster bzw. Merkmalsfenster nur dann als Merkmal charakterisiert wird, wenn das für das Verfolgen des Merkmals zu lösende lineare Gleichungssystem stabil lösbar ist. Hierzu wird aus den Gradienten zu den Pixeln des Pixelfensters in dem ersten Einzelbild eine Matrix gebildet und deren Eigenwerte berechnet. Die Matrix hat den Rang 2. Sofern beide Eigenwerte einen vordefinierten Schwellwert überschreiten, wird das Pixelfenster als Merkmal charakterisiert, dem erste Merkmalskoordinaten zugeordnet werden. Da die Merkmale auch als Merkmalspunkte bezeichnet werden, werden die Merkmalskoordinaten auch entsprechend als Punktko- ordinaten bezeichnet. Diese Merkmalskoordinaten können die Pixelkoordinaten eines der im Pixelfenster liegenden Pixels sein. Die Matrix wird anschließend zum Verfolgen bzw. zum Bestimmen des Merkmals in dem zweiten Einzelbild verwendet. Hierzu wird aus der Matrix und einem Feh- lervektor ein Verschiebungsvektor durch Lösen eines linearen Gleichungssystems berechnet. Der Verschiebungsvektor beschreibt die Verschiebung des Pixelfensters bzw. Merkmals in dem zweiten Einzelbild und gilt für alle Pixel des Pixelfensters. Der merkmalsbasierte Algorithmus ist in dem Fachartikel„Detection and Tracking of Point Features" von Carlo Tomasi und Takeo Kanade (Technical Report CMU-CS-91-132, Carnegie Mellon University, 1991) im Detail beschrieben, auf den hiermit verwiesen wird. Der Algorithmus ist auch als KLT (Kanade-Lukas-Tomasi)-Tracking- Algorithmus oder als KLT- Tracker bzw. KLT -Algorithmus bekannt. Der KLT-Algorithmus basiert auf dem linearen Gleichungssystem

G - d = e (16) wobei

G eine symmetrische Matrix mit Rang 2,

d ein Verschiebungsvektor (dx, dy) und

e ein Fehlervektor ist.

Für jeweils zwei aufeinander folgende Einzelbilder I (nachfolgend auch I a ) und J (nachfolgend auch I b ) kann die Matrix G durch Ermittlung der Gradienten g aus dem ersten Einzelbild wie folgt berechnet werden: wobei g ein Gradientenvektor zu einem Pixel des Pixelfensters

W,

w eine Gewichtungsfunktion zur Gewichtung der Pixel des Pixelfensters W und

dA = dx dy das Integrationsdifferenzial des Doppelintegrals ist.

Der zweidimensionale Fehlervektor e wird aus den berechneten Gradienten g und den Differenzen der Pixelwerte der Einzelbilder im Pixelfenster W wie folgt berechnet: e = J (/(x) - J(x))• gwdA ( 18)

wobei

I(x) der Pixelwert des ersten Einzelbilds im Pixel x, J(x) der Pixelwert des zweiten Einzelbilds im Pixel x, g der Gradientenvektor zu einem Pixel des Pixelfensters

W,

w eine Gewichtungsfunktion zur Gewichtung der Pixel des Pixelfensters W und

dA = dx dy das Integrationsdifferenzial des Doppelintegrals ist. Für diskrete Pixel sind die Doppelintegrale in den Gleichungen (16) bis (18) durch Doppelsummen in der x- und y-Richtung der Bildebene zu ersetzen. Bei der Berechnung der Eigenwerte deuten zwei kleine Eigenwerte auf homogene Bildbereiche hin, während ein großer und ein kleiner Eigenwert für unidirektionale Merkmale, wie beispielsweise Kanten, stehen. Zwei große Eigenwerte deuten auf Ecken oder hochfrequente Texturen hin, welche gut zu verfolgende Merkmale sind. Da der größere Eigenwert nach oben durch die maximalen Pixelwerte bzw. Intensitätswerte begrenzt ist, ist es ausreichend, dass der kleinere der beiden Eigenwerte über einem bestimmten Schwellwert liegt. Folglich wird bei der Merkmalsauswahl ein Pixelfenster dann akzeptiert, wenn für deren Eigenwerte X 1 und X 2 gilt, dass wobei λ t ein vordefinierter Schwellwert ist.

Ein Verfahren nach Anspruch 4 erhöht die Genauigkeit bei der Berechnung der Verschiebungsvektoren. Bei der Lösung des linearen Gleichungssystems (16) wird der Verschiebungsvektor d(i) einen Restfehler aufweisen, da die Taylor- Approximation durch den linearen Term, also durch den Gradientenvektor g, nur dann eine präzise Lösung darstellt, wenn die Pixelwerte linear von x und y abhängen. Dies ist vor allem in Pixelbereichen mit hohen Frequenzen, die sich gut zum Verfolgen bzw. Tracken eignen, nicht der Fall. Die näherungsweise Lösung für den Verschiebungsvektor d(i) kann jedoch als Ausgangspunkt für weitere Iterationsschritte dienen, in denen das Gleichungssystem (1) erneut gelöst und ein neuer Verschiebungsvektor d(i+l) berechnet wird. Um zu prüfen, ob dies nötig ist, wird zunächst das jeweilige Pixelfenster um den bestimmten Verschiebungsvektor in einem der Einzelbilder verschoben. Da diese Position in der Regel zwischen diskreten Pixelkoordinaten liegt, werden mittels bilinearer Interpolation neue Pixelwerte für das Pixelfenster berechnet und hieraus anschließend der Fehler, also die Summe der quadratischen Differenzen der Pixelwerte bzw. Bildintensitäten, bestimmt. Übersteigt dieser Fehler einen vordefinierten Toleranzwert, werden ausgehend von dem aktuellen Ver- schiebungsvektor d weitere Iterationsschritte durchgeführt, bis der Fehler den Toleranzwert unterschreitet oder eine maximale Anzahl an Iterationsschritten erreicht ist. Typischerweise werden weniger als fünf Iterationsschritte benötigt, um das gesuchte Merkmal präzise zu lokalisieren. Da nach jedem Iterationsschritt durch lineare Interpolation die Pixelwerte bzw. Intensitätswerte neu bestimmt werden, kann der Verschiebungsvektor d mit Subpixelgenauigkeit berechnet werden.

Ein Verfahren nach Anspruch 5 ermöglicht eine Berechnung der Verschiebungsvektoren bei verhältnismäßig großen Verschiebungen zwischen den Einzelbildern. Der merkmalsbasierte Algorithmus ist aufgrund des ihm zugrunde liegenden linearen Ansatzes nur in der Lage, verhältnismäßig kleine Verschiebungen zu bestimmen. Durch einen pyramidenbasierten Ansatz, in dem die Einzelbilder in mehreren Auflösungsstufen j vorliegen, können auch größere Verschiebungen bestimmt werden. Ausgehend von einer niedrigsten Auflösungsstufe wird ein Merkmal, beispielsweise subpi- xelgenau, lokalisiert und die durch den Verschiebungsvektor d(j) errechnete Position auf die nächste Auflösungsstufe projiziert, wo sie als Ausgangspunkt für die weitere Berechnung des Verschiebungsvektors d(j+l) dient. Somit nähert sich der Algorithmus einer exakten Lösung für den Verschiebungsvektor d mit jeder Auflösungsstufe an, wobei die zu bestimmenden Verschiebungen pro Auflösungsstufe ausreichend klein sind. Der Algorithmus ist beispielsweise mit einem vorgebbaren Suchradius r steuerbar, welcher angibt, wie groß die Verschiebungen sein dürfen, die vom Algorithmus zu erkennen sind. Anhand des Suchradius berechnet der Algorithmus automatisch die Anzahl der Auflösungsstufen sowie den Faktor des Subsamplings zwischen zwei Auflösungsstufen. Gleichzeitig wird ein Grenzbereich in x- und y-Richtung definiert, der von dem Algorithmus bei der weiteren Berechnung ignoriert wird. Dies ist darin begründet, dass durch den Gauss-Filter, der auf jeder Auflösungsstufe angewandt wird, Randbereiche entstehen, die Undefiniert sind.

Ein Verfahren nach Anspruch 6 gewährleistet, dass die zu verfolgenden Merkmale möglichst homogen über den Einzelbildern verteilt sind. Hier- durch können Verschiebungen in unterschiedlichste Richtungen einfach verfolgt werden.

Ein Verfahren nach Anspruch 7 gewährleistet eine hohe Bildqualität des Gesamtbilds. Die projektive Transformation wird auch als perspektivische Transformation oder Homografie bezeichnet. Mittels der projektiven

Transformation kann die freie Bewegung eines bildgebenden Sensors über einem flachen Objekt modelliert oder eine beliebige Szene, bei der die Bewegung des bildgebenden Sensors auf die Rotation um seine eigene Achse eingeschränkt ist.

Ein Verfahren nach Anspruch 8 erhöht die numerische Stabilität bei der Berechnung der Transformationsmatrix. Ein Verfahren nach Anspruch 9 gewährleistet eine hohe numerische Stabilität in Verbindung mit einer hohen Bildqualität des Gesamtbilds. Zunächst wird aus den Merkmalen der einzelnen Bilder j jeweils der Schwerpunkt berechnet. Der Schwerpunkt c = (c x ,c y ) berechnet sich als

1 "

(20)

Weiterhin kann für jedes Bild j der mittlere Abstand d zum Schwerpunkt berechnet werden:

Ziel ist es, den Koordinatenursprung der berechneten Merkmale aus jedem Einzelbild in den Schwerpunkt zu verschieben und die Merkmale so zu skalieren, dass der Abstand zum Ursprung im Durchschnitt V2 beträgt. Dies geschieht durch Multiplikation mit den Normalisierungsmatrizen N j , die sich wie folgt berechnen:

An Hand der normalisierten Merkmalskoordinaten p^ wird nun die normalisierte Transformationsmatrix H berechnet, so dass gilt P.≡Hp; (23)

Die nicht-normalisierte Transformationsmatrix H kann nun aus H berechnet werden. Es gilt:

H = N 3 "1 H N b . (24)

Ein Verfahren nach Anspruch 10 gewährleistet eine robuste und genaue Berechnung der Transformationsmatrix. Durch die abschließende Berechnung der Transformationsmatrix aus allen Inliern der besten Test- Transformationsmatrix wird eine optimale Genauigkeit der Transformationsmatrix erreicht. Ein Verfahren nach Anspruch 11 gewährleistet ein einfaches und effizientes Zusammenfügen der Einzelbilder zu dem Gesamtbild, was insbesondere für die Echtzeitfähigkeit von Bedeutung ist.

Ein Verfahren nach Anspruch 12 gewährleistet eine einfache Visualisie- rung des Gesamtbilds in Echtzeit. Das Gesamtbild ist eine hybride Darstellung aus einem statischen und einem dynamischen Anteil. Der statische Anteil sind zeitlich zurückliegende Einzelbilder, die von dem aktuellen Einzelbild als dynamischen Anteil überlagert sind. Vorzugsweise wird das aktuelle Einzelbild jeweils in der Monitormitte eines Monitors angezeigt. Das Bildmosaik wird somit immer auf die aktuellste Ansicht zentriert. Ein Verfahren nach Anspruch 13 gewährleistet ein schnelles und rechenoptimiertes Zusammenfügen der Einzelbilder. Dies ist insbesondere für das Zusammenfügen in Echtzeit von Bedeutung. Ein Verfahren nach Anspruch 14 gewährleistet ein schnelles und genaues Zusammenfügen zu einem Gesamtbild, auch wenn die Einzelbilder eine schlechte Bildqualität aufweisen. Mit einem Endoskop System aufgenommene Einzelbilder sind durch die eingesetzten Weitwinkellinsen in der Regel verzerrt. Zusätzlich wird die Bildqualität durch die Bewegung des bild- gebenden Sensors sowie durch Glanzlichteffekte beeinträchtigt.

Ein Verfahren nach Anspruch 15 verbessert die Bildqualität des Gesamtbilds. Bildgebende Systeme mit Linsen, insbesondere Weitwinkellinsen, verursachen in den Einzelbildern Verzerrungen. Dies ist auch bei Endo- skopsystemen der Fall. Die Entzerrung erfolgt mittels eines inversen Ver- zerr-Modells. Hinsichtlich der Entzerrung wird auf den Fachartikel„Preci- se Radial Un-distortion of Images" von John Mallon und Paul F. Whelan, veröffentlicht in„Proceedings of 17th International Conference on Pattern Recognition", 2004, verwiesen.

Ein Verfahren nach Anspruch 16 vermeidet das Bestimmen und Verfolgen von falschen Merkmalen. Endoskopisch aufgenommene Einzelbilder weisen regelmäßig einen hohen Anteil an Glanzlicht in Folge der zu inspizierenden glatten und/oder feuchten Oberflächen auf. Glanzlicht entsteht dort, wo das vom Endoskop System ausgestrahlte Licht senkrecht auf die Objektoberfläche auftrifft und von dort reflektiert wird. Da diese Glanzlichter hohe Pixelwerte bzw. Intensitätswerte haben, sind an den Grenzen der Glanzlichter oftmals die stärksten Kontraste zu finden, sodass der merkmalsbasierte Algorithmus hier die vermeintlich besten Merkmale findet. Diese Merkmale gehören jedoch nicht zur Szene, sondern werden bei der Aufnahme der Einzelbilder erzeugt und sind dementsprechend in ihrer Bewegung von der Bewegung des bildgebenden Sensors abhängig. Da sich das Glanzlicht von Einzelbild zu Einzelbild nur geringfügig verändert, können die zugehörigen Merkmale gut verfolgt werden, wobei auch der RANSAC- Algoritmus nicht in der Lage ist, sie ausreichend zu eliminieren. Dies führt letztendlich zu einer schlechten Transformationsmatrix. Da sich Glanzlichter in ihren Pixelwerten deutlich von dem Rest des Einzelbilds abheben, können diese relativ einfach durch einen Schwellwerttest und anschließen- der Erosion erkannt werden. Für jedes Einzelbild werden alle Pixelwerte mit einem Glanzlichtschwellwert verglichen. Die Pixel, deren Pixelwert den Glanzlichtschwellwert überschreiten, werden einer Glanzlichtmaske zugeordnet. Die so entstehende Glanzlichtmaske wird durch Erosion ausgeweitet. Diese entspricht einer morphologischen Dilation mit einem run- den Strukturelement. Anhand der binären Glanzlichtmaske werden Merkmale in deren Bereich ausgeschlossen. Hierzu werden im Bereich der Glanzlichtmaske keine Merkmale bestimmt oder darin bestimmte Merkmale nicht verfolgt bzw. nicht zur Berechnung der Transformationsmatrix herangezogen.

Der Erfindung liegt ferner die Aufgabe zugrunde, eine Vorrichtung zum Zusammenfügen von mehreren digitalen Einzelbildern zu einem Gesamtbild zu schaffen, die schnell, insbesondere echtzeitfähig, und genau ist. Diese Aufgabe wird durch eine Vorrichtung mit den Merkmalen des Anspruchs 17 gelöst. Die Vorteile der erfindungsgemäßen Vorrichtung entsprechen den bereits beschriebenen Vorteilen des erfindungsgemäßen Verfahrens. Insbesondere kann die Vorrichtung auch entsprechend den Ansprüchen 2 bis 16 weitergebildet werden. Eine Vorrichtung nach Anspruch 18 erhöht die Genauigkeit beim Zusammenfügen der Einzelbilder zu dem Gesamtbild, insbesondere wenn die Einzelbilder mittels eines Endoskop Systems aufgenommen sind.

Eine Vorrichtung nach Anspruch 19 erhöht die Genauigkeit beim Zusammenfügen der Einzelbilder, wenn diese Glanzlichter enthalten.

Ein Endoskop System nach Anspruch 20 weist ein virtuell erweitertes Blick- feld auf. Das Endoskop System kann in der Technik zur Analyse und Prüfung von Bauteilen sowie zur Dokumentation von Fehlstellen eingesetzt werden. Darüber hinaus kann das Endoskop System in der Medizin zur Untersuchung von Hohlorganen und zur Dokumentation von Läsionen sowie in der minimalinvasiven Chirurgie eingesetzt werden.

Weitere Merkmale, Vorteile und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines Ausführungsbeispiels. Es zeigen: Fig. 1 eine schematische Ansicht eines Endoskop Systems mit einer Vorrichtung zum Zusammenfügen von digitalen Einzelbildern zu einem Gesamtbild,

Fig. 2 eine schematische Ansicht von zwei aufeinanderfolgend aufgenommenen Einzelbildern,

Fig. 3 eine schematische Ansicht eines aus den Einzelbildern in

Fig. 2 zusammengefügten Gesamtbilds, Fig. 4 einen schematischen Ablaufplan des Verfahrens zum Zusammenfügen der Einzelbilder zu dem Gesamtbild, und

Fig. 5 einen schematischen Ablaufplan des merkmalsbasierten

Algorithmus zum Bestimmen und Verfolgen von Merkmalen in den Einzelbildern.

Ein Endoskopsystem 1 weist einen Schaft 2 auf, an dem an einem ersten Ende 3 ein Griff 4 und an einem zweiten Ende 5 ein bildgebendes System 6 angeordnet ist. Der Schaft 2 ist flexibel ausgebildet. Alternativ kann dieser auch starr sein.

Das optische System 6 umfasst eine Strahlungsquelle 7, eine Weitwinkellinse 8 und einen bildgebenden Kamera- Sensor 9. Die Strahlungsquelle 7 sowie der Kamera-Sensor 9 können über den Griff 4 gesteuert werden. Der bildgebende Sensor 9 ist beispielsweise als miniaturisierter Videosensor in Tip-Chip-Technologie ausgebildet.

Die von dem Sensor 9 aufgenommenen Einzelbilder I a ,I b werden über eine Signalleitung 10 von dem Sensor 9 zu einer Vorrichtung 11 übertragen, die zum Zusammenfügen der digitalen Einzelbilder I a ,I b zu einem Gesamtbild G dient. Die Signalleitung 10 ist beispielsweise als elektrische Bildübertragungsleitung ausgebildet. Die Vorrichtung 11 ist als Personalcomputer ausgebildet, auf dem eine Eingabeeinheit 12, eine Entzerreinheit 13, eine Glanzlichteinheit 14, eine Auswahleinheit 15, eine Verfolgungseinheit 16, eine Transformationseinheit 17 und eine Ausgabeeinheit 18 implementiert sind. Zur Speicherung von Daten weist die Vorrichtung zusätzlich eine Speichereinheit 19 auf. Zur Visualisierung des Gesamtbilds G ist die Vorrichtung 11 an einen Monitor 20 angeschlossen.

Mit dem Kamera-Sensor 9 werden zunächst in einem zeitlichen Abstand Δt ein erstes Einzelbild I a sowie ein zeitlich nachfolgendes zweites Einzelbild I b aufgenommen. Zwischen der Aufnahme der Einzelbilder I a und I b wurde der Kamera-Sensor 9 verschoben, sodass die vor dem Kamera-Sensor 9 liegende Szene aus unterschiedlichen Positionen aufgenommen wurde. Das Einzelbild I a wird zunächst im Schritt Si in die Eingabeeinheit 12 eingelesen und anschließend in der Entzerreinheit 13 im Schritt S 2 mittels eines inversen Verzerr-Modells entzerrt. Das entzerrte Einzelbild I a wird im Schritt S 3 in der Speichereinheit 19 abgelegt. Anschließend wird das entzerrte Einzelbild I a der Glanzlichteinheit 14 übergeben, die im Schritt S 4 eine Glanzlichtmaske L a erstellt, die im Schritt S 5 in der Speichereinheit 19 abgelegt wird. Zum Erstellen der Glanzlichtmaske L a werden die Pixelwe- ret p a (x,y) mit einem Glanzlichtschwellwert I 1 verglichen und diejenigen Pixel der Glanzlichtmaske L a zugeordnet, deren Pixelwert p a (x,y) den Glanzlichtschwellwert I 1 überschreiten. Anschließend wird dieser Pixelbe- reich bzw. diese Pixelbereiche durch morphologische Dilation mit einem runden Strukturelement erweitert und so die Glanzlichtmaske L a gebildet.

Anschließend wird das Einzelbild I a im Schritt S 6 der Auswahleinheit 15 und der Verfolgungseinheit 16 zugeführt, in denen der merkmalsbasierte Algorithmus, beispielsweise der KLT- Algorithmus, implementiert ist. Die genaue Funktionsweise des KLT-Algorithmus wird nachfolgend noch genauer erläutert. Die Auswahleinheit 15 gibt im Schritt S 7 n Merkmale M 1 bis M n aus, die in dem Einzelbild I a bestimmt wurden. Die Merkmale M 1 bis M n sind durch zugehörige Merkmalskoordinaten p " bis p " charakterisiert, die in der

Speichereinheit 19 abgelegt werden. Das Einzelbild I a wird im Schritt Sg der Ausgabeeinheit 18 zugeführt, mit der dieses im Schritt S 9 in einer pla- naren Projektionsfläche dargestellt wird. Für das erste Einzelbild I a erfolgt noch kein Zusammenfügen, da kein weiteres Einzelbild vorliegt. Der Ursprung des ersten Einzelbildes I a kann in Schritt S 9 neu festgelegt werden. Hierzu wird aus der Speichereinheit 19 im Schritt S 1O eine Ursprungs- Transformationsmatrix H a;0 ausgelesen werden. Anschließend wird im

Schritt S 11 zu Schritt S 1 zurückgegangen, wo das nachfolgende zweite Einzelbild I b im Schritt S 1 eingelesen wird. Anschließend werden die Schritte S 2 bis S 7 für das Einzelbild I b wiederholt. Anschließend werden die in dem ersten Einzelbild I a bestimmten Merkmale M 1 bis M n in dem zweiten Einzelbild I b bestimmt. Dieser Vorgang wird auch als Tracken bzw. Verfolgen bezeichnet. Im Schritt S 12 werden die Merkmale M 1 bis M n sowie Parameter für den KLT-Algorithmus, wie beispielsweise einem Suchradius r, aus der Speichereinheit 19 in die Verfol- gungseinheit 16 eingelesen. Die Funktionsweise der Verfolgungseinheit 16 wird nachfolgend noch im Detail beschrieben.

Das Ergebnis des KLT-Algorithmus, das von der Verfolgungseinheit 16 ausgegeben wird, sind Merkmalskorrespondenzen, die für jedes der Merk- male M 1 bis M n aus den ersten Merkmalskoordinaten p " bis p " sowie zugehörigen zweiten Merkmalskoordinaten p * bis p * bestehen. Die Merkmalskorrespondenzen sind dementsprechend (p " , pf ) bis (p " , p* ). Die Merkmalskorrespondenzen werden im Schritt S 13 gebildet, wobei im Schritt Si 4 die Glanzlichtmasken L a und L b einfließen, sodass keine Merkmale M zugelassen werden, die innerhalb einer der Glanzlichtmasken L a oder L b liegen. Im Schritt Si 5 wird in der Transformationseinheit 17 die Transformationsmatrix H b a berechnet. Die Berechnung erfolgt entsprechend den Gleichungen (1) bis (24) mittels des RANS AC- Algorithmus, wozu in Schritt S 16 Parameter für den RANSAC-Algorithmus, wie beispielsweise die Größe der ersten Teilmenge Ti und der zweiten Teilmenge T 2 von Merkmalen M 1 sowie die Anzahl N der Iterationen eingelesen wird. Für nachfolgende Einzelbilder kann in Schritt Si 6 zusätzlich noch eine Merkmalshistorie eingelesen werden. Die Merkmalshistorie enthält alle Koordinaten und Werte eines Merkmals über die Zeit und kann von Nutzen sein, wenn Merkmale verloren gehen. Mit der Merkmalshistorie können zusätzliche Merkmals- korrespondenzen zwischen vergangenen Einzelbildern und dem aktuellen Einzelbild generiert werden, um das Gesamtbild bzw. dessen Entstehungs- prozess zu stabilisieren. Die Merkmalskoordinaten des verlorenen Merkmals werden mittels der Transformationsmatrix bzw. über mehrere aufeinanderfolgende Einzelbilder hinweg mittels mehrerer Transformationsmatri- zen weitertransformiert. Dadurch können diese Merkmale in der Liste der Merkmalskorrespondenzen weitergeführt werden.

Zur Berechnung der Transformationsmatrix H b a werden die Merkmalsko- ordinaten zunächst normalisiert und anschließend die Transformationsmatrix H b>a mittels des RANSAC-Algorithmus berechnet. Hierzu wird aus der Gesamtmenge der Merkmale Mi bis M n eine erste Teilmenge Ti ausgewählt. Im Falle einer projektiven Transformationsmatrix sind acht Unbekannte zu bestimmen, sodass mindestens vier Merkmalskoordinaten aus- gewählt werden müssen, um die Transformationsmatrix H b;3 eindeutig zu berechnen. Der RANSAC-Algorithmus führt N-Iterationsschritte durch, wobei in jedem Iterationsschritt eine erste Teilmenge T 1 zufällig ausgewählt und eine Test-Transformationsmatrix T berechnet wird. Anschlie- ßend wird die berechnete Test-Transformationsmatrix T mit einer zweiten Teilmenge T 2 von Merkmalen M 1 überprüft, wobei sich die Teilmengen T 1 und T 2 nicht überschneiden. Als Gütewert für die jeweilige Test- Transformationsmatrix T wird die Anzahl Ni der sogenannten Inlier herangezogen. Ein Merkmal M 1 der zweiten Teilmenge T 2 ist dann ein Inlier, wenn dieses innerhalb einer vordefinierten Genauigkeit durch das berechnete Test-Transformationsmodell abgebildet werden kann. Hierzu wird mit der Test-Transformationsmatrix T der euklidische Abstand berechnet. Die Test-Transformationsmatrix T mit der höchsten Anzahl Ni an Inliern wird als Ausgangspunkt verwendet, um mit allen als Inlier gekennzeichneten Merkmalen M 1 der zweiten Teilmenge T 2 die Transformationsmatrix H b;3 zu berechnen.

Wird keine Transformationsmatrix gefunden, so wird das Einzelbild I b im Schritt S 17 verworfen und im Schritt S 11 ein weiteres Einzelbild eingelesen. Liegt kein weiteres Einzelbild vor, so endet das Verfahren im Schritt S 18 . Wird eine Transformationsmatrix H b a gefunden, so wird diese im Schritt S 19 an die Ausgabeeinheit 18 übergeben, in der die Einzelbilder I a und I b zu dem Gesamtbild G zusammengefügt werden. Das Gesamtbild G wird durch den Monitor 20 visualisiert, wobei vorzugsweise das aktuelle Ein- zelbild I b dem bzw. den vorangehenden Einzelbildern I a überlagert wird. Das aktuellste Einzelbild I b wird vorzugsweise mittig auf dem Monitor 20 dargestellt. Die Transformationsmatrix H b a wird im Schritt S 20 in der Speichereinheit 19 abgelegt. Liegt kein weiteres Einzelbild vor, endet das Verfahren im Schritt S 18 . Nachfolgend wird unter Bezugnahme auf Fig. 5 die Funktionsweise der Auswahleinheit 15 und der Verfolgungseinheit 16 genauer beschrieben. Im Schritt S 6 wird das Einzelbild I a zunächst eingelesen. Das Einzelbild I a wird dann im Schritt S 61 mit einem Glättungsfüter geglättet und anschließend im Schritt S 62 eine Auflösungspyramide aus mehreren Auflö sungs stufen j er- stellt. Die Anzahl der Auflö sungs stufen j wird beispielsweise aus einem vorgegebenen Suchradius r berechnet.

Anschließend werden aus dem Einzelbild I a n Merkmale M 1 bis M n entsprechend den Gleichungen (16) bis (19) bestimmt bzw. extrahiert. Die Merkmale M 1 bis M n werden in allen Auflösungsstufen j berechnet, damit diese im darauffolgenden Einzelbild I b auch bei großen Verschiebungen verfolgt werden können. Der Verschiebungsvektor wird zunächst in der niedrigsten Auflösungsstufe bestimmt und anschließend in die nächsthöhere Auflö sungs stufe projiziert. Die Verschiebung in Pixeln kann somit in jeder Auflösungsstufe auf ein gewünschtes Maß begrenzt werden.

Im Schritt S 63 wird ein Pixelfenster W mit einer vordefinierten Breite b in x-Richtung und einer vordefinierten Höhe h in y-Richtung über das Einzelbild I a verschoben, wobei in jeder bzw. einer Vielzahl von Positionen des Pixelfenster W eine Matrix G entsprechend Gleichung (17) berechnet wird. Die Matrix G ergibt sich aus der Summe der Produkte gg τ über alle Pixel des Pixelfensters W, wobei g der Gradientenvektor zu einem bestimmten Pixel des Pixelfensters W ist. In Fig. 2 ist beispielhaft das Pixelfenster W des Merkmals M 1 mit einem Gradientenvektor g eingezeichnet. Zusätzlich kann eine Gewichtungsfunktion w berücksichtigt werden. Ist dies nicht gewünscht, kann w = 1 gewählt werden. Zu jedem Pixelfenster W werden die Eigenwerte X 1 und λ 2 der Matrix G berechnet und anhand von Gleichung (19) entschieden, ob das Pixelfenster W ein Merkmal M charakteri- siert. Zusätzlich muss ein neu hinzukommendes Merkmal M einen Minimalabstand ΔM zu den bereits bestimmten Merkmalen M einhalten. In Schritt S 64 wird eine Speicherung der bestimmten Merkmale M 1 bis M n eingeleitet, sodass diese im Schritt S 7 an die Speichereinheit 19 übermittelt werden. Anschließend wird im Schritt S 65 wieder zu Schritt S 61 zurückge- gangen, wo das zweite Einzelbild I b eingelesen und geglättet sowie in Schritt S 62 eine Auflösungspyramide hierzu erstellt wird.

Für das Verfolgen bzw. Tracken der Merkmale M 1 bis M n in der Verfolgungseinheit 16 werden diese der Reihe nach in Schritt S 66 ausgewählt. Zunächst werden für das erste Merkmal M 1 die Einzelbilder I a und I b in der niedrigsten Auflösungsstufe j = 1 in Schritt S 67 ausgewählt. Anschließend wird für diese Auflösungsstufe das Gleichungssystem (16) gelöst. Die Lösung des Gleichungssystems (16) ist der Verschiebungsvektor d für das erste Merkmal M 1 . Die Matrix G ist für Schritt S 68 bereits bekannt. Der Fehlervektor e wird in Schritt S 68 nach Gleichung (18) berechnet, wobei das Pixelfenster W in einem ersten Iterationsschritt i = 1 in dem zweiten Einzelbild I b an einer dem ersten Einzelbild I a entsprechenden Stelle angenommen wird. Der in dem ersten Iterationsschritt ermittelte Verschiebungsvektor d(i, j) ist noch fehlerbehaftet. Für einen zweiten Iterations- schritt i = 2 wird das Pixelfenster P in dem zweiten Einzelbild I b an einer um den im ersten Iterationsschritt ermittelten Verschiebungsvektor d verschobenen Stelle angenommen. Das Gleichungssystem (16) wird mit einem neu berechneten Fehlervektor e erneut gelöst, wobei der im zweiten Iterationsschritt ermittelte zweite Verschiebungsvektor d eine verbesserte Lösung des Gleichungssystems (16) darstellt. Der beschriebene Iterationsschritt S 69 wird solange wiederholt, bis die Lösung für den Verschiebungsvektor d konvergiert und das Merkmal M 1 in dem zweiten Einzelbild I b im Schritt

5 70 bestimmt ist. Das Lösen des Gleichungssystems (16) kann beispiels- weise mittels des Ne wton-Raphson- Algorithmus erfolgen. Wird nach einer Höchstzahl von Iterationen keine konvergierende Lösung für den Verschiebungsvektor d gefunden, wird das zugehörige Merkmal M 1 im Schritt

5 71 verworfen und im Schritt S 72 zu Schritt S 66 zurückgegangen, wo das nächste Merkmal M 2 ausgewählt wird.

Ist das Merkmal M 1 im Schritt S 7 o bestimmt, so wird im Schritt S 73 zu Schritt S 67 zurückgegangen, wo die nächsthöhere Auflösungs stufe j = 2 der Einzelbilder I a und I b ausgewählt wird. Anschließend werden die Schritte S 68 , S 69 und S 7 o für diese Auflösungs stufe unter Berücksichtigung des in der vorangegangenen Auflösungsstufe ermittelten Verschiebungsvektors d wiederholt. Wurde diese Schleife für alle Auflösungsstufen j durchlaufen, so wird im Schritt S 74 überprüft, ob weitere zu bestimmende Merkmale M vorliegen. Ist dies der Fall, wird Schritt S 72 wiederholt. Wurden alle Merkmale M im Einzelbild I b bestimmt, so werden im Schritt S 75 verlorene Merkmale M ersetzt. Ein Merkmal M kann verloren werden, wenn dieses in dem Einzelbild I b aufgrund der Verschiebung des Sensors 9 nicht mehr enthalten ist oder es im Schritt S 71 als unbrauchbar verworfen wurde. In Schritt S 75 werden verloren gegangene Merkmale M derart ersetzt, dass die Anzahl der Merkmal M wieder n beträgt. Das Ersetzen der Merkmale M im Schritt S 75 erfolgt entsprechend dem Schritt S 63 . Für die neu hinzugekommenen Merkmale M wird in Schritt S 67 ein Speichervorgang initiiert. Sofern weitere Einzelbilder vorliegen, wird Schritt S 65 wiederholt. Liegen keine weiteren Einzelbilder I vor, wird der KLT-Algorithmus im Schritt S 76 verlassen und zu Schritt S 13 übergegangen. Zum Zusammenfügen der Einzelbilder I a und I b werden die x- und y- Koordinaten der Pixel des verschobenen Einzelbildes I b auf den nächsten ganzzahligen Wert gerundet. Dieses Verfahren wird auch als„nearest neighbour"- Verfahren bezeichnet. Die nachfolgenden Einzelbilder können durch Multiplikation der aktuellen Transformationsmatrix H 11-1 mit der vorangegangenen Transformationsmatrix Hj -1 0 wie folgt berechnet werden:

H 1; o = H 1-1; o " H 1;1-1 (25)

Mit dem erfindungsgemäßen Verfahren und der entsprechenden Vorrichtung 11 können 6 bis 25 Bilder pro Sekunde auf einem PC vom Typ Intel Core 2 6420 mit 2,13 GHz und 2 GB RAM erzielt werden.