Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR GENERATING A THREE-DIMENSIONAL DOCUMENTATION
Document Type and Number:
WIPO Patent Application WO/2016/046054
Kind Code:
A1
Abstract:
The aim of the invention is to allow a simple generation of a three-dimensional documentation for a utility object (1) consisting of multiple parts (T). This is achieved in that image parameters (BP) of at least one image (A) of the utility object (1) are ascertained in an existing two-dimensional documentation (2); a 3D model (M) of the utility object (1) with the ascertained image parameters (BP) is arranged so as to overlap with the image (A); and additional information is obtained by comparing the two-dimensional image (A) and the 3D model (M) with the ascertained image parameters (BP) from the two-dimensional image (A), said additional information together with the 3D model (M) forming the three-dimensional documentation (10) of the utility object (1).

Inventors:
STIEGLBAUER GERALD (AT)
MOHR PETER (AT)
KERBL BERNHARD (AT)
KALKOFEN DENIS (AT)
DONOSER MICHAEL (DE)
SCHMALSTIEG DIETER (AT)
Application Number:
PCT/EP2015/071317
Publication Date:
March 31, 2016
Filing Date:
September 17, 2015
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
AVL LIST GMBH (AT)
International Classes:
G06T19/20
Domestic Patent References:
WO2008002630A22008-01-03
Other References:
MATHIEU AUBRY ET AL: "Seeing 3D Chairs: Exemplar Part-Based 2D-3D Alignment Using a Large Dataset of CAD Models", 2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 1 June 2014 (2014-06-01), pages 3762 - 3769, XP055232161, ISBN: 978-1-4799-5118-5, DOI: 10.1109/CVPR.2014.487
BERG A C ET AL: "Shape Matching and Object Recognition Using Low Distortion Correspondences", PROCEEDINGS / 2005 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, CVPR 2005 : [20 - 25 JUNE 2005, SAN DIEGO, CA], IEEE, PISCATAWAY, NJ, USA, vol. 1, 20 June 2005 (2005-06-20), pages 26 - 33, XP010817411, ISBN: 978-0-7695-2372-9, DOI: 10.1109/CVPR.2005.320
See also references of EP 3198566A1
Attorney, Agent or Firm:
PATENTANWÄLTE PINTER & WEISS OG (AT)
Download PDF:
Claims:
Patentansprüche

1 . Verfahren zum Erstellen einer dreidimensionalen Dokumentation (10) für einen Gebrauchsgegenstand (1 ), der aus mehreren Teilen (T, T1 , T2, T3) besteht, wobei

Bildparameter (BP) zumindest einer Abbildung (A) des Gebrauchsgegenstandes (1 ) in einer bestehenden zweidimensionalen Dokumentation (2) ermittelt werden,

ein 3D-Modell (M) des Gebrauchsgegenstandes (1 ) mit den ermittelten Bildparameter (BP) in Deckung mit der Abbildung (A) gebracht wird und

aus dem Vergleich der zweidimensionalen Abbildung (A) und des 3D-Modells (M) mit den ermittelten Bildparametern (BP) aus der zweidimensionalen Abbildung (A) Zusatzinformation gewonnen wird, die gemeinsam mit dem 3D-Modell (M) die dreidimensionale Dokumentation (10) des Gebrauchsgegenstandes (1 ) bildet.

2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass in der Abbildung (A) und im 3D-Modell (M) eine Mehrzahl von korrespondierenden Punkte (P1A-P1 M, P2A-P2M, P3A- P3M, P4A-P4M) ausgewählt werden und die Bildparameter (BP) variiert werden, bis sich die Abbildung (A) und das 3D-Modell (M) überdecken.

3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass

in der Abbildung (A) zusammenhängende Komponenten (K1 , K2) ermittelt werden, die Exzentrizitäten der zusammenhängenden Komponenten (K1 , K2) ermittelt werden und die ermittelte Exzentrizitäten mit einem vorgegebenen Schwellwert verglichen werden, um zumindest einen Kandidaten für eine Führungslinie (3i, 32) zu ermitteln,

in die zusammenhängende Komponente (K1 , K2) des Kandidaten in eine Längsrichtung eine Gerade gelegt wird, die die Führungslinie (3i, 32) repräsentiert und

anhand einer aus dem 3D-Modell (M) gewonnenen Maske (S) des Gebrauchsgegenstandes (1 ) ermittelt wird, welcher Endpunkt (E12) der Gerade im Gebrauchsgegenstand (1 ) liegt.

4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass um den anderen Endpunkt (E1 1 ) der Gerade eine Suchregion (SR) definiert wird, die mit einer Zeichenerken- nungs-Software nach Anmerkungstext (x, y) untersucht wird. 5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass in die zusammenhängende Komponente (K1 , K2) des Kandidaten eine Ellipse gelegt wird, deren Hauptachse (H) in Richtung der Längserstreckung liegt und deren Scheitelpunkte die Endpunkte (E1 1 , E12) der ermittelten Führungslinie (3i) darstellen.

6. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Endpunkt (E12) der Gerade, der innerhalb des Gebrauchsgegenstandes (1 ) liegt einem Teil (T) des Gebrauchsgegenstandes (1 ) zugeordnet wird.

7. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass mit einer Methode zur Bewegungsplanung die Bewegungsmöglichkeiten zumindest eines Teils (1 ) des Gebrauchsgegenstandes (1 ) ermittelt werden.

8. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass in der Abbildung (A) zusammenhängende Komponenten (K) ermittelt werden und daraus zumindest eine zusammenhängenden Komponenten (K) bestimmt wird, die charakteristische Merkmale eines Be- wegungspfeils (P) aufweist.

9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass

zumindest eine zusammenhängende Komponente (K) bestimmt wird, deren Umfang (U) genau zwei Konkavitäten (V1 , V2) aufweist,

an die zusammenhängende Komponente (K) eine Ellipse mit einer Hauptachse (H) in Längsrichtung der zusammenhängenden Komponente (K) angepasst wird, und

ein Scheitelpunkt der Ellipse, der näher an den Konkavitäten (V1 , V2) liegt, als Spitze (SP) eines Bewegungspfeile (P) interpretiert wird.

10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass anhand des ermittelten Bewegungspfeils (P) auf eine angedeutete Bewegung eines Teils (T) des Ge- brauchsgegenstandes (1 ) geschlossen wird und anhand der Bewegungsplanung zumindest ein Teil (T) des Gebrauchsgegenstandes (1 ) ermittelt wird, der diese Bewegung ausführen kann.

1 1 . Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass anhand der aus der Bewegungsplanung ermittelten Bewegungsmöglichkeiten die Position zumindest eines Teils (T) des Gebrauchsgegenstandes (1 ) im 3D-Modell (M) variiert wird, bis sich die Abbildung (A) und das 3D-Modell (M) ausreichend überdecken.

12. Verfahren nach Anspruch 1 und 7, dadurch gekennzeichnet, dass zwei Abbildungen (A1 , A2) des Gebrauchsgegenstandes (1 ) untersucht werden, wobei sich eine erste Abbildung (A1 ) durch zumindest einen hinzugefügten, entfernten oder umpositionierten Teil (T2, T3) des Gebrauchsgegenstandes (1 ) von einer zweiten Abbildung (A1 ) unterscheidet und anhand der aus der Bewegungsplanung ermittelten Bewegungsmöglichkeiten ein Teil (T2, T3) im 3D-Modell (M) hinzugefügt wird, ein Teil (T2, T3) im 3D-Modell (M) entfernt wird oder die Position zumindest eines Teils (T2, T3) im 3D-Modell (M) variiert wird, um von der ersten Abbildung (A1 ) zur zweiten Abbildung (A2) zu kommen.

13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass in den beiden Abbildungen (A1 , A2) zuerst die sich unterscheidenden Regionen (R) ermittelt werden und die Bewegungsmöglichkeiten nur solcher Teile (T2, T3) untersucht werden, die in den unterscheidenden Regionen (R) liegen. 14. Verwendung der dreidimensionalen Dokumentation (10), die nach einem der Ansprüche 1 bis 13 ermittelt wurde, um in einer Augmented Reality Anwendung über eine Aufnahme eines Gebrauchsgegenstandes (1 ) Zusatzinformation aus der dreidimensionalen Dokumentation (10) einzublenden.

15. Verwendung der dreidimensionalen Dokumentation (10), die nach einem der Ansprü- che 1 bis 13 ermittelt wurde, um in einem Virtual Reality Viewer in einer Ansicht des SD- Modells (M) Zusatzinformation aus der dreidimensionalen Dokumentation (10) einzublenden.

Description:
Verfahren zum Erstellen einer dreidimensionalen Dokumentation

Die gegenständliche Erfindung betrifft ein Verfahren zum Erstellen einer dreidimensionalen Dokumentation für einen Gebrauchsgegenstand, der aus mehreren Teilen besteht.

Dokumentation, wie z.B. Handbücher, Bedienungsanleitungen, Montageanleitungen, Repa- raturanleitungen, Schulungsunterlagen, etc., für verschiedene Gebrauchsgegenstände, angefangen von Haushaltsgeräten, Spielzeugen, Maschinen und Maschinenkomponenten bis zu hochkomplexen technischen Geräten, liegen in den allermeisten Fällen in gedruckter Form vor, oder in einer digitalen Entsprechung, beispielsweise als pdf-Datei oder html-Datei. In einer solchen Dokumentation sind in der Regel verschiedene zweidimensionale Abbildun- gen des Gebrauchsgegenstandes enthalten, anhand der ein Benutzer des Gebrauchsgegenstandes die Funktion des Gebrauchsgegenstandes erfassen soll oder anhand der der Benutzer Anweisungen zum Benutzen des Gebrauchsgegenstandes erhält. Eine Abbildung kann eine einfache Ansicht oder eine isometrische Zeichnung oder auch ein Foto einer Ansicht des Gebrauchsgegenstandes sein. Dabei sind solche Abbildungen in gedruckten Do- kumentationen zwangsweise zweidimensionale Darstellungen verschiedener Ansichten des Gebrauchsgegenstandes. Der Benutzer des Gebrauchsgegenstandes muss daher bei Verwendung der Dokumentation zweidimensionale Ansichten auf den realen dreidimensionalen Gebrauchsgegenstand umlegen, was eine durchaus komplexe geistige Herausforderung ist und für viele Personen aufgrund der fehlenden oder geringen räumlichen Vorstellungskraft ein Problem darstellt.

Eine Verbesserung dieser Situation kann durch die Verwendung von Dokumentationen in dreidimensionaler Form erzielt werden, bei der der Gebrauchsgegenstand dreidimensional dargestellt wird, beispielsweise an einer Anzeigeeinheit, und dabei die Ansicht des Gebrauchsgegenstandes beliebig geändert werden kann. Eine weitere Verbesserung kann mittels Augmented Reality herbeigeführt werden. Unter Augmented Reality wird allgemein verstanden, die reale Sinneswahrnehmung einer Person der Realität, insbesondere das was gesehen, gehört oder gefühlt wird, um Zusatzinformation zu erweitern bzw. zu ergänzen. Diese Zusatzinformation kann einer Person ebenfalls visuell, akustisch oder haptisch vermittelt werden. Dabei wird z.B. der Gebrauchsgegenstand mit einer Aufnahmeeinheit, beispielsweise eine Digitalkamera eines Smartphones oder eines Tablet-PCs, ein 3D-Scanner, etc., aufgenommen und die aufgenommene Ansicht des Gebrauchsgegenstandes in Echtzeit mit Zusatzinformation erweitert, indem diese z.B. am aufgenommenen und dargestellten Bild eingeblendet wird oder indem eine akustische Information abgespielt wird. Hierbei findet auch automatisch eine Anpassung der Darstellung bei Änderung der relativen Position zwischen Aufnahmeeinheit und Gebrauchsgegenstand statt. Es gibt bereits Ansätze, die Dokumentation von Gebrauchsgegenständen dreidimensional, auch mit Augmented Reality, zu realisieren. Allerdings ist das Erstellen einer dreidimensionalen Dokumentation eines Gebrauchsgegenstandes eine sehr komplexe und zeitaufwendige Aufgabe, insbesondere wenn dazu noch dreidimensionale Animationen, unter Umständen auch in Echtzeit (wie in Augmented Reality) erwünscht ist. Hierzu bedarf es eines geübten 3D Designers und spezieller Softwareprodukte zur Animation. Aus diesem Grund haben sich dreidimensionale Dokumentationen oder Augmented Reality Dokumentationen bisher nicht durchsetzen können.

Es ist nun eine Aufgabe der gegenständlichen Erfindung ein Verfahren anzugeben, mit dem auf einfache Weise für einen Gebrauchsgegenstand, für den es nur zweidimensionale Dokumentation gibt, eine dreidimensionale Dokumentation zu erstellen.

Diese Aufgabe wird erfindungsgemäß dadurch gelöst, dass Bildparameter zumindest einer Abbildung des Gebrauchsgegenstandes in einer bestehenden zweidimensionalen Dokumentation ermittelt werden, ein 3D-Modell des Gebrauchsgegenstandes mit den ermittelten Bild- parameter in Deckung mit der Abbildung gebracht wird und aus dem Vergleich der zweidimensionalen Abbildung und des 3D-Modells mit den ermittelten Bildparametern aus der zweidimensionalen Abbildung Zusatzinformation gewonnen wird, gemeinsam mit dem SD- Modell die dreidimensionale Dokumentation des Gebrauchsgegenstandes bildet. Dieses Vorgehen ermöglicht es, Abbildungen in bestehender zweidimensionale Dokumentation zu analysieren, um daraus Zusatzinformation zu erhalten, die dann in beliebigen Ansichten des 3D-Modells eingeblendet werden kann. Dabei ist es unerheblich, ob die zweidimensionale Dokumentation in Form einer schon bestehenden gedruckten Dokumentation mit zweidimensionaler Bebilderung vorliegt, die für das erfindungsgemäße Verfahren verwendet werden kann, oder ob die zweidimensionale Dokumentation erst für die Erstellung der dreidi- mensionalen Dokumentation neu erstellt wird.

Um die Bildparameter auf einfache Weise bestimmen zu können, werden in der Abbildung und im 3D-Modell eine Mehrzahl von korrespondierenden Punkten ausgewählt und die Bildparameter variiert, bis sich die Abbildung und das 3D-Modell überdecken. Hierzu kann ein geeignetes Kriterium zur Bestimmung einer ausreichenden Überdeckung festgelegt werden. Zur Bestimmung einer Führungslinie werden in der Abbildung zusammenhängende Komponenten ermittelt, die Exzentrizitäten der zusammenhängenden Komponenten ermittelt und die ermittelte Exzentriztäten mit einem vorgegebenen Schwellwert verglichen, um zumindest einen Kandidaten für eine Führungslinie zu ermitteln. Danach wird in die zusammenhängende Komponente des Kandidaten in eine Längsrichtung der Region eine Gerade gelegt, die die Führungslinie repräsentiert und anhand einer aus dem 3D-Modell gewonnenen Maske des Gebrauchsgegenstandes ermittelt, welcher Endpunkt der Gerade im Gebrauchsgegenstand liegt. Diese Methode kann mittels Verfahren der digitalen Bildverarbeitung automatisiert umgesetzt werden, wodurch sich Führungslinien als Zusatzinformation sehr einfach identifizieren lassen. Wenn um den anderen Endpunkt der Gerade eine Suchregion definiert wird, die mit einer Zeichenerkennungs-Software nach Anmerkungstext untersucht wird, kann auch der der Führungslinie zugeordnete, vorhandene Anmerkungstext automatisiert ermittelt werden und vorzugsweise zur Führungslinie zugeordnet abgespeichert werden. Die Gerade kann vorteilhafterweise realisiert werden, indem in die zusammenhängende Komponente des Kandidaten eine Ellipse gelegt wird, deren Hauptachse (als Gerade) in Richtung der Längserstreckung liegt und deren Scheitelpunkte die Endpunkte der ermittelten Führungslinie darstellen. Damit lässt sich ein sehr stabiler Algorithmus realisieren.

Ganz besonders vorteilhaft ist es, wenn der Endpunkt der Gerade, der innerhalb des Gebrauchsgegenstandes liegt einem Teil des Gebrauchsgegenstandes zugeordnet wird. Damit kann die Führungslinie in jeder Ansicht des Gebrauchsgegenstandes am richtigen Teil verankert werden.

Um Zusatzinformation zu generieren, die auf eine Bewegung eines Teils des Gebrauchsgegenstandes zurückzuführen ist, wird vorteilhaft mit einer Methode zur Bewegungsplanung die Bewegungsmöglichkeiten zumindest eines Teils des Gebrauchsgegenstandes ermittelt. Auch das lässt sich mit vorhandenen Methoden auf einfache Weise umsetzen.

Um Bewegungspfeile in der Abbildung zu ermitteln, können in der Abbildung zusammenhängende Komponenten ermittelt werden, wobei zumindest eine zusammenhängende Komponente bestimmt wird, die charakteristische Merkmale eines Bewegungspfeils aufweist. Für einen translatorischen Bewegungspfeil erfolgt das auf einfache Weise, indem zumindest eine zusammenhängende Komponente bestimmt wird, deren Umfang genau zwei Konkavitäten aufweist. In die zusammenhängende Komponente kann wieder eine Ellipse mit einer Hauptachse in Längsrichtung der zusammenhängenden Komponente angepasst werden, wobei ein Scheitelpunkt der Ellipse, der näher an den Konkavitäten liegt, als Spitze eines Bewegungspfeiles interpretiert wird. Damit lässt sich ein gewünschter Richtungsvektor eines Teils des Gebrauchsgegenstandes ermitteln.

Diese Information lässt sich vorteilhafterweise verwenden, indem anhand des ermittelten Bewegungspfeils auf eine angedeutete Bewegung eines Teils des Gebrauchsgegenstandes geschlossen wird und anhand der Bewegungsplanung zumindest ein Teil des Gebrauchsgegenstandes ermittelt wird, der diese Bewegung ausführen kann. Als Zusatzinformation kann man hier bestimmen, welche Teile am realen Gebrauchsgegenstand wie bewegt werden können. Damit können Ansichten erstellt werden, in denen ein Teil des Gebrauchsgegenstandes verschoben und/oder verdreht dargestellt ist.

Anhand der aus der Bewegungsplanung ermittelten Bewegungsmöglichkeiten kann auch die Position zumindest eines Teils des Gebrauchsgegenstandes im 3D-Modell variiert werden, bis sich die Abbildung und das 3D-Modell ausreichend überdecken. Als Zusatzinformation kann hier die Art und die Distanz der Bewegung des Teil erhalten werden. Auf diese Weise können Explosionsdarstellungen als Ansichten des Gebrauchsgegenstandes dargestellt werden. Zur Ermittlung von strukturellen Änderungen als Zusatzinformation können zwei Abbildungen des Gebrauchsgegenstandes untersucht werden, wobei sich eine erste Abbildung durch zumindest einen hinzugefügten, entfernten oder umpositionierten Teil des Gebrauchsgegenstandes von einer zweiten Abbildung unterscheidet und anhand der aus der Bewegungsplanung ermittelten Bewegungsmöglichkeiten ein Teil im 3D-Modell hinzugefügt wird, ein Teil im 3D-Modell entfernt wird oder die Position zumindest eines Teils im 3D-Modell variiert wird, um von der ersten Abbildung zur zweiten Abbildung zu kommen. Diese Zusatzinformation lässt sich besonders vorteilhaft für eine Darstellung von einer am Gebrauchsgegenstand zu setzende Abfolge von Handlungen nutzen, bevorzug in Form einer Reihe von Ansichten des Gebrauchsgegenstandes. Um dieses Vorgehen zu beschleunigen, können in den beiden Abbildungen zuerst die sich unterscheidenden Regionen ermittelt werden und die Bewegungsmöglichkeiten nur solcher Teile untersucht werden, die in den unterscheidenden Regionen liegen.

Die gegenständliche Erfindung wird nachfolgend unter Bezugnahme auf die Figuren 1 bis 16 näher erläutert, die beispielhaft, schematisch und nicht einschränkend vorteilhafte Ausgestal- tungen der Erfindung zeigen. Dabei zeigt

Fig.1 und 2 das Vorgehen zum Bestimmen der Bildparameter einer Abbildung einer zweidimensionalen Dokumentation,

Fig.3 bis 5 das Vorgehen zum Bestimmen von Führungslinien mit Anmerkungen in einer Abbildung einer zweidimensionalen Dokumentation,

Fig.6 das prinzipielle Vorgehen einer Bewegungsplanung eines Teils des Gebrauchsgegenstandes,

Fig.7 und 8 das Vorgehen zum Bestimmen eines Bewegungspfeils in einer Abbildung einer zweidimensionalen Dokumentation,

Fig.9 und 10 das Vorgehen zum Bestimmen einer Explosionsdarstellung in einer Abbil- dung einer zweidimensionalen Dokumentation,

Fig.1 1 und 12 das Vorgehen zum Bestimmen einer strukturelle Darstellung in einer Abbildung einer zweidimensionalen Dokumentation,

Fig.13 eine schematische Darstellung des Verfahrensablauf zur Bestimmung der Zu- satzinformation und

Fig.14 bis 16 das Verfahren an einem konkreten Beispiel.

Eine Untersuchung bestehender gedruckter, zweidimensionalen Dokumentationen hat ergeben, dass diese zum überwiegenden Teil nur eine begrenzte Anzahl von Darstellungsarten des Gebrauchsgegenstandes umfassen. Insbesondere kommen die folgenden Darstellungs- arten zum Einsatz: a) Abbildungen mit Anmerkungen

Dabei wird eine zweidimensionale Abbildung einer Ansicht des Gebrauchsgegenstandes gezeigt, wobei Anmerkungen hinzugefügt sind. Die Anmerkungen verweisen dabei mittels einer Führungslinie auf einen bestimmten Teil des Gebrauchsgegenstandes. Die Anmerkun- gen sind dabei häufig in Form von Text oder einer Zahl enthalten. Typische Anwendungen sind Anmerkungen in Form von Bezugszeichen, die Teile des Gebrauchsgegenstandes kennzeichnen, oder Information zu einem Teil des Gebrauchsgegenstandes in Textform. Als Teil des Gebrauchsgegenstandes wird hier und im Folgenden sowohl ein einzelner Bauteil, aber auch eine Baugruppe aus mehreren Einzelteilen verstanden. b) Abbildungen mit Bewegungspfeilen

In dieser Darstellungsart ist in einer zweidimensionalen Abbildung einer Ansicht des Gebrauchsgegenstandes ein Pfeil hinzugefügt, der eine (translatorische oder rotatorische) Bewegung eines Teils des Gebrauchsgegenstandes andeutet, die von einem Benutzer am Gebrauchsgegenstand umgesetzt werden soll. Diese Darstellungsart kommt häufig in Bedie- nungs-, Service- oder Reparaturanleitungen zur Anwendung, um einem Benutzer anzudeuten, wie ein Teil des Gebrauchsgegenstandes zu benutzen ist. c) Explosionsdarstellungen

Bei dieser Darstellungsart sind in einer zweidimensionalen Abbildung einzelne Teile des Gebrauchsgegenstandes auseinandergezogen, also voneinander getrennt, dargestellt. Häufig sind die Teile entlang einer Explosionslinie angeordnet, um die Zuordnung einzelner Teile zu größeren Baugruppen und die Anordnung im Gebrauchsgegenstand anzudeuten. Dieser Darstellungsart wird häufig gewählt, um die interne Struktur eines Gebrauchsgegenstandes darzustellen. d) Strukturelle Darstellungen

Bei dieser Darstellungsart ist in der Regel eine Sequenz von zweidimensionalen Abbildungen des Gebrauchsgegenstandes dargestellt, wobei sich jede Abbildung vom Vorgänger oder Nachfolger durch zumindest einen Teil der entweder hinzugefügt, entfernt oder gegen- über anderen Teilen in seiner Position verändert wurde, unterscheidet. Oftmals sind hinzugefügte, entfernte oder umpositionierte Teile auch mit Führungslinien oder Pfeilen versehen, um den vorgesehenen Anbaupunkt am Gebrauchsgegenstand anzudeuten. Die verschiedenen Abbildungen zeigen dabei häufig auch eine identische Ansicht des Gebrauchsgegenstandes in den verschiedeneren Konfigurationen. Diese Darstellungsart findet häufig bei Montage- oder Demontageanleitungen Anwendung, um dem Benutzer eine schrittweise Anleitung zum Handeln zu geben.

Natürlich kommen in gedruckten Dokumentationen auch Kombinationen der oben erwähnten Darstellungsarten vor, was die Anwendbarkeit des nachfolgend beschriebenen erfindungsgemäßen Verfahrens aber nicht einschränkt. Die zweidimensionale Dokumentation kann in Form einer schon bestehenden gedruckten Dokumentation mit zweidimensionaler Bebilderung vorliegen, typischerweise in Form von Handbücher, Bedienungsanleitungen, Montageanleitungen, Reparaturanleitungen, Schulungsunterlagen, etc.. Es ist aber im Rahmen der Erfindung auch möglich, die zweidimensionale Dokumentation für die Erstellung der dreidimensionalen Dokumentation zuerst neu zu erstellen. Beispielsweise könnte der Gebrauchsgegenstand vor Anwendung des erfindungsgemäßen Verfahrens in verschiedenen Ansichten und Konfigurationen fotografiert werden und die Fotos als zweidimensionale Abbildungen verwendet werden. Beides wird als zweidimensionale Dokumentation im Sinne der vorliegenden Erfindung verstanden.

Die gegenständliche Erfindung beruht nun darauf, aus einer bestehenden herkömmlichen zweidimensionalen Dokumentation eines Gebrauchsgegenstandes 1 in gedruckter Form (oder in digitaler Entsprechung als Computerdatei) weitestgehend automatisiert eine dreidimensionale Dokumentation dieses Gebrauchsgegenstandes 1 zu erstellen, die dann beispielsweise auch für eine Augmented Reality Anwendung, für ein Web-Based Training oder für eine animierte Dokumentation verwendet werden kann. Hierzu wird zumindest eine vor- handene Abbildung A des Gebrauchsgegenstandes 1 in der zweidimensionalen Dokumentation 2 analysiert und daraus Information für eine dreidimensionale Dokumentation gewonnen. Die Abbildung A in der Dokumentation 2 liegt dafür natürlich in digitaler Form vor, beispielsweise indem die Abbildung A der Dokumentation 2 zweidimensional mit ausreichender Auflösung eingescannt wird oder die Dokumentation 2 schon im digitalen Format vorliegt. Hierbei wird sinnvollerweise eine dem Detailgrad der Abbildung entsprechende Auflösung gewählt.

Das Verfahren zur Erstellung der Augmented Reality Dokumentation wird nun nachfolgend im Detail beschrieben. Voraussetzung für das erfindungsgemäße Verfahren ist, dass ein digitales 3D-Modell M des Gebrauchsgegenstandes 1 vorliegt. Das digitale 3D-Modell M kann beispielsweise in Form einer 3D-CAD Zeichnung vorliegen. Nachdem die Dokumentation 2 in der Regel vom Hersteller des Gebrauchsgegenstandes 1 erstellt wird und in der heutigen Zeit die Entwicklung und Konstruktion des Gebrauchsgegenstandes 1 anhand von oder mittels 3D-Zeichnungen üblich ist, wird in den meisten Fällen eine solche 3D-CAD Zeichnung verfügbar sein. Eine 3D-CAD Zeichnung hat den Vorteil, dass alle Teile enthalten und identifizierbar sind. Alternativ könnte vom Gebrauchsgegenstand 1 auch ein 3D-Scan angefertigt werden. Ebenso könnten einzelne Teil des Gebrauchsgegenstandes 1 einzeln dreidimensional gescannt werden und nachfolgend zu einem 3D-Modell des Gebrauchsgegenstandes 1 zusammengefügt wer- den. Hierzu sind 3D-Scanner und zugehörige Software verfügbar, die es erlauben, solche 3D-Scans anzufertigen. Beispielhaft sei hier der Kinect®-Sensor der Firma Microsoft® in Kombination mit dem Open Source Softwarepaket KinFu genannt.

Im ersten Schritt des erfindungsgemäßen Verfahrens muss ermittelt werden, mit welchen Bildparametern die zweidimensionale Abbildung A einer Ansicht des Gebrauchsgegenstan- des 1 in der gedruckten Dokumentation 2 erstellt wurde, unabhängig davon, ob es sich bei der Abbildung A um ein Foto oder um eine Zeichnung handelt. Die beiden wesentlichen Bildparameter sind dabei die Betrachtungsposition im Raum bezogen auf den Gebrauchsgegenstand 1 und die Brennweite, mit der der Gebrauchsgegenstand 1 betrachtet wurde. Am Beispiel eines Fotos ist nachvollziehbar, dass sich die Abbildung ändert, wenn die Betrach- tungsposition der Kamera zum Gebrauchsgegenstand 1 verändert wird oder wenn die Kameraeinstellungen, allen voran die Brennweite, verändert wird.

Dafür werden in einer möglichen Umsetzung des Verfahrens von einem Anwender in der Abbildung A und im 3D-Modell M eine Mehrzahl, vorzugsweise vier oder mehr, von korrespondierenden Punkten P1A-P1 M, P2A-P2M, P3A-P3M, P4A-P4M markiert, wie in Fig.1 an- gedeutet. Korrespondierende Punkte P1A-P1 M, P2A-P2M, P3A-P3M, P4A-P4M sind identische Punkte des Gebrauchsgegenstandes 1 in der Abbildung A und im 3D-Modell M. Es erübrigt sich zu erwähnen, dass die Punkte P1 A, P2A, P3A, P4A in der Abbildung A des Gebrauchsgegenstandes 1 dargestellt sind. Es geht also darum zu bestimmten Punkten P1A, P2A, P3A, P4A des Gebrauchsgegenstandes 1 in der Abbildung A die Entsprechungen P1 M, P2M, P3M, P4M im 3D-Modell M zu markieren, wie in Fig.1 durch den Doppelpfeil zwischen den Punkten P3A, P3M angedeutet. Über die korrespondierenden Punkte P1A-P1 M, P2A- P2M, P3A-P3M, P4A-P4M kann das 3D-Modell M in Deckung mit der Abbildung A gebracht werden, das die korrespondierenden Punkte P1A-P1 M, P2A-P2M, P3A-P3M, P4A-P4M bei Überdeckung übereinander liegen müssen. Als nächstes wird die Brennweite als Bildpara- meter geschätzt, falls diese, wie meistens der Fall sein wird, nicht bekannt ist. Mit der Abbildung A, den korrespondierenden Punkten P1A-P1 M, P2A-P2M, P3A-P3M, P4A-P4M und der geschätzten Brennweite kann die Betrachtungsposition BP, die zur Abbildung A der Ansicht des Gebrauchsgegenstandes 1 geführt hat, mittels verfügbarer und hinlänglich bekannter Algorithmen der digitalen Bildverarbeitung, beispielsweise dem bekannten POSIT- Algorithmus, bestimmt werden. Durch Übereinanderlegen der Abbildung A und der Ansicht des 3D-Modells M mit der ermittelten Betrachtungsposition BP1 , beispielsweise durch gemeinsame Anzeige auf einem Bildschirm, kann das Ergebnis kontrolliert werden, wie in Fig.2 dargestellt. Ist die Abweichung zu groß (Fig.2 links), kann die Brennweite verändert werden und/oder es können andere oder weitere korrespondierende Punkte ausgewählt werden. Das kann iterativ wiederholt werden, bis sich eine ausreichend genaue Überdeckung der Abbildung A mit der Ansicht des 3D-Modells M bei einer ermittelten Betrachtungsposition BPn ergibt (Fig.2 rechts). Die Ermittlung der Betrachtungsposition BP kann einfach von einem Anwender ermittelt werden, wobei der Anwender selbst entscheidet, wann eine ausreichende Überdeckung erzielt wurde. Genauso gut kann die Betrachtungsposition BP aber auch mit Hilfe von Standardmethoden der digitalen Bildverarbeitung, wie Verfahren zur Punktidentifikation und zur Ermittlung einer Bildüberdeckung, alternativ auch automatisiert durchgeführt werden. Hierbei kann insbesondere auch die Brennweite automatisiert iterativ verändert werden, bis sich eine bestmögliche Bildüberdeckung und somit die gesuchte Betrachtungsposition BP, die zur Abbildung A geführt hat, ergibt. Die Ermittlung der Betrachtungsposition BP kann für jede interessierende zweidimensionale Abbildung A der gedruckten Dokumentation 2 wiederholt werden. Oftmals ist es aber so, dass alle Abbildungen A der gedruckten Dokumentation 2 mit denselben Bildparametern erstellt wurden. Daher kann es auch ausreichend sein, die Bildparameter nur einmal zu ermitteln und anschließend auf alle interessierenden Abbildungen A, oder zumindest auf einige davon, anzuwenden.

Nachdem die zweidimensionale Abbildung A in der gedruckten Dokumentation 2 und das 3D-Modell M wie beschrieben in Deckung gebracht worden sind, kann die Abbildung A hinsichtlich der obigen Darstellungsarten analysiert werden. Das prinzipielle Vorgehen ist dabei derart, dass aus dem Vergleich der zweidimensionalen Abbildung und einer Ansicht des 3D- Modells mit den ermittelten Bildparametern aus der zweidimensionalen Abbildung Zusatzinformation gewonnen wird, die dann in einer Ansicht des 3D-Modells des Gebrauchsgegen- Standes, in Form einer Ansicht des 3D-Modells, eingeblendet werden kann. Die Zusatzinformation ist dazu vorzugsweise zu einzelnen Teilen des Gebrauchsgegenstandes 1 zugeordnet, sodass die Zusatzinformation auch bei einer Änderung der Ansicht (z.B. wenn das SD- Modell M im Raum gedreht wird) immer richtig in der jeweiligen Ansicht dargestellt werden kann. a) Abbildungen mit Anmerkungen (Fig.3 bis 5)

Aus dem 3D-Modell M in der Ansicht mit der ermittelten Betrachtungsposition BP wird eine zweidimensionale Maske S (Fig.3 rechts) erstellt, die alle Pixel der ermittelten Ansicht des 3D-Modells M enthält. Mit der Maske S können nun alle Pixel der digitalisierten Abbildung A (die in Deckung mit der Ansicht des 3D-Modells M ist) ermittelt werden, die außerhalb der Ansicht des Gebrauchsgegenstandes 1 liegen. Mithilfe von Methoden der digitalen Bildverarbeitung werden nun in der digitalisierten Abbildung A zusammenhängende Komponenten gesucht. Ein möglicher Algorithmus hierfür ist der bekannte Maximally Stable Extremal Regions (MSER) Algorithmus, der eine effiziente Methode zur Aufteilung eines Bildes in zu- sammenhängende Komponenten darstellt. Jede derart bestimmte zusammenhängende

Komponente K umfasst damit eine Anzahl von Pixeln (angedeutet durch die Punkte in Fig.4) der digitalisierten Abbildung A. Von allen ermittelten zusammenhängenden Komponenten K werden diejenigen ausgewählt, die in der Abbildung A eine Führungslinie 3i, 3 2 darstellen können. Hierzu kann z.B. die Exzentrizität der zusammenhängenden Komponenten K ermit- telt werden. Die Exzentrizität ist hierbei als Verhältnis zwischen der größten Längserstreckung und der größten Quererstreckung (normal auf die Längserstreckung) der zusammenhängenden Komponente K festgelegt. Für eine Führungslinie 3i, 3 2 kann angenommen werden, dass die auf Eins normierte Exzentrizität annähernd Eins sein muss. Hier kann ein entsprechender Schwellwert definiert werden. Jede zusammenhängende Komponente K1 , K2, deren Exzentrizität diesen Schwellwert überschreitet und die äußere Grenze der Maske S schneidet, oder zumindest berührt, (da eine Führungslinie 3i, 3 2 auf einen Teil des Gebrauchsgegenstandes 1 weisen muss) wird als Führungslinie 3i, 3 2 interpretiert (Fig.4).

Als nächstes sind die Endpunkte E1 1 , E12 einer Führungslinien 3i, 3 2 zu bestimmen. Dazu kann eine beliebige Methode verwendet werden, um in die Pixel der zusammenhängenden Komponenten K1 , K2 in Richtung der Längserstreckung bestmöglich eine Gerade zu legen. Beispielsweise kann um die Pixel der zusammenhängenden Komponenten K1 , K2 eine Ellipse mit Hauptachse H in Richtung der Längserstreckung eingepasst werden, wie in Fig.4 für die Komponenten K1 angedeutet. Die Scheitelpunkte der Ellipse auf der Hauptachse H werden dann als Endpunkte E1 1 , E12 der gesuchten Führungslinie 3i interpretiert. Anhand der Maske S kann nun einfach bestimmt werden, welcher Endpunkt E1 1 , E12 im Bereich des Gebrauchsgegenstandes 1 liegen und welcher außerhalb. Zum Endpunkt E12 innerhalb des Gebrauchsgegenstandes 1 kann anhand des 3D-Modell M auch ermittelt werden, auf weichen Teil des Gebrauchsgegenstandes 1 die ermittelte Führungslinie 3i weist. Diese Zuordnung kann auch in einem eigenen Teilespeicher, der alle einzeln identifizierbaren Teile des Gebrauchsgegenstandes 1 enthält, gespeichert werden. Der ermittelte Endpunkt E12 innerhalb des Gebrauchsgegenstandes 1 wird als Ankerpunkt AP1 (Fig.5) der Führungslinie 3i für die dreidimensionale Dokumentation gespeichert, gegebenenfalls gemeinsam mit der Zuordnung zu einem bestimmten Teil des Gebrauchsgegenstandes 1 im Teilespeicher.

Der Ankerpunkt AP1 kann aber auch in den jeweiligen Körpermittelpunkt des zugehörigen Teils T verlegt werden, was für eine spätere dreidimensionale Darstellung des Gebrauchsgegenstandes 1 vorteilhaft sein kann.

Um den Endpunkt E1 1 , der außerhalb des Gebrauchsgegenstandes 1 liegt, kann nun eine Suchregion SR festgelegt werden (Fig.4), die nach Text oder Zahlen durchsucht wird, beispielsweise mittels herkömmlicher Zeichenerkennungs (OCR)-Software. Alternativ könnte ein Anmerkungstext auch manuell zur ermittelten Führungslinie 3 hinzugefügt werden. Der derart ermittelte Anmerkungstext wird ebenfalls zur Führungslinie 3i gespeichert, beispielsweise wieder im Teilespeicher.

Wird nun in einer Augmented Reality Anwendung die Ansicht auf den Gebrauchsgegenstand 1 verändert, indem z.B. die Kameraposition zur Aufnahme des Gebrauchsgegenstandes 1 verändert wird, kann die Einblendung der ermittelten Führungslinie 3i und des zugeordneten Anmerkungstextes durch den festgelegten Ankerpunkt AP1 entsprechend nachgezogen werden. Der Ankerpunkt AP1 bleibt dabei auf den identifizierten Teil des Gebrauchsgegenstandes 1 und der andere Endpunkt E1 1 der Führungslinie 3i mit dem Anmerkungstext kann in der Augmented Reality Darstellung an einer an sich beliebigen Stelle, vorzugsweise eine Stelle außerhalb des Gebrauchsgegenstandes 1 , positioniert werden, wie in Fig.5 dargestellt. Die Führungslinie 3 mit Anmerkungstext kann natürlich in jeder beliebigen dreidimensionalen Ansicht des Gebrauchsgegenstandes 1 dargestellt werden. b) Abbildungen mit Bewegungspfeilen (Fig.6 bis 8)

Nachdem es hier um die Bewegung von Teilen T des Gebrauchsgegenstandes 1 geht ist zuerst zu bestimmen, welche Teile T überhaupt individuell bewegbar sind. Diese Information kann entweder bereits im 3D-Modell M enthalten sein, oder kann mittels bekannter Methoden ermittelt werden. Solche Methoden sind insbesondere aus dem Gebiet der Bewegungsplanung von Bauteilen bekannt. Hierbei wird untersucht, welche Teile T1 , T2 des Gebrauchsgegenstandes 1 im 3D-Modell M bewegt (translatorisch und/oder rotatorisch) werden können und falls ja, in welchem Bereich, ohne dabei mit anderen Teilen des Gebrauchsgegenstandes 1 zu kollidieren. Hierbei wird sowohl ein möglicher Richtungsvektor RV1 (oder auch mehrere mögliche Richtungsvektoren) einer translatorischen Bewegung bzw. eine Drehachse (oder auch mehrere mögliche Drehachsen) einer möglichen rotatorischen Bewe- gung ermittelt, als auch die mögliche Distanz D der Bewegung, wie in Fig.6 für eine translatorische Bewegung angedeutet. Eine Methode hierfür ist z.B. in Lozano-Perez, T., "Spatial planning: A configuration space approach", IEEE Trans. Comput. 32, 2 (Feb. 1983), S.108- 120 beschrieben. Die Information der ermittelten möglichen Bewegungen wird für jeden Teil T1 , T2 des 3D-Modells M gespeichert, beispielsweise wieder im Teilespeicher. Als nächstes sind die Bewegungspfeile P in der Abbildung A zu identifizieren, wie anhand von Fig.7 beispielhaft beschrieben wird. Das prinzipielle Vorgehen ist dabei gleich wie oben bezüglich der Führungslinie 3 beschrieben wurde. Hier werden zusammenhängende Komponenten K außerhalb der Maske S ermittelt, da angenommen wird, dass ein Bewegungspfeil P in der Abbildung A nicht im Gebrauchsgegenstand 1 dargestellt ist. Allerdings kann das Verfahren auch auf Bewegungspfeile P, die sich mit der Abbildung des Gebrauchsgegenstandes 1 schneiden erweitert werden. Um einen möglichen Bewegungspfeil P automatisiert zu erkennen, werden zusammenhängende Komponenten K gesucht, die charakteristischen Merkmale eines Pfeiles aufweisen, also eine Spitze SP, eine Verbreiterung ausgehend von der Spitze SP, eine folgende Einschnürung und eine anschließende Basis. Im Bei- spiel gemäß der Fig.7 werden z.B. die zusammenhängenden Komponenten K ermittelt, deren Umfang U genau zwei Konkavitäten V1 , V2 aufweist, was ein charakteristisches Merkmal eines Pfeils ist. Dann wird an die zusammenhängende Komponente K wieder eine Ellipse mit einer Hauptachse H angepasst, wobei die Hauptachse H in Richtung der Längserstreckung der zusammenhängenden Komponente K orientiert wird. Jener Scheitelpunkt der Ellipse, der näher an den Konkavitäten V1 , V2 liegt, wird als Spitze SP des Bewegungspfeiles P interpretiert. Der andere Scheitelpunkt ist dann die Basis B des Bewegungspfeils P. Aus der Hauptachse H der Ellipse, sowie Basis B und Spitze SP (bzw. eines der beiden) kann ein Richtungsvektor RV einer beabsichtigten Bewegung eines Teils T1 , T2 des Gebrauchsgegenstandes 1 festgelegt werden. Nun gilt es noch zu bestimmen, welcher Teil T1 , T2 des Gebrauchsgegenstandes 1 bewegt werden soll. Zuerst werden die Teile T2 ermittelt, die überhaupt in Richtung des Richtungsvektors RV bewegt werden können. Hierbei werden die Teile T2 gesucht, deren Richtungsvektor RV1 der möglichen Bewegung (aus der oben beschriebenen Vorgehensweise der Bewegungsplanung) sich mit dem Richtungsvektor RV des Bewegungspfeils P deckt. Hierzu wird sinnvollerweise ein räumlicher Winkelbereich α festgelegt, um den die beiden Richtungsvektoren RV, RV1 abweichen dürfen, wie in Fig.8 angedeutet. Sollten mehrere Teile T des Gebrauchsgegenstandes 1 für die Bewegung in Frage kommen, dann kann entschieden werden, ob alle in Frage kommenden Teile bewegt werden sollen, bestimmte Teile bewegt werden sollen oder es kann der Teil T2 ausgewählt werden, der am nächsten zur Basis B des Bewegungspfeils P liegt. Für Bewegungspfeile P, die eine Rotationsbewegung darstellen, kann analog vorgegangen werden. Also zuerst Identifikation des Bewegungspfeils P und der erwünschten Rotation (bzw. Drehachse), und dann Bestimmen der Teile, die die Rotation ausführen können.

In einer Augmented Reality Darstellung kann dann beispielsweise in einer aufgenommenen realen Ansicht des Gebrauchsgegenstandes 1 ein Bewegungspfeil P eingeblendet werden und bei Klicken des Bewegungspfeils P eine Animation gestartet werden, die über der Aufnahme des Gebrauchsgegenstandes 1 die Bewegung eines Teils T2 des Gebrauchsgegenstandes 1 animiert. Auch hier kann die Animation bei Änderung der Betrachtungsposition in Echtzeit nachgezogen werden. c) Explosionsdarstellungen (Fig.9 bis 10) Um die Bildparameter BP einer Explosionsdarstellung zu ermitteln, kann das oben beschriebene Verfahren z.B. nur auf einen Teil T2 der Explosionsdarstellung (Fig.9), vorzugsweise eine Hauptkomponente, angewendet werden.

Auch hier steht die Ermittlung der möglichen Bewegungen der Teile T des Gebrauchsgegenstandes 1 , wie oben beschrieben, am Anfang. Mit den ermittelten Bildparametern BP für die Abbildung A der Explosionsdarstellung (siehe oben), werden dann die bewegbaren Teile T des Gebrauchsgegenstandes 1 im 3D-Modell M gemäß der bestimmten Bewegungsmöglichkeiten variiert, also verschiedene Positionen der bewegbaren Teile T angenommen (Fig.10), und jeweils geprüft, inwieweit sich die Abbildung A und die jeweilige Ansicht des 3D-Modells M mit den ermittelten Bildparametern BP decken. Dabei können ebenfalls wieder Standard- methoden der digitalen Bildverarbeitung angewendet werden. Grundsätzlich kann ein beliebiger Algorithmus zur Variation der möglichen Bewegungen implementiert werden. Beispiele hierfür finden sich in Agrawala, M., et al.,„Designing effective step-by-step assembly Instructions", ACM Trans. Graph. 22, 3 (2003), 828-837 oder Romney, B., et al., "An efficient System for geometric assembly sequence generation and evaluation", In Proc. of Computers in Engineering (1995), 699-712. Das Ziel des implementierten Algorithmus sollte aber natürlich auf Performance liegen, um bei komplexeren Gebrauchsgegenständen 1 mit vielen Teilen T mit Bewegungsmöglichkeiten rasch zu einem Ergebnis zu kommen. Beispielsweise könnte man einen Teil T2 im 3D-Modell M gemäß der Bewegungsmöglichkeiten variieren und den Bereich der Ansicht im 3D-Modell M, der den Teil T2 enthält mit dem gleichen Bereich in der Abbildung 2 vergleichen, bis eine gute Deckung des Teils 2 im 3D-Modell M mit dem Teil T2 in der Abbildung erzielt wurde. Das kann mit jeden Teil T wiederholt werden, bis alle Teile der Explosionsdarstellung in der richtigen Position identifiziert sind.

Bei bestmöglicher Deckung der Abbildung A der Explosionsdarstellung und des 3D-Modells M erhält man die Information EX1 welche Teile T des Gebrauchsgegenstandes 1 für die Explosionsdarstellung wie (Richtungsvektor RV, Drehachse) und wie weit (Distanz D, Winkel) bewegt wurden. Diese Information EX1 kann dann gespeichert werden, beispielsweise wieder im Teilespeicher.

Diese Information kann dann in einer Augmented Reality Anwendung beispielsweise ver- wendet werden, um über eine Aufnahme des Gebrauchsgegenstandes 1 eine Explosionsdarstellung der Teile T einzublenden, vorzugsweise mittels animierter Bewegung der dafür notwendigen Teile T. d) Strukturelle Darstellungen (Fig.1 1 bis 12)

In Fig.1 1 ist mit den Abbildungen A1 , A2 der Dokumentation 2 beispielshaft eine Montagese- quenz von Teilen T1 , T2, T3 am Gebrauchsgegenstand 1 dargestellt, wobei hier der Teil T2 mit Teil 3 am Teil T1 angeordnet wird. Zur automatisierten Analyse solcher struktureller Darstellungen kann z.B. eine umgekehrte Montageplanung beginnend mit dem vollkommen zusammengestellten Gebrauchsgegenstand 1 angewendet werden. Ausgangspunkt ist hierbei natürlich wieder die Abbildung A und das damit in Deckung gebrachte 3D-Modell M. Ähnlich wie bei der oben beschrieben Bewegungsplanung werden nun die Bewegungsmöglichkeiten der Teile T untersucht und die Teile im 3D-Modell M variiert, bis eine bestmögliche Deckung gefunden wurde. Das 3D-Modell M ist hierzu vorteilhaft auf die Teile reduziert, die in den Abbildungen A1 , A2 enthalten sind, was anhand der umgekehrten Reihenfolge jeweils möglich ist. Als Ergebnis liegen dann die Ansichten M1 , M2 vor, die sich bestmöglich mit den Abbildungen A1 , A2 decken, zusammen mit der Information, welche Teile T2, T3 wie bewegt werden mussten, um zu den Ansichten M1 , M2 zu kommen. Man erhält dabei Information EX2 welche Teile T1 , T2, T3 des Gebrauchsgegenstandes 1 für die strukturelle Darstellung zwischen zwei Abbildungen A1 , A2 wie (Richtungsvektor RV, Drehachse) und wie weit (Distanz D, Winkel) bewegt wurden. Diese Information EX2 kann dann wieder gespeichert wer- den, z.B. wieder im Teilespeicher.

Zur Beschleunigung der Suche können auch nur die Regionen R der Abbildungen A1 , A2 untersucht werden, in denen Veränderungen stattgefunden haben (Fig.12). Diese Regionen R können z.B. durch Ermitteln einer pixelweisen Differenz in der dargestellten Sequenz der Abbildungen A1 , A2 gefunden werden. Wenn die Abbildung A1 , A2 die Teile T1 , T2, T3 flä- chig gefüllt mit unterschiedlichen Farben darstellt, was häufig der Fall ist, kann die Region R der Änderung einfach durch pixelweise Subtraktion und Schwellwertbildung (um mögliche leichte Unterschiede zu eliminieren) ermittelt werden. Als pixelweise Subtraktion wird hier die Subtraktion der Farbwerte jedes Pixels verstanden, woraus sich eine Differenz zwischen den Bildern ergibt. Bei einfachen Strichzeichnungen als Abbildungen A1 , A2, was ebenfalls oft vorkommt, können die Abbildungen A1 , A2 vorher aufgebessert werden, in dem zuerst die Silhouetten der Abbildung A1 , A2 (also die äußere Umrandung) ermittelt werden und dann der Hintergrund der Abbildung A1 , A2 außerhalb der Silhouette mit einer einheitlichen Farbe gefüllt werden. Im Falle von Fotos als Abbildungen A1 , A2 können auch andere Methoden der digitalen Bildbearbeitung eingesetzt werden, um die sich ändernden Regionen aufzufinden. Ein Beispiel hierfür ist der bekannte Scale-invariant feature transform (SIFT) flow Algorithmus beschrieben in Liu, C, Yuen, J., Torralba, A., Sivic, J., Freeman, W. T.,„Sift flow: Dense correspondence across different scenes", In Proceedings of the 10th European Conference on Computer Vision: Part III, ECCV '08, Springer-Verlag (Berlin, Heidelberg, 2008), 28-42, der zu einem Pixel eines Ausgangsbildes das meistähnliche Pixel eines Zielbildes findet. Die oben beschriebene umgekehrte Montageplanung muss dann nur mehr auf diese Regionen R der Veränderungen eingeschränkt werden.

Die Unterschiede in den Abbildungen A1 , A2 können dabei in verschwundenen, hinzugefügten oder umpositionierten Teilen T1 , T2, T3 liegen. Im Falle von umpositionierten Teilen T3 können die bereits oben beschriebenen Methoden zur Analyse von Explosionsdarstellungen und/oder zur Analyse von Bewegungspfeilen verwendet werden.

In einer Augmented Reality Anwendung kann dann eine komplette Sequenz einer strukturellen Darstellung animiert dargestellt werden. Hierzu kann beispielsweise in einer aufgenommenen Darstellung des Gebrauchsgegenstandes 1 eine Montage- oder Demontagesequenz überblendet dargestellt werden.

Die oben beschriebenen Methoden und der Ablauf zur Analyse einer Abbildung 2 einer Dokumentation eines Gebrauchsgegenstandes 1 ist nochmals übersichtlich in Fig.13 dargestellt. Ausgangspunkt sind das 3D-Modell M und eine zweidimensionale Abbildung A einer Ansicht des Gebrauchsgegenstandes 1. Information zu den einzelnen Teilen T des Ge- brauchsgegenstandes 1 kann in einem Teilespeicher TS gespeichert werden, z.B. eine eindeutige Identifikation jedes Teils T. Im ersten Schritt S1 werden die Bildparameter BP ermittelt. Für eine Abbildung A mit Anmerkungen 11 werden im Schritt S2 die Anmerkungen x, y und die Führungslinien 3 ermittelt und gegebenenfalls im Teilspeicher TS (eventuell mit den Ankerpunkten AP) zu den jeweiligen Teilen T gespeichert. Für eine Abbildung A mit Bewe- gungspfeilen 12, für eine Explosionsdarstellung 13 und für eine strukturelle Darstellung 14 ist im Schritt S3 eine Bewegungsplanung der Teile T des Gebrauchsgegenstandes 1 vorgese- hen. Die Bewegungsmöglichkeiten (Richtungsvektor RV und/oder Drehachse) jedes Teils T werden wieder im Teilespeicher TS abgelegt. Für eine Abbildung A mit Bewegungspfeilen 12 werden im Schritt S4 die Bewegungspfeile P identifiziert und gewissen Teilen T des Gebrauchsgegenstandes 1 zugeordnet, was wieder im Teilespeicher TS abgespeichert wird. Für eine Explosionsdarstellung 13 und eine strukturelle Darstellung 14 kommen im Schritt S5 die beschriebenen Algorithmen zum Bildvergleich zur Anwendung. Auch hier wird die gewonnene Information EX1 (Verschiebung, Verdrehung bestimmter Teile T) teilebezogen im Teilespeicher TS abgelegt. Für eine strukturelle Darstellung 14 in der Abbildung A können im Schritt S6 auch noch Algorithmen zur Analyse von Regionen R mit Änderungen zur Anwen- dung kommen, um die Information EX2 der geänderten Teile T zwischen zwei Abbildungen A1 , A2 zu erhalten. Die Schritte S1 bis S6 werden hierbei unter Umständen auch kombiniert ausgeführt, sodass auch Kombinationen verschiedener Abbildungen 15 analysiert werden können. Das Ergebnis ist eine dreidimensionale Dokumentation 10 des Gebrauchsgegenstandes 1 , die je nach Bedarf angepasst werden kann, beispielsweise mit Anmerkungen (01 ), als Animation einer Bewegung eines Teils T aufgrund von identifizierten Bewegungspfeilen (02), als Explosionsdarstellung (03), als Montagesequenz (04) oder auch als beliebige Kombination der oben beschriebenen Möglichkeiten (05). Hierbei kann auch die Information aus dem Teilespeicher TS verwendet werden.

Mit den Fig.14 bis 16 wird das noch an einem konkreten Beispiel in Form einer Dokumentati- on 2 für einen Filter beschrieben. In einer ersten Abbildung A1 ist der Filter mit den drei Teilen Gehäuse T1 , Schraubdeckel T2 und Filtereinsatz T3 dargestellt, wobei zu den drei Teilen T1 , T2, T3 auch noch Anmerkungen und Führungslinien enthalten sind. Mit den Abbildungen A2 und A3 wird mit einer Sequenz von Abbildungen in Form einer strukturellen Darstellung ein Filterwechsel beschrieben. Hierzu ist in Abbildung A2 der Schraubdeckel T2 vom Filter- gehäuse T1 entfernt dargestellt und die notwendige Handlung (Abschrauben des Deckels) durch einen Bewegungspfeil P1 angedeutet. In der Abbildung A3 ist schließlich der Filtereinsatz T3 aus dem Filtergehäuse entfernt dargestellt und die notwendige Handlung dafür wieder mit einem Bewegungspfeil P2 angedeutet. Diese Abbildungen A1 , A2, A3 können wie oben beschrieben analysiert werden, um daraus eine dreidimensionale Dokumentation 10 zu erstellen, die dann wiederum weiterverwendet werden kann, z.B. in einer Augmented Reality Anwendung.

In einer eine Augmented Reality Anwendung des Gebrauchsgegenstandes 1 wird der Gebrauchsgegenstand 1 z.B. zuerst digital aufgenommen, z.B. mittels einer Digitalkamera, 3D- Scanner, etc., und dann das 3D-Modell M in Übereinstimmung mit der aufgenommenen An- sieht des Gebrauchsgegenstandes 1 gebracht. Das kann entweder manuell erfolgen oder mittels bekannter Algorithmen, wie dem SAC-IA (Sample Consensus Initial Alignment) Algo- rithmus. Die aufgenommene Ansicht des Gebrauchsgegenstandes 1 kann dann je nach Bedarf mit der Information angereichert werden, die aus der oben beschriebene Analyse der Dokumentation 2 erhalten wurde.

Beispielsweise können in der jeweiligen realen Ansicht des Gebrauchsgegenstandes 1 aus der gedruckten Dokumentation 2 gewonnene Anmerkungen eingeblendet werden. Die Führungslinie 3 wird ausgehend vom Ankerpunkt AP so dargestellt, dass die Anmerkungen optimal dargestellt werden können. Im Fall einer Bewegung eines Teils T in der Augmented Reality (z.B. Explosionsdarstellung, strukturelle Darstellung) können die Anmerkungen mitgezogen werden. Explosionsdarstellungen oder strukturelle Darstellungen in der Augmented Reality können auch anwendergesteuert ablaufen, z.B. indem der Anwender angibt welche oder wieviele Teile in einer Explosionsdarstellung dargestellt werden.

Die Darstellung der Augmented Reality kann entweder in vollständig gerenderten Darstellungen wiedergegeben werden, oder es können nur die Umrisslinien über dem aufgenommen Bild des Gebrauchsgegenstandes 1 dargestellt werden.

Für die Augmented Reality Anwendung kann auch eine Computerbrille verwendet werden, mit der der Gebrauchsgegenstandes 1 gefilmt wird und über die vorher gewonnene Zusatzinformation zum Gebrauchsgegenstand 1 bei Bedarf in das Sichtfeld des Trägers der Computerbrille eingeblendet wird. Die gewonnene dreidimensionale Dokumentation 10 kann aber natürlich auch in einem Virtual Reality Viewer verwendet werden, z.B. zur Schulung am Gebrauchsgegenstandes 1. Dabei können verschiedene Ansichten des 3D-Modells M dargestellt werden, die durch die gewonnen Zusatzinformation angereichert werden kann oder in der der Gebrauchsgegenstandes 1 in verschiedenen Darstellungen, z.B. in einer Explosionsdarstellung, dargestellt wird. Natürlich können auch hier Animationen dargestellt werden, die z.B. aus einer strukturellen Darstellung gewonnen wurde.