Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR GENERATING REPRODUCIBLE PERSPECTIVES OF PHOTOGRAPHS OF AN OBJECT, AND MOBILE DEVICE WITH AN INTEGRATED CAMERA
Document Type and Number:
WIPO Patent Application WO/2021/148163
Kind Code:
A1
Abstract:
The invention relates to a method for generating reproducible perspectives (1'-11') of photographs of an object (12). A first 2D capture of a predefined reference view of the object (12) is captured by means of a camera and a source location (1) of a user relative to the object is determined from the first 2D capture by means of a computer vision module. Based on the origin (O) of the coordinates system as the source location of the camera, one or more predefined and/or adjustable relative positions are determined in the environment of the object (12) and/or in the object (12) as one or more locations (1-11) for the respective perspectives (1'-11') of the camera for capturing at least one second 2D capture. The respective location (1-11) in an object view on a display of the camera is displayed on the floor and/or on the object by means of a respective first augmented reality marker. The orientation of the camera in terms of angle and rotation in the perspective (1'–11') corresponding to the respective location (1-11) occurs by means of second augmented reality markers in the form of an auxiliary element.

Inventors:
FISCHER ANDREAS (DE)
SALCHER DEBORAH (DE)
Application Number:
PCT/EP2020/082611
Publication Date:
July 29, 2021
Filing Date:
November 19, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
AUDI AG (DE)
International Classes:
H04N5/232
Domestic Patent References:
WO2015079231A12015-06-04
Foreign References:
US20190312985A12019-10-10
EP3502960A12019-06-26
US20190098205A12019-03-28
US20160034590A12016-02-04
EP2608531A22013-06-26
US20150139535A12015-05-21
Download PDF:
Claims:
PATENTANSPRÜCHE:

Verfahren zum Erzeugen von reproduzierbaren Perspektiven (T-1 T) von Fotografien eines Objekts (12), wobei: eine erste 2D-Aufnahme einer vorgegebenen Referenzansicht des Ob jekts (12) mittels einer Kamera erfasst wird und von der ersten 2D- Aufnahme aus ein Ausgangsstandort (0) mittels eines Computer- Vision-Moduls ermittelt wird, wobei ausgehend vom Ausgangsstandort (O) eine oder mehrere vorgegebene und/oder einstellbare relative Positionen im Umfeld und am und/oder im Objekt (12) als ein oder mehrere Standorte (1-11) für die jeweilige Per spektive (T-1 T) der Kamera für die 2D-Aufnahme mindestens einer zweiten 2D-Aufnahme bestimmt werden und der jeweilige Standort (1- 11) in einer Objektansicht auf einer Anzeige der Kamera mittels eines jeweiligen ersten Augmented-Reality-Markers auf dem Fußboden und/oder am Objekt angezeigt werden.

Verfahren nach Anspruch 1 , wobei an dem ein oder mehreren Standor ten (1-11) dem Benutzer ein oder mehrere Hilfselemente (17; 19) mit tels zweiter Augmented-Reality-Marker in der Objektansicht auf der An zeige der Kamera zum Ausrichten der Kamera auf die mindestens eine vorgegebene und/oder einstellbare Perspektive (T-1 T) angezeigt wer den.

Verfahren nach Anspruch 2, wobei die ein oder mehreren Hilfselemente (17; 19) bei Erreichen der mindestens einen vorgegebenen und/oder einstellbaren Perspektive (T-1 T) in einer Flucht angeordnet werden.

Verfahren nach einem der vorhergehenden Ansprüche, wobei die Ka mera mittels des Computer-Vision-Moduls ein Referenzobjekt am Ob jekt (12) in der Referenzansicht erkennt und mittels einer Kontur des Referenzobjekts den Ausgangsstandort (O) relativ zum Objekt ermittelt.

5. Verfahren nach Anspruch 4, wobei die Kamera mittels zumindest einen Beschleunigungs- und/oder Gyrosensors ihre aktuelle relative Position und Orientierung relativ zum Ausgangsstandort (0) ermittelt. 6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das

Objekt (12) ein Kraftfahrzeug ist.

7. Verfahren nach Anspruch 6, wobei der Marker ein Kennzeichen (13) des Kraftfahrzeugs ist.

8. Verfahren nach einem der vorhergehenden Ansprüche, wobei zur Be stimmung der ein oder mehreren Standorte (1-11) für die jeweilige Per spektive (1‘-11‘) der Kamera die Maße des Objekts (12) berücksichtigt werden, sodass das Verfahren auf eine Vielzahl von verschiedenen Ob jekten (12) anwendbar ist.

9. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei Errei chen der Kamera an der jeweils mindestens einen vorgegebenen und/oder einstellbaren Perspektive (1‘-11‘) jeweils eine zweite 2D- Aufnahme von der Kamera automatisch erfasst wird.

10. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Anzahl an vorgegebenen Perspektiven sowohl Perspektiven (1‘-9‘) im Umfeld des Objekts (12) als auch Perspektiven (10‘-11‘) im Innenraum des Objekts (12) umfasst.

11. Verfahren nach einem der vorhergehenden Ansprüche, wobei von dem Objekt (12) mittels eines 3D Modells des Objekts (12) im Außenbereich des Objekts (12) durch Überdeckung mittels einer Maske freigestellte Bilder und/oder Composings erzeugt werden.

12. Verfahren nach Anspruch 11 , wobei das 3D Modell eine Benutzeraus wahl betreffend empfangen wird und das 3D Modell aus einem Spei- eher und/oder einer Servereinheit gemäß der Benutzerauswahl abgeru fen wird.

13. Verfahren nach Anspruch 11, wobei ein Schatten mittels des 3D Mo- dells berechnet und in die zumindest eine 2D-Aufnahme eingefügt wird.

14. Verfahren nach einem der vorhergehenden Ansprüche, wobei die zwei te 2D-Aufnahme des Objekts mittels Überblendungen oder Freistellun gen modifiziert wird.

15. Kamera mit einer Anzeige und mit einer Prozessorvorrichtung, die dazu eingerichtet ist, das Verfahren nach einem der vorhergehenden An sprüche auszuführen.

Description:
Verfahren zum Erzeugen von reproduzierbaren Perspektiven von Fotografien eines Objekts sowie mobiles Gerät mit integrierter Kamera

BESCHREIBUNG:

Die Erfindung betrifft ein Verfahren, ein mobiles Gerät mit integrierter Kame ra zum Erzeugen von reproduzierbaren Perspektiven von Fotografien eines Objekts. Aus der EP 2608531 A2 ist eine kombinierte Normallicht- und Infrarotkame ra bekannt, die auf Grundlage einer ersten Normallichtaufnahme einer An sicht mit der Normallichtkamera oder einer anderen Kamera und den aktuel len Bilddaten einer weiteren Aufnahme der selben Ansicht zu einem späteren Zeitpunkt Hinweise zum Auffinden der ersten Aufnahmeposition der Ansicht ausgibt. Bei Erreichen der ersten Aufnahmeposition wird dabei eine zweite Aufnahme gemacht, um einen Vorher-Nachher-Effekt zu erzeugen.

Aus der US 2015/0139535 A1 ist ein Verfahren zum Erzeugen eines Objekt bildausrichtungspakets bekannt. Zum Erzeugen des Objektbildausrichtungs- pakets wird zunächst ein 3D-Modell eines Objekts erzeugt. Um jeweilige Ansichten des 3D-Objekts mit Echtbildern zu kombinieren, wird aus vorbe stimmten Richtungen jeweils eine 2D-Fotoaufnahme des Objekts gemacht. Zu dem 3D-Modell des Objekts werden Schnitte entsprechend den Perspek tiven der jeweiligen 2D-Aufnahmen erzeugt. Die zu den jeweiligen 2D- Aufnahmen entsprechenden Schnitte des 3D-Modells werden anschließend überlagert und der Oberfläche des Schnittes entsprechend ausgerichtet. Zuletzt wird der Gegenstand mit der 2D-Bildüberlagerung freigestellt. Nach teilig bei dem bekannten Verfahren ist, dass die Perspektiven der jeweiligen 2D-Aufnahme zu dem Schnitt des 3D-Modells nicht immer übereinstimmen und beim Ausrichten der 2D-Aufnahme an die jeweilige Oberfläche des Schnittes Verzerrungen entstehen können.

Der Erfindung liegt die Aufgabe zugrunde, reproduzierbare Fotografien eines Objekts in definierten Perspektiven zu erzeugen.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprü che gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhän gigen Patentansprüche, die folgende Beschreibung sowie die Figuren be schrieben.

Unter dem Begriff Kamera wird in diesem Kontext eine in einem mobilen Gerät integrierte Kamera verstanden.

Durch die Erfindung ist ein Verfahren zum Erzeugen von reproduzierbaren von Fotografien in definierten Perspektiven eines Objekts bereitgestellt. Da bei wird eine erste 2D-Aufnahme einer vorgegebenen Referenzansicht eines Objekts mittels einer Kamera erfasst und von der ersten 2D-Aufnahme aus gehend ein Ausgangsstandort mittels eines Computer-Vision-Moduls ermit telt. Dabei werden ausgehend vom Ausgangsstandort eine oder mehrere vorgegebene und/oder einstellbare relative Positionen im Umfeld und am und/oder im Objekt als ein oder mehrere einzunehmende Standorte für die jeweilige Perspektive der Kamera für die Aufnahme mindestens einer zwei ten 2D-Aufnahme bestimmt. Der jeweilige Standort wird in einer Objektan sicht auf einer Anzeige der Kamera mittels eines jeweiligen ersten Aug- mented-Reality-Markers auf dem Fußboden und/oder am Objekt angezeigt. Mit anderen Worten, durch die Erfindung ist ein Verfahren bereitgestellt, das ermöglicht, ein Objekt aus vorbestimmten und gleichen Perspektiven jeweils reproduzierbar zu fotografieren. Dazu wird zunächst eine Referenzansicht eines Objekts mit einer Kamera erfasst. Flandelt es sich bei dem Objekt beispielsweise um ein Kraftfahrzeug, so kann als Referenzansicht eine An sicht auf das vordere Kennzeichen des Kraftfahrzeugs vorgegeben werden. Ein Computer-Vision-Modul erkennt mittels eines Bildverarbeitungsverfah rens die Umrisse und spezifischen Muster des Referenzobjekts und be- stimmt daraus einen Ausgangsstandort, der auf dem Referenzobjekt positio niert sein kann. Von dem Ausgangsstandort aus werden die jeweiligen Standorte für die jeweiligen 2D-Aufnahmen als Relativposition bestimmt. Von dem Ausgangsstandort auf dem Referenzobjekt aus wird anschließend eine Entfernung der Kamera zum Ausgangsstandort, beispielsweise mittels Trian gulation beim Autofokus und/oder Vergleich von Größenverhältnissen des Referenzobjekts in der Referenzansicht, berechnet. Anschließend wird dem Benutzer die relative Entfernung der Kamera zum Standort der ersten Per spektive mittels eines Augmented-Reality-Markers auf der Anzeige der Ka mera angezeigt. Mittels Beschleunigungs- und Gyrosensoren wird ermittelt und überprüft, wie die Kamera ausgerichtet werden soll, damit an den jewei ligen Standorten die jeweiligen Perspektiven für die Fotoaufnahmen des Objekts erreicht werden. Das führt dazu, dass der Benutzer erkennen kann, welcher Standort jeweils für die jeweilige 2D-Aufnahme des Objekts in der jeweiligen Perspektive einzunehmen ist. Durch die Anzeige der Standorte mittels Augmented-Reality-Markern wird dem Benutzer eine Hilfe zur Verfü gung gestellt, sodass er weiß, von welchem Standort aus er eine jeweilige 2D-Aufnahme des Objekts tätigen soll, damit das Objekt stets aus den glei chen Perspektiven reproduzierbar fotografiert wird. Die Erfindung hat dabei den Vorteil, dass eine gleichbleibende Qualität der Objektpräsentation unab hängig von einer fotografierenden Person sichergestellt werden kann. Ferner können die Perspektiven, aus denen das Objekt fotografiert werden soll, entsprechend dem Objekt von einem Benutzer und/oder mittels einer Vorein stellung angepasst werden.

Die hier beschriebenen Formen und Ausprägungen der Augmented-Reality- Marker sind beispielhaft zu verstehen und können auch andere Formen und Ausprägungen umfassen.

Zu der Erfindung gehören auch Ausführungsformen, durch die sich zusätzli che Vorteile ergeben.

Eine Ausführungsform sieht vor, dass dem Benutzer an einem oder mehre ren Standorten ein oder mehrere Hilfselemente mittels zweiter Augmented- Reality-Marker in der Objektansicht auf der Anzeige der Kamera zum Aus richten der Kamera auf die mindestens eine vorgegebene und/oder einstell bare Perspektive angezeigt werden. Mit anderen Worten, wenn der Benutzer mit der Kamera an einem Standort ankommt, von dem aus eine Perspektive auf das Objekt stimmt und eine Fotografie des Objekts aufgenommen wer den soll, so ist die jeweilige Ausrichtung und Orientierung der Kamera ent sprechend der Perspektive auszurichten. Dazu wird dem Benutzer eine Hil festellung mittels der ein oder mehreren Hilfselemente gegeben, die auf der Anzeige im Rahmen von zweiten Augmented-Reality-Markern dem Benutzer angezeigt werden. Beispielsweise können diese Augmented-Reality-Marker ein oder mehrere Kreise darstellen, wobei einer der Kreise einen Punkt in der Mitte, analog zu einer Zielscheibe, aufweist. Dies gibt dem Benutzer den Eindruck, auf den Blickpunkt, auf den die Kamera für die jeweilige Perspekti ve vom dem jeweiligen Standort aus zeigen soll, zu zielen.

Zusätzlich kann mittels zumindest eines weiteren Kreises mit einem durch gehenden Querbalken, der zum Ausrichten des für die jeweilige Perspektive vorgesehenen Abstands in die Mitte des Kreises zu platzieren ist, als weite res Hilfselement dazu genommen werden. Durch Drehen des Querbalkens um seinen Mittelpunkt kann dem Benutzer zusätzlich ein Feedback zur Rota tion der Kamera gegeben werden. So kann beispielsweise der Querbalken bei Erreichen der für die jeweilige Perspektive vorgesehenen horizontalen Ausrichtung in der Mitte des Kreises beispielsweise waagrecht angeordnet werden, um dem Benutzer zu signalisieren, dass der für die jeweilige Per spektive vorgesehene Rotationswinkel der Kamera erreicht ist. Der Rotati onswinkel kann dabei der mittels der Kamera intrinischen Gyro- und Be schleunigungssensoren ermittelt werden. Dadurch ergibt sich der Vorteil, dass dem Benutzer eine Hilfestellung gegeben wird, wie die Kamera an dem jeweiligen Standort der jeweiligen Perspektive ausgerichtet werden soll.

Dabei kann die Form der Hilfselemente als zweite Augmented-Reality- Marker nicht auf die Form eines Kreises mit/ohne Mittelpunkt und eines Querbalkens beschränkt sein. Eine Ausführungsform sieht vor, dass das eine oder die mehreren Hilfsele mente bei Erreichen der mindestens einen vorgegebenen und/oder einstell baren Perspektive in einer Flucht angeordnet werden. Hierdurch ergibt sich der Vorteil, dass zum Erreichen der oben gesagten Perspektive die jeweili gen Hilfselemente derart in einer Flucht angeordnet werden, sodass der Benutzer den Eindruck erhält, auf die richtige Perspektive zu zielen. Bei spielsweise mittels zumindest zweier Kreise, wobei ein Kreis einen Mittel punkt zum Darstellen einer Zielscheibe aufweist. Ebenfalls kann bei Errei chen der für die jeweilige Perspektive vorgesehenen Rotation beispielsweise ein Querbalken in einer Flucht mit den Kreisen schwebend als weiteres Hilfselement dazu genommen werden. Durch Einschweben des Querbalkens in einem der Kreise kann beispielsweise dem Benutzer das Erreichen der für die jeweilige Perspektive vorgesehenen horizontalen Ausrichtung signalisiert werden. Ebenfalls kann beispielsweise dem Benutzer durch Drehen des Querbalkens um seinen Mittelpunkt in einem der Kreise zusätzlich ein Feed back zur Rotation der Kamera gegeben werden. Bei der Anordnung der Hilfselemente in einer Flucht wird dem Benutzer ebenfalls eine optische Rückmeldung gegeben, dass die richtige Ausrichtung der Kamera bezüglich zum Aufnehmen der Perspektive erreicht ist.

Im Folgenden wird beschrieben, wie das Fotografieren eines Objekts, wie beispielsweise ein Kraftfahrzeug, ablaufen kann.

Eine Ausführungsform sieht vor, dass die Kamera mittels des Computer- Vision-Moduls ein Referenzobjekt am Objekt in der Referenzansicht erkennt und mittels einer Kontur oder Muster des Referenzobjekts den Ausgangs standort relativ zum Objekt ermittelt. Mit anderen Worten, die Referenzan sicht kann eine beliebige Ansicht des Objekts sein, die ein Referenzobjekt, wie beispielsweise ein spezifisches Merkmal, enthält. Das spezifische Merk mal kann dabei eine mittels eines Computer-Vision-Verfahrens erkennbare Kontur oder Muster sein, beispielsweise das Kennzeichen eines Kraftfahr zeugs. Dieses spezifische Merkmal dient dabei als Referenzobjekt, auf das der Ursprung eines Koordinatensystems der Kamera als Ausgangsstandort für die Bestimmung der einzunehmenden Standorte und der Perspektiven relativ zum Ausgangsstandort gesetzt wird. Das Referenzobjekt wird hierbei durch eine künstliche Intelligenz in Echtzeit erkannt.

Anhand der gefundenen Position des Referenzobjekts im Koordinatensystem wird eine Entfernung der Kamera zu dem Referenzobjekt am Objekt gemes sen. Auf das Referenzobjekt wird dabei der Ursprung des Koordinatensys tems für die Kamera als Ausgangsstandort gesetzt, von dem aus alle weite ren Standorte als relative Position bezüglich zum Ursprung als Ausgangs standort berechnet werden. Wenn das Objekt ein Kraftfahrzeug ist, kann der Ausgangsstandort beispielsweise in die Mitte des vorderen Kennzeichens gesetzt werden. Aus der nun bekannten Entfernung der Kamera zum Aus gangsstandort kann die relative Distanz der Kamera zum ersten Standort für die erste Perspektive ermittelt werden. Hierdurch ergibt sich der Vorteil, dass die Perspektiven ausschließlich vom Objekt abhängig sind. Da zu einem jeweiligen Objekt die jeweiligen Standorte als relative Position ausgehend von den jeweiligen Ausgangsstandort auf dem Referenzobjekt des Objekts bestimmt werden, wird dabei eine gleichbleibende Qualität der 2D- Aaufnahmen gewährleistet. Ferner sind die 2D-Aufnahmen zu verschiedenen Objekten der gleichen Art, beispielsweise verschiedene Modelle des gleichen Kraftfahrzeugs, reproduzierbar.

Eine Ausführungsform sieht vor, dass die Kamera mittels zumindest eines Beschleunigungs- und/oder Gyro-Sensors ihre aktuelle relative Position und Orientierung relativ zum Ausgangsstandort ermittelt. Mit anderen Worten, sobald der Ausgangsstandort über das Computer-Vision-Modul bestimmt wurde, wird nun die Bewegung der Kamera zwischen den jeweiligen Stand orten für die 2D-Aufnahmen in der jeweiligen Perspektive mittels zumindest eines Beschleunigungs- und/oder Gyrosensors und Triangulation verfolgt. Hierdurch ergibt sich der Vorteil, dass bei einem Standortwechsel von ver schiedenen Seiten des Objekts keine erneute Referenzaufnahme für eine Kalibrierung der Kamera notwendig ist.

Eine Ausführungsform sieht vor, dass das Objekt ein Kraftfahrzeug ist. Hier durch ergibt sich der Vorteil, dass bei einem Kraftfahrzeug das jeweilige Referenzobjekt, beispielsweise ein Kennzeichen, eindeutig bestimmt sein kann. Ferner können verschiedene Modelle eines Kraftfahrzeugs in gleich bleibender Qualität und reproduzierbar fotografiert werden. Außerdem kann das Verfahren in besagter Ausführungsform auch auf 2D-Aufnahmen des Innenraums des Kraftfahrzeugs erweitert werden.

Eine Ausführungsform sieht vor, dass das Referenzobjekt ein Kennzeichen des Kraftfahrzeugs ist. Mit anderen Worten, als Referenzobjekt zur Bestim mung der Ausgangsposition der Kamera kann ein Kennzeichen des Kraft fahrzeugs verwendet werden. Da es bereits bestehende Verfahren zur auto matischen Kennzeichenerkennung von Kraftfahrzeugen gibt, ergibt sich der Vorteil, dass dabei auf bestehende Verfahren zurückgegriffen werden und mit hinreichender Genauigkeit ein Ausgangsstandort bestimmt werden kann, von dem aus alle weiteren Standorte für die jeweiligen Perspektiven relativ zum Kraftfahrzeug berechnet werden können. Hierdurch werden die jeweili gen Standorte bei verschiedenen Kraftfahrzeugen mit den gleichen Maßen an den gleichen Koordinaten gesetzt, sodass eine gleichbleibende Qualität der 2D-Aufnahmen reproduzierbar sichergestellt werden kann.

Eine Ausführungsform sieht vor, dass zur Bestimmung der einen oder meh reren Standorte für die jeweilige Perspektive der Kamera die Maße des Ob jekts berücksichtigt werden. Mit anderen Worten, es gibt einen Unterschied, ob beispielsweise das Kraftfahrzeug ein großer Geländewagen oder ein Kleinwagen ist. Hierdurch ergeben sich relative Verschiebungen in der jewei ligen Dimension. So ist beispielsweise die Perspektive, die in der Seitenan sicht auf eine Hintertür eines Geländewagens ausgerichtet ist, schon außer halb der Ansicht eines Kleinwagens, sodass der Standort für die Perspektive die Seitenansicht der Hintertür für den Kleinwagen weiter nach vorne ver schoben werden muss. In solch einem Extremfall können die Perspektiven der 2D-Aufnahmen an die Dimension des jeweiligen Objekts angepasst wer den. Hierdurch ergibt sich der Vorteil, dass das Verfahren für ein oder meh rere verschiedene Objekte 2D-Aufnahmen der jeweiligen Perspektiven in gleichbleibender Qualität reproduzieren kann. Eine Ausführungsform sieht vor, dass eine Anzahl oder Menge an vorgege benen Perspektiven sowohl Perspektiven im Umfeld des Objekts als auch Perspektiven im Innenraum des Objekts umfasst. Mit anderen Worten, ein Objekt kann von Standorten um das Objekt herum fotografiert werden. Zu sätzlich kann ein Objekt, wenn es von innen begehbar ist, wie beispielsweise ein Kraftfahrzeug mit einem Innenraum, auch der Innenraum des Objekts aus den jeweiligen dafür vorgesehenen Perspektiven analog fotografiert werden. Dazu werden die jeweiligen Standorte im Innenraum ebenfalls aus gehend vom Ausgangsstandort dem Benutzer entsprechend angezeigt. Zu sätzlich kann für einen Übergang von einem Standort im Umfeld des Kraft fahrzeugs zu einem Standort im Innenraum des Kraftfahrzeugs dem Benut zer ein Hinweis angezeigt werden, beispielsweise eine Tür zu öffnen und/oder sich auf einen bestimmten Sitz, wie beispielsweise dem Mittelsitz auf einer Rückbank, zu begeben, angezeigt werden. Hierdurch ergibt sich der Vorteil, dass das Verfahren nicht allein auf eine Außenansicht des Ob jekts beschränkt ist.

Eine Ausführungsform sieht vor, dass vom Objekt mittels eines 3D-Modells des Objekts im Außenbereich des Objekts durch Überdeckung mittels einer Maske automatisch freigestellte Bilder und/oder Composings erzeugt werden können. Mit anderen Worten, durch den Einsatz von 3D-Modellen des Fahr zeugs kann im Außenbereich durch Überdeckung eine Maske und automa tisch freigestellte Bilder beziehungsweise Composings, beispielsweise mit einem Schatten oder einem anderem Hintergrund, erzeugt werden. Die Überlagerung der 2D-Aufnahmen eines Kraftfahrzeugs mit dem entspre chenden 3D-Modell des Kraftfahrzeugs erfolgt bei der 2D-Aufnahme der Referenzansicht mit dem Referenzobjekt. Ausgehend von der Referenzan sicht weist das 3D-Modell entsprechende Silhouetten entsprechend der je weiligen Perspektive auf. Durch Überlagerung der jeweiligen 2D-Aufnahme aus einer Perspektive mit der jeweiligen 3D-Modell-Silhouette kann eine Maske erzeugt werden. Das heißt, dass das Kraftfahrzeug aus dem Hinter grund ausgeschnitten werden kann. Mit dem freigestellten Bild beziehungsweise Composing können ebenfalls Schatten entsprechend der Perspektive und eines simulierten Lichteinfalls erzeugt werden. Dadurch ergibt sich der Vorteil, dass das Kraftfahrzeug entsprechend unabhängig vom Hintergrund fotografiert werden kann. Durch das Erzeugen von Composings, beispielsweise mit Schatten oder einem anderen Hintergrund oder ähnlichem, ergibt sich der Vorteil, dass eine gleichbleibende Qualität unabhängig vom Fotografieort vom Kraftfahrzeug erzeugt werden kann. Des Weiteren ergibt sich der Vorteil, dass mittels Überblendung, beispielsweise des Kennzeichens, die Bilder entsprechend verkaufsfertig vorbereitet werden können.

Eine Ausführungsform sieht vor, dass das 3D-Modell von dem Benutzer ausgewählt wird. Hierdurch ergibt sich der Vorteil, dass das 3D-Modell zu dem Objekt, das fotografiert werden soll, passt. Beispielsweise kann dies ein bestimmtes Modell eines Kraftfahrzeugs sein. Wenn beispielsweise der Be nutzer ein spezifisches Kraftfahrzeugmodell für einen Verkauf fotografieren möchte, so wird der entsprechende Modelltyp in einem Menü vorausgewählt, sodass das 3D-Modell aus einem Speicher der Kamera und/oder einer Ser vereinheit bezogen werden kann. Das 3D-Modell enthält ferner auch die Maße des entsprechenden Kraftfahrzeugmodells. Hierdurch ergibt sich der Vorteil, dass das Verfahren auf verschiedene Objekte reproduzierbar in gleichbleibender Qualität anwendbar ist.

Eine Ausführungsform sieht vor, dass ein Schatten mittels des 3D-Modells berechnet und in die zumindest eine 2D-Aufnahme eingefügt werden kann. Mit anderen Worten, das Objekt wird in einer 2D-Aufnahme erkannt und mit einem dem Objekt entsprechenden 3D-Modell überlagert. Dabei erfolgt die Überlagerung des 3D-Modells in der entsprechenden Silhouette aus der Perspektive der 2D-Aufnahme. Durch die Überlagerung der jeweiligen 2D- Aufnahme mit der jeweiligen Silhouette des 3D-Modells des Objekts kann die 2D-Aufnahme aus dem Hintergrund ausgeschnitten werden. Zusätzlich oder alternativ kann mittels des 3D-Modells ein Schatten bezüglich einer virtuellen Lichtquelle simuliert und erzeugt werden. Dieser Schatten kann anschlie ßend in die 2D-Aufnahme eingefügt werden. Hierdurch ergibt sich der Vorteil, dass die Fotografie aus der gewünschten Perspektive unabhängig von den eigentlichen Lichtverhältnissen reproduzierbar erfolgen kann.

Eine Ausführungsform sieht vor, dass die zweite 2D-Aufnahme des Objekts mittels Überblendungen oder Freistellungen modifiziert werden kann. Mit anderen Worten, das Objekt kann durch die Verwendung des 3D-Modells und der Überlagerung des in der 2D-Aufnahme erkannten Objekts mit dem jeweiligen 3D-Modell des Objekts aus dem Hintergrund ausgeschnitten wer den. Außerdem können bestimmte Merkmale des Objekts, wie beispielswei se das Kennzeichen eines Kraftfahrzeugs, überblendet werden. Hierdurch ergibt sich der Vorteil, dass die 2D-Aufnahmen automatisch anonymisiert und damit auch datenschutzrechtliche Aspekte automatisch umgesetzt wer den können. Außerdem ergibt sich hierdurch der Vorteil, dass das Objekt vom Hintergrund freigestellt und deshalb vom Hintergrund unabhängig foto grafiert werden kann. Ferner ergibt sich hierdurch der Vorteil, dass 2D- Aufnahmen unabhängig des Hintergrunds in gleichbleibender Qualität unab hängig vom Fotografieort gemacht werden können.

Eine Ausführungsform sieht vor, dass das Verfahren von einem mobilen Gerät mit integrierter Kamera umgesetzt wird. Hierdurch ergibt sich der Vor teil, dass das Verfahren von einem Smartphone mit einer entsprechend aus gerüsteten Kamera umgesetzt werden kann. Ferner kann die Datenverbin dung mittels einer Netzwerkverbindung des Smartphones erfolgen. Ferner ergibt sich hierdurch der Vorteil, dass die entsprechende Beschleunigungs und Gyrosensorik des mobilen Gerätes für die Standortbestimmung relativ zum Objekt verwendet werden kann.

Die Erfindung umfasst auch die Kombinationen der Merkmale der beschrie benen Ausführungsformen.

Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt: Fig. 1 eine schematische Darstellung eines zu fotografierenden Ob jekts in Form eines Kraftfahrzeugs sowie Standpunkte, wobei zu dem jeweiligen Standpunkt eine Perspektive einer 2D- Aufnahme zugeordnet ist, von welcher aus das Objekt fotogra fiert werden soll,

Fig. 2 eine Ansicht des Objekts mit den entsprechenden Augmented-

Reality-Markern für die Standortmarkierung auf einem Anzeige bildschirm einer Kamera,

Fig. 3 eine Skizze einer ersten Referenzansicht des Objekts zur

Standortbestimmung und Kalibrierung,

Fig. 4 eine Skizze von Augmented-Reality-Markern zur Standortbe stimmung und zur Kameraorientierung,

Fig. 5 eine Skizze von entsprechenden zweiten Augmented-Reality- Markern als Hilfselemente zur Ausrichtung der Kamera, und Fig. 6 einer solchen Darstellung entsprechende Freistellung des foto grafierten Objekts bezüglich eines neutralen Flintergrunds und eines simulierten Schattens.

Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei dem Ausführungsbeispiel stellen die beschriebenen Komponenten der Ausführungsform jeweils einzel ne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebe ne Ausführungsform auch durch weitere der bereits beschriebenen Merkma le der Erfindung ergänzbar. In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.

Fig. 1 zeigt ein zu fotografierendes Objekt als ein Kraftfahrzeug 12. Dem Beispiel kann folgende beispielhafte Situation zugrunde liegen: Ausgehend von einer Referenzansicht mit einem Referenzobjekt, das beispielsweise die Mitte des vorderen Kennzeichens 13 des Kraftfahrzeugs 12 sein kann, wird ein Ursprung 0 des Koordinatensystems der Kamera als Ausgangsstandort bestimmt. Relativ zum Ursprung 0 werden alle Standorte 1 bis 11' mit ihren jeweiligen Perspektiven V bis 11 ‘bestimmt. Die Perspektiven können dabei derart definiert sein, dass der Benutzer an dem jeweiligen Standort 1 bis 11 mit dem Objektiv der Kamera auf einen für die jeweilige Perspektive V bis 11' vorgesehenen Punkt auf dem Objekt in einem bestimmten Neigungswin kel zeigt. Dies kann mittels einer Beschleunigungs- und Gyrosensorik der Kamera ermittelt werden. Der Benutzer fotografiert beispielsweise am An fang mittels einer angezeigten Anweisung auf der Anzeige der Kamera die Front des Kraftfahrzeugs 12 mit dem Kennzeichen 13 als Referenzobjekt. Ausgehend von einer automatisierten Bilderkennung mittels eines Computer- Vision-Moduls wird eine Referenzansicht des Kraftfahrzeugs 12 in Form des Kennzeichens 13 erkannt. Die Kamera definiert nun beispielsweise die Mitte des Kennzeichens 13 als Ursprung 0 ihres Koordinatensystems als Aus gangsstandort zur Standortbestimmung.

Ferner kann mittels des Computer-Vision-Moduls erkannt werden, in welcher Distanz sich die Kamera zum Ursprung 0 auf dem Kennzeichen 13 befindet. Dies kann anhand der Größenverhältnisse in der 2D-Aufnahme ermittelt werden. Anschließend wird die relative Position vom aktuellen Standort der Kamera und dem Standort 1 bestimmt und dem Benutzer mittels eines Aug- mented-Reality-Markers, der auf dem Fußboden angezeigt wird, angezeigt. Fig. 1 zeigt um das Kraftfahrzeug 12 herum die Standorte 1 bis 11 mit ihren jeweiligen Perspektivansichten, die als Punkte, auf die das Objektiv der Ka mera zeigen soll, dargestellt sind. Die Punkte '\‘ bis 11‘, auf die das Objektiv der Kamera ausgehende vom jeweiligen Standort 1 bis 11 zeigen soll, wer den im Folgenden als die Perspektiven '\‘ bis 11' bezeichnet. Dabei wird einerseits zwischen den Standpunkten 1 bis 9 im Außenbereich des Kraft fahrzeugs 12 und zwischen den Standpunkten 10 bis 11 im Innenraum des Kraftfahrzeugs unterschieden.

Nach der 2D-Aufnahme der Referenzansicht mit besagter Standortbestim mung wird der Benutzer veranlasst, sich zum Standort 1 zu bewegen und die Kamera auf die erste Perspektive V auszurichten. Die ersten Augmented- Reality-Marker können dabei beispielsweise Kreise mit eingeschlossenen Fußabdrücken sein. Diese Zeigen dem Benutzer an, wie er sich an dem jeweiligen Standort 1 bis 11 hinzustellen hat, sodass er automatisch bereits in die für den Standort jeweilige Perspektive schaut. Für das Ausrichten der Kamera an dem jeweiligen Standort 1 bis 11 auf die jeweilige Perspektive V bis 11 ‘werden Flilfselemente verwendet, die bei Erreichen der Perspektive V bis 11' in einer Flucht angeordnet werden. Damit hat der Benutzer beim Ausrichten der Karner auf die Perspektive 1‘, wenn der Benutzer sich am Standort 1 befindet, den Eindruck, er ziele auf den Punkt V zum Erreichen der Perspektive V. Dabei kann die Aufnahme der 2D-Aufnahme bei Errei chen der Perspektive V automatisch erfolgen, sobald sich die entsprechen den Flilfselementen in einer Flucht angeordnet haben.

Wenn die 2D-Aufnahme zur Perspektive V am Standort 1 getätigt wurde, kann dem Benutzer der Standort 2 mittels des ersten Augmented-Reality- Markers auf der Anzeige der Kamera angezeigt werden. Beispielsweise kann dies bereits in Form eines Kreises mit einem grafischen oder schriftlichen Inhalt erfolgen, der beim Erreichen des Standortes zwei Fußabdrücke an zeigt, um dem Benutzer zu signalisieren, wie er sich für die Perspektive 2' am Standort 2 hinzustellen hat. Diese Anzeige des Standortes 2 wird mit dem Flinweis verbunden, dass sich der Benutzer zu dem Standort 2 bewe gen solle. Sobald der Benutzer auf dem Standort 2 angekommen ist, muss er die Kamera entsprechend der Perspektive 2' ausrichten. Dies wird durch Anzeigen von zumindest einem Hilfselement realisiert. Sobald die Ausrich tung der Kamera auf die Perspektive 2' erfolgt, werden dazu die Hilfselemen te in einer Flucht angeordnet und die zweite 2D-Aufnahme in der Perspektive 2' vom Standort 1 gemacht. Dieser Vorgang wiederholt sich für die Standorte 3 bis 9 im Außenbereich des Kraftfahrzeugs 12, wobei die Standorte 1 bis 9 jeweils mit den ersten Augmented-Reality-Markern auf dem Boden 18 im Umfeld des Kraftfahrzeugs 12 angezeigt werden.

Sobald der Standort 10 erreicht worden ist, der sich auf dem Fahrersitz des Kraftfahrzeugs 12 befindet, kann dem Benutzer beispielsweise mittels eines Texthinweises auf der Anzeige der Kamera angezeigt werden, zunächst die Fahrertür des Kraftfahrzeugs 12 zu öffnen und sich in den Innenraum des Kraftfahrzeugs 12 an dem bestimmten Punkt 10 zu begeben. Anschließend erfolgt die Anweisung zum Fl ingehen an den Standort 10 und zum Ausrichten der Kamera auf die Perspektive 10' analog zu den Perspektiven im Außen raum. Dabei werden die Standorte 10 bis 11 mit den ersten Augmented- Reality-Markern jeweils auf dem dafür vorgesehenen Sitzflächen und/oder dem Kraftfahrzeugboden angezeigt.

Die jeweiligen Ausgangsstandorte sind dabei vorgegeben entsprechend der Maße des Kraftfahrzeugs 12. So kann es beispielsweise einen Unterschied machen, ob in der Perspektive am Standort 5 von schräg hinten das Kraft fahrzeug 12 ein großes Kraftfahrzeug ist oder ein Kleinwagen. Im Extremfall kann dies bedeuten, dass für den Fall, dass der Benutzer bei Verwenden der Maße eines großen Geländewagens einen Kleinwagen fotografiert, der Be nutzer an dem Kraftfahrzeug vorbei fotografieren wird können. Deshalb kön nen die Maße des Objekts bei der Standortbestimmung berücksichtigt wer den. Dies erfolgt durch eine vorherige Auswahl des jeweiligen Kraftfahr zeugmodells, das die entsprechenden Maße beinhaltet. Ausgehend von den entsprechenden Maßen werden nun die vorherbestimmten Standorte ausge hend vom Ursprung O als Ausgangsstandort von der Kamera berechnet und dem Benutzer auf einer Anzeige mittels der ersten Augmented-Reality- Marker auf dem Boden 18 angezeigt.

Fig. 2 zeigt eine beispielhafte mögliche Darstellung der Standorte 1 bis 11 auf einem Kameraanzeigebildschirm bezüglich zum Kraftfahrzeug 12. Dabei werden die Standorte 1 bis 11 mittels eines ersten Augmented-Reality- Markers markiert, der bereits Fußabdrücke zur Darstellung der Blickrichtung beinhaltet. Daraufhin muss der Benutzer nur noch die Kamera entsprechend der richtigen Drehung und dem Gierwinkel ausrichten. Dies ist beispielsweise eine erste Unterstützung des Benutzers bei der Positionierung der Kamera zum Erreichen der gewünschten, dem jeweiligen Standort entsprechenden Perspektive. Der Zielpunkt der Perspektive wird dabei dem Benutzer zweiter Augmented-Reality-Marker als Hilfselemente auf der Kameraanzeige ange zeigt. Das Verfahren ist so konzipiert, dass der Benutzer zunächst die Front des Kraftfahrzeugs mit dem Kennzeichen 13 fotografiert. Wichtig bei dem Verfahren ist dabei die Kennzeichenerkennung des Kennzeichens 13 des Kraftfahrzeugs 12. Dies kann beispielhaft von vorne vom Kraftfahrzeug 12 erfolgen oder von hinten.

Sobald ein erster Ausgangsstandort definiert wurde, können die übrigen Standorte 2 bis 11 entsprechend ihrer relativen Position zum Ausgangs standort 11 bezüglich auf den Ursprung 0 als Ausgangsstandort, der auf das Kennzeichen 13 gesetzt wird, bestimmt werden. Die Standortveränderung kann, sobald der Ursprung 0 auf dem Kennzeichen 13 definiert wurde, als Ausgangsstandort mittels der Beschleunigungs- und Gyrosensorik der Ka mera, beispielsweise derer eines Smartphones, bestimmt werden. Dadurch kann die Kamera auch erkennen, wenn der Benutzer den entsprechenden Standort 1 bis 11 erreicht hat. Zusätzlich wird die entsprechende Kamera- und Gyrosensorik verwendet, um die vorgesehene Perspektive V bis 11' an dem jeweiligen Standort zu erreichen, sodass die Ausrichtung der Kamera auf die jeweilige Perspektive V bis 11' gleichbleibend erfolgt.

Fig. 3 zeigt beispielhaft eine Referenzansicht bezogen auf das Kraftfahrzeug 12 zur Bestimmung des Ursprungs 0 als Ausgangsstandort. Zur Bestim mung des Ursprungs 0 wird ein Referenzobjekt auf dem Objekt 12 erkannt. Dies ist hier beispielsweise das Kennzeichen 13. Mit bestehenden Verfahren der Bilderkennung kann das Kennzeichen 13 erkannt und mittels der Daten aus dem Autofokus der Kamera und/oder den abgespeicherten Maßen des Kennzeichens 13 im Vergleich zu der zum Kennzeichen 13 abgespeicherten Kontur eine Distanzbestimmung der Kamera zum Kennzeichen 13 vorge nommen werden. Zunächst wird dem Benutzer z.B. in Form einer Textan- Weisung 14 angezeigt, wo er sich zur 2D-Aufnahme der ersten Referenzauf nahme hinbegeben soll. Dies ist beispielsweise der Hinweis, dass der Benut zer sich vor das Kraftfahrzeug 12 stellen und das Kennzeichen 13 innerhalb des Rahmens 15 aufnehmen soll.

Der Rahmen 15 stellt dabei einen zu untersuchenden Bereich auf dem Ob jekt 12 dar. Mittels des erkannten Kennzeichens innerhalb des Rahmens 15 und des Kennzeichens 13 auf dem Kraftfahrzeug 12 wird dabei eine Distanz über die hinterlegte Dimension des Kennzeichens 13 ermittelt. Dies kann beispielsweise mittels der bekannten und hinterlegten Dimensionen des Kennzeichens 13 und eines Triangulationsverfahrens im Rahmen des Auto fokus der Kamera erfolgen. Aus diesem Verfahren wird eine erste Distanz der Kamera von dem Kennzeichen 13 des Kraftfahrzeugs ermittelt.

Anschließend wird nun der Ursprung 0 eines genutzten Kamerakoordinaten systems in die Mitte des Kennzeichens 13 gesetzt. Relativ zum Ursprung 0 als Ausgangsstandort in der Mitte des Kennzeichens 13 werden nun analog zu Fig. 1 die Standorte 1 bis 11 mit ihren jeweiligen Perspektiven T bis 1 T ermittelt und die Differenz der Relativposition der Kamera bezüglich des Ursprungs 0 und der Relativposition der Standorte 1 bis 1 T dem Benutzer auf der Anzeige der Kamera mittels erster Augmented-Reality-Marker auf dem Boden 18 angezeigt. Dies ist beispielsweise der Fall, da sich der Benut zer im Gegensatz zur Textanweisung 14 weniger als einen Meter von dem Kennzeichen des Kraftfahrzeugs 12 entfernt oder auch weiter weg aufhalten kann. Dies ist schwer abschätzbar, sodass eine Distanzerkennung der Ka mera vom Kennzeichen 13 erforderlich ist zur Bestimmung der Relativpositi on der Kamera zum Ursprung 0 und zu den Standorten 1 bis 11. Dies er möglicht, dass 2D-Aufnahmen in gleichbleibender Qualität aus der jeweils gleichen Perspektive T bis 1 T gemacht werden können. Die ersten Aug- mented-Reality-Marker zur Standortbestimmung der Standorte 1 bis 11 wer den dem Benutzer dabei jeweils auf dem Boden 18 angezeigt.

Fig. 4 zeigt die Anzeige von zwei verschiedenen zweiten Augmented-Reality- Markern als Hilfselemente zur Ausrichtung der Kamera auf die jeweilige Perspektive T bis 11‘. Für eine 2D-Aufnahme aus der beispielsweise dafür vorgesehenen Perspektive 2‘ am Standort 2 wird dem Benutzer mittels des ersten Augmented-Reality-Markers angezeigt, sich zum Standort 2 zu bege ben. Dabei kann der erste Augmented-Reality-Marker ein Kreis sein, der Fußabdrücke enthält, die dem Benutzer die Stehrichtung vorgeben, sodass er mit dem Oberkörper in Richtung der Perspektive 2‘ schaut. Dies kann beispielsweise mittels eines roten Kreises mit weißen eingeprägten Fußab drücken angezeigt werden. Ferner kann beispielsweise vorgesehen sein, dass der nächste Standort 3 mittels eines ersten Augmented-Reality-Markers in Form eines transparenten Kreises angezeigt wird. Dabei kann der transpa rente Kreis am Standort 3 auch weitere Elemente beinhalten, wie beispiels weise ein Markenlogo.

Zum Ausrichten der Kamera auf die jeweilige Perspektive 2‘ am Standort 2 kann dabei der zweite Augmented-Reality-Marker als Flilfselement in Form eines Kreises mit Mittelpunkt 17 angezeigt werden. Zur Einordnung des Benutzers, welche Perspektivaufnahme gerade erfolgt, wird dem Benutzer z.B. ein Texthinweis 16 angezeigt. Der Texthinweis 16 kann dabei eine In formation wie beispielsweise: „Photo 2 of 12“, beinhalten (Foto 2 von 12). Der Flinweis, sich zum nächsten Standort 1 bis 11 zu begeben, wird auch in Form einer Textanweisung 14 dem Benutzer auf der Anzeige angezeigt. Die Textanweisung 14 kann dabei eine Anweisung wie beispielsweise: „Go to the front driver side position“, beinhalten („Gehen sie zu der vorderen Fahrersei tenposition“). Sobald der Benutzer den Standort 2 erreicht hat, wird zu dem Kreis mit Mittelpunkt 17 zusätzlich ein weiterer Kreis zur richtigen Ausrich tung der Kamera auf die Perspektive 2‘ angezeigt.

Fig. 5 zeigt als zweite Augmented-Reality-Marker als Hilfselemente den Kreis mit Mittelpunkt 17 und den Kreis 19 zur richtigen Ausrichtung der Kamera auf die Perspektive 2‘ am Standort 2. Gezeigt wird beispielsweise die Anzeige auf der Kamera ausgehend vom Standort 2 analog zu Fig. 1, wobei das Objektiv der Kamera auf die Perspektive 2‘ ausgerichtet wird. Die Perspekti ve 2‘ kann dabei ein virtueller Punkt im Raum sein, der für den Benutzer unsichtbar ist. Mittels der Kreise 17 und 19 wird dem Benutzer dabei eine Hilfestellung gegeben, wie die Kamera zum Zielen auf die Perspektive 2‘ auszurichten ist. Dies erfolgt mittels eines Kreises mit einem Mittelpunkt 17 und des zweiten Kreises 19 mit einem Querbalken 20. Dabei werden die Kreise 17 und 19 in einer Flucht angeordnet, wenn das Objektiv der Kamera auf den Zielpunkt der Perspektive 2‘ zielt, der durch den Mittelpunkt des Kreises 17 verdeckt wird. Der Querbalken 20 zeigt dabei einen für die Per spektive 2‘ vorgesehene Abstand an. Dies kann beispielsweise durch den Querbalken 20 derart angezeigt werden, indem beispielsweise der Querbal ken 20 von außen in den Kreis 19 schwebt und sich bei Erreichen des für die Perspektive 2‘ vorgesehenen Abstands in der Mitte des Kreises 19 anordnet. Ferner kann mittels des Querbalkens 20 der für die Perspektive 2‘ vorgese hene Rotationswinkel der Kamera angezeigt werden, indem beispielsweise der Querbalken 20 waagrecht in der Mitte des Kreises 19 angeordnet wird.

Die Anordnung umfasst auch den entsprechenden Texthinweis 16 und Text anweisung 14. Die Textanweisung 14 kann eine Anweisung wie beispiels weise: „Go to the front driver side position“, beinhalten. Im Texthinweis 16 kann eine Information, wie beispielsweise: „Photo 2 of 12“, angezeigt wer den. Dabei wird dem Benutzer bereits der nächste Standort auf dem Boden 18 angezeigt. Die 2D-Aufnahme der 2D-Aufnahme erfolgt, sobald sich die Kreise 17 und 19 in einer Flucht befinden. Dies kann entweder manuell oder automatisiert erfolgen. Nachher kann beispielsweise vorgesehen sein, dass der Benutzer die 2D-Aufnahme kontrollieren und gegebenenfalls eine zweite 2D-Aufnahme aus der gleichen Perspektive 2‘ tätigen kann. Sobald die 2D- Aufnahme erfolgreich getätigt wurde, wird dem Benutzer der nächste Stand ort 3 für die nächste Perspektive 3‘ in Form eines transparenten Kreises als ersten Augmented-Reality-Marker angezeigt. Das oben beschriebene Vor gehen wird bis zum Erreichen der Perspektive 1 T am Standort 11 analog fortgeführt. Die Textanweisungen 14 können dazu dienen, dem Benutzer Standortinformationen oder weitere Tätigungshandlungen, wie beispielswei se das Öffnen einer Kraftfahrzeugtüre oder das Hinsetzen auf den Mittelsitz auf einer Rückbank eines Kraftfahrzeugs, verwendet werden. Der Texthin weis 16 können dazu dienen, Informationen über die aktuelle Anzahl der 2D- Aufnahmen im Vergleich zu einem Sollwert von 2D-Aufnahmen anzuzeigen. Fig. 6 zeigt eine Freistellung des Kraftfahrzeugs 12 vom Hintergrund 22 zur Erstellung von 2D-Aufnahmen unabhängig vom Hintergrund 22. Dabei wird ein entsprechendes 3D-Modell aus einem Speicher, der entweder ein Spei cher der Kamera oder ein Speicher einer Servereinheit sein kann, bezogen. Die entsprechenden Perspektivaufnahmen T bis 11' werden nun mit den entsprechenden Silhouetten des 3D-Modells des Kraftfahrzeugs 12 überla gert, sodass das Kraftfahrzeug 12 vom Hintergrund 22 freigestellt werden kann. Zusätzlich kann ein Schatten 21 entsprechend einer virtuellen Licht quelle simuliert werden. Der Hintergrund 22 kann dabei entweder neutral gestaltet sein als weißer Hintergrund oder ein beliebiger weiterer Hintergrund 22 sein.

Dem Nutzer wird durch das Verfahren ein Standardprozess zur fotografi schen Abbildung von Kraftfahrzeugen bei einem Händler oder einem End kunden zur Verfügung gestellt. Dabei können beliebige Fotos in gleichblei bender Qualität vom jeweiligen Kraftfahrzeug aufgenommen werden.

Insgesamt zeigt der heutige Stand, dass für die fotografische Abbildung von Kraftfahrzeugen beim Händler oder beim Endkunden kein Standardprozess verwendet wird. Die Anwender nehmen beliebige Fotos auf und bearbeiten diese unter Umständen nach. Die Grundidee des Verfahrens ist hierbei, mit Markern den Anwender in vorgegebenen Positionen zu führen. Nachteile beim heutigen Stand der Technik sind, dass die Bilder nicht die vom Kunden erwartete Qualität erreichen. Weiterhin ist die Varianz der Bildqualität hoch und eine Nachbearbeitung wird gegebenenfalls durch Dritte ausgeführt. Vorteilhafte Perspektiven können nicht gezielt genutzt werden. Durch das Verfahren innerhalb einer App in Form einer mobilen Anwendung wird si chergestellt, dass Fotos mit definierten Perspektiven auch fahrzeugspezifisch in gleichbleibender Qualität und wiederholbar erstellt werden. Weiterhin ist die Möglichkeit für Überblendungen, zum Beispiel für Kennzeichen, oder Freistellungen, zum Beispiel zum Hintergrund entfernen, gegeben. Vorteilhaft bei dem Verfahren ist, dass die Fotos in gleichbleibender Qualität unabhän gig vom Fotograf erfolgen. Dies wird durch das Führen des Anwenders mit Markern an die vorgegebene Position realisiert. Ein Effekt des Verfahrens ist, dass damit die Fotos reproduzierbar werden. Ferner können die Fotos dazu auch zum Objekt individualisierbar gestaltet werden, da die Standorte spezi fisch zum Verkaufsobjekt jeweils einprogrammiert werden können.

Im Folgenden ist eine besonders bevorzugte Ausführungsform des Verfah rens beschrieben.

Technisch wird das Verfahren mittels einer Kamera eines mobilen Geräts umgesetzt. Nach Erfassung des Fahrzeugs mittels einer Kamera eines mobi len Geräts wird mittels Augmented-Reality die echte Szene mit 3D- Elementen angereichert. Standpunkte und Flilfselemente für die gewünschte Perspektive sind nun um das Fahrzeug sichtbar. Werden alle Elemente in einer Flucht gebracht, wird automatisch ein Foto aufgenommen. Damit ist eine Kontrolle der aufzunehmenden Bilder möglich. Weiterhin kann dies beliebig oft an verschiedenen Fahrzeugen wiederholt werden. Durch den Einsatz von 3D-Modellen des Fahrzeugs kann im Außenbereich durch Über deckung eine Maske erzeugt werden und automatisch freigestellte Bilder beziehungsweise Composings, beispielsweise mit Schatten oder anderem Flintergrund oder ähnlichem, erzeugt werden.

Das Verfahren sieht dabei acht Schritte vor. In einem ersten Schritt wird das Kennzeichen des Kraftfahrzeugs zur Positionsbestimmung von vorne oder von hinten erkannt. Anschließend wird ein 3D-Objekt des Kraftfahrzeugs analog zum aufgenommenen Kraftfahrzeug positioniert. Die Überlagerung des aufgenommenen Kraftfahrzeugs mit dem jeweiligen 3D-Modell des Kraft fahrzeugs erfolgt zum Bildnachbearbeiten. In einem dritten Schritt wird basie rend auf das Erkennen des Kennzeichens im ersten Schritt ein AR-Marker auf dem Boden zur Anzeige der vorgegebenen Position angezeigt. In einem vierten Schritt werden dem Benutzer zusätzliche Marker zum Ausrichten der Kamera angezeigt. In einem fünften Schritt wird ein automatisches Auslösen der Kamera bei Erreichen der vorgegebenen Perspektive erfolgen. Dies ist beispielsweise dann erreicht, wenn die Hilfselemente als zusätzliche Marker zum Ausrichten der Kamera in einer Flucht angeordnet sind. In einem sechs- ten Schritt wird der Marker für den nächsten Standort nach dem erfolgrei chen Auslösen für die Aufnahme des Fotos dem Benutzer angezeigt. In einem siebten Schritt wird die jeweilige 2D-Aufnahme mit dem 3D-Objekt analog zu der Perspektive der 2D-Aufnahme in der dem 3D-Objekt entspre chenden Silhouette überlagert und das 3D-Objekt von dem Hintergrund der 2D-Aufnahme ausgeschnitten. In einem achten Schritt kann nachträglich ein Schatten mittels des 3D-Objekts und einer virtuellen Lichtquelle eingefügt werden.

Dies hat den Vorteil, dass die Fotos jeweils von dem Benutzer noch konfigu rierbar sind. Zusätzlich können spezifische Marker am Objekt, wie beispiels weise Kennzeichen, automatisch überblendet werden. Ferner wird durch das Verfahren auch ermöglicht, Interieurbilder des Kraftfahrzeugs aufzunehmen.

Eine bevorzugte Ausführungsform betrifft ein Verfahren zum Erzeugen von reproduzierbaren Perspektiven V bis 11' von Fotografien eines Objekts 12. Dabei wird eine erste 2D-Aufnahme einer vorgegebenen Referenzansicht des Objekts 12 mittels einer Kamera erfasst und von der ersten 2D- Aufnahme aus ein Ausgangsstandort 1 eines Benutzers relativ zum Objekt mittels eines Computer-Vision-Moduls ermittelt. Dabei werden ausgehend vom Ausgangsstandort als Ursprung 0 des Koordinatensystems der Kamera eine oder mehrere vorgegebene und/oder einstellbare relative Positionen im Umfeld des Objekts 12 und/oder im Objekt 12 als ein oder mehrere Standor te 1 bis11 für die jeweilige Perspektive V bis 11' der Kamera für die Aufnah me mindestens einer zweiten 2D-Aufnahme bestimmt. Der jeweilige Standort 1 bis 11 in einer Objektansicht auf einer Anzeige der Kamera wird mittels eines jeweiligen ersten Augmented-Reality-Markers auf dem Fußboden und/oder am Objekt angezeigt. Die Ausrichtung der Kamera bezüglich Win kel und Rotation auf die dem jeweiligen Standort 1 bis 11 entsprechende Perspektive V bis 11' erfolgt dabei mittels zweiter Augmented-Reality-Marker als Hilfselemente. Insgesamt zeigt das Beispiel, wie durch die Erfindung Anwender mit Markern an vorgegebene Positionen geführt werden können, um fotografische Abbil dungen von Objekten in gleichbleibender Qualität zu tätigen.