Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR TRANSMITTING A META INFORMATION TO AN IMAGE OF A VIDEO STREAM
Document Type and Number:
WIPO Patent Application WO/2021/028178
Kind Code:
A1
Abstract:
The invention relates to a method for transmitting a meta information (14) to an image (10) of a video stream (19). The image (10) is expanded by at least one coding block (13). The meta information (14) is translated into an optical information (11) of the at least one coding block (13). The image (10) is transmitted with the at least one coding block (13) from a first computer unit (31) to a second computer unit (32). The optical information (11) of the at least one transmitted coding block (13) is decoded to the meta information (14) of the image (10).

Inventors:
RIEGEL THOMAS (DE)
Application Number:
PCT/EP2020/070712
Publication Date:
February 18, 2021
Filing Date:
July 22, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SIEMENS AG (DE)
International Classes:
H04N7/00; H04N7/025; H04N21/236; H04N21/434; H04N21/81; H04N21/84; H04N21/8547
Foreign References:
US20120307882A12012-12-06
US20130014198A12013-01-10
US20170318358A12017-11-02
Other References:
ANONYMOUS: "WebRTC - Wikipedia", 12 August 2019 (2019-08-12), XP055736922, Retrieved from the Internet [retrieved on 20201006]
Download PDF:
Claims:
Patentansprüche

1. Computerimplementiertes Verfahren zum Übertragen einer Me tainformation (14) zu einem Bild (10) eines Videostroms (19) gekennzeichnet durch die Verfahrensschritte:

- Erweitern des Bildes (10) um mindestens einen Codierblock

(13) mit mehreren Pixeln zum optischen Darstellen der Metain formation (14)

- Übersetzen der Metainformation (14) in eine optische Infor mation (11) des mindestens einen Codierblocks (13),

- Übertragen des Bildes (10) mit dem mindestens einen Codier block (13) von einer ersten Computer-Einheit (31) zu einer zweiten Computer-Einheit (32), wobei das Bild (10) unter Ver wendung eines vorgegebenen Videocodecs und einer Echtzeit- Kommunikationsplattform (20), insbesondere mittels WebRTC (20), übertragen wird,

- Decodieren der optischen Information (11) des übertragenen mindestens einen Codierblocks (13) des Bildes (10) mittels der zweiten Computer-Einheit (32) zu der Metainformation

(14).

2. Verfahren nach Anspruch 1, wobei die optische Information (11) mittels mehrerer Grauwerte (gi) codiert wird.

3. Verfahren nach Anspruch 2, wobei zum Decodieren der Me tainformation (14) der jeweilige Grauwert (gi) zu dem mindes tens einen Codierblock (13) mithilfe eines Schwellwert- Operators ermittelt wird.

4. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Zusatzinformation (12) mit dem Bild (10) synchronisiert wird, indem der Zusatzinformation (12) die Metainformation (14) zugeordnet wird und die Zusatzinformation (12) zusammen mit dem Bild (10) dargestellt wird.

5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Bild (10) von der ersten Computer-Einheit (31) mithilfe eines ersten vorgegebenen Browsers (Bl) zur zweiten Computer- Einheit (32) mithilfe eines zweiten vorgegebenen Browsers (B2) übertragen wird.

6. Verfahren nach einem der Ansprüche 1 bis 4, wobei das Bild (10) von einem Cloud-Server (35) als erste Computer-Einheit (31) zu der zweiten Computer-Einheit (32) übertragen wird.

7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Bild (10) aus dem Videostrom (19) gewonnen wird, der meh rere Bilder (10) beinhaltet, und der Videostrom (19) durch eine Kamera (16) erzeugt wird.

8. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Decodieren der Metainformation (14) ausschließlich Ja vaScript (JS) eingesetzt wird.

9. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Erweitern des Bildes (10) der mindestens eine Codier block (13) dem Bild (10) unmittelbar links, rechts, oben oder unten angefügt wird.

10. Verfahren nach einem der vorhergehen Ansprüche, wobei das übertragene Bild (10) durch die zweite Computer-Einheit (32) ohne den mindestens einen Codierblock (13) dargestellt wird.

11. Vorrichtung zum Übertragen einer Metainformation (14) zu einem Bild (10) eines Videostroms (19) mit einem Prozessor

(30), der so konfiguriert ist, dass er das Verfahren nach ei nem Ansprüche 1 bis 10 ausführt.

12. Computerprogrammprodukt umfassend Befehle, die bei der Ausführung des Programms durch die erste Computer-Einheit

(31) und/oder und die zweite Computer-Einheit (32) diese ver anlassen, das Verfahren nach einem der Ansprüche 1 bis 10 auszuführen .

Description:
Beschreibung

Verfahren zum Übertragen einer Metainformation zu einem Bild eines Videostroms

Die Erfindung betrifft ein computerimplementiertes Verfahren zum Übertragen einer Metainformation zu einem Bild eines Vi deostroms. Die Erfindung betrifft zudem eine Vorrichtung zum Übertragen einer Metainformation zu einem Bild eines Video stroms mit einem Prozessor sowie ein Computerprogrammprodukt umfassend Befehle, die bei der Ausführung des Programms das computerimplementierte Verfahren ausführen.

Ein nicht zu vernachlässigender Teil der Kommunikation findet heutzutage unter Verwendung des Internets statt. Aufgrund der zugenommenen Nutzung von Smartphones und Tablets sind viele Menschen regelmäßig mit dem Internet verbunden. Insbesondere wird das Internet auch zur Kommunikation eingesetzt. Dies kann beispielsweise mithilfe allgemein bekannter Kommunikati onsdienste wie zum Beispiel Facebook, WhatsApp oder Twitter geschehen.

Eine weitere Kommunikationsmöglichkeit stellt der WebRTC- Standard dar. WebRTC steht für Web Real-Time Communication und wird zur Web-EchtZeitkommunikation eingesetzt. WebRTC ist ein offener Standard, der eine Sammlung von Kommunikations protokollen sowie Programmierschnittstellen (API) definiert. Damit kann eine EchtZeitkommunikation über Rechner-Rechner- Verbindungen ermöglicht werden. Insbesondere wird WebRTC für Multimedia-Kommunikationen eingesetzt, welche direkt über ei nen Webbrowser abgewickelt werden. Mit WebRTC können Anwen dungen wie Videokonferenzen, Dateitransfers beziehungsweise Datenübertragung, Chats und Desktop-Sharing realisiert wer den. WebRTC wird beim World Wide Web Consortium (W3C) als of fener Standard standardisiert.

In einigen Anwendungsfällen besteht das Bedürfnis, zu einem Videosignal frame-genau weitere Zusatzinformationen zu über- mittein. Eine solche Zusatzinformation kann zum Beispiel ein graphisches Overlay sein. Die Erfindung beruht auf der Er kenntnis, dass zwar WebRTC einen Datenkanal für das Videosig nal bereitstellt, jedoch leider keine Möglichkeit vorsieht, diesen Datenkanal mit dem Videokanal zu synchronisieren oder zu multiplexen. Somit kann eine Synchronisierung der Zusatz information mit dem Videosignal nicht erreicht werden. Der zeit wird der Datenkanal separat und zeitlich unabhängig vom Videokanal realisiert.

Im konkreten Anwendungsfall, wenn von einem ersten Computer mit Hilfe eines ersten Browsers ein Video zu einem zweiten Computer mit einem zweiten Browser übertragen wird, werden das Videosignal und die Daten im Datenkanal separat voneinan der übertragen. Für die Datenübertragung beziehungsweise die Übertragung der Videosignale können insbesondere Codierer und Decodierer zum Einsatz kommen.

Das Videosignal enthält typischerweise einen Zeitstempel oder einen Timecode beziehungsweise Presentation-Timestamp als Zu- satzinformationen, welche zu einer Synchronisation von Audi o/Video/Untertitel verwendet werden. Jedoch werden die Deco der auf Browserseite aus Sicherheitsgründen abgeschlossen in einer Sandbox ausgeführt und das WebRTC Verfahren sieht keine Schnittstelle vor, welche gestatten würde, die Zeitinformati- on oder Zeitstempel beim Decodieren des Videosignals in die Laufzeitumgebung des Browsers zu übertragen.

Dies bedeutet, dass mittels des WebRTC-Standards zwar Video daten und Daten mit Zeitinformationen übertragen werden kön nen, dies jedoch separat voneinander geschieht. Die Daten mit Zeitinformationen können als zeitstempelbasierte Zusatzinfor mationen betrachtet werden. Ein Timecode ist zum Bespiel eine Zeitinformation . Die Zeitinformation kann in Form eines Zeit stempels vorliegen. Somit kann die Zeitinformation als Time code, Zeitstempel, Datum, Uhrzeit, Presentation-Timestamp etc. vorliegen. Diesen und ähnlichen Begriffen ist gemein, dass sie eine Zeitinformation aufweisen. Werden diese Videosignale und Daten an dem zweiten Computer im Browser empfangen, so können die zeitstempelbasierten Zu- satzinformationen nicht mit dem Videosignal synchronisiert werden, da browserseitig derzeit keine entsprechende Schnitt stelle vorgesehen ist, um einem im Videostrom vorhandenen Timecode an die Laufzeitumgebung des Webbrowser weiterzu reichen. Die vom World Wide Web Consortiums (W3C) definierten Standards für Webbrowser sehen derzeit eine solche Schnitt stelle nicht vor. Somit entsteht die unerwünschte Situation, dass das Videosignal sowie die zeitstempelbasierten Zusatzin formationen übertragen werden können, jedoch auf der Empfäng erseite im Webbrowser die Zeitinformationen nicht zum Syn chronisieren der übermittelten Zusatzinformationen eingesetzt werden können. So können die Zusatzinformationen nicht frame genau (bildgenau) dargestellt werden. Die Zusatzinformation kann zum Beispiel ein weiteres Bild sein, welches insbesonde re in dem Bild dargestellt werden soll. Das zusätzliche Bild ist zum Beispiel ein Rahmen, ein Pfeil oder ein Symbol wie zum Beispiel ein Fragezeichen oder Ausrufezeichen. Die Zu- satzinformation ist zwar oft empfängerseitig vorhanden, je doch ist nicht bekannt, zu bei welchen Bildern diese Zusatz information dargestellt werden soll, da den dargestellten Bildern des Videostroms im Browser die Zeitinformation fehlt. Diese Situation betrifft insbesondere Webbrowser, welche über keine zuvor genannte Schnittstelle verfügen. Dies gilt insbe sondere für frisch installierte Webbrowser, an denen keine Veränderungen vorgenommen wurden. Durch eine entsprechende Programmierung des Browsers oder Installation eines zusätzli chen Plug-Ins könnte das Synchronisieren der Zusatzinformati on gelingen. Jedoch ist dazu eine Änderung am Browser bezie hungsweise Computersystem nötig. Häufig verfügen Mitarbeiter jedoch nicht über die dazu nötigen Administrationsrechte über ihren Computer und können diese Änderungen nicht vornehmen.

Eine Aufgabe der Erfindung kann darin gesehen werden, eine Metainformation zu einem Bild mit dem Bild zu übertragen. Insbesondere soll ergänzend die Metainformation aus dem emp- fangenen Bild zurückgewonnen werden, um insbesondere eine Zu- satzinformation mit dem Bild zu synchronisieren. Dabei soll bevorzugt ein Inhalt des Bildes nicht verändert werden.

Diese Aufgabe wird gemäß den unabhängigen Ansprüchen dieser Anmeldung gelöst. Sinnvolle Weiterbildungen und alternative Ausführungsformen sind in den Unteransprüchen, den Figuren sowie der Beschreibung angegeben.

Die Erfindung sieht ein computerimplementiertes Verfahren zum Übertragen einer Metainformation zu einem Bild eines Video stroms vor. Der Videostrom beinhaltet insbesondere mehrere Bilder. Das Bild kann als digitale Information vorliegen. Je des Bild kann eine jeweilige Metainformation aufweisen. Die Metainformation kann beispielsweise ein Zeitstempel, ein Da tum, eine Uhrzeit, eine Gerätenummer, ein Verfasser oder Au tor etc. umfassen. Der Begriff Metainformation kann insbeson dere jene Bedeutung haben, welche dem Begriff Metadaten zuge schrieben wird. Das Bild kann insbesondere rechteckig ausge bildet sein.

Die Metainformation kann als Zeitinformation ausgebildet sein. Die Zeitinformation als Metainformation oder Teil der Metainformation kann in Form eines Zeitstempels vorliegen.

Die Zeitinformation kann als Timecode, Zeitstempel, Datum, Uhrzeit, Presentation-Timestamp etc. ausgebildet sein. Diesen und ähnlichen Begriffen ist insbesondere gemein, dass sie ei ne Zeitinformation aufweisen.

Zunächst wird das Bild um mindestens einen Codierblock mit mehreren Pixeln zum optischen Darstellen der Metainformation erweitert. Der mindestens eine Codierblock kann eine Block zeile sein. Dies bedeutet insbesondere, dass das Bild mit ei ner zusätzlichen Zeile von mindestens einem Codierblock er weitert wird. Insbesondere wird der mindestens eine Codier block unmittelbar dem Bild angefügt. Der mindestens eine Co dierblock kann zum Beispiel 8x8, 16x16, 32x32 oder 64x64 Pi- xel umfassen. Mehrere Codierblöcke können eine Blockzeile er geben. Dem Bild können mehrere Blockzeilen angefügt werden.

In einem weiteren Schritt wird die Metainformation in eine optische Information des mindestens einen Codierblocks über setzt. Der Begriff „Übersetzen" kann ebenfalls als transfor mieren oder codieren verstanden werden. Insbesondere kann der mindestens eine Codierblock und/oder der darin enthaltenen Pixel hinsichtlich seiner Intensität, Helligkeit oder Farbton angepasst werden, um die optische Information zu bilden. So kann die Metainformation in Form einer optischen Information dargestellt werden, welche dem Bild angefügt wird. Das Codie ren der Metainformation in die optische Information kann bei spielsweise mit Hilfe mehrerer Grauwerte, einer Farbver- schlüsselung und/oder vorgegebenen Symbolen erfolgen. Ebenso kann die Metainformation in einen Barcode, Strichcode und/oder QR-Code umgewandelt oder codiert werden.

In einem weiteren Schritt wird das Bild mit dem mindestens einen Codierblock von einer ersten Computer-Einheit zu einer zweiten Computer-Einheit übertragen. Insbesondere wird das Bild unter Verwendung eines vorgegebenen ersten Browsers der ersten Computer-Einheit zu einem vorgegebenen zweiten Browser der zweiten Computer-Einheit übertragen. Dabei kann bevorzugt das WebRTC-Verfahren eingesetzt werden. Es ist ebenfalls mög lich, das Bild von einem Cloud-Server zur ersten oder zweiten Computer-Einheit zu übertragen. Insbesondere bei Streaming- Diensten oder Streaming-Angeboten kann das Bild oder ein Vi deosignal direkt von einem Cloud-Server zur ersten oder zwei ten Computer-Einheit übertragen werden. Die erste oder zweite Computer-Einheit ist insbesondere ein Notebook, Desktop-PC und/oder ein Smartphone und stellt in der Regel stellt ein Endgerät dar, welche von einem Nutzer betrieben wird.

Für die Datenübertragung beziehungsweise die Übertragung des Bildes oder von Videosignalen können insbesondere Codierer und Decodierer zum Einsatz kommen. Der Codierer und Decodie- rer können im Zusammenhang mit dem Übertragen als Transforma- toren betrachtet werden. Der Begriff „Übertragen" kann ein Transformieren oder mehrmaliges Transformieren der Bildinfor mation zum Übertragen des Bildes beinhalten oder umfassen.

Das Bild oder die Bildinformation kann vor dem Übertragen transformiert werden. Das übertragende Bild kann nach dem Übertragen (zurück)transformiert werden. Dazu können die Transformatoren verwendet werden.

Das Verfahrens sieht vor, dass das Bild unter Verwendung ei nes vorgegebenen Videocodecs und einer Echtzeit- Kommunikationsplattform, insbesondere mittels WebRTC, über tragen wird. Beim Übertragen des Bildes oder der mehreren Bilder können blockbasierte Videocodecs wie zum Beispiel VP8, VP9, H264, H265, AVI zum Einsatz kommen. Mit Hilfe solcher Videocodecs können Bilder oder digitale Videos codiert und decodiert werden. So können diese Videocodecs das Bild inklu sive der angefügten Metainformation codieren und das Bild nach der Übertragung entsprechend wieder decodieren. Das Bild ist dabei insbesondere mit Hilfe des mindestens einen Codier blocks derart modifiziert, dass ein Inhalt des Bildes (Bild inhalt) beim Codieren und Decodieren unverändert bleibt. Dies kann dadurch gewährleistet werden, indem der mindestens eine Codierblock nicht in dem Bild eingefügt, sondern bevorzugt unmittelbar an dem Bild angefügt wird. Somit kann das Bild inklusive der Metainformation so in den Bildern codiert wer den, dass die Zusatzinformation zusammen mit dem Bild den En coder/Decoder-Prozess unbeschadet übersteht. Nach dem Über tragen des Bildes wird die Zeitinformation bevorzugt zurück in den Zahlenraum mit den ursprünglichen Wert zurücktransfor miert.

Somit kann bei Verwendung von WebRTC ein Videosignal übertra gen werden und dazu zugleich eine frame-genaue Synchronisati on der Zusatz-/Metainformation erreicht werden. Dies kann beispielsweise in „Remote Video-Monitoring-Anwendungen" mit Ein-/Überblendungen von Zusatz- oder Metainformationen erfor derlich sein oder in verteilten Augmented-Reality- oder Vir- tual-Reality-Anwendungen . Bei Augmented-Reality- oder Virtu- al-Reality-Anwendungen verfügen die Clients häufig nicht über genügend 3D-Renderingleistung und greifen deshalb auf das Vi deosignal zurück.

In einem weiteren Schritt wird die optische Information des übertragenen mindestens einen Codierblocks des Bildes zu der Metainformation decodiert. Das Decodieren kann insbesondere mithilfe der zweiten Computer-Einheit erfolgen. Der Begriff „Decodieren" kann ein Extrahieren, Ermitteln, Auswerten und/oder Analysieren bedeuten. Somit kann die optische Infor mation aus dem übertragenen mindestens einen Codierblock des Bildes extrahiert oder ermittelt werden. Die optische Infor mation kann zum Gewinnen der Metainformation ausgewertet und/oder analysiert werden. Das Decodieren kann insbesondere das Extrahieren der optischen Information aus dem mindestens einen Codierblock und das Auswerten der optischen Information zum Gewinnen der Metainformation umfassen. Dazu kann ein ent sprechender Filter eingesetzt werden, welcher den mindestens einen Codierblock des Bildes erfasst und mithilfe des Deco- dierens aus diesem mindestens einen Codierblock die optische Information gewinnt.

Mit Hilfe dieses Verfahrens kann die Metainformation zusammen mit dem Bild in einem dafür vorgesehenen Bildkanal übertragen werden. Da bei WebRTC-Anwendungen der Videokanal mit dem Da tenkanal empfängerseitig nicht synchronisiert werden kann, kann für eine weitere Applikation eine erwünschte oder erfor derliche Synchronisation erfolgen, da nun die erforderliche Metainformation zusammen mit dem Bild übertragen wird. Dieses Verfahren eignet sich insbesondere für unmodifizierte (unver änderte) Standardwebbrowser. Solche Standardwebbrowser sind insbesondere Google Chrome, Opera, Firefox, Microsoft Edge und Safari. Die Metainformation kann direkt dem Bild angefügt werden und auf Empfängerseite ausgewertet und bei Bedarf so gar angezeigt werden. Dabei wird bevorzugt ein Bildinhalt des Bildes nicht verändert. In der Regel jedoch wird die Metain formation beim Empfänger nicht angezeigt, sondern für eine synchronisierte Darstellung der Zusatzinformation verwendet. Dabei können vorgegebene Standardtechniken ohne zusätzliche Plug-Ins zum Einsatz kommen. Die Datenrate der übertragenen Bilder steigt dabei nur marginal an und kann nahezu vernach lässigt werden.

Eine zusätzliche oder alternative Weiterbildung des Verfah rens sieht vor, dass die optische Information mittels mehre rer Grauwerte codiert wird. Dazu kann der mindestens eine Co dierblock mit entsprechenden Grauwerten initialisiert werden. Dabei kann ein einzelner Codierblock einen Grauwert repräsen tieren. Ebenso können einzelne Pixel oder Bildpunkte einen entsprechenden Grauwert repräsentieren. Der Grauwert kann insbesondere einen Ziffernwert eines jeweiligen Abschnitts eines Zeitstempels entsprechen. Anstelle des Begriffs „Zeit stempel" wird oft der Begriff „Timestamp" verwendet. Ein Zeitstempel kann beispielsweise 32 Bit lang sein. Dies trifft beispielsweise auf einen RTP-Timestamp zu. Dieser Zeitstempel kann in acht 4 Bit Gruppen unterteilt werden. Jede dieser Gruppe kann einen Wert zwischen 0 und 15 annehmen. Dieser Wert der jeweiligen Gruppe kann beispielsweise mit 16 multi pliziert werden, um so den Grauwert des jeweiligen Blocks des mindestens einen Codierblocks zu erhalten. Werden bestimmte Blöcke von mehreren Codierblöcken nicht benötigt, so kann der Grauwert beispielsweise auf einen vorgegebenen Wert wie zum Beispiel 127 gesetzt werden.

Eine Anordnung oder Abfolge mehrerer Grauwerte kann somit die optische Information repräsentieren. Die Grauwerte stellen bevorzugt eine Intensität oder Helligkeit eines Codierblocks oder Bildpunktes (Pixel) dar.

Wird im Rahmen dieser Anmeldung von einem Codierblock gespro chen, so können ebenso mehrere Codierblöcke angesprochen sein. Dies bedeutet insbesondere, dass das Verfahren sowie dessen Weiterbildungen, die sich auf einen Codierblock bezie hen, entsprechend auf mehrere Codierblöcke übertragen lassen. Das Bild wird um mindestens einen Codierblock erweitert, be vorzugt wird das Bild um mehrere Codierblöcke erweitert. Eine zusätzliche oder alternative Ausführungsform sieht vor, dass beim Codieren der Metainformation der jeweilige Grauwert zu dem mindestens einen Codierblock mithilfe eines Schwell- wert-Operators ermittelt wird. Das Ermitteln des jeweiligen Grauwerts erfolgt bevorzugt durch die zweite Computer- Einheit. Dies kann insbesondere innerhalb einer Browserumge bung erfolgen. Ein vorgegebener Browser der zweiten Computer- Einheit kann einen Helligkeits- oder Intensitätswert eines jeweiligen Bildpunktes oder Pixels erfassen. Mithilfe des Schwellwert-Operators kann ein Wert betreffend die Helligkeit oder Intensität des Pixels ermittelt werden, welcher mit vor gegebenen Schwellwerten verglichen werden kann. Mittels meh rerer Schwellwerte kann die jeweilige Helligkeit oder Inten sität des Pixels festgestellt werden. Der Grauwert kann in der Bildverarbeitung insbesondere den Helligkeits- oder In tensitätswert eines einzelnen Bildpunktes oder Pixels dar stellen. Im Fall eines RGB-Farbwertes kann der Grauwert mit folgender Formel ermittelt werden:

Grauwert = 0,299*Rotanteil+0,587*Grünanteil+0,114*Blauanteil. [Formel 1]

Mit dieser Formel kann ein Wert ermittelt werden, der unab hängig von Farben die Helligkeit des Bildpunktes wiedergibt.

Eine zusätzliche oder alternative Weiterbildung des Verfah rens sieht vor, dass eine Zusatzinformation mit dem Bild syn chronisiert wird, indem der Zusatzinformation die Metainfor mation zugeordnet wird und die Zusatzinformation zusammen mit dem Bild dargestellt wird. Die Zusatzinformation kann bei spielsweise ein Overlay in Form eines rechteckigen Rahmens beinhalten. So kann beispielsweise ein Objekt wie ein Kraft fahrzeug oder Gesicht hervorgehoben werden. Das Overlay kann als Zusatz-Bild aufgefasst werden, welches über das Bild ge schoben wird. Die Zusatzinformation in Form des Overlays kann beispielsweise ein Pfeil sein, der zusätzlich in dem Bild dargestellt werden soll. Die Zusatzinformation kann darüber hinaus neben einem zusätz lichen Bild auch weitere Informationen zum Darstellen der Zu- satzinformation zu diesem Bild enthalten. Diese weiteren In formationen zum Darstellen der Zusatzinformation können eine Anzeigefrequenz und/oder Anzeigedauer des zusätzlichen Bildes umfassen. So kann das zusätzliche Bild beispielsweise ein Pfeil sein und die weitere Darstellungsinformation kann eine Blinkfrequenz für den Pfeil enthalten. Die Zusatzinformation kann insbesondere bei mehreren Bildern des Videostroms zu ge nau einem dieser mehreren Bilder zugeordnet werden. Dies wird oft als frame-genaue Zuordnung bezeichnet. So kann beispiels weise das zusätzliche Bild genau einem Bild aus einer Serie von mehreren Bildern zugeordnet werden und dort entsprechend angezeigt werden. Ebenso ist es möglich, dass das zusätzliche Bild oder die zusätzliche Grafik einer Teilmenge der mehreren Bilder zugeordnet wird und das zusätzliche Bild nur bei die ser Teilmenge der mehreren Bilder angezeigt wird. So kann beispielsweise bei einer Bildfolge von 100 Bildern ein Pfeil beginnend von dem 20. Bild bis zum 40. Bild angezeigt werden. Das zusätzliche Bild kann beispielsweise ein rechteckiger Rahmen sein, womit ein Gesicht markiert werden kann. Dies kann insbesondere bei Überwachungsanwendungen sinnvoll sein.

Eine zusätzliche oder alternative Weiterbildung sieht vor, dass das Bild von der ersten Computer-Einheit mit Hilfe eines ersten vorgegebenen Browsers zur zweiten Computer-Einheit mit Hilfe eines zweiten vorgegebenen Browsers übertragen wird. Dies ist insbesondere bei WebRTC-Anwendungen der Fall. Dabei erfolgt in der Regel eine Übertragung eines Videosignals von dem ersten Browser der ersten Computer-Einheit zu dem zweiten Browser der zweiten Computer-Einheit. Die beiden Computer- Einheiten sind insbesondere unterschiedlich und räumlich von einander getrennt. Die erforderlichen Schritte zum Durchfüh ren des Verfahrens wie zum Beispiel das Erweitern des Bildes, das Übersetzen der Metainformation, das Übertragen des Bildes und das Decodieren der optischen Information oder der Grau werte können im Browser mit Hilfe von JavaScript realisiert werden. Insbesondere ist es nicht nötig, ein zusätzliches Programm einzusetzen oder Einstellungen an der ersten oder zweiten Computer-Einheit vorzunehmen. So kann das zusätzliche Bild der Zusatzinformation synchronisiert in dem Videostrom angezeigt werden, ohne dabei eine Umprogrammierung des Brow sers oder anderweitige komplexe Einstellungen an den Compu ter-Einheiten vornehmen zu müssen. Dies ist insbesondere für jene Benutzer interessant, welche über keine Administrator rechte über die jeweilige Computer-Einheit verfügen.

Eine zusätzliche oder alternative Weiterbildung des Verfah rens sieht vor, dass das Bild von einem Cloud-Server als ers te Computer-Einheit zu der zweiten Computer-Einheit übertra gen wird. In diesem Fall ist die erste Computer-Einheit nicht länger als Notebook oder Desktop-PC ausgebildet, sondern als ein Cloud-Server. Beispielsweise kann der Cloud-Server einen Streaming-Dienst wie zum Beispiel Netflix oder Amazon anbie ten. Der Cloud-Server kann auch als firmeneigener Cloud- Dienst ausgebildet sein. Damit kann eine Vielzahl von Nutzern einen Videostrom von dem Cloud-Server empfangen und dabei kann die Zusatzinformation in dem Bild angezeigt werden, wo bei die Zusatzinformation mit dem Bild synchronisiert ist.

Die bisher genannten Vorteile und Beispiele gelten sinngemäß und analog für dieses Verfahren.

Eine zusätzliche oder alternative Weiterbildung des Verfah rens sieht vor, dass das Bild aus dem Videostrom gewonnen wird, der mehrere Bilder beinhaltet, und der Videostrom durch eine Kamera erzeugt wird. Im Fall des Cloud-Servers kann der Videostrom als digitale Information auf dem Cloud-Server be ziehungsweise einer dazugehörigen Speichereinheit digital ab gespeichert sein. Bei Überwachungsszenarien wie zum Beispiel einer Kameraüberwachung eines Flughafens durch die Polizei oder eine Überwachung von Patienten im Krankenhaus werden häufig Kameras eingesetzt, um einen vorgegebenen Bereich zu überwachen. Dies bedeutet, dass die mehreren Bilder bezie hungsweise der Videostrom durch die Kamera erzeugt werden. In solchen Situationen ist es beispielsweise erwünscht, dass be- stimmte Objekte markiert werden sollen. Dieses Markieren kann mit Hilfe des zusätzlichen Bildes als Teil der Zusatzinforma tion erfolgen. Das zusätzliche Bild kann ein Rahmen sein, welcher das bestimmte Objekt umschließt.

Beispielsweise kann die Zusatzinformation vorsehen, dass ein vorgegebenes Objekt in dem Bild markiert wird. Dazu kann zu sätzlich eine Objekterkennung erfolgen. Insbesondere kann die Objekterkennung anhand des Bildes durchgeführt werden. Die Objekterkennung kann durch die erste oder die zweite Compu ter-Einheit durchgeführt werden. So kann zum Beispiel ein Cloud-Dienst verwendet werden, um die Objekterkennung in dem Bild auszuführen. Ergänzend oder alternativ kann die zweite Computer-Einheit die Objekterkennung ausführen. Somit kann die Zusatzinformation ein zusätzliches Bild und einen Objekt typ umfassen, der mit dem zusätzlichen Bild markiert werden soll. Wird der Objekttyp in dem Bild erkannt, so kann dieser Objekttyp entsprechend mit dem zusätzlichen Bild markiert werden. So kann beispielsweise vorgesehen sein, dass inner halb in dem Bild Kraftfahrzeuge markiert werden sollen. Dies ist zum Beispiel in Fußgängerzonen denkbar. Dort sind Kraft fahrzeuge meistens nicht vorgesehen beziehungsweise nur ein geschränkt vorgesehen und ein Markieren der Kraftfahrzeuge in dem Videostrom kann bei einer Überwachung hilfreich sein.

Eine zusätzliche oder alternative Weiterbildung des Verfah rens sieht vor, dass beim Decodieren der Metainformation aus schließlich JavaScript eingesetzt wird. JavaScript ist insbe sondere ein Scriptsprache, um eine Benutzerinteraktion auszu werten, Inhalte zu verändern, nachzuladen oder zu generieren. JavaScript wird insbesondere bei Webbrowsern eingesetzt. Ja vaScript ist eine Standardprogrammiersprache, die in Websei ten integriert werden kann, um Funktionen wie Menüs, Klänge und andere interaktive Funktionen anzubieten. In der Regel ist JavaScript in den genannten Browsern aktiviert und erfor dert keine zusätzliche Installation. Somit kann JavaScript als Programmiersprache betrachtet werden, die jeder vorgege bene Standardbrowser benutzen kann. Insbesondere verfügen un- modifizierte Standardbrowser über JavaScript. Solchen unmodi- fizierten Standardbrowsern fehlt die nötige Schnittstelle zum Synchronisieren der Zusatzinformation mit dem Bild. Diese Schnittstelle ist meist aus Sicherheitsgründen nicht vorgese hen, da dadurch der Browser für Hacker- oder Virenangriffe anfälliger werden würde. Mit der am Bild angefügten optischen Information kann mithilfe von JavaScript das Verfahren ohne zusätzliches Anpassen des Browsers oder jeweiligen Computer- Einheit durchgeführt werden. Ein normaler Standardbrowser reicht somit aus, um ein Videosignal zu übertragen und zu gleich synchronisiert Zusatzinformationen einblenden zu kön nen.

Eine zusätzliche oder alternative Weiterbildung des Verfah rens sieht vor, dass bei dem Erweitern des Bildes der mindes tens eine Codierblock dem Bild unmittelbar links, rechts, oben oder unten angefügt wird. Dies trifft insbesondere für rechteckige Bilder zu. Der mindestens eine Codierblock wird idealerweise so angefügt, dass das Bild nach dem Übertragen leicht beschnitten werden kann. Beim Darstellen des übertra genen Bildes wird bevorzugt nur der Bereich des Bildes ohne den mindestens einen Codierblock dargestellt. Wird dazu der mindestens eine Codierblock dem Bild unmittelbar links, rechts, oben oder unten angefügt, so kann das Bild leicht oh ne den mindestens einen Codierblock dargestellt werden.

Dieses Verfahren ließe sich auf runde oder dreieckige Bilder erweitern. In diesem Fall würde der mindestens eine Codier block konzentrisch um das Bild herum oder um eine Dreiecks form des Bildes herum angefügt werden. Im Regelfall jedoch ist das Bild rechteckig ausgebildet und in diesem Fall wird der mindestens eine Codierblock bevorzugt links, rechts, oben oder unten angefügt.

Eine zusätzliche oder alternative Weiterbildung des Verfah rens sieht vor, dass das übertragene Bild durch die zweite Computer-Einheit ohne den mindestens einen Codierblock darge stellt wird. Die Darstellung des übertragenen Bildes kann sich somit lediglich auf das Bild in seiner Form vor dem Er weitern beziehen. Alternativ kann das übertragene Bild um den mindestens einen Codierblock beschnitten werden, sodass das Bild und der mindestens eine Codierblock getrennt werden. In beiden Fällen wird das übertragene Bild ohne den mindestens einen Codierblock dargestellt. So kann das ursprüngliche Bild ohne einen visuell störenden Codierblock bei der zweiten Com puter-Einheit angezeigt werden.

Die Erfindung stellt ebenfalls eine Vorrichtung zum Übertra gen einer Metainformation zu einem Bild eines Videostroms mit einem Prozessor bereit, wobei der Prozessor so konfiguriert ist, dass er das Verfahren nach einem der genannten Weiter bildungen ausführt. Der Prozessor kann als Steuereinheit ver standen werden und ein neuronales Netz aufweisen. Insbesonde re kann die erste Computer-Einheit über einen ersten Prozes sor verfügen und die zweite Computer-Einheit kann einen zwei ten Prozessor aufweisen. Der Prozessor kann Steuerungssignale senden und empfangen. Der Prozessor kann mit den Steuersigna len das computerimplementierte Verfahren sowie die Weiterbil dungen dazu ausführen. Insbesondere kann der Prozessor emp fangene Signale analysieren und auswerten und daraus ein neu es Steuersignal erzeugen. Der Prozessor kann insbesondere ein handelsüblicher Prozessor sein, der bei Desktop-PCs oder Notebooks zum Einsatz kommt.

Die Erfindung sieht ebenfalls ein Computerprogrammprodukt vor, welches Befehle umfasst, die bei einer Ausführung des Programms durch die erste Computer-Einheit und/oder durch die zweite Computer-Einheit die beiden Computer-Einheiten dazu veranlassen, das Verfahren oder eine Weiterbildung des Ver fahrens auszuführen. Das Computerprogrammprodukt kann das Programm beziehungsweise ein Programmcode sein, welche das Verfahren oder eine Weiterbildung davon ausführen kann. Das Computerprogrammprodukt kann zusätzlich oder alternativ als computerlesbares Speichermedium ausgebildet sein. Das compu terlesbare Speichermedium kann eine SD-Karte, USB-Stick, Festplatte, CD-ROM, DVD, Diskette, Cloud-Speicher etc. sein. Somit kann das Verfahren in Form eines Programmcodes auf dem computerlesbaren Speichermedium abgespeichert sein. Das com puterlesbare Speichermedium kann digitale Informationen elektronisch, magnetisch und/oder optisch abspeichern. Das Computerprogrammprodukt kann das computerlesbare Speicherme dium umfassen, welches Befehle beinhaltet, welche bei der Ausführung durch die erste und/oder zweite Computer-Einheit diese beiden Computer-Einheiten dazu veranlassen, das compu terimplementierte Verfahren oder eine Weiterbildung davon auszuführen .

Die vorliegende Erfindung kann in Form eines Computerpro grammproduktes vorliegen, welches Programmmodule enthält, die von einem durch ein computerbenutzbares oder computerlesbares Medium zugänglich sind. Das computerlesbare Medium kann das Verfahren mittels eines Programmcodes realisieren, der durch einen oder mehreren Computer, Prozessoren oder Systeme zur Ausführung von Befehlen ausgeführt werden kann. Das computer benutzbares oder computerlesbares Medium kann jedes Gerät sein, welches den Programmcode für die Benutzung durch einen entsprechenden Apparat oder ein entsprechendes Gerät enthal ten, speichern, kommunizieren, verbreiten oder befördern kann.

Sowohl Prozessoren als auch Programmcodes können zum Imple mentieren jedes Aspekts des computerimplementierten Verfah rens zusammengefasst oder verteilt werden (oder eine Kombina tion davon), wie es dem Fachmann bekannt ist.

Während die vorliegende Erfindung im Einzelnen mit Bezug auf gewisse Ausführungsbeispiele beschrieben worden ist, soll diese nicht als auf diese bestimmten Ausführungsbeispiele be schränkt betrachtet werden. Angesichts der vorliegenden Of fenbarung bieten sich dem Fachmann viele Modifikationen und Variationen, ohne über den Rahmen der verschiedenen Ausfüh rungsbeispiele der vorliegenden Erfindung, wie hier beschrie ben, hinauszugehen. Der Umfang der vorliegenden Erfindung ist daher durch die folgenden Ansprüche angezeigt und nicht durch die vorhergehende Beschreibung limitiert. Alle Änderungen, Abwandlungen und Variationen, die unter die Bedeutung und die Reichweite einer Gleichwertigkeit der Ansprüche fallen, sind als innerhalb ihres Umfangs liegend anzusehen. Alle in den Verfahrensansprüchen beanspruchten vorteilhaften Ausführungs beispiele können auch für System- bzw. Vorrichtungsansprüche zutreffen.

Vorteile, Beispiele und Merkmale der Ausführungsformen können sinngemäß und analog auf das Verfahren übertragen werden. Ebenso können Verfahrensmerkmale als entsprechende Vorrich tungsmerkmale interpretiert werden. Somit können Merkmale, Vorteile und Beispiele des Verfahrens sinngemäß und analog auf die Ausführungsformen übertragen werden.

Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusam menhang mit der folgenden Beschreibung der Ausführungsbei spiele, die im Zusammenhang mit den Zeichnungen näher erläu tert werden. Durch diese Beschreibung erfolgt keine Beschrän kung der Erfindung auf diese Ausführungsbeispiele. In ver schiedenen Figuren sind gleiche Komponenten mit identischen Bezugszeichen versehen. Die Figuren sind in der Regel nicht maßstäblich .

Dabei zeigt:

FIG 1 eine schematische Darstellung eines Bilds mit einer optischen Information, welche übertragen wird;

FIG 2 eine schematische Darstellung einer Übertragung ei nes Videostroms von einem ersten Browser zu einem zweiten Browser; und

FIG 3 eine schematische Darstellung einer bevorzugten Va riante eines Verfahrens. In FIG 1 ist auf der linken Seite ein Bild 10 gezeigt, wel ches ein Gesicht darstellt. Anstelle des Gesichts kann ein anderes Objekt dargestellt sein. Das Bild 10 kann beispiels weise von einer Kamera 16 erzeugt worden sein. Das Bild 10 soll von einer ersten Computer-Einheit 31 zu einer zweiten Computer-Einheit 32 übertragen werden. Dazu wird im Beispiel von FIG 1 eine Web-Echtzeitkommunikationsplattform 20 einge setzt. Mit Hilfe einer solchen Plattform ist es zwar möglich, die Bildinformationen und eine Metainformation 14 zu übertra gen, jedoch können diese Informationen auf der Empfängersei te, also bei der zweiten Computer-Einheit 32 nicht mehr mit einander kombiniert werden.

Bei den derzeitigen Echtzeit-Kommunikationsplattformen 20 insbesondere dem bekannten WebRTC-Verfahren 20 werden Video ströme 19 von einem ersten Browser Bl zu einem zweiten Brow ser B2 übertragen. Der erste Browser Bl ist dabei der ersten Computer-Einheit 31 der zweite Browser B2 der zweiten Compu ter-Einheit 32 zuzuordnen. Derzeit werden aus Sicherheits gründen in dem Browser die jeweiligen Decoder abgeschlossen in einer Sandbox ausgeführt. Somit sieht das WebRTC-Verfahren 20 keine Schnittstelle vor, um empfängerseitig übertragene Metainformationen 14 zum Synchronisieren weiterer Zusatzin formationen zu nutzen.

Die Erfindung schlägt an dieser Stelle vor, die Metainforma tion 14 zu dem Bild 10 mit dem Bild 10 zu verbinden und die Metainformation 14 und das Bild 10 zusammen von dem ersten Browser Bl zu dem zweiten Browser B2 zu übertragen. Dazu wird das Bild 10 derart verändert, dass es eine optische Informa tion 11 enthält.

Diese optische Information 11 könnte mit Hilfe steganografi- scher Methoden dargestellt werden. Dabei ist jedoch zu beden ken, dass diese steganografischen Methoden einen Encodierpro zess und Decodierprozess überstehen müssen. Denkbar wäre auch eine sichtbare visuelle Einbettung der optischen Information 11 in das Bild 10. Dieser Prozess wird oft als Watermarking bezeichnet. Ebenso könnte prinzipiell ein Alpha-Kanal verwen det werden, wobei standardmäßige Videocodecs dieses Verfahren nicht oder nur unzureichend unterstützen. Unter https://github .com/phongcao/webrtc-metadata-example findet man einen Vorschlag, bei dem Metadaten über die RTP Header Extensions mit übertragen werden. Dieser Ansatz basiert aber darauf, eine spezielle Software-Komponente zu implementieren, die explizit im Browser als Plugin installiert werden muss, was diesen unter dem Gesichtspunkt der Verwendung eines Standard-Webbrowsers ausschließt. Mit Hilfe der steganografischen Methoden, der visuellen Einbettung, des Einsatzes eines Alpha-Kanals oder den RTP Header Extensions Ansatz kann die optische Informati on 11 nicht oder nur mit deutlichen Nachteilen übertragen werden.

Deshalb schlägt die Erfindung vor, das Bild 10 um mindestens einen Codierblock 13 zu erweitern. Im Beispiel von FIG 1 sind dem Bild 10 unmittelbar acht Codierblöcke 13 hinzugefügt oder angefügt worden. Die mehreren Codierblöcke 13 können in Form einer oder mehrerer Blockzeilen 13 angeordnet sein. In diesen Codierblöcken 13 soll eine Zeitinformation 14 als Metainfor mation 14 in codierter Form eingetragen werden. Dazu wird die Metainformation 14 in die optische Information 11 übersetzt, transformiert und/oder encodiert.

Im Beispiel von FIG 1 ist die Metainformation 14 als Zeitin formation 14 ausgebildet. Die optische Information 11 wird im Beispiel der FIG 1 mit Hilfe mehrerer Grauwerte gi darge stellt. Dabei kann jeder einzelne Codierblock 13 einen eige nen Grauwert gi aufweisen. Der Grauwert gi ist mit dem Index „i" gekennzeichnet. Der Index i kann Werte von 1 bis n anneh men. Der Index „n" gibt dabei die Anzahl der Grauwerte an be ziehungsweise eine Nummer des letzten Grauwerts. So kann bei spielsweise der erste Codierblock 13 einen ersten Grauwert gl aufweisen und der achte Codierblock 13 einen (letzten) achten Grauwert g8. In diesem Fall gibt es genau 8 Grauwerte und n beträgt 8. Die Codierblöcke 13 werden bevorzugt dem Bild 10 unmittelbar unten angefügt. Somit repräsentieren die Codier blöcke 13 einen zusätzlichen Bereich. Die Abfolge dieser acht Grauwerte könnte zum Beispiel die Metainformation 14 in co dierter Form darstellen.

Die Codierblöcke 13 sind somit nicht in dem Bild 10 enthal ten. Die mehreren Codierblöcke 13 können alternativ links o- der rechts sowie oben an dem Bild 10 angeordnet werden. Be vorzugt werden die Codierblöcke 13 unmittelbar an dem Bild 10 angeordnet. Neben dem Bild 10 wird zusätzlich eine Zusatzin formation 12 mit Hilfe des WebRTC-Verfahrens 20 zur zweiten Computer-Einheit 32 übertragen. Das Bild 10 zusammen mit der optischen Information 11 kann als ein Datensatz betrachtet werden, der das Bild 10 und die Metainformation 14 enthält. Somit wird mit dem Bild 10 zugleich die Metainformation 14 übertragen, welche in den Codierblöcken 13 in codierter Form enthalten ist. Die Übertragung dieses Datensatzes aus dem Bild 10 und den Codierblöcken 13 erfolgt dabei bevorzugt von dem ersten Browser Bl zu dem zweiten Browser B2.

In bestimmten Anwendungsfällen ist es erwünscht, die Zusatz information 12 in dem Bild 10 darzustellen. Bei einem einzi gen Bild 10 mag dies noch sehr einfach sein, jedoch gelingt dies bei einer Mehrzahl von Bildern 10 nicht mehr so ohne weiteres. Wird beispielsweise ein Videostrom 19 mit mehreren Bildern 10 übertragen, so stellt sich die Herausforderung, die Zusatzinformation 12 mit den Bildern 10 zu synchronisie ren beziehungsweise die Zusatzinformation 12 in den vorherge sehenen Bildern 10 dazustellen. Dazu ist eine Synchronisation der Zusatzinformation 12 mit den Bildern 10 notwendig. Da derzeit kein Standardbrowser eine Schnittstelle bereitstellt, welche diese Synchronisation ermöglicht, wird die Zeitinfor mation 14 zusammen mit dem Bild 10 übertragen und kann so zum Synchronisieren und zum Darstellen der Zusatzinformation 12 genutzt werden. Bevorzugt wird zusammen mit jedem Bild 10 die dazugehörige Zeitinformation 14 übertragen, die jedem Bild 10 angefügt ist. So kann der zweite Browser B2 mit Hilfe einer Standardprogrammiersprache, welche meist in Form von Ja- vaScript JS vorliegt, die Zusatzinformation 12 mit dem Bild 10 synchronisieren.

Die Zusatzinformation 12 kann darüber hinaus eine Anweisung enthalten, dass ein vorgegebenes Objekt oder ein vorgegebener Objekttyp markiert werden soll. Im Beispiel von FIG 1 ist vorgesehen, dass ein Gesicht mit Hilfe eines rechteckigen Rahmens 12 markiert werden soll. Dieser Rahmen wird oft auch als Overlay bezeichnet. Das Erweitern des Bildes 10 um die Codierblöcke 13, das Codieren der Zeitinformation 14, das De codieren des Bildes 10 mit den Codierblöcken 13 kann mit Hil fe eines Prozessors 30 durchgeführt werden.

Durch das Anfügen der Codierblöcke 13 an das Bild 10 kann die Zeitinformation 14 zusammen mit dem Bild 10 übertragen wer den. Damit gelingt es innerhalb der Browserumgebung der zwei ten Computer-Einheit 32 auf die Zusatzinformation 12 zuzu greifen und die Zusatzinformation 12 mit dem Bild 10 zu syn chronisieren. Als Browser kommen bevorzugt unmodifizierte Standardbrowser in Betracht. Solche sind beispielsweise Fire fox, Opera, Safari und Edge.

FIG 2 zeigt eine ähnliche Situation wie FIG 1. Im Beispiel von FIG 2 werden mehrere Bilder 10 in Form eines Videosignals (Videostrom 19) von dem ersten Browser Bl zu dem zweiten Browser B2 übertragen. Der erste Browser Bl ist als Fenster dargestellt, welches eine Browserzeile 22 enthält. Dasselbe gilt für den zweiten Browser B2. Das Verfahren kommt bevor zugt zum Einsatz, wenn mehrere Bilder 10 in Form des Video stroms 19 übertragen werden. Der Videostrom 19 kann mit Hilfe der Kamera 16 generiert oder erzeugt werden. Die Kamera 16 erzeugt in der Regel neben den mehreren Bildern 10 zugleich zu jedem Bild 10 die dazugehörige Metainformation 14. In die sem Fall ist die Metainformation 14 als Zeitinformation 14 ausgebildet. Die Metainformation 14 kann darüber hinaus noch weitere Informationen beinhalten. Solche Informationen wären zum Beispiel eine Gerätenummer oder ein Namen eines Autors. Die Zeitinformation 14 wird mit Hilfe des Prozessors 30 in die optische Information 11 übersetzt. Mit Hilfe des Prozes sors 30 erfolgt ein Codieren der Zeitinformation 14. Als Re sultat wird das Bild 10 um die optische Information 11 erwei tert. Im Beispiel von FIG 2 ist nur eine Blockzeile zu erken nen, während in FIG 1 zwei Blockzeilen dargestellt sind. Das um die optische Information 11 erweiterte Bild 10 kann mit Hilfe der ersten Computer-Einheit 31 optisch dargestellt wer den. Alternativ dazu kann der Videostrom 19 von einem Cloud- Server 35 bezogen werden. Dieser Cloud-Server 35 kann eben falls einen eigenen Prozessor 30 aufweisen. Der Videostrom 19 kann mit Hilfe des WebRTC-Verfahrens 20 von der ersten Compu ter-Einheit 31 zur zweiten Computer-Einheit 32 übertragen werden. Die Übertragung erfolgt dabei bevorzugt vom ersten Browser Bl zum zweiten Browser B2, wobei die beiden Browser jeweils auf der entsprechenden Computer-Einheit 31, 32 ausge führt werden. Alternativ können die mehreren Bilder 10 bezie hungsweise der Videostrom 19 von dem Cloud-Server 35 mit Hil fe des WebRTC-Verfahrens 20 zur zweiten Computer-Einheit 32 übertragen werden. In diesem Fall ist die erste Computer- Einheit 31 als Cloud-Server 35 ausgebildet.

Das Codieren der optischen Information 11 erfolgt dabei be vorzugt mit Hilfe der mehreren Grauwerte gi. Nach der Über tragung und nach dem Decodieren wird bei der zweiten Compu ter-Einheit 32 innerhalb der Laufzeitumgebung des zweiten Browsers B2 mit Hilfe von JavaScript JS anhand der Codierblö cke 13 die Zusatzinformation 14 zur weiteren Verwendung wie derhergestellt. Somit kann durch die zweite Computer-Einheit 32 ein Decodierprozess 17 ausgeführt werden, welcher aus der optischen Information 11 beziehungsweise aus den mehreren Grauwerten Gi die Zeit- oder Metainformation 14 zurückge winnt. Damit wurde zusammen mit dem Bild 10 zugleich die Zeitinformation 14 zusammen mit dem Bild 10 übertragen. An hand der übertragenen Zeitinformation 14 kann das Darstellen der Zusatzinformation 12 bildgenau oder frame-genau ermög licht werden. Mit Hilfe der decodierten Zeitinformation kann ermittelt werden, zu welchem Bild oder mehreren Bildern 10 die Zusatzinformation 12 zuzuordnen ist.

Im Beispiel von FIG 2 soll ein vorderes Kraftfahrzeug mittels eines rechteckigen Rahmens markiert werden. So kann die Zu- satzinformation 12 als Anweisung beinhalten, dass im Falle mehrerer sichtbarer Kraftfahrzeuge das jeweils vordere Kraft fahrzeug durch ein zusätzliches Bild in Form eines Rahmens als die Zusatzinformation 12 markiert wird. Das Bild 10 wird bevorzugt ohne die Codierblöcke 13 dargestellt. Auf diese Weise kann das zusätzliche Bild 12 der Zusatzinformation 12 synchronisiert beziehungsweise frame-genau dargestellt wer den. Dieses synchronisierte Darstellen erfordert keine Umpro grammierung des zweiten Browsers B2. Somit kann ein nicht- modifizierter Standardwebbrowser ohne weitere Plug-Ins zum Synchronisieren der Zusatzinformation 12 (hier der rechtecki ge Rahmen in FIG 1, der das Gesicht markiert) mit dem Bild 10 verwendet werden.

FIG 3 zeigt beispielhaft mehrere Verfahrensschritte für ein mögliches Verfahren. In einem ersten Schritt S1 wird mit der Kamera 16 der Videostrom 19 generiert. Der Videostrom 19 be inhaltet die mehreren Bilder 10. Dabei erzeugt die Kamera 16 bevorzugt für jedes der mehreren Bilder 10 eine separate Me tainformation 14.

In einem zweiten Schritt S2 wird das Bild 10 oder die mehre ren Bilder 10 jeweils um mindestens einen Codierblock 13 mit mehreren Pixeln zum optischen Darstellen der Metainformation 14 erweitert. Die Metainformation 14 wird somit in die opti sche Information 11 umgewandelt. Die optische Information 11 wird bevorzugt direkt an dem Bild 10 angeordnet. Das ur sprüngliche Bild 10 beziehungsweise ein ursprünglicher Bild inhalt des Bildes 10 bleibt dabei bevorzugt unverändert. Bei spielsweise können mehrere Codierblöcke 13 unmittelbar unter dem Bild 10 angeordnet werden. In einem dritten Schritt S3 erfolgt ein Übersetzen oder Transformieren der Metainformation 14 in die optische Infor mation 11 des mindestens einen Codierblocks 13. Dies erfolgt bevorzugt mit Hilfe eines Anpassens mehrerer Grauwerte gi be treffend die einzelnen Codierblöcke 13. Ebenso können einzel ne Grauwerte gi zu jeweiligen Pixel innerhalb eines Codier blocks 13 modifiziert werden.

In einem vierten Schritt S4 wird das Bild 10 oder der Video strom 19 zusammen mit den Codierblöcken 13 übertragen. Der Videostrom 19 wird dabei von der ersten Computer-Einheit 31 zur zweiten Computer-Einheit 32 übertragen. Insbesondere er folgt die Übertragung der Bilder 10 oder des Videostroms 19 von dem ersten Browser Bl der ersten Computer-Einheit 31 zu dem zweiten Browser B2 der zweiten Computer-Einheit 32.

In einem fünften Schritt S5 erfolgt ein Decodieren der opti schen Information 11 des übertragenen mindestens einen Co dierblocks 13 des Bildes 10. Im fünften Schritt S5 können zu jedem Bild 10 des Videostroms 19 die jeweiligen optischen In formationen 11 der übertragenen Codierblöcke 13 decodiert werden. Dies geschieht bevorzugt innerhalb einer Browserumge bung der zweiten Computer-Einheit 32. Das Übertragen des Bil des 10 erfolgt dabei bevorzugt mit Hilfe einer Echtzeit- Kommunikationsplattform 20, insbesondere durch das WebRTC- Verfahren 20. Zugleich kann über dieses Verfahren die Zusatz information 12 übertragen werden. Die Zusatzinformation 12 kann mit Hilfe der decodierten optischen Information 11 mit den Bildern 10 synchronisiert werden.

In einem sechsten Schritt S6 wird die Zusatzinformation 12 der Metainformation 14 zugeordnet und die Zusatzinformation 12 wird zusammen mit dem Bild 10 dargestellt. Dieser Vorgang kann für mehrere Bilder 10 erfolgen. Bevorzugt werden die Bilder in dem zweiten Browser B2 angezeigt.

Insgesamt zeigt die Erfindung, dass mit Hilfe des WebRTC- Verfahrens 20 der Videostrom 19 übertragen werden kann und zugleich die Zusatzinformation 12 synchronisiert dargestellt werden kann. Dazu können gewöhnliche Standardwebbrowser ohne weitere Plug-Ins verwendet werden. Auf diese Weise kann die Web-EchtZeitkommunikation 20 mittels des WebRTC-Standards 20 zum Darstellen zeitsynchronisierter Zusatzinformationen ver wendet werden. Das vorgeschlagene Verfahren bietet somit eine Möglichkeit, das WebRTC-Verfahren 20 um eine Funktionalität zu erweitern, ohne dabei Änderungen am Browser Bl, B2 oder eine Umprogrammierung vornehmen zu müssen.

Wo noch nicht explizit geschehen, jedoch sinnvoll und im Sin ne der Erfindung, können einzelne Ausführungsbeispiele, ein zelne ihrer Teilaspekte oder Merkmale mit einander kombiniert bzw. ausgetauscht werden, ohne den Rahmen der hiesigen Erfin- düng zu verlassen. Mit Bezug zu einem Ausführungsbeispiel be schriebene Vorteile der Erfindung treffen ohne explizite Nen nung, wo übertragbar, auch auf andere Ausführungsbeispiele zu. Hierbei kann das Erweitern des Bildes 10, Übersetzen der Me tainformation 14 in die optische Information 11 des Codier blocks 13, das Übertragen des Bildes 10 mit dem Codierblock 13 und das Decodieren der optischen Information 11 des über tragenen Codierblocks 13 insbesondere mittels des Prozessors 30 ausgeführt werden, insbesondere mittels einer Rechenein heit der ersten Computer-Einheit 31 und/oder der zweiten Com puter-Einheit 32 ausgeführt werden.