Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR HANDLING INTERFERENCE DURING THE TRANSMISSION OF A CHRONOLOGICAL SUCCESSION OF DIGITAL IMAGES
Document Type and Number:
WIPO Patent Application WO/2014/015884
Kind Code:
A1
Abstract:
A method for handling interference during the transmission of a chronological succession of digital images (I) from a sender (S) to at least one receiver (R), in which the images to be transmitted show the face of a speaker at least intermittently, involves images in the chronological succession that are unable to be decoded, or unable to be decoded satisfactorily, on account of the interference being replaced by synthentic images (P) at the receiver. The synthetic images are produced using phonetic data (LD) that are or have been extracted from digital voice data (SD) for the speaker by means of phonetic recognition, the digital voice data being or having been transmitted together with the digital image data (I).

Inventors:
SCHWARTZE JUERGEN (DE)
Application Number:
PCT/EP2012/003147
Publication Date:
January 30, 2014
Filing Date:
July 25, 2012
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
UNIFY GMBH & CO KG (DE)
SCHWARTZE JUERGEN (DE)
International Classes:
H04N7/15; H04M3/56; H04N7/14
Foreign References:
EP1763242A12007-03-14
EP0897638A11999-02-24
US20060221083A12006-10-05
Other References:
"Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand", 16 June 2012, article "Internationales Phonetisches Alphabet", pages: 20 - 28
HARALD FINSTER; JÜRGEN W. MEYER: "ASST '90, 7. Aachener Symposium für Signaltheorie: Modellgestützte Signalverarbeitung, (ASST'90", 1990, SPRINGER-VERLAG, article "Automatische Lauterkennung aus fließendem Text mit Hilfe mehrschichtiger Neuronaler Netze", pages: 299 - 304
"Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand", 20 June 2012, article "Spracherkennung"
Attorney, Agent or Firm:
FRITZSCHE, THOMAS (DE)
Download PDF:
Claims:
Patentansprüche

1. Verfahren zur Behandlung von Störungen bei der Übertragung einer zeitlichen Folge digitaler Bilder (I) von einem Sender (S) zu wenigstens einem Empfänger (R), wobei die zu übertragenden Bilder wenigstens zeitweilig das Gesicht eines Sprechers zeigen, dadurch gekennzeichnet, dass ein Bild oder mehrere Bilder der zeitlichen Folge, das bzw. die aufgrund der Störung nicht oder nicht in zufrieden stellender Weise dekodiert werden können, auf der Seite des Empfängers oder auf dem Weg zu einem Empfänger durch ein synthetisches Bild (P) oder mehrere synthetische Bilder ersetzt werden, das bzw. die mit Hilfe von Lautdaten (LD) ausgewählt oder erzeugt werden oder wurden, die durch eine Lauterkennung aus digitalen Sprachdaten (SD) des Sprechers extrahiert werden oder wurden, wobei die digitalen

Sprachdaten zusammen mit den digitalen Bilddaten (I) übertragen werden oder wurden. 2. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Störung der

Übertragung durch eine zeitweilige Verminderung der verfügbaren Datenrate verursacht wird oder wurde.

3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens ein synthetisches Bild (P) auf der Seite des Empfängers (R) erzeugt wird oder wurde.

4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens ein synthetisches Bild (P) während der Übertragung erzeugt wird.

5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Lautdaten (PD) auf der Seite des Empfängers (R) während der Übertragung aus den

Sprachdaten (SD) extrahiert werden. 6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf der Seite des Empfängers (R) eine Bibliothek (L) von synthetischen Bildern (P) wenigstens eines Sprechers angelegt wird oder wurde.

7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens ein synthetisches Bild (P) auf dem Übertragungsweg (TC) zwischen dem Sender (S) und einem Empfänger (R) erzeugt wird oder wurde.

8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Lautdaten (PD) auf dem Übertragungsweg zwischen dem Sender und einem Empfänger während der Übertragung aus den Sprachdaten (SD) extrahiert werden. 9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf dem Übertragungsweg zwischen dem Sender und einem Empfänger eine Bibliothek von synthetischen Bildern wenigstens eines Sprechers angelegt wird oder wurde.

10. Kommunikationseinrichtung mit Mitteln zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.

11. Kommunikationseinrichtung nach Anspruch 10 mit Mitteln (LDE) zur Extraktion von Lautdaten (LD) aus Sprachdaten (SD). 12. Kommunikationseinrichtung nach Anspruch 11 mit Mitteln (PG) zur Erzeugung synthetischer Bilder (P) aus Lautdaten (LD) und aus zu übertragenen oder empfangenen digitalen Bilddaten (I).

Description:
Verfahren zur Behandlung von Störungen bei der Übertragung einer zeitlichen Folge digitaler Bilder

Beschreibung

Die vorliegende Erfindung betrifft ein Verfahren zur Behandlung von Störungen bei der

Übertragung einer zeitlichen Folge digitaler Bilder.

Bei der Übertragung zeitlicher Folgen digitaler Bilder über einen Übertragungskanal, also beispielsweise bei der Übertragung von Videodaten über Telefonleitungen, Datenkommunikationsleitungen oder über eine Funkverbindung, beispielsweise in der Videotelefonie, werden Bilddaten in digitaler Form von einem Sender an einen oder mehrere Empfänger übertragen. Häufig, wie beispielsweise in der Videotelefonie, werden zusammen mit den Bilddaten auch Audiodaten übertragen. Die Audiodaten bestehen dann häufig hauptsächlich aus Sprachdaten, also aus digitalen Repräsentationen des von einer in den übertragenen Bildern gezeigten Person erzeugten Sprachsignals. Aufgrund des Technologiewandels von der klassischen Telefonie zur Internet-Telefonie (auch als Voice over IP oder VolP bezeichnet) gewinnen Mehrwertdienste, die einen erhöhten Bandbreitenbedarf zwischen den Kommunikationsteilnehmern erfordern, rasch an Bedeutung. Dabei kann es sich um Echtzeit-Dienste handeln (z.B. eine Audio-Übertragung mit hochqualitativen Codecs) bzw. Video-Telefonie, oder um parallel Kommunikationsmechanismen ohne Echtzeit- Anforderungen wie das sogenannte„Messaging" oder den sogenannten„Chat". Bei solchen Mehrwertdiensten können Probleme dadurch auftreten, dass die erhöhte Bandbreite zwischen den Kommunikationspartnern während der gesamten Kommunikationszeit zur Verfügung stehen muss. Diese Anforderung ist jedoch nicht immer zu gewährleisten, insbesondere nicht bei mobilen Kommunikationspartnern, die auf eine drahtlose Datenkommunikation angewiesen sind. So kann es beispielsweise während einer Zugfahrt passieren, dass zunächst eine ausreichende Bandbreite für eine Audio- und Video-Kommunikation zur Verfügung steht, während kurz darauf durch ein Nachlassen der Güte der Netzverbindung, die für die Durchführung der Audio- und Video-Kommunikation erforderliche Bandbreite vorübergehend nicht mehr zur Verfügung steht.

Um die durch die Eigenschaften des verwendeten Übertragungskanals charakterisierten Beschränkungen hinsichtlich der verfügbaren Bandbreite und der auftretenden Störungen zu berücksichtigen, werden die zu übertragenden Bilddaten und Sprachdaten regelmäßig„kodiert". Die sogenannte Kodierung bewirkt regelmäßig eine Reduktion des zu übertragenden Daten- volumens durch Irrelevanz-Reduktion und durch Redundanz-Reduktion. Um die von Redun- danz (weitgehend) befreiten Nutzdaten gegen Fehler bei der Übertragung schützen zu können, wird regelmäßig eine gewisses Maß an Redundanz in Gestalt sogenannter Fehlerkorrektur- Codes wieder hinzugefügt. Bei der Audioübertragung kann durch ein Umschalten auf hochkomprimierende Codecs dynamisch auf eine Verringerung der verfügbaren Bandbreite reagiert werden. Im Bereich der Videoübertragung ist dies jedoch aufgrund einer erheblichen Mindestbadbreite für brauchbare Bewegtbildübertragungen nur sehr eingeschränkt möglich. Fällt die verfügbare Bandbreite unter einen bestimmten Wert, wird die Bildübertragung heute üblicherweise eingestellt, und es wird - je nach der Realisierung im Kommunikationsendpunkt - entweder gar kein Bild mehr angezeigt oder es wird ein ggf. lokal vorhandenes Kontaktfoto angezeigt. Diese Vorgehensweise ist insbesondere im Fall von Videokonferenzen unbefriedigend, weil Teilnehmer mit zu geringer Bandbreite in diesen Fällen ohne Bildübertragung an der Konferenz teilnehmen, wodurch sie unzureichend wahrgenommen und zu Konferenzteilnehmern zweiter Klasse werden.

Abhilfe kann hier möglicherweise eine dynamisch von der verfügbaren Bandbreite abhängige Wahl der verwendeten Video-Codecs oder der Bildauflösung schaffen.

Trotz dieser Maßnahmen ist ein störungsfreier Betrieb derartiger Übertragungssysteme nicht oder nicht immer zu erreichen. Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, das Verhalten von Übertragungssystemen für zeitliche Folgen digitaler Bilder im Hinblick auf mögliche auftretende Störungen nach Möglichkeit zu verbessern.

Zur Lösung dieser Aufgabe sieht die vorliegende Erfindung ein Verfahren zur Behandlung von Störungen bei der Übertragung einer zeitlichen Folge digitaler Bilder von einem Sender zu wenigstens einem Empfänger vor, bei dem die zu übertragenden Bilder wenigstens zeitweilig das Gesicht eines Sprechers zeigen, und bei dem ein Bild oder mehrere Bilder der zeitlichen Folge, das bzw. die aufgrund der Störung nicht oder nicht in zufrieden stellender Weise dekodiert werden können, auf der Seite des Empfängers oder auf dem Weg zu einem Empfänger durch ein synthetisches Bild oder mehrere synthetische Bilder ersetzt werden. Das synthetische Bild oder die synthetischen Bilder werden oder wurden mit Hilfe von Lautdaten ausgewählt oder erzeugt, die durch eine Lauterkennung aus digitalen Sprachdaten des Sprechers extrahiert werden oder wurden, wobei die digitalen Sprachdaten zusammen mit den digitalen Bilddaten übertragen werden oder wurden.

Im Zusammenhang mit der Beschreibung der vorliegenden Erfindung ist unter einer zeitlichen

Folge digitaler Bilder eine Folge 1(1 ), l(2) I(n-1), l(n), l(n+1 ), ... zu verstehen, in der jedes

Element l(n) der Folge eine digitales Bild ist, wobei der Folgenindex n eine natürliche Zahl ist und eine zeitliche Ordnungsrelation definiert. Aufeinander folgende Bilder der Folge entsprechen also aufeinander folgenden Zeitpunkten. Jedes Element der Folge ist ein digitales Bild, also eine Datenstruktur, die einer zweidimensionalen Anordnung einer Mehrzahl digitaler Bildwerte, die auch als Pixel bezeichnet werden, entspricht oder die in eine solche zwei- dimensionalen Anordnung digitaler Bildwerte umgewandelt oder durch eine solche zweidimensionalen Anordnung digitaler Bildwerte wenigstens näherungsweise repräsentiert werden kann.

In kodierter Form nehmen solche zeitlichen Folgen digitaler Bilder häufig eine andere Gestalt an. Um das zu übertragende Datenvolumen zu reduzieren, werden häufig nicht die Elemente einer Bildfolge einzeln kodiert, sondern es werden sogenannte Prädiktionsverfahren eingesetzt, welche aus vorhergehenden und/oder nachfolgenden Bildern einer zeitlichen Folge digitaler Bilder Zwischenbilder berechnen, die ein oft erheblich geringeres Datenvolumen haben als einzeln kodierte Bilder, und aus denen ein Empfänger mit Hilfe einer Dekodierung wieder eine Folge einzelner Bilder berechnen kann. Alle diese möglichen Formen kodierter, nicht kodierter oder dekodierter Bildfolgen sollen in dem hier vorliegenden Zusammenhang unter dem Begriff der zeitlichen Folge digitaler Bilder verstanden werden.

In diesem Zusammenhang ist unter der Übertragung einer zeitlichen Folge digitaler Bilder jedes Verfahren zu verstehen, bei dem eine zeitliche Folge digitaler Bilder von einem Sender an wenigstens einen Empfänger übertragen wird. Wichtige Beispiele für solche Übertragungen sind Videotelefonie, Videostreaming, digitales Fernsehen und ähnliche Verfahren. Die

Übertragung einer zeitlichen Folge digitaler Bilder wird in diesem Zusammenhang auch als Videoübertragung bezeichnet. In diesem Zusammenhang ist unter einem Sender einer zeitlichen Folge digitaler Bilder jede Einrichtung zu verstehen, die den Ausgangspunkt einer Übertragung einer zeitlichen Folge digitaler Bilder bildet. Wichtige Beispiele für solche Sender sind Bildtelefone, Videokameras oder sogenannte Smart-Phones mit einem Zugang zu einem Übertragungskanal zur Übertragung zeitlicher Folgen digitaler Bilder, also beispielsweise mit einem Zugang zu einem Telefonnetzwerk, einem Internetzugang oder mit einem Zugang zu einem (drahtlosen)

Computernetzwerk.

In diesem Zusammenhang ist unter einem Empfänger einer zeitlichen Folge digitaler Bilder jede Einrichtung zu verstehen, die den Endpunkt einer Übertragung einer zeitlichen Folge digitaler Bilder bildet. Wichtige Beispiele für solche Empfänger sind Bildtelefone, Computerbildschirme oder sogenannte Smart-Phones mit einem Zugang zu einem Übertragungskanal zur Übertragung zeitlicher Folgen digitaler Bilder, also beispielsweise mit einem Zugang zu einem Telefon- netzwerk, einem Internetzugang oder mit einem Zugang zu einem (drahtlosen) Computernetzwerk.

In diesem Zusammenhang ist unter einer zeitlichen Folge digitaler Bilder, die wenigstens zeitweilig das Gesicht eines Sprechers zeigt, eine Bildfolge zu verstehen, in der eine Mehrzahl aufeinander folgender Bilder das Gesicht eines Menschen oder Teile eines Gesichts eines Menschen, vorzugsweise unter anderem oder wenigstens die Mundpartie des Gesichts, zeigen von dem Sprachsignale ausgehen, die als digitale Sprachdaten zusammen mit der zeitlichen Folge digitaler Bilder übertragen werden. Solche Bildfolgen und die zugehörigen Sprachdaten werden beispielsweise in der Videotelefonie häufig übertragen.

In diesem Zusammenhang ist unter einer Störung, insbesondere unter einer Störung bei der Übertragung einer zeitlichen Folge digitaler Bilder ein Vorgang oder ein Ereignis zu verstehen, der bzw. das die Übertragung und/oder die Wiedergabe übertragener Bilddaten, insbesondere zeitlicher Folgen digitaler Bilder ungünstig beeinflusst. Beispiele solcher Störungen sind

Datenverluste oder Übertragungsfehler. Solche Störungen können durch eine zeitweilige Verringerung der verfügbaren Bandbreite verursacht sein, die deshalb ihrerseits als eine Störung in diesem Sinne aufgefasst werden kann. Ein weiteres Beispiel für solche Störungen sind die in der Mobilkommunikation auftretenden Störungen, bei denen ein in Bewegung befindlicher Empfänger (z.B. in einem fahrenden Auto oder während einer Zugfahrt) sich zwischen verschiedenen Funkzellen bewegt und dadurch einer kontinuierlich schwankenden Verbindungsqualität unterworfen ist.

In diesem Zusammenhang ist unter einer Dekodierung jeder Vorgang zu verstehen, der aus einer kodierten Bildfolge die ursprüngliche Bildfolge wieder herstellt. Ein wichtiges Beispiel für ein Video-Dekodierverfahren ist das Verfahren nach dem MPEG-4 Standard.

In diesem Zusammenhang ist unter einem synthetischen Bild ein digitales Bild zu verstehen, das nicht oder nicht ausschließlich durch eine Dekodierung einer übertragenen kodierten zeitlichen Folge digitaler Bilder ermittelt wurde, sondern das unter Zuhilfenahme weiterer Daten, insbesondere von Sprachdaten aus wenigstens einem dekodierten Bild oder aus einer kodierten zeitlichen Folge digitaler Bilder ermittelt wurde, um wenigstens ein digitales Bild zu ersetzen, das in Folge einer Störung nicht oder nicht in zufriedenstellender Qualität ohne eine solche Zuhilfenahme weiterer Daten ermittelt werden konnte. Eine zeitliche Folge synthetischer Bilder wird in diesem Zusammenhang auch als Bewegtbildsimulation bezeichnet.

In diesem Zusammenhang soll eine Ausdrucksweise, nach der digitale Sprachdaten „zusammen mit" digitalen Bilddaten übertragen werden oder wurden auch solche Fälle umfassen, in denen Sprach- und Bilddaten zeitgleich aber auf unterschiedlichen Wegen transportiert werden.

Vorzugsweise ist vorgesehen, bei vorübergehend oder dauerhaft unzureichender verfügbarer Bandbreite für Videoübertragungen eine Bewegbildsimulation für den Gesprächspartner (Empfänger) auf der Grundlage einer Echtzeit-Lautanalyse der Sprachverbindung zu generieren. Diese Bewegtbildsimulation wird vorzugsweise solange angezeigt, bis wieder eine ausreichende Bandbreite für eine Videoübertragung zur Verfügung steht. Dazu ist vorzugsweise eine kontinuierliche Bandbreitenüberwachung für die Kommunikationsverbindung, die zur Videoübertragung genutzt wird, erforderlich. Sobald die Bandbreite für die gewählte Anwendung, vorzugsweise für die Videotelefonie, nicht mehr ausreicht, wird die erfindungsgemäße Bewegbildsimulation, also die Ersetzung fehlender übertragener Bilder durch synthetische Bilder, verwendet, indem vorzugsweise auf die Bewegbildsimulation umgeschaltet wird. Vorzugsweise beruht die erfindungsgemäße Bewegtbildsimulation auf wenigstens einem digitalen Bild des Sprechers bzw. seines Gesichts, das vorzugsweise beim Empfänger gespeichert ist. Hierbei handelt es sich vorzugsweise um ein Bild, das zu Zeitpunkten übertragen wurde, zu denen die Bandbreite noch ausreichend war. Es kann sich aber auch um ein sogenanntes Snapshot der aktuellen Kommunikationsverbindung, ein vorab übertragenes Standbild oder um eine Mehrzahl von vorab übertragenen Standbildern des Sprechers handeln. Alternativ kann es sich auch um ein bereits beim Empfänger vorhandenes Kontaktfoto handeln, welches über Messaging-Dienste oder über sogenannte soziale Netzwerke bezogen werden kann.

Aus derartigen beim Empfänger vorhandenen Bildern oder aus einem derartigen beim

Empfänger vorhandenen Bild wird vorzugsweise eine zeitliche Folge abgewandelter, synthetischer Bilder berechnet, welche vorzugsweise die typischen Gesichtszüge bei der Aussprache einzelner Laute nachbilden oder nachmodellieren. Vorzugsweise wird dazu zunächst das Standbild oder werden die anderen als Grundlage für die Ermittlung der synthetischen Bilder dienenden Bilder analysiert, d.h. es werden vorzugsweise geeignete oder notwendige Fixpunkte wie z.B. Augen, Brauen, Nase, Mund, Lippen, u.ä. lokalisiert. Vorzugsweise wird für jeden aus den Sprachdaten extrahierten Laut ein synthetisches Bild berechnet.

Es wird vorzugsweise schritthaltend mit der Sprachverbindung, vorzugsweise unter möglichst guter Einhaltung der Echtzeiterfordernisse, eine Lautanalyse (oder auch Lautdatenextraktion) des empfangenen oder übertragenen Audiostroms, d.h. des Datenstroms der Sprachdaten vorgenommen. Hierzu kann eine Transcodierung der Audiodaten in ein lautgetreues Audioformat (lautgetreuer Codec) erforderlich oder dienlich sein. Vorzugsweise wird dann ein einem extrahierten Laut entsprechendes synthetisches Bild oder eine zeitliche Folge von einem extrahierten Laut oder einer extrahierten Lautfolge entsprechenden synthetischen Bildern zur Wiedergabe beim Empfänger verwendet, bis ein darauffolgender Laut oder eine darauffolgende extrahierte Lautfolge erkannt wurde. Dabei werden zur Qualitätsverbesserung vorzugsweise noch zusätzliche Übergangsbilder aus zwei Lautbildern berechnet. Auf der Empfängerseite entsteht so der Eindruck, als würde das Videobild des Kommunikationspartners (d.h. des Sprechers) synchron zur bestehenden Sprachverbindung vorzugsweise störungsfrei oder störungsarm übertragen, obwohl diese Übertragung eigentlich gestört ist, u.U. derart gestört, dass eine Wiedergabe tatsächlich übertragener Videobilder während dieser Zeiten eigentlich nicht möglich wäre.

Auf diese Weise werden durch die erfindungsgemäßen Maßnahmen Probleme gelöst, die insbesondere aus dem Medienbruch (z.B. ein Bildausfall) bei schwankender Übertragungsbandbreite bei der Videotelefonie auftreten können. Die Wahrnehmung bei weiteren Kommunikationsteilnehmern, insbesondere bei Videokonferenzen, wird entscheiden verbessert.

Vorzugsweise werden Lautbilddarstellungen während eines echten Videotelefonats - anstatt sie zu berechnen - mitgeschnitten und in Situationen wieder abgespielt, in denen der gerade keine ausreichende Bandbreite zur Verfügung steht, insbesondere in denen der Sprecher gerade keine ausreichende Bandbreite hat. Lautbilddarstellungen können vorzugsweise auch von Konferenzteilnehmern selbst hergestellt werden, beispielsweise unter Zuhilfenahme einer geeigneten Software-Applikation, und zum Download für Kontakte bereitgestellt werden. Das erfindungsgemäße Verfahren kann wahlweise in jedem Kommunikationsendpunkt angewandt werden, der die damit verbundenen Leistungsmerkmale nutzen möchte, oder zentral in einem Videokonferenzserver, der die einzelnen Videoströme und Bewegtbildsimulationen zu einem einzelnen Videostrom aggregiert.

In diesem Zusammenhang ist unter Sprachdaten ein die Video-Übertragung begleitender Datenstrom von digitalen Audiodaten zu verstehen. Diese Audiodaten werden üblicherweise in kodierter Form übertragen, um die zu ihrer Übertragung benötigten Bandbreite so gering wie möglich zu halten.

In diesem Zusammenhang ist unter Lautdaten eine vorzugsweise symbolische Folge digitaler Daten zu verstehen, wobei jedes Folgenelement oder Symbol vorzugsweise einen Laut, also ein Phonem oder eine Lautkette bezeichnet. Teilfolgen solcher Lautdatenfolgen bezeichnen vorzugsweise Lautketten. Vorzugsweise werden die Laute oder Lautketten mit Hilfe eines phonetischen Alphabets charakterisiert, beispielsweise mit Hilfe des Internationalen

Phonetischen Alphabets IPA (Seite„Internationales Phonetisches Alphabet". In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 16. Juni 2012, 20:28 UTC. URL: http://de.wiki- pedia.org/w/index.php?title=lnternationales_Phonetisches_Alp habet&oldid=

(Abgerufen: 2. Juli 2012, 19:37 UTC)), oder mit Hilfe von SAMPA, einer Teilmenge des IPA, bei der 7-Bit-ASCII-Zeichen verwendet werden. In diesem Zusammenhang ist unter einer Lauterkennung oder unter einer Lautdatenextraktion ein Verfahren zur Gewinnung von Lautdaten aus Sprachdaten zu verstehen. Ein Beispiel für ein derartiges Verfahren ist in der Veröffentlichung von Harald Finster und Jürgen W. Meyer (1990), „Automatische Lauterkennung aus fließendem Text mit Hilfe mehrschichtiger Neuronaler Netze" beschrieben in ASST '90, 7. Aachener Symposium für Signaltheorie: Modellgestützte Signal- Verarbeitung, (ASST '90), Walter Ameling (Ed.). Springer- Verlag, London, UK, 299-304. Eine einführende Übersicht über den aktuellen Stand der Spracherkennung findet sich auf der Seite „Spracherkennung" in Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 20. Juni 2012, 09:35 UTC. URL: http://de.wikipedia.org/w/index.php?title=Spracherkennung&am p;oldid=104595052 (Abgerufen: 2. Juli 2012, 19:48 UTC).

Die Ausdrucksweise„wird oder wurde" oder ähnliche Ausdrucksweisen sollen in dem hier vorliegenden Zusammenhang bedeuten, dass der betreffende Vorgang oder Verfahrensschritt je nach der gewählten Ausführungsform der Erfindung entweder unter Echtzeitbedingungen während der Übertragung der betroffenen Daten ausgeführt wird oder zu einem vor der Über- tragung der betroffenen Daten liegenden Zeitpunkt durchgeführt wurde. So können insbesondere die Lautdaten oder die synthetischen Bilder insbesondere in Echtzeit während der Übertragung der Bildfolgen erzeugt werden, oder die Lautdaten oder die synthetischen Bilder können vorab erzeugt worden und ggf. auch vorab an einen Empfänger übertragen worden sein. Vorzugsweise ist ein Verfahren vorgesehen, bei dem die Störung der Übertragung durch eine zeitweilige Verminderung der verfügbaren Datenrate verursacht wird oder wurde. Die zeitweilige Verminderung der verfügbaren Datenrate ist also eine wichtige mögliche Ursache für eine Störung der Übertragung im hier betrachteten Sinn aber nicht die einzige mögliche Ursache. Weitere mögliche Ursachen sind Übertragungsfehler durch äußere Störeinflüsse wie beispiels- weise elektromagnetische Störfelder oder ungünstige Ausbreitungsbedingungen für elektromagnetische Wellen.

In diesem Zusammenhang ist unter einer verfügbaren Datenrate bzw. unter einer verfügbaren Bandbreite diejenige Datenrate bzw. Bandbreite zu verstehen, die einer Kommunikations- Verbindung bei einem gegebenen Übertragungskanal, den diese Kommunikationsverbindung sich ggf. mit weiteren Kommunikationsverbindungen teilen muss, zur Verfügung steht. Vorzugsweise ist ein Verfahren vorgesehen, bei dem wenigstens ein synthetisches Bild auf der Seite des Empfängers, vorzugsweise während oder vor der Übertragung der Videodaten, ausgewählt oder erzeugt wird oder wurde. Die Ausdrucksweise„auf der Seite des Empfängers" soll in dem hier vorliegenden Zusammenhang bedeuten, dass die betroffenen Vorgänge bzw. Einrichtungen am Ende der Übertragungsstrecke zwischen dem Sender und dem Empfänger ablaufen bzw. vorgesehen sind.

Vorzugsweise ist ein Verfahren vorgesehen, bei dem wenigstens ein synthetisches Bild während der Übertragung erzeugt wird. Auf diese Weise wird es möglich, dieses synthetische Bild ohne vorbereitende Maßnahmen zur Verfügung zu stellen. Die Ausdrucksweisen„während der Übertragung" bzw.„auf dem Übertragungsweg" oder„auf dem Weg zu einem Empfänger" oder„auf dem Übertragungsweg zwischen dem Sender und einem Empfänger" sollen in dem hier vorliegenden Zusammenhang bedeuten, dass die damit verbundenen Vorgänge in Echtzeit bzw. nach dem Versenden durch den Sender und vor dem Empfangen durch den Empfänger ablaufen.

Vorzugsweise ist ein Verfahren vorgesehen, bei dem Lautdaten auf der Seite des Empfängers während der Übertragung aus den Sprachdaten extrahiert werden.

Vorzugsweise ist ein Verfahren vorgesehen, bei dem auf der Seite des Empfängers, vorzugsweise während oder vor der Übertragung der Videodaten, eine Bibliothek von synthetischen Bildern wenigstens eines Sprechers angelegt wird oder wurde. In diesem Zusammenhang ist unter einer Bibliothek von synthetischen Bildern eine Mehrzahl von synthetischen Bildern zu verstehen, die in einer Einrichtung zur Speicherung von digitalen Bilddaten gespeichert werden oder wurden. Vorzugsweise existiert zwischen Bildern einer solchen Bibliothek und möglichen Lauten, die durch eine Lautdatenextraktion aus den

Sprachdaten eines Sprechers extrahiert werden können, eine Zuordnung, mit deren Hilfe wenigstens ein zu einem Laut passendes synthetisches Bild in der Bibliothek ermittelt werden kann. Die Bilder einer solchen Bibliothek können in einer ersten Phase der Übertragung der Videodaten durch eine Einrichtung zur Erzeugung synthetischer Bilder erzeugt und in der Bibliothek gespeichert werden, um in einer zweiten Phase der Übertragung der Videodaten durch eine Einrichtung zur Auswahl synthetischer Bilder in Abhängigkeit von den extrahierten Lautdaten ausgewählt und anstelle der ursprünglichen Bilder übertragen zu werden.

Vorzugsweise ist ein Verfahren vorgesehen, bei dem wenigstens ein synthetisches Bild auf dem Übertragungsweg zwischen dem Sender und einem Empfänger, vorzugsweise während oder vor der Übertragung der Videodaten, erzeugt wird oder wurde. Auf diese Weise ist es möglich, die Erfindung im Zusammenhang mit Sendern und/oder Empfängern anzuwenden, die nicht erfindungsspezifisch ausgerüstet sein müssen. Vorzugsweise ist ein Verfahren vorgesehen, bei dem Lautdaten auf dem Übertragungsweg zwischen dem Sender und einem Empfänger während der Übertragung aus den Sprachdaten extrahiert werden. Auf diese Weise ist es möglich, die Erfindung im Zusammenhang mit Sendern und/oder Empfängern anzuwenden, die nicht erfindungsspezifisch ausgerüstet sein müssen.

Vorzugsweise ist ein Verfahren vorgesehen, bei dem auf dem Ubertragungsweg zwischen dem Sender und einem Empfänger, vorzugsweise während oder vor der Übertragung der Videodaten, eine Bibliothek von synthetischen Bildern wenigstens eines Sprechers angelegt wird oder wurde. Auf diese Weise ist es möglich, die Erfindung im Zusammenhang mit Sendern und/oder Empfängern anzuwenden, die nicht erfindungsspezifisch ausgerüstet sein müssen. Außerdem müssen nicht auf mehreren Endgeräten Bibliotheken angelegt und gespeichert werden.

Erfindungsgemäß ist eine Kommunikationseinrichtung mit Mitteln zur Durchführung eines erfindungsgemäßen Verfahrens, vorzugsweise nach einem der hier beschriebenen Ausführungsbeispiele.

Im Folgenden wird die Erfindung anhand bevorzugter Ausführungsbeispiele und mit Hilfe von Figuren näher beschrieben.

Dabei zeigt

Fig. 1 in schematischer Weise ein erstes bevorzugtes Ausführungsbeispiel der

Erfindung,

Fig. 2 in schematischer Weise ein zweites bevorzugtes Ausführungsbeispiel der

Erfindung und

Fig. 3 in schematischer Weise ein drittes bevorzugtes Ausführungsbeispiel der

Erfindung.

Das erfindungsgemäße Verfahren dient der Behandlung von Störungen bei der Übertragung einer zeitlichen Folge digitaler Bilder I von einem Sender S zu wenigstens einem Empfänger R. Dabei zeigen die zu übertragenden Bilder wenigstens zeitweilig das Gesicht eines Sprechers. Ein Bild oder mehrere Bilder der zeitlichen Folge, das bzw. die aufgrund der Störung nicht oder nicht in zufrieden stellender Weise dekodiert werden können, werden auf der Seite des

Empfängers oder auf dem Weg zu einem Empfänger durch ein synthetisches Bild P oder durch mehrere synthetische Bilder ersetzt. Diese synthetischen Bilder werden oder wurden mit Hilfe von Lautdaten LD ausgewählt oder erzeugt, die durch eine Lauterkennung oder Lautextraktion aus digitalen Sprachdaten SD des Sprechers extrahiert werden oder wurden, wobei die digitalen Sprachdaten zusammen mit den digitalen Bilddaten I übertragen werden oder wurden. Bei dem in Fig. 1 gezeigten Ausführungsbeispiel der Erfindung überträgt ein Sender S Bilddaten I zusammen mit Sprachdaten SD an einen Empfänger R. Insbesondere im Fall der Videotele- fonie zeigen die Bewegtbilder I (auch Videostrom genannt) einen Sprecher, dessen Sprachsignale durch ein Mikrofon aufgezeichnet, digitalisiert und vorzugsweise kodiert in Form der Sprachdaten SD übertragen werden.

Tritt nun eine Störung der Übertragung insbesondere durch eine zeitweilige Verminderung der verfügbaren Datenrate oder Bandbreite auf, dann werden die oder einige Bilder der Bildfolge I durch synthetische Bilder P ersetzt. Am Ausgang des Empfänger ist hierzu ein Mischer M in dem Empfänger R vorgesehen, der anstelle der ursprünglichen Bildfolge I eine gemischte Bildfolge P,l ausgibt, in der einzelne oder mehrere der ursprünglichen Bilder I durch

synthetische Bilder P ersetzt wurden. Die Sprachdaten werden vorzugsweise unverändert ausgegeben.

In dem in Fig. 1 gezeigten Ausführungsbeispiel der Erfindung werden die synthetischen Bilder P auf der Seite des Empfängers R erzeugt oder ausgewählt. Dazu ist eine Einrichtung PG zur Erzeugung oder Auswahl synthetischer Bilder in dem Empfänger R vorgesehen, welche die synthetischen Bilder P in Abhängigkeit von den Lautdaten auswählt oder erzeugt. Im Fall der Auswahl synthetischer Bilder durch die Einrichtung PG sind in dem Empfänger eine Mehrzahl von synthetischen Bildern gespeichert, aus denen die Einrichtung PG die synthetischen Bilder in Abhängigkeit von den Lautdaten auswählt. Diese Mehrzahl von synthetischen Bildern wurde vorzugsweise zu früheren Zeitpunkten durch die Einrichtung PG erzeugt oder durch den Empfänger R empfangen. Die Übertragung der synthetischen Bilder in den Empfänger kann über dieselbe Kommunikationsverbindung erfolgt sein, über die später die Videoübertragung erfolgt; sie kann aber auch über eine andere Kommunikationsverbindung erfolgt sein, beispielsweise über ein soziales Netzwerk, welches solche Bilder zur Verfügung stellt.

Dazu alternativ wird wenigstens ein synthetisches Bild P während der Übertragung der Bildfolge I durch die Einrichtung PG erzeugt. In jedem Fall findet die Erzeugung oder Auswahl der synthetischen Bilder in Abhängigkeit von den Lautdaten LD statt, da die synthetischen Bilder ja zu den Lautdaten passen sollen, die in den synthetischen Bildern gezeigten synthetischen Gesichtsdrücke des Sprechers also zu den zeitgleich wiedergegebenen Lauten der Sprachdaten des Sprechers passen sollen.

Die Lautdaten LD werden in Fig. 1 auf der Seite des Empfängers R vorzugsweise während der Übertragung aus den Sprachdaten SD extrahiert. Dazu findet eine Lautdatenextraktion LDE im Empfänger statt. Vorzugsweise wird oder wurde während oder vor der Übertragung der Videodaten I auf der Seite des Empfängers R eine Bibliothek L von synthetischen Bildern P wenigstens eines Sprechers angelegt.

Bei dem in Fig. 2 gezeigten Ausführungsbeispiel der Erfindung findet die Lautdatenextraktion LDE im Sender S statt. Der Sender S überträgt daher die Lautdaten LD zusätzlich zu den Videodaten I und den Sprachdaten SD an den Empfänger R.

Bei dem in Fig. 3 gezeigten Ausführungsbeispiel der Erfindung wird oder wurde, vorzugsweise während oder vor der Übertragung der Videodaten, wenigstens ein synthetisches Bild P auf dem Übertragungsweg TC zwischen dem Sender S und einem Empfänger erzeugt oder ausgewählt. Daher sind in diesem Ausführungsbeispiel eine Einrichtung PG zur Erzeugung oder Auswahl synthetischer Bilder und eine Lautdatenextraktion LDE in einer Einrichtung TC des Übertragungsweges vom Sender S zum Empfänger R vorgesehen. Bei diesem Ausführungsbeispiel werden auch Lautdaten PD auf dem Übertragungsweg zwischen dem Sender und einem Empfänger während der Übertragung aus den Sprachdaten SD extrahiert.

Vorzugsweise wird oder wurde, vorzugsweise während oder vor der Übertragung der

Videodaten, auf dem Übertragungsweg zwischen dem Sender und einem Empfänger eine Bibliothek L von synthetischen Bildern wenigstens eines Sprechers angelegt.

Einzelne oder mehrere Merkmale hier beschriebener Ausführungsbeispiele der Erfindung können vom Fachmann in unterschiedlicher weise miteinander kombiniert werden, um weitere Ausführungsbeispiele zu erhalten, die hier nicht erschöpfend beschrieben werden können. Bezugszeichenliste

S Sender

R Empfänger

I zu übertragende digitale Bilder

P synthetische Bilder

SD Sprachdaten

LD Lautdaten

LDE Extraktion von Lautdaten aus Sprachdaten

PG Erzeugung oder Auswahl synthetischer Bilder

M Mischer

TC Übertragungsweg, Übertragungseinrichtung

L Bibliothek

* * *