Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
APPARATUS AND METHOD FOR CONTROLLING A PLURALITY OF LOUDSPEAKERS BY MEANS OF A GRAPHIC USER INTERFACE
Document Type and Number:
WIPO Patent Application WO/2007/009597
Kind Code:
A1
Abstract:
The aim of the invention is to trigger loudspeakers in a reproduction zone in which at least three directional groups are provided, each of which comprises loudspeakers. Said aim is achieved by first obtaining a source path from a first directional group position to a second directional group position along with a piece of movement information for the source path (800). A source path parameter is then calculated for different points in time based on the movement information, said source path parameter indicating a position of an audio source along the source path. Furthermore, a path modification command is received (804) in order to define a compensation path to the third directional zone while a value of the source path parameter at a point where the compensation path deviates from the source path is stored and is used together with a compensation parameter to calculate (810) weighting factors for the loudspeakers of the three directional groups.

Inventors:
STRAUSS MICHAEL (DE)
BECKINGER MICHAEL (DE)
ROEDER THOMAS (DE)
MELCHIOR FRANK (DE)
GATZSCHE GABRIEL (DE)
REICHELT KATRIN (DE)
DEGUARA JOACHIM (DE)
DAUSEL MARTIN (DE)
RODIGAST RENE (DE)
Application Number:
PCT/EP2006/006562
Publication Date:
January 25, 2007
Filing Date:
July 05, 2006
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
FRAUNHOFER GES FORSCHUNG (DE)
STRAUSS MICHAEL (DE)
BECKINGER MICHAEL (DE)
ROEDER THOMAS (DE)
MELCHIOR FRANK (DE)
GATZSCHE GABRIEL (DE)
REICHELT KATRIN (DE)
DEGUARA JOACHIM (DE)
DAUSEL MARTIN (DE)
RODIGAST RENE (DE)
International Classes:
H04R3/12; H04R27/00
Foreign References:
DE3941584A11990-06-28
DD242954A31987-02-18
Other References:
HOEG W ET AL: "WEITERENTWICKLUNGEN UND NEUERE ANWENDUNGEN DES DELTA-STEREOFONIE-SYSTEMS IM MOBILEN BEREICH DER BESCHALLUNGSTECHNOLOGIE", TECHNISCHE MITTEILUNGEN DES RFZ, DEUTSHE POST, RUNDFUNK. UND FERNSEHTECHNISCHES ZENTR. BERLIN, DE, vol. 32, no. 4, December 1988 (1988-12-01), pages 75 - 81, XP000151188
STEINKE G ET AL: "NEUE ENTWICKLUNGEN BEIM DELTA-STEREOFONIE-SYSTEM ZUR BESCHALLUNG GROSSER RAEUME", TECHNISCHE MITTEILUNGEN DES RFZ, DEUTSHE POST, RUNDFUNK. UND FERNSEHTECHNISCHES ZENTR. BERLIN, DE, vol. 30, no. 3, September 1986 (1986-09-01), pages 56 - 60, XP000795932
PATENT ABSTRACTS OF JAPAN vol. 2003, no. 12 5 December 2003 (2003-12-05)
Attorney, Agent or Firm:
ZINKLER, Franz et al. (Zimmermann Stöckeler & Zinkle, Postfach 246 Pullach Bei München, DE)
Download PDF:
Claims:

Patentansprüche

1. Vorrichtung zum Steuern einer Mehrzahl von Lautsprechern, die in wenigstens drei Richtungsgruppen (10a, 10b, 10c) gruppiert sind, wobei jeder Richtungsgruppe eine Richtungsgruppenposition (IIa, IIb, llc) zugeordnet ist, mit folgenden Merkmalen:

einer Einrichtung (800) zum Empfangen eines Quellen- pfads von einer ersten Richtungsgruppenposition (IIa) zu einer zweiten Richtungsgruppenposition (IIb) und einer Bewegungsinformation für den Quellenpfad;

einer Einrichtung (802) zum Berechnen eines Quellen- pfadparameters (BlendAB) für verschiedene Zeitpunkte basierend auf der Bewegungsinformation, wobei der Quellenpfadparameter auf eine Position einer Audioquelle auf den Quellenpfad hinweist;

einer Einrichtung (804) zum Empfangen eines Pfadänderungsbefehls, durch den einen Kompensationspfad zu dem dritten Richtungsgebiet initiierbar ist;

einer Einrichtung (806) zum Speichern eines Werts des Quellenpfadparameters an einer Stelle, an der der Kompensationspfad (15b) von dem Quellenpfad (15a) abweicht; und

einer Einrichtung (810) zum Berechnen von Gewichtungs- faktoren für die Lautsprecher der drei Richtungsgruppen basierend auf dem Quellenpfad (15a), dem gespeicherten Wert des Quellenpfadparameters (BlendAB) und Informationen über den Kompensationspfad (15b).

2. Vorrichtung nach Anspruch 1, die ferner eine Einrichtung (808) zum Berechnen eines Kompensationspfadparameters (BlendAbC) aufweist, der auf eine Position der

Audioquelle auf dem Kompensationspfad (15b) hinweist, und

wobei die Einrichtung (810) zum Berechnen ausgebildet ist, um zusätzlich unter Verwendung des Kompensationspfadparameters die Gewichtungsfaktoren für die Lautsprecher der drei Richtungsgruppen zu berechnen.

3. Vorrichtung nach Anspruch 1 oder 2, bei der die Ein- richtung (802) zum Berechnen des Quellenpfadparameters ausgebildet ist, um für aufeinanderfolgende Zeitpunkte die Quellenpfadparameter so zu berechnen, dass sich die Quelle mit einer durch die Bewegungsinformationen gegebenen Geschwindigkeit auf dem Quellenpfad bewegt.

4. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der die Einrichtung (808) zum Berechnen des Kompensationspfadparameters ausgebildet ist um für aufeinanderfolgende Zeitpunkte Kompensationspfadparameter so zu berechnen, dass sich die Quelle mit einer vordefinierten Geschwindigkeit auf dem Kompensationspfad bewegt, die höher als eine Geschwindigkeit einer Quelle ist, die sich auf dem Quellenpfad bewegt.

5. Vorrichtung nach einem der vorhergehenden Ansprüche,

bei der die Einrichtung (810) zum Berechnen der Gewichtungsfaktoren ausgebildet ist, um die Gewichtungsfaktoren folgendermaßen zu berechnen:

gi=(l-BlendAbC) (1-BlendAB); g 2 =(l-BlendAbC) BlendAB; g3=BlendAbC

wobei gi ein Gewichtungsfaktor für einen Lautsprecher der ersten Richtungsgruppe ist, wobei g 2 ein Gewichtungsfaktor für einen Lautsprecher der zweiten Richtungsgruppe ist, wobei g 3 ein Gewichtungsfaktor für

einen Lautsprecher der dritten Richtungsgruppe ist, wobei BlendAB der Quellenpfadparameter ist, der durch die Einrichtung (806) gespeichert worden ist, und wobei BlendAbC der Kompensationspfadparameter ist.

6. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der die drei Richtungsgruppen überlappend angeordnet sind, dass wenigstens ein Lautsprecher existiert, der in den drei Richtungsgruppen vorhanden ist, und dem für jede Richtungsgruppe ein unterschiedlicher Parameterwert für einen Lautsprecherparameter zugeordnet ist, wobei die Vorrichtung ferner folgendes Merkmal aufweist :

eine Einrichtung (42) zum Berechnen eines Lautsprechersignals für den Lautsprecher unter Verwendung der Parameterwerte und der Gewichtungsfaktoren.

7. Vorrichtung nach Anspruch 6, bei der die Einrichtung (42) zum Berechnen eine Interpolationseinrichtung (46,

48) aufweist, um einen interpolierten Wert basierend auf den Gewichtungsfaktoren zu berechnen, wobei die Interpolationseinrichtung ausgebildet ist, um folgende Interpolation durchzuführen:

Z = gi x ai + g 2 x a 2 + g3 x a 3 ,

wobei Z der interpolierte Lautsprecher-Parameterwert ist, wobei gi ein erster Gewichtungsfaktor ist, wobei g 2 ein zweiter Gewichtungsfaktor ist, und wobei g 3 ein dritter Gewichtungsfaktor ist, wobei a ein Lautsprecher-Parameterwert des Lautsprechers ist, der einer ersten Richtungsgruppe entspricht, wobei a 2 ein Lautsprecher-Parameterwert ist, der einer zweiten Rich- tungsgruppe entspricht, und wobei a 3 ein Lautsprecher- Parameterwert ist, der einer dritten Richtungsgruppe entspricht.

8. Vorrichtung nach Anspruch 7, bei der die Interpolationseinrichtung ausgebildet ist, um einen interpolierten Verzögerungswert oder einen interpolierten Skalierungswert zu berechnen.

9. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der die Einrichtung zum Empfangen eines Pfadänderungsbefehls (804) ausgebildet ist, um eine manuelle Eingabe von einer graphischen Benutzerschnittstelle zu empfangen.

10. Vorrichtung nach einem der vorhergehenden Ansprüche, die ferner folgendes Merkmals aufweist:

eine Sprungkompensationseinrichtung zum Bestimmen eines kontinuierlichen Sprungkompensationspfads von einer ersten Sprungposition zu einer zweiten Sprungposition,

wobei die Einrichtung (810) zum Berechnen der Gewichtungsfaktoren ausgebildet ist, um für Positionen der Audioquelle auf dem Sprungkompensationspfad Gewichtungsfaktoren zu berechnen.

11. Vorrichtung nach Anspruch 10, bei der die erste Sprungposition durch drei Richtungsgruppen gegeben ist, und bei der die zweite Sprungposition durch drei Richtungsgruppen gegeben ist, und

wobei die Sprungkompensationseinrichtung ausgebildet ist, um bei einer Suche nach einem Sprungkompensationspfad eine Kompensationsstrategie auszuwählen, die davon abhängt, ob die drei Richtungsgebiete, die die erste Sprungposition definieren, und die drei Rich- tungsgebiete, die die zweite Sprungposition definieren, ein Richtungsgebiet oder mehrere Richtungsgebiete gemeinsam haben.

12. Vorrichtung nach Anspruch 1, bei der die Sprungkompensationseinrichtung ausgebildet ist, um dann, wenn die drei Richtungsgebiete der ersten Sprungposition und die drei Richtungsgebiete der zweiten Sprungposition übereinstimmen, eine InpathDual-Kompensationsstrategie oder eine InpathTriple-Kompensationsstrategie zu verwenden,

um dann, wenn wenigstens ein Richtungsgebiet der ers- ten Sprungsposition zu einem Richtungsgebiet der zweiten Sprungposition identisch ist, eine AdjacentA- Kompensationsstrategie, eine AdjacentB- Kompensationsstrategie oder eine AdjacentC- Kompensationsstrategie zu verwenden,

oder um dann, wenn die erste Sprungposition und die zweite Sprungposition kein Richtungsgebiet gemeinsam haben, eine OutsideM-Kompensationsstrategie oder eine OutsideC-Kompensationsstrategie zu verwenden.

13. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der die Einrichtung (804) zum Empfangen eines Pfadänderungsbefehls ausgebildet ist, um eine Position der Quelle zwischen der ersten und der dritten Rich- tungsgruppe zu empfangen, und

wobei die Einrichtung (802) zum Berechnen des Quellenpfadparameters ausgebildet ist, um festzustellen, ob sich die Quelle zu Zeitpunkten, zu denen der Pfadände- rungsbefehl aktiv werden soll, auf einem Quellenpfad oder einem Kompensationspfad befindet.

14. Vorrichtung nach Anspruch 13, bei der die Einrichtung

(802) zum Berechnen des Quellenpfadparameters oder die Einrichtung (808) zum Berechnen des Kompensationspfadparameters ausgebildet sind, um, wenn sich die Quelle auf dem Kompensationspfad befindet, auf der Basis einer ersten Berechnungsvorschrift die Kompensations-

pfadparameter zu berechnen, und um dann, wenn sich die Quelle auf dem Quellenpfad befindet, auf der Basis einer zweiten Berechnungsvorschrift die Pfadparameter zu berechnen.

15. Verfahren zum Steuern einer Mehrzahl von Lautsprechern, die in wenigstens drei Richtungsgruppen (10a, 10b, 10c) gruppiert sind, wobei jeder Richtungsgruppe eine Richtungsgruppenposition (IIa, IIb, llc) zugeord- net ist, mit folgenden Schritten:

Empfangen (800) eines Quellenpfads von einer ersten Richtungsgruppenposition (IIa) zu einer zweiten Richtungsgruppenposition (IIb) und einer Bewegungsinforma- tion für den Quellenpfad;

Berechnen (802) eines Quellenpfadparameters (BlendAB) für verschiedene Zeitpunkte basierend auf der Bewegungsinformation, wobei der Quellenpfadparameter auf eine Position einer Audioquelle auf den Quellenpfad hinweist;

Empfangen (804) eines Pfadänderungsbefehls, durch den einen Kompensationspfad zu dem dritten Richtungsgebiet initiierbar ist;

Speichern (806) eines Werts des Quellenpfadparameters an einer Stelle, an der der Kompensationspfad (15b) von dem Quellenpfad (15a) abweicht; und

Berechnen (810) von Gewichtungsfaktoren für die Lautsprecher der drei Richtungsgruppen basierend auf dem Quellenpfad (15a), dem gespeicherten Wert des Quellenpfadparameters (BlendAB) und Informationen über den Kompensationspfad (15b).

16. Computer-Programm mit einem Programmcode zum Ausführen des Verfahrens gemäß Patentanspruch 15, wenn das Computer-Programm auf einem Rechner abläuft.

Description:

Vorrichtung und Verfahren zum Steuern einer Mehrzahl von Lautsprechern mittels einer graphischen Benutzerschnittstelle

Beschreibung

Die vorliegende Erfindung bezieht sich auf die Audiotechnik und insbesondere auf die Positionierung von Schallquellen in Systemen, die Delta-Stereophonie-Systeme (DSS) oder WeI- lenfeldsynthesesysteme oder beide Systeme umfassen.

Typische Beschallungsanlagen zum Versorgen einer relativ großen Umgebung, wie beispielsweise in einem Konferenzraum einerseits oder einer Konzertbühne in einer Halle oder sogar unter freiem Himmel andererseits leiden alle unter der Problematik, dass auf Grund der üblicherweise verwendeten geringen Anzahl von Lautsprecherkanälen eine ortgetreue Wiedergabe der Schallquellen ohnehin ausscheidet. Doch auch dann, wenn ein Links-Kanal und ein Rechts-Kanal zusätzlich zum Monokanal verwendet werden, hat man immer die Problematik des Pegels. So müssen natürlich die hinteren Plätze, also die Plätze, die weit entfernt von der Bühne sind, genauso mit Schall versorgt werden, wie die Plätze, die nah an der Bühne sind. Wenn z. B. nur vorne am Zuhörerraum oder an den Seiten des Zuhörerraums Lautsprecher angeordnet sind, so ist inhärent problematisch, dass Personen, die nahe am Lautsprecher sitzen, den Lautsprecher als übertrieben laut wahrnehmen, damit die Personen ganz hinten noch etwas hören. Anders ausgedrückt werden auf Grund der Tatsache, dass einzelne Versorgungslautsprecher in einem solchen Beschallungsszenario als Punktquellen wahrgenommen werden, immer Personen vorhanden sein, die sagen, dass es zu laut ist, während die anderen Personen sagen, dass es zu leise ist. Die Personen, denen es normalerweise immer zu laut ist, sind die Personen sehr nahe an den punktquellenartigen Lautsprechern, während die Personen, denen es zu leise ist, sehr weit entfernt von den Lautsprechern sitzen werden.

Um dieser Problematik wenigstens etwas aus dem Weg zu gehen, wird daher versucht, die Lautsprecher höher anzuordnen, also über den Personen, die nahe an den Lautsprechern sitzen, so dass sie wenigstens nicht den kompletten Schall voll mitbekommen, sondern dass sich eine beträchtliche Menge des Schalls des Lautsprechers über den Köpfen der Zuschauer ausbreitet und damit einerseits von den Zuschauern vorne nicht wahrgenommen wird und andererseits dennoch für die Zuschauer weiter hinten einen ausreichenden Pegel liefert. Ferner wird dieser Problematik durch die Lineararray- technik begegnet.

Andere Möglichkeiten bestehen darin, dass man, um die Per- sonen in den vorderen Reihen, also nahe an den Lautsprechern, nicht überzubelasten, einen geringen Pegel fährt, so dass natürlich dann, weiter hinten im Raum, die Gefahr besteht, dass alles wieder zu leise ist.

Bezüglich der Richtungswahrnehmung ist die ganze Sache noch problematischer. So erlaubt ein einziger Monolautsprecher beispielsweise in einem Konferenzsaal keine Richtungswahrnehmung. Er erlaubt nur dann eine Richtungswahrnehmung, wenn der Ort des Lautsprechers der Richtung entspricht. Dies liegt inhärent an der Tatsache, dass es nur einen einzigen Lautsprecherkanal gibt. Selbst wenn jedoch zwei Stereokanäle vorhanden sind, kann man höchstens zwischen dem linken und dem rechten Kanal hin- und herblenden, also gewissermaßen ein Panning machen. Dies mag von Vorteil sein, wenn es nur eine einzige Quelle gibt. Gibt es jedoch mehrere Quellen, so ist die Lokalisation wie bei zwei Stereokanälen nur grob in einem kleinen Bereich des Zuschauerraums möglich. Man hat zwar auch bei Stereo eine Richtungswahrnehmung, jedoch nur im Sweet-Spot. Bei mehreren Quellen wird insbesondere bei steigender Quellenzahl dieser Richtungseindruck immer mehr verwaschen.

In anderen Szenarien sind die Lautsprecher in solchen mittleren bis großen Auditorien, die mit Stereo- oder MonoMischungen versorgt werden, über den Zuhörern angeordnet, so dass sie ohnehin keine Richtungsinformationen der Quelle wiedergeben können.

Obgleich sich die Schallquelle, also z. B. ein Sprecher o- der ein Theaterspieler auf der Bühne befindet, wird er aus den seitlichen oder mittig angeordneten Lautsprechern wahr- genommen. Auf eine natürliche Richtungswahrnehmung wird hier bisher nach wie vor verzichtet. Man ist bereits zufrieden, wenn es für die hinteren Zuschauer noch ausreichend laut ist, und wenn es für die vorderen Zuschauer nicht unerträglich laut ist.

Bei bestimmten Szenarien wird auch mit so genannten „Stützlautsprechern" gearbeitet, die in der Nähe einer Schallquelle positioniert sind. Damit wird versucht, die natürliche Gehör-Ortung wieder herzustellen. Diese Stützlautspre- eher werden normalerweise ohne Verzögerung angesteuert, während die Stereobeschallung über die Versorgungslautsprecher verzögert ist, so dass der Stützlautsprecher zuerst wahrgenommen wird und somit nach dem Gesetz der ersten Wellenfront eine Lokalisation möglich wird. Auch Stützlaut- Sprecher haben jedoch die Problematik, dass sie als Punktquelle wahrgenommen werden. Dies führt zum einen dazu, dass sich eine Differenz zur tatsächlichen Position des Schallemitters ergibt und dass ferner die Gefahr besteht, dass für die vorderen Zuschauer wieder alles zu laut ist, wäh- rend für die hinteren Zuschauer alles zu leise ist.

Andererseits erlauben Stützlautsprecher nur dann eine reale Richtungswahrnehmung, wenn sich die Schallquelle, also z. B. ein Sprecher unmittelbar in der Nähe des Stützlautspre- chers befindet. Dies würde dann funktionieren, wenn ein

Stützlautsprecher im Rednerpult eingebaut ist, und ein Redner immer am Rednerpult steht, und in diesem Wiedergaberaum

es ausgeschlossen ist, dass einmal jemand neben dem Rednerpult steht und etwas für die Zuhörerschaft wiedergibt.

So stellt sich bei einer lokalen Differenz zwischen Stütz- lautsprecher und Schallquelle beim Hörer ein Winkelfehler in der Richtungswahrnehmung ein, der insbesondere für Zuhörer, die Stützlautsprecher vielleicht nicht gewohnt sind, sondern eine Stereowiedergabe gewohnt sind, zur weiteren Verunsicherung führt. Es hat sich herausgestellt, dass ins- besondere dann, wenn man mit dem Gesetz der ersten Wellenfront arbeitet und einen Stützlautsprecher verwendet, es besser ist, den Stützlautsprecher zu deaktivieren, wenn sich die reale Schallquelle, also der Sprecher z. B. zu weit vom Stützlautsprecher entfernt hat. Anders ausgedrückt ist dieser Punkt mit der Problematik verwandt, dass der Stützlautsprecher nicht bewegt werden kann, so dass, um nicht die oben bezeichnete Verunsicherung bei der Zuhörerschaft zu erzeugen, der Stützlautsprecher ganz deaktiviert wird, wenn sich der Sprecher zu weit vom Stützlautsprecher entfernt hat.

Wie es bereits ausgeführt worden ist, werden bei Stützlautsprechern üblicherweise konventionelle Lautsprecher eingesetzt, die wiederum die akustischen Eigenschaften einer Punktquelle - genau so wie die Versorgungslautsprecher - aufweisen, wodurch sich in unmittelbarer Nähe der Systeme ein überhöhter oft als unangenehm empfundener Pegel ergibt.

Generell besteht also das Ziel, für Beschallungsszenarien, wie sie im Theater/Schauspiel-Bereich stattfinden, eine auditive Wahrnehmung von Quellpositionen zu schaffen, wobei übliche normale Beschallungsanlagen, die lediglich darauf ausgerichtet sind, eine ausreichende Versorgung des gesamten Zuhörerbereichs mit Lautstärke zu schaffen, durch rich- tungsgebende Lautsprechersysteme und deren Steuerung ergänzt werden sollen.

Typischerweise werden mittlere bis große Auditorien mit Stereo oder Mono und vereinzelt mit 5.1-Surround-Technik versorgt. Typischerweise sind die Lautsprecher neben oder über dem Zuhörer angeordnet und können richtige Richtungs- Informationen der Quellen nur für einen kleinen Zuhörerbereich wiedergeben. Die meisten Zuhörer erhalten einen falschen Richtungseindruck.

Darüber hinaus existieren jedoch auch Delta- Stereophoniesysteme (DSS) , die einen Richtungsbezug entsprechend dem Gesetz der ersten Schallwellenfront erzeugen. Die DD 242954 A3 offenbart ein Großraumbeschallungssystem für größere Räume und Flächen, bei denen Aktions- bzw. Dar- bietungs- und Rezeptions- bzw. Hörraum direkt aneinander grenzt bzw. identisch sind. Die Beschallung wird nach Laufzeitprinzipien vorgenommen. Insbesondere vorkommende Fehlzuordnungen und Sprungeffekte bei Bewegungen, die besonders bei wichtigen solistischen Schallquellen störend auftreten, werden vermieden, indem eine Laufzeitstaffelung ohne be- grenzte Quellbereiche realisiert wird und die Schalleistung der Quellen berücksichtigt wird. Eine Steuervorrichtung, die mit den Verzögerungs- bzw. Verstärkungseinrichtungen verbunden ist, steuert diese analog den Schallwegen zwischen den Quellen- und Schallstrahlerorten. Hierzu wird ei- ne Position einer Quelle gemessen und dazu verwendet, um Lautsprecher gemäß Verstärkung und Verzögerung entsprechend einzustellen. Ein Wiedergabeszenario umfasst mehrere voneinander abgegrenzte Lautsprechergruppen, die jeweils angesteuert werden.

Die Delta-Stereophonie führt dazu, dass in der Nähe der realen Schallquelle (z. B. auf einer Bühne ) eine oder mehrere richtungsgebende Lautsprecher vorhanden sind, welche in weiten Teilen des Zuschauergebiets einen Ortungsbezug rea- lisieren. Es ist eine annähernd natürliche Richtungswahrnehmung möglich. Diese Lautsprecher sind zeitlich nach dem richtungsgebenden Lautsprecher angesteuert, um den Ortsbezug zu realisieren. Dadurch wird immer erst der richtungs-

gebende Lautsprecher wahrgenommen und somit eine Lokalisation möglich, wobei dieser Zusammenhang auch als das „Gesetz der ersten Wellenfront" bezeichnet wird.

Die Stützlautsprecher werden als Punktquelle wahrgenommen. Es ergibt sich eine Differenz zur tatsächlichen Position des Schallemitters, also der Originalquelle, wenn z.B. ein Solist nicht direkt vor oder neben dem Stützlautsprecher steht, sondern von dem Stützlautsprecher entfernt angeord- net ist.

Bewegt sich daher eine Schallquelle zwischen zwei Stützlautsprechern, so muss zwischen unterschiedlich angeordneten solchen Stützlautsprechern geblendet werden. Dies be- trifft sowohl den Pegel als auch die Zeit. Dagegen kann durch Wellenfeldsynthese-Anlagen ein realer Richtungsbezug über virtuelle Schallquellen erreicht werden.

Nachfolgend wird zum besseren Verständnis der vorliegenden Erfindung auf die Wellenfeldsynthese-Technik näher eingegangen.

Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser

Technologie, die so genannte Wellenfeldsynthese (WFS; WFS = Wave-Field Synthesis) , wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt (Berkhout, A. J.; de Vries, D.; Vogel, P.: Acoustic control by Wave- field Synthesis. JASA 93, 1993).

Infolge der enormen Anforderungen dieser Methode an Rechnerleistung und übertragungsraten wurde die Wellenfeldsynthese bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser Technologie in konkreten Anwendungen. Erste Produkte im professionellen Bereich werden dieses Jahr erwartet. In we-

nigen Jahren sollen auch erste Wellenfeldsynthese- Anwendungen für den Consumerbereich auf den Markt kommen.

Die Grundidee von WFS basiert auf der Anwendung des Huy- gens' sehen Prinzips der Wellentheorie:

Jeder Punkt, der von einer Welle erfasst wird, ist Ausgangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.

Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray) , jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachs- ten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzögerung und Amplitudenskalierung so gespeist werden, dass sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für jede Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. Befinden sich die wiederzugebenden Quellen in einem Raum mit reflektierenden Wänden, dann müssen auch Reflexionen als zusätz- liehe Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der Schallquellen, den Reflexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab.

Der Vorteil dieser Technik liegt im Besonderen darin, dass ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von Schallquellen sehr exakt wiedergegeben. In beschränktem Ma- ße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.

Obgleich die Wellenfeldsynthese für Umgebungen gut funktioniert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umge- bungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt.

Eine Umgebungsbeschaffenheit kann durch die Impulsantwort der Umgebung beschrieben werden.

Dies wird anhand des nachfolgenden Beispiels näher dargelegt. Es wird davon ausgegangen, dass ein Lautsprecher ein Schallsignal gegen eine Wand aussendet, deren Reflexion unerwünscht ist. Für dieses einfache Beispiel würde die Raum- kompensation unter Verwendung der Wellenfeldsynthese darin bestehen, dass zunächst die Reflexion dieser Wand bestimmt wird, um zu ermitteln, wann ein Schallsignal, das von der Wand reflektiert worden ist, wieder beim Lautsprecher ankommt, und welche Amplitude dieses reflektierte Schallsig- nal hat. Wenn die Reflexion von dieser Wand unerwünscht ist, so besteht mit der Wellenfeldsynthese die Möglichkeit, die Reflexion von dieser Wand zu eliminieren, indem dem Lautsprecher ein zu dem Reflexionssignal gegenphasiges Signal mit entsprechender Amplitude zusätzlich zum ursprüngli- chen Audiosignal eingeprägt wird, so dass die hinlaufende Kompensationswelle die Reflexionswelle auslöscht, derart, dass die Reflexion von dieser Wand in der Umgebung, die betrachtet wird, eliminiert ist. Dies kann dadurch geschehen, dass zunächst die Impulsantwort der Umgebung berechnet wird und auf der Basis der Impulsantwort dieser Umgebung die Beschaffenheit und Position der Wand bestimmt wird, wobei die Wand als Spiegelquelle interpretiert wird, also als Schallquelle, die einen einfallenden Schall reflektiert.

Wird zunächst die Impulsantwort dieser Umgebung gemessen und wird dann das Kompensationssignal berechnet, das dem Audiosignal überlagert dem Lautsprecher eingeprägt werden muss, so wird eine Aufhebung der Reflexion von dieser Wand

stattfinden, derart, dass ein Hörer in dieser Umgebung schallmäßig den Eindruck hat, dass diese Wand überhaupt nicht existiert.

Entscheidend für eine optimale Kompensation der reflektierten Welle ist jedoch, dass die Impulsantwort des Raums genau bestimmt wird, damit keine über- oder Unterkompensation auftritt .

Die Wellenfeldsynthese ermöglicht somit eine korrekte Abbildung von virtuellen Schallquellen über einen großen Wiedergabebereich. Gleichzeitig bietet sie dem Tonmeister und Toningenieur neues technisches und kreatives Potential bei der Erstellung auch komplexer Klanglandschaften. Die WeI- lenfeldsynthese (WFS oder auch Schallfeldsynthese) , wie sie Ende der 80-er Jahre an der TU Delft entwickelt wurde, stellt einen holographischen Ansatz der Schallwiedergabe dar. Als Grundlage hierfür dient das Kirchhoff-Helmholtz- Integral. Dieses besagt, dass beliebige Schallfelder inner- halb eines geschlossenen Volumens mittels einer Verteilung von Monopol- und Dipolschallquellen (Lautsprecherarrays) auf der Oberfläche dieses Volumens erzeugt werden können. Details hierzu finden sich in M. M. Boone, E. N. G. Verheijen, P. F. v. ToI, „Spatial Sound-Field Reproduction by Wave- Field Synthesis", Delft University of Technology Laboratory of Seismics and Acoustics, Journal of J. Audio Eng. Soc, Bd. 43, Nr. 12, Dezember 1995 und Diemer de Vries, „Sound Reinforcement by Wavefield Synthesis: Adaption of the Syn- thesis Operator to the Loudspeaker Directivity Characteris- tics", Delft University of Technology Laboratory of Seismics and Acoustics, Journal of J. Audio Eng. Soc, Bd. 44, Nr. 12, Dezember 1996.

Bei der Wellenfeldsynthese wird aus einem Audiosignal, das eine virtuelle Quelle an einer virtuellen Position aussendet, eine Synthesesignal für jeden Lautsprecher des Lautsprecherarrays berechnet, wobei die Synthesesignale derart hinsichtlich Amplitude und Phase gestaltet sind, dass eine

Welle, die sich aus der überlagerung der einzelnen durch die im Lautsprecherarray vorhandenen Lautsprecher ausgegebenen Schallwelle ergibt, der Welle entspricht, die von der virtuellen Quelle an der virtuellen Position herrühren wür- de, wenn diese virtuelle Quelle an der virtuellen Position eine reale Quelle mit einer realen Position wäre.

Typischerweise sind mehrere virtuelle Quellen an verschiedenen virtuellen Positionen vorhanden. Die Berechnung der Synthesesignale wird für jede virtuelle Quelle an jeder virtuellen Position durchgeführt, so dass typischerweise eine virtuelle Quelle in Synthesesignalen für mehrere Lautsprecher resultiert. Von einem Lautsprecher aus betrachtet empfängt dieser Lautsprecher somit mehrere Synthesesignale, die auf verschiedene virtuelle Quellen zurückgehen. Eine

überlagerung dieser Quellen, die aufgrund des linearen Superpositionsprinzips möglich ist, ergibt dann das von dem Lautsprecher tatsächlich ausgesendete Wiedergabesignal.

Die Möglichkeiten der Wellenfeldsynthese können um so besser ausgeschöpft werden, je geschlossener die Lautsprecher- arrays sind, d. h. um so mehr einzelne Lautsprecher möglichst nah beieinander angeordnet werden können. Damit steigt jedoch auch die Rechenleistung, die eine Wellenfeld- syntheseeinheit vollbringen muss, da typischerweise auch Kanalinformationen berücksichtigt werden müssen. Dies bedeutet im einzelnen, dass von jeder virtuellen Quelle zu jedem Lautsprecher prinzipiell ein eigener übertragungskanal vorhanden ist, und dass prinzipiell der Fall vorhanden sein kann, dass jede virtuelle Quelle zu einem Synthesesignal für jeden Lautsprecher führt, bzw. dass jeder Lautsprecher eine Anzahl von Synthesesignalen erhält, die gleich der Anzahl von virtuellen Quellen ist.

Darüber hinaus sei an dieser Stelle angemerkt, dass die

Qualität der Audiowiedergabe mit der Anzahl der zur Verfügung gestellten Lautsprecher steigt. Dies bedeutet, dass die Audiowiedergabequalität um so besser und realistischer

wird, um so mehr Lautsprecher in dem bzw. den Lautsprecher- arrays vorhanden sind.

Im obigen Szenario könnten die fertig gerenderten und Ana- log-Digital-gewandelten Wiedergabesignale für die einzelnen Lautsprecher beispielsweise über Zweidrahtleitungen von der Wellenfeldsynthese-Zentraleinheit zu den einzelnen Lautsprechern übertragen werden. Dies hätte zwar den Vorteil, dass nahezu sichergestellt ist, dass alle Lautsprecher synchron arbeiten, so dass hier zu Synchronisationszwecken keine weiteren Maßnahmen erforderlich wären. Andererseits könnte die Wellenfeldsynthese-Zentraleinheit immer nur für einen speziellen Wiedergaberaum bzw. für eine Wiedergabe mit einer festgelegten Anzahl von Lautsprechern hergestellt werden. Dies bedeutet, dass für jeden Wiedergaberaum eine eigene Wellenfeldsynthese-Zentraleinheit gefertigt werden müsste, die ein erhebliches Maß an Rechenleistung zu vollbringen hat, da die Berechnung der Audiowiedergabesignale insbesondere im Hinblick auf viele Lautsprecher bzw. viele virtuelle Quellen zumindest teilweise parallel und in Echtzeit erfolgen muss.

Die Delta-Stereophonie ist insbesondere problematisch, da sich beim überblenden zwischen unterschiedlichen Schall- quellen Positionen-Artefakte durch Phasen- und Pegelfehler einstellen. Ferner kommen bei unterschiedlichen Bewegungsgeschwindigkeiten der Quellen Phasenfehler und Fehllokali- sationen vor. Darüber hinaus ist das überblenden von einem Stützlautsprecher zu einem anderen Stützlautsprecher mit einem sehr großen Aufwand an Programmierung verbunden, wobei zugleich Probleme bestehen, die übersicht über die ganze Audioszene zu bewahren, insbesondere wenn mehrere Quellen von verschiedenen Stützlautsprechern hin- und hergeblendet werden, und wenn insbesondere viele Stützlautspre- eher, die unterschiedlich angesteuert werden können, existieren .

Ferner sind die Wellenfeldsynthese einerseits und die Delta-Stereophonie andererseits eigentlich gegenläufige Verfahren, während jedoch beide Systeme in unterschiedlichen Anwendungen Vorteile haben können.

So ist die Delta-Stereophonie wesentlich weniger aufwendig bezüglich der Berechnung der Lautsprechersignale als die Wellenfeldsynthese . Andererseits kann aufgrund der Wellen- feldsynthese artefaktfrei gearbeitet werden. Jedoch können Wellenfeldsynthesearrays wegen des Platzbedarfs und der Anforderung an ein Array mit eng beabstandeten Lautsprechern nicht überall eingesetzt werden. Insbesondere im Bereich der Bühnentechnik ist es sehr problematisch, auf der Bühne ein Lautsprecherband oder ein Lautsprecherarray anzuordnen, da solche Lautsprecherarrays schlecht versteckt werden können und damit sichtbar sind und den visuellen Eindruck der Bühne beeinträchtigen. Dies ist insbesondere dann problematisch, wenn, wie es bei Theater/Musical-Aufführungen normalerweise der Fall ist, der visuelle Eindruck einer Bühne Vorrang vor allen anderen Angelegenheiten, und insbesondere vor dem Ton bzw. der Tonerzeugung hat. Andererseits ist durch die Wellenfeldsynthese kein festes Raster an Stützlautsprechern vorgegeben, sondern es kann kontinuierlich eine Bewegung einer virtuellen Quelle stattfinden. Ein Stützlautsprecher kann sich dagegen nicht bewegen. Die Bewegung des Stützlautsprechers kann jedoch durch Richtungsblendung virtuell erzeugt werden.

Beschränkungen der Delta-Stereophonie liegen also insbeson- dere darin, dass die Anzahl der möglichen Stützlautsprecher, die in einer Bühne untergebracht werden, aus Aufwandsgründen (abhängig vom Bühnenbild) und Soundverwaltungsgründen begrenzt ist. Darüber hinaus benötigt jeder Stützlautsprecher, wenn er nach dem Prinzip der ersten WeI- lenfront arbeiten soll, weitere Lautsprecher, die die nötige Lautstärke erzeugen. Hierin besteht gerade der Vorteil der Delta-Stereophonie, dass eigentlich ein relativ kleiner und damit gut unterbringbarer Lautsprecher zur Lokalisati-

onserzeugung ausreicht, während jedoch viele weitere Lautsprecher, die in der Nähe angeordnet sind, dazu dienen, die nötige Lautstärke für den Zuhörer zu erzeugen, der ja in einem relativ großen Zuhörerraum ziemlich weit hinten sit- zen kann.

Man kann daher sämtliche Lautsprecher auf der Bühne unterschiedlichen Richtungsgebieten zuordnen, wobei jedes Richtungsgebiet einen Lokalisationslautsprecher (oder eine kleine Gruppe von gleichzeitig angesteuerten Lokalisations- lautsprechern) hat, der ohne oder mit nur einer geringen Delay angesteuert wird, während die anderen Lautsprecher der Richtungsgruppe mit demselben Signal, aber zeitverzögert angesteuert werden, um die nötige Lautstärke zu erzeu- gen, während der Lokalisationslautsprecher die genau definierte Lokalisation geliefert hatte.

Nachdem man eine ausreichende Lautstärke braucht, ist die Anzahl der Lautsprecher in einer Richtungsgruppe nach unten hin nicht beliebig reduzierbar. Andererseits hätte man gerne sehr viele Richtungsgebiete, um eine kontinuierliche Schallversorgung wenigstens anzustreben. Aufgrund der Tatsache, dass jedes Richtungsgebiet neben dem Lokalisationslautsprecher auch genügend Lautsprecher benötigt, um eine ausreichende Lautstärke zu erzeugen, ist die Anzahl der Richtungsgebiete begrenzt, wenn ein Bühnenraum in aneinander angrenzende nicht-überlappende Richtungsgebiete eingeteilt wird, wobei jedem Richtungsgebiet ein Lokalisationslautsprecher oder eine kleine Gruppe von eng aneinander be- nachbarten Lokalisationslautsprechern zugeordnet ist.

Typische Delta-Stereophonie-Konzepte basieren darauf, dass zwischen zwei Orten übergeblendet wird, wenn sich eine Quelle von einem Ort zum anderen Ort bewegen soll. Dieses Konzept ist dann problematisch, wenn z. B. manuell in ein programmiertes Set-Up eingegriffen werden soll, oder wenn eine Fehlerkorrektur stattzufinden hat. Stellt sich nämlich beispielsweise heraus, dass sich ein Sänger nicht an die

vereinbarte Route über die Bühne hält, sondern anders läuft, so wird zunehmend eine Abweichung zwischen der wahrgenommenen Position und der tatsächlichen Position des Sängers stattfinden, was natürlich nicht erstrebenswert ist.

Wird für einen solchen Fall eine Korrektureingriffsmöglichkeit gewünscht, so könnte ein Benutzer zu Korrekturzwecken eingeben, dass die Audio-Position zu einem bestimmten Zeitpunkt oder unmittelbar der tatsächlichen Position des Sän- gers auf der Bühne entsprechen soll. Dies würde jedoch einen harten Quellensprung mit sich führen, der unter Umständen zu noch größeren Artefakten führen würde als die Nicht- übereinstimmung der Audioquelle und der wahrgenommenen Audioquelle .

Um einen solchen Sprung zu vermeiden, könnte man den bereits angefangenen überblendungsprozess vollenden, um dann, ausgehend von einer Position innerhalb eines Richtungsgebiets also nach einem kompletten überblendvorgang das Ziel des nächsten überblendvorgangs zu korrigieren. Damit würde sichergestellt werden, dass keine harten Sprünge auftreten. Allerdings ist an diesem Konzept nachteilhaft, dass keine Möglichkeit besteht, innerhalb eines überblendvorgangs einzugreifen. Es wird also zu einer erheblichen Verzögerung kommen, insbesondere dann, wenn ein relativ langer überblendvorgang gerade läuft, nämlich z. B. von einer Quelle ganz links auf der Bühne zu einer Quelle ganz rechts auf einer großen Bühne. Dies führt dazu, dass ein relativ langer Zeitabschnitt existiert, in dem die wahrgenommene von der tatsächlichen Position der Audioquelle abweicht. Ferner muss natürlich die tatsächliche Position, die vielleicht bereits wieder in Bewegung ist, eingeholt werden, was nur durch einen relativ schnellen Durchlauf einer Quelle über die Bühne zur gesuchten Position bewerkstelligt werden kann. Dieser sehr schnelle Durchlauf kann wiederum zu Artefakten führen, oder führt zumindest dazu, dass sich ein Benutzer wundert, warum sich die wahrgenommenen Audioposition

so stark bewegt, obgleich sich der Sänger selbst nicht oder nur wenig bewegt hat.

Die Aufgabe der vorliegenden Erfindung besteht darin, ein flexibles und doch Artefakt-reduziertes Konzept zum Steuern einer Mehrzahl von Lautsprechern zu schaffen.

Diese Aufgabe wird durch eine Vorrichtung zum Steuern einer Mehrzahl von Lautsprechern gemäß Patentanspruch 1, ein Ver- fahren zum Steuern einer Mehrzahl von Lautsprechern gemäß Patentanspruch 15 oder ein Computer-Programm gemäß Patentanspruch 16 gelöst.

Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass eine Artefakt-reduzierte und schnelle manuelle Eingriffsmöglichkeit in den Verlauf der Bewegung von Quellen dadurch erreicht wird, dass ein Kompensationspfad zugelassen wird, auf dem sich eine Quelle bewegen kann. Der Kompensationspfad unterscheidet sich vom normalen Quellenpfad dadurch, dass er nicht an einer Richtungsgruppenposition beginnt, sondern dass er an einer Verbindungslinie zwischen zwei Richtungsgruppen, und zwar an irgendeiner beliebigen Stelle dieser Verbindungslinie beginnt und sich von dort zu einer neuen Ziel-Richtungsgruppe erstreckt. Dadurch ist es nicht mehr möglich, eine Quelle durch die Angabe von zwei Richtungsgruppen zu beschreiben, sondern die Quelle muss durch wenigstens drei Richtungsgruppen beschrieben werden, wobei bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung eine Positionsbeschreibung der Quelle eine Identifikation der drei beteiligten Richtungsgruppen sowie zwei Blend-Faktoren umfasst, wobei der erste Blend-Faktor angibt, wo auf dem Quellenpfad „abgebogen" worden ist, und wobei der zweite Blend-Faktor angibt, wo sich die Quelle gerade auf dem Kompensationspfad befindet, also wie weit die Quelle bereits vom Quellenpfad entfernt ist bzw. wie lange die Quelle noch bis zur neuen Ziel-Richtung laufen muss .

Die Berechnung der Gewichtungsfaktoren für die Lautsprecher der drei beteiligten Richtungsgebiete findet erfindungsgemäß basierend auf dem Quellenpfad, dem gespeicherten Wert des Quellenpfadparameters und Informationen über den Kom- pensationspfad statt. Die Informationen über den Kompensationspfad können das neue Ziel an sich oder aber den zweiten Blend-Faktor umfassen. Ferner kann für die Bewegung der Quelle auf dem Kompensationspfad eine vordefinierte Geschwindigkeit verwendet werden, die systemmäßig vorgegeben sein kann, da die Bewegung auf dem Kompensationspfad typischerweise eine Kompensationsbewegung ist, die nicht von der Audioszene abhängt, sondern die dazu da ist, etwas in einer vorprogrammierten Szene zu ändern bzw. zu korrigieren. Aus diesem Grund wird die Geschwindigkeit der Audio- quelle auf dem Kompensationspfad typischerweise relativ schnell stattfinden, jedoch nicht so schnell, dass problematische hörbare Artefakte auftreten.

Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist die Einrichtung zum Berechnen der Gewichtungsfaktoren ausgebildet, um Gewichtungsfaktoren zu berechnen, die linear von den Blend-Faktoren abhängen. Alternative Konzepte, wie beispielsweise nicht-lineare Abhängigkeiten im Sinne einer Sinus 2 -Funktion oder eine Kosinus 2 - Funktion können jedoch ebenfalls verwendet werden.

Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung umfasst die Vorrichtung zum Steuern der Mehrzahl von Lautsprechern ferner eine Sprungkompensationseinrich- tung, die vorzugsweise hierarchisch basierend auf verschiedenen zur Verfügung gestellten Kompensationsstrategien arbeitet, um einen harten Quellensprung mittels eines Sprung- kompensations-Pfads zu vermeiden.

Ein bevorzugtes Ausführungsbeispiel basiert darauf, dass von den aneinander angrenzenden Richtungsgebieten, die das „Raster" der gut lokalisierbaren Bewegungspunkte auf einer Bühne festlegen, weggegangen werden muss. So war aufgrund

der Forderung, dass die Richtungsgebiete nicht überlappend sind, damit klare Verhältnisse bei der Ansteuerung vorhanden sind, die Anzahl der Richtungsgebiete begrenzt, da jedes Richtungsgebiet neben dem Lokalisationslautsprecher auch eine genügend große Anzahl von Lautsprechern benötigte, um neben der ersten Wellenfront, die durch den Lokalisationslautsprecher erzeugt wird, auch eine ausreichende Lautstärke zu erzeugen.

Vorzugsweise wird eine Einteilung des Bühnenraums in einander überlappende Richtungsgebiete vorgenommen, wobei damit die Situation entsteht, dass ein Lautsprecher nicht nur zu einem einzigen Richtungsgebiet gehören kann, sondern zu einer Mehrzahl von Richtungsgebieten, also wie beispielsweise zu zumindest dem ersten Richtungsgebiet und dem zweiten Richtungsgebiet und gegebenenfalls zu einem dritten oder einem weiteren vierten Richtungsgebiet.

Die Zugehörigkeit eines Lautsprechers zu einem Richtungsge- biet erfährt der Lautsprecher dadurch, dass ihm dann, wenn er zu einem Richtungsgebiet gehört, ein bestimmter Lautsprecherparameter, der durch das Richtungsgebiet bestimmt ist, zugeordnet ist. Ein solcher Lautsprecherparameter kann eine Verzögerung sein, die für die Lokalisationslautspre- eher des Richtungsgebiets klein sein wird und für die anderen Lautsprecher des Richtungsgebiets größer sein wird. Ein weiterer Parameter kann eine Skalierung sein oder eine Filterkurve, die durch einen Filterparameter (Equalizerparameter) bestimmt sein kann.

Typischerweise wird hier jeder Lautsprecher auf einer Bühne einen eigenen Lautsprecherparameter haben, und zwar abhängig davon, zu welchem Richtungsgebiet er gehört. Diese Werte der Lautsprecherparameter, die davon abhängen, zu wel- chem Richtungsgebiet der Lautsprecher gehört, werden typischerweise bei einem Soundcheck von einem Toningenieur teils heuristisch teils empirisch für einen speziellen Raum

festgelegt und dann, wenn der Lautsprecher arbeitet, eingesetzt.

Nachdem jedoch zugelassen wird, dass ein Lautsprecher zu mehreren Richtungsgebieten gehören kann, hat der Lautsprecher für den Lautsprecherparameter zwei unterschiedliche Werte. So würde ein Lautsprecher, wenn er zu Richtungsgebiet A gehört, eine erste Delay DA haben. Der Lautsprecher hätte jedoch dann, wenn er zu dem Richtungsgebiet B gehört, einen anderen Delay-Wert DB.

So wird nunmehr dann, wenn von der Richtungsgruppe A in eine Richtungsgruppe B gegangen werden soll, bzw. wenn eine Position einer Schallquelle wiedergegeben werden soll, die zwischen der Richtungsgebietsposition A der Richtungsgruppe A und der Richtungsgebietsposition B der Richtungsgruppe B liegt, die Lautsprecherparameter verwendet, um das Audiosignal für diesen Lautsprecher und für die gerade betrachtete Audioquelle zu verwenden. Erfindungsgemäß wird der ei- gentlich unauflösliche Widerspruch, nämlich dass ein Lautsprecher zwei unterschiedliche Delay-Einstellungen, Skalierungs-Einstellungen oder Filtereinstellungen hat, dadurch ausgeräumt, dass zur Berechnung des Audiosignals, das von dem Lautsprecher ausgegeben werden soll, die Lautsprecher- Parameterwerte für alle beteiligten Richtungsgruppen verwendet werden.

Vorzugsweise hängt die Berechnung des Audiosignals von dem Abstandmaß ab, also von der räumlichen Position zwischen den beiden Richtungsgruppenpositionen, wobei das Abstandsmaß typischerweise ein Faktor sein wird, der zwischen Null und Eins liegt, wobei ein Faktor von Null bestimmt, dass der Lautsprecher bei der Richtungsgruppenposition A ist, während ein Faktor von Eins bestimmt, dass der Lautsprecher auf der Richtungsgruppenposition B ist.

Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird abhängig davon, wie schnell sich eine Quelle

zwischen der Richtungsgruppenposition A und der Richtungsgruppenposition B bewegt, eine echte Lautsprecherparameterwertinterpolation vorgenommen oder eine überblendung eines Audiosignals, das auf dem ersten Lautsprecherparameter ba- siert, in ein Lautsprechersignal, das auf dem zweiten Lautsprecherparameter basiert. Insbesondere bei Delay- Einstellungen, also bei einem Lautsprecherparameter, der eine Delay des Lautsprechers (bezüglich einer Bezugsdelay) wiedergibt, muss besonders darauf geachtet werden, ob In- terpolation oder überblendung eingesetzt wird. Wird nämlich bei einer sehr schnellen Bewegung einer Quelle eine Interpolation verwendet, so führt dies zu hörbare Artefakten, die zu einem schnell ansteigenden Ton oder zu einem schnell abfallenden Ton führen werden. Für schnelle Bewegungen von Quellen wird daher eine überblendung bevorzugt, die zwar zu Kammfiltereffekten führt, die jedoch aufgrund der schnellen überblendung nicht bzw. kaum hörbar sind. Andererseits wird für langsame Bewegungsgeschwindigkeiten die Interpolation bevorzugt, um die bei langsamen überblendungen auftretenden Kammfiltereffekte, die zudem noch deutlich hörbar werden, zu vermeiden. Um weitere Artefakte, wie ein Knacksen, das hörbar wäre, bei der „Umschaltung" von Interpolation auf überblendung zu vermeiden, wird ferner das Umschalten nicht schlagartig, also von einem Sample zum nächsten vorgenom- men, sondern es wird, gesteuert von einem Umschaltparameter, eine überblendung innerhalb eines überblendungsbereich, der mehrere Samples umfassen wird, basierend auf einer überblendungsfunktion, die vorzugsweise linear ist, die jedoch auch nichtlinear z. B. trigonometrisch sein kann, vorgenommen.

Bei einem weiteren bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird eine graphische Benutzerschnittstelle zur Verfügung gestellt, auf der Wege einer Schall- quelle von einem Richtungsgebiet zu einem anderen Richtungsgebiet graphisch dargestellt sind. Vorzugsweise werden auch Kompensationspfade berücksichtigt, um schnelle Veränderungen des Wegs einer Quelle zu erlauben, bzw. um harte

Sprünge von Quellen, wie sie bei Szenenumbrüchen auftreten könnten, zu vermeiden. Der Kompensationspfad stellt sicher, dass ein Weg einer Quelle nicht nur dann geändert werden kann, wenn sich die Quelle in der Richtungsposition befin- det, sondern auch dann, wenn sich die Quelle zwischen zwei Richtungspositionen befindet. Damit wird sichergestellt, dass eine Quelle von ihrem programmierten Weg auch zwischen zwei Richtungspositionen abbiegen kann. In anderen Worten ausgedrückt wird dies insbesondere dadurch erreicht, dass die Position einer Quelle durch drei (benachbarte) Richtungsgebiete definierbar ist, und zwar insbesondere durch Identifikation der drei Richtungsgebiete sowie die Angabe von zwei Blend-Faktoren .

Bei einem weiteren bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird dort, wo Wellenfeldsynthese, Laut- sprecherarrays möglich sind, im Beschallungsraum ein WeI- lenfeldsynthese-Array angebracht, das ebenfalls durch Angabe einer virtuellen Position (z.B. in der Mitte des Arrays) ein Richtungsgebiet mit einer Richtungsgebietsposition darstellt.

Damit wird dem Benutzer der Anlage die Entscheidung abgenommen, ob es sich bei einer Schallquelle um eine Wellen- feldsynthese-Schallquelle oder eine Delta-Stereophonie- Schallquelle handelt.

Somit wird ein benutzerfreundliches und flexibles System geschaffen, das eine flexible Einteilung eines Raums in Richtungsgruppen ermöglicht, da Richtungsgruppenüberlappungen zugelassen werden, wobei Lautsprecher in einer solchen überlappungszone im Hinblick auf ihre Lautsprecherparameter mit von den zu den Richtungsgebieten gehörigen Lautsprecherparametern abgeleiteten Lautsprecherparametern versorgt werden, wobei diese Ableitung vorzugsweise durch Interpolation oder überblendung erfolgt. Alternativ könnte auch eine harte Entscheidung vorgenommen werden, z.B. dann, wenn sich die Quelle näher an dem einen Richtungsgebiet befindet, den

einen Lautsprecherparameter zu nehmen, um dann, wenn sich die Quelle näher an dem anderen Richtungsgebiet befindet, den anderen Lautsprecherparameter zu nehmen, wobei der dann auftretende harte Sprung zur Artefaktreduktion einfach ge- glättet werden könnte. Eine Abstands-gesteuerte überblendung oder eine Abstands-gesteuerte Interpolation wird jedoch bevorzugt.

Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:

Fig. 1 eine Einteilung eines Beschallungsraums in überlappende Richtungsgruppen;

Fig. 2a eine schematische Lautsprecherparameter-Tabelle für Lautsprecher in den verschiedenen Bereichen;

Fig. 2b eine speziellere Darstellung der für die Laut- sprecherparameter-Verarbeitung nötigen Schritte für die verschiedenen Bereiche;

Fig. 3a eine Darstellung einer linearen Zwei-Wege- überblendung;

Fig. 3b eine Darstellung einer Drei-Wege-überblendung;

Fig. 4 ein schematisches Blockschaltbild der Vorrichtung zum Ansteuern einer Mehrzahl von Lautsprechern mit einem DSP;

Fig. 5 eine detailliertere Darstellung der Einrichtung zum Berechnen eines Lautsprechersignals von Fig. 4 gemäß einem bevorzugten Ausführungsbeispiel;

Fig. 6 eine bevorzugte Implementierung eines DSP zur Implementierung der Delta-Stereophonie;

Fig. 7 eine schematische Darstellung des Zustandekommens eines Lautsprechersignals aus mehreren Einzel- Lautsprechersignalen, die von verschiedenen Audioquellen herrühren;

Fig. 8 eine schematische Darstellung einer Vorrichtung zum Steuern einer Mehrzahl von Lautsprechern, die auf einer graphischen Benutzerschnittstelle basieren kann;

Fig. 9a ein typisches Szenario der Bewegung einer Quelle zwischen einer ersten Richtungsgruppe A und einer zweiten Richtungsgruppe C;

Fig. 9b eine schematische Darstellung der Bewegung gemäß einer Kompensationsstrategie, um einen harten Sprung einer Quelle zu vermeiden;

Fig. 9c eine Legende für die Figuren 9d bis 9i;

Fig. 9d eine Darstellung der Kompensationsstrategie „In- pathDual";

Fig.9e eine schematische Darstellung der Kompensations- Strategie „InpathTriple" ;

Fig. 9f eine schematische Darstellung der Kompensationsstrategien AdjacentA, AdjacentB, AdjacentC;

Fig. 9g eine schematische Darstellung der Kompensationsstrategien OutsideM und OutsideC;

Fig. 9h eine schematische Darstellung eines Cader- Kompensationspfads;

Fig. 9i eine schematische Darstellung von drei Cader- KompensationsStrategien;

Fig. 10a eine Darstellung zur Definition des Quellenpfads (DefaultSector) und des Kompensationspfads (Com- pensationSector) ;

Fig. 10b eine schematische Darstellung der Rückwärtsbewegung einer Quelle mit dem Cader mit geändertem Kompensationspfad;

Fig. 10c eine Darstellung der Auswirkung von BlendAC auf die anderen Blend-Faktoren;

Fig. 10d eine schematische Darstellung zum Berechnen der Blend-Faktoren und damit der Gewichtungsfaktoren abhängig von BlendAC;

Fig. IIa eine Darstellung einer Input/Output-Matrix für dynamische Quellen; und

Fig. IIb eine Darstellung einer Input/Output-Matrix für statische Quellen.

Fig. 1 zeigt eine schematische Darstellung eines Bühnenraums, der in drei Richtungsgebiete RGA, RGB und RGC eingeteilt ist, wobei jedes Richtungsgebiet einen geometrischen Bereich 10a, 10b, 10c der Bühne umfasst, wobei die Bereichsgrenzen nicht entscheidend sind. Lediglich entscheidend ist, ob sich Lautsprecher in den verschiedenen Bereichen befinden, die in Fig. 1 gezeigt sind. Im Bereich I befindliche Lautsprecher gehören bei dem in Fig. 1 gezeigten Beispiel nur zur Richtungsgruppe A, wobei die Position der Richtungsgruppe A bei IIa bezeichnet ist. Per Definition wird der Richtungsgruppe RGA die Position IIa zugewiesen, an der vorzugsweise der Lautsprecher der Richtungsgruppe A vorhanden ist, der nach dem Gesetz der ersten Wellenfront eine Verzögerung hat, die kleiner als die Verzögerungen sämtlicher anderer Lautsprecher ist, die der Richtungsgruppe A zugeordnet sind. Im Bereich II befinden sich Lautsprecher, die nur der Richtungsgruppe RGB zugeordnet sind, die

definitionsgemäß eine Richtungsgruppenposition IIb hat, an der sich der Stützlautsprecher der Richtungsgruppe RGB befindet, der eine kleinere Delay als alle anderen Lautsprecher der Richtungsgruppe RGB hat. In einem Bereich III be- finden sich wiederum nur Lautsprecher, die der Richtungsgruppe C zugeordnet sind, wobei die Richtungsgruppe C per Definition eine Position 11c hat, an der der Stützlautsprecher der Richtungsgruppe RGC angeordnet ist, der mit einem kürzeren Delay als alle anderen Lautsprecher der Richtungs- gruppe RGC senden wird.

Darüber hinaus existiert bei der in Fig. 1 gezeigten Einteilung des Bühnenraums in Richtungsgebiete ein Bereich IV, in dem Lautsprecher angeordnet sind, die sowohl der Rich- tungsgruppe RGA als auch der Richtungsgruppe RGB zugeordnet sind. Entsprechend existiert ein Bereich V, in dem Lautsprecher angeordnet sind, die sowohl der Richtungsgruppe RGA als auch der Richtungsgruppe RGC zugeordnet sind.

Ferner existiert ein Bereich VI, in dem Lautsprecher angeordnet sind, die sowohl der Richtungsgruppe RGC als auch der Richtungsgruppe RGB zugeordnet sind. Schließlich existiert ein überlappungsbereich zwischen allen drei Richtungsgruppen, wobei dieser überlappungsbereich VII Laut- Sprecher umfasst, die sowohl der Richtungsgruppe RGA als auch der Richtungsgruppe RGB als auch der Richtungsgruppe RGC zugeordnet sind.

Typischerweise wird jedem Lautsprecher in einem Bühnenset- ting vom Toningenieur bzw. vom für den Ton zuständigen Regisseur ein Lautsprecherparameter oder eine Mehrzahl von Lautsprecherparametern zugeordnet. Diese Lautsprecherparameter umfassen, wie es in Fig. 2a in Spalte 12 gezeigt ist, einen Delay-Parameter, einen Scale-Parameter und einen EQ- Filter-Parameter. Der Delay-Parameter D gibt an, wie stark ein Audiosignal, das von diesem Lautsprecher ausgegeben wird, bezüglich eines Referenzwerts (der für einen anderen Lautsprecher gilt, jedoch nicht unbedingt real vorhanden

sein muss) verzögert ist. Der Scale-Parameter gibt an, wie stark ein Audiosignal verstärkt oder gedämpft ist, das von diesem Lautsprecher ausgegeben wird, und zwar im Vergleich zu einem Referenzwert.

Der EQ-Filter-Parameter gibt an, wie der Frequenzgang eines Audiosignals, das von einem Lautsprecher ausgegeben werden soll, aussehen soll. So könnte für bestimmte Lautsprecher der Wunsch bestehen, die hohen Frequenzen im Vergleich zu den tiefen Frequenzen zu verstärken, was beispielsweise dann Sinn machen würde, wenn der Lautsprecher in der Nähe eines Bühnenteils liegt, das eine starke Tiefpasscharakteristik hat. Anderseits könnte für einen Lautsprecher, der in einem Bühnenbereich ist, der keine Tiefpasscharakteris- tik hat, der Wunsch bestehen, eine solche Tiefpasscharakteristik einzuführen, wobei dann der EQ-Filter-Parameter einen Frequenzgang anzeigen würde, bei dem die hohen Frequenzen bezüglich der tiefen Frequenzen gedämpft sind. Generell kann für jeden Lautsprecher jeder beliebige Frequenzgang über einen EQ-Filter-Parameter eingestellt werden.

Für alle Lautsprecher, die in den Bereichen I, II, III, angeordnet sind, gibt es nur einen einzigen Delay-Parameter Dk, Scale-Parameter Sk und EQ-Filter-Parameter Eqk. Immer dann, wenn eine Richtungsgruppe aktiv sein soll, wird das Audiosignal für einen Lautsprecher in den Bereichen I, II und III einfach unter Berücksichtigung des entsprechenden Lautsprecher-Parameters bzw. der entsprechenden Lautsprecher-Parameter berechnet.

Befindet sich dagegen ein Lautsprecher in den Bereichen IV, V, VI, so hat jeder Lautsprecher zwei zugeordnete Lautsprecher-Parameterwerte für jeden Lautsprecher-Parameter. Wenn beispielsweise nur die Lautsprecher in der Richtungsgruppe RGA aktiv sind, wenn also eine Quelle z.B. genau auf der Richtungsgruppenposition A (IIa) sitzt, so spielen nur die Lautsprecher der Richtungsgruppe A für diese Audioquelle. In diesem Fall würde zur Berechnung des Audiosignals für

den Lautsprecher die Spalte von Parameterwerte verwendet werden, die der Richtungsgruppe RGA zugeordnet ist.

Sitzt dagegen die Audioquelle z.B. genau in der Position IIb in der Richtungsgruppe RGB, so würde dann, wenn ein Audiosignal für den Lautsprecher berechnet wird, nur die Mehrzahl von Parameterwerten, die der Richtungsgruppe RGB zugeordnet sind, verwendet werden.

Ist eine Audioquelle dagegen zwischen den Quellen AB angeordnet, also an irgendeinem Punkt auf der Verbindungslinie zwischen IIa und IIb in Fig. 1, wobei diese Verbindungslinie mit 12 bezeichnet ist, so würden alle Lautsprecher, die im Bereich IV und III vorhanden sind, widersprüchliche Pa- rameterwerte umfassen.

Erfindungsgemäß wird nunmehr das Audiosignal unter Berücksichtigung beider Parameterwerte und vorzugsweise unter Berücksichtigung des Abstandsmaßes, wie später noch dargelegt werden wird, berechnet. Vorzugsweise wird eine Interpolation oder überblendung zwischen den Parameterwerten Delay und Scale vorgenommen. Ferner wird bevorzugt, eine Mischung der Filtercharakteristika durchzuführen, um auch unterschiedliche Filter-Parameter, die ein und demselben Lautsprecher zugeordnet sind, zu berücksichtigen.

Befindet sich die Audioquelle dagegen an einer Position, die nicht auf der Verbindungslinie 12 liegt, sondern z.B. unterhalb dieser Verbindungslinie 12, so müssen auch die Lautsprecher der Richtungsgruppe RGC aktiv sein. Für Lautsprecher, die im Bereich VII angeordnet sind, wird dann eine Berücksichtigung der drei typischerweise unterschiedlichen Parameter-Werte für denselben Lautsprecher-Parameter stattfinden, während für den Bereich V und den Bereich VI eine Berücksichtigung der Lautsprecher-Parameterwerte für die Richtungsgruppen A und C für ein und denselben Lautsprecher stattfinden wird.

Dieses Szenario ist in Fig. 2b noch einmal zusammengefasst . Für die Bereiche I, II, III in Fig. 1 muss keine Interpolation oder Mischung von Lautsprecher-Parameterwerten vorgenommen werden. Stattdessen können einfach die dem Lautspre- eher zugeordneten Parameterwerte genommen werden, da ein Lautsprecher in eindeutiger Zuordnung einen einzigen Satz von Lautsprecher-Parametern hat. Allerdings muss für die Bereiche IV, V und VI eine Interpolation/Mischung aus zwei unterschiedlichen Parameterwerten vorgenommen werden, um einen neuen Lautsprecher-Parameterwert für ein und denselben Lautsprecher zu haben.

Für den Bereich VII muss nicht nur bei der Berechnung des neuen Lautsprecher-Parameters eine Berücksichtigung von zwei unterschiedlichen tabellarisch typischerweise gespeicherten Lautsprecher-Parameterwerten folgen, sondern es muss eine Interpolation von drei Werten, bzw. eine Mischung aus drei Werten stattfinden.

Es sei darauf hingewiesen, dass auch überlappungen höherer Ordnung zugelassen werden können, nämlich dass ein Lautsprecher zu einer beliebigen Anzahl von Richtungsgruppen gehört.

In diesem Fall verändert sich lediglich die Anforderung an die Mischung/Interpolation und die Anforderung an die Berechnung der Gewichtungsfaktoren, auf die später noch eingegangen wird.

Nachfolgend wird auf Fig. 9a eingegangen, wobei Fig. 9a den Fall zeigt, dass sich eine Quelle vom Richtungsgebiet A (IIa) in das Richtungsgebiet C (llc) bewegt. Das Lautsprechersignal LsA für einen Lautsprecher im Richtungsgebiet A wird abhängig von der Position der Quelle zwischen A und B, also von BlendAC in Fig. 9a immer weiter reduziert, Sl nimmt von 1 auf 0 linear ab, während gleichzeitig das Lautsprechersignal der Quelle C immer weniger gedämpft wird. Dies ist daran zu sehen, dass S 2 linear von 0 auf 1 an-

steigt. Die überblendfaktoren Si, S 2 sind so gewählt, dass zu jedem Zeitpunkt die Summe der beiden Faktoren 1 ergibt. Alternative überblendungen, wie beispielsweise nichtlineare überblendungen können ebenfalls eingesetzt werden. Es wird für alle diese überblendungen bevorzugt, dass für jeden BlendAC-Wert die Summe der überblendfaktoren für die betroffenen Lautsprecher gleich 1 ist. Solche nicht-lineare Funktionen sind beispielsweise für den Faktor Sl eine COS 2 - Funktion, während für den Gewichtungsfaktor S2 eine SIN 2 - Funktion eingesetzt wird. Weitere Funktionen sind in der Technik bekannt.

Es sei darauf hingewiesen, dass die Darstellung in Fig. 3a eine komplette Fading-Vorschrift für alle Lautsprecher in den Bereichen I, II, III liefert. Es sei auch darauf hingewiesen, dass die einem Lautsprecher zugeordneten Parameter der Tabelle in Fig. 2a aus den entsprechenden Bereichen bereits in das Audiosignal AS rechts oben in Fig. 3a eingerechnet worden sind.

Fig. 3b zeigt neben dem Regelfall, der in Fig. 9a definiert worden ist, bei dem sich eine Quelle auf einer Verbindungslinie zwischen zwei Richtungsgebieten befindet, wobei die genaue Stelle zwischen dem Start- und dem Zielrichtungsge- biet durch den Blendfaktor AC beschrieben wird, den Kompensationsfall, der dann beispielsweise eintritt, wenn der Pfad einer Quelle bei laufender Bewegung geändert wird. Dann soll die Quelle von jeder aktuellen Position, die sich zwischen zwei Richtungsgebieten befindet, wobei diese Posi- tion durch BlendAB in Fig. 3b dargestellt ist, auf eine neue Position geblendet werden. Dadurch ergibt sich der Kompensationspfad, der in Fig. 3b mit 15b bezeichnet ist, während der (reguläre) Pfad ursprünglich zwischen den Richtungsgebieten A und B programmiert wurde und als Quellen- pfad 15a bezeichnet wird. Fig. 3b zeigt also den Fall, dass sich während einer Bewegung der Quelle von A nach B etwas geändert hatte und daher die ursprüngliche Programmierung dahingehend geändert wird, dass die Quelle nunmehr nicht

ins Richtungsgebiet B laufen soll, sondern ins Richtungsgebiet C.

Die unter Fig. 3b dargestellten Gleichungen geben die drei Gewichtungsfaktoren g if g 2 , g3 an, welche die Fading- Eigenschaft für die Lautsprecher in den Richtungsgebieten A, B, C liefern. Es sei wiederum darauf hingewiesen, dass in dem Audiosignal AS für die einzelnen Richtungsgebiete wieder die Richtungsgebiete-spezifischen Lautsprecher- Parameter bereits berücksichtigt sind. Für die Bereiche I, II, III können die Audiosignale AS a , AS b , AS C von dem ursprünglichen Audiosignal AS einfach durch Verwendung der für die entsprechenden Lautsprecher gespeicherten Lautsprecher-Parameter der Spalte 16a in Fig. 2a berechnet werden, um dann letztendlich die abschließende Fading-Gewichtung mit dem Gewichtungsfaktor gi durchzuführen. Alternativ müssen diese Gewichtungen jedoch nicht in unterschiedliche Multiplikationen aufgesplittet werden, sondern sie werden typischerweise in ein und derselben Multiplikation statt- finden, wobei dann der Scale-Faktor Sk mit dem Gewichtungsfaktor gi multipliziert wird, um dann einen Multiplikator zu erhalten, der schließlich mit dem Audiosignal multipliziert wird, um das Lautsprechersignal LS 3 zu erhalten. Für die überlappungsbereiche wird dieselbe Gewichtung gi, g 2 , g 3 verwendet, wobei jedoch zur Berechnung des zugrunde liegenden Audiosignals AS 3 , AS b oder AS C eine Interpolation/Mischung der Lautsprecher-Parameterwerte, die für ein und denselben Lautsprecher vorgegeben sind, statt zu finden hat, wie es nachfolgend erläutert wird.

Es sei darauf hingewiesen, dass die Drei-Wege- Gewichtungsfaktoren gi, g 2 , g 3 in die Zwei-Wege-überblendung von Fig. 3a übergehen, wenn entweder BlendAbC zu Null gesetzt wird, wobei dann noch gi, g 2 verbleiben, während im anderen Fall, also wenn BlendAB zu Null gesetzt wird, nur noch gi und g 3 verbleiben.

Die Vorrichtung zum Ansteuern wird nachfolgend bezugnehmend auf Fig. 4 erläutert. Fig. 4 zeigt eine Vorrichtung zum Ansteuern einer Mehrzahl von Lautsprechern, wobei die Lautsprecher in Richtungsgruppen gruppiert sind, wobei einer ersten Richtungsgruppe eine erste Richtungsgruppenposition zugeordnet ist, wobei einer zweiten Richtungsgruppe eine zweite Richtungsgruppenposition zugeordnet ist, wobei wenigstens ein Lautsprecher der ersten und der zweiten Richtungsgruppe zugeordnet ist, und wobei dem Lautsprecher ein Lautsprecher-Parameter zugeordnet ist, der für die erste Richtungsgruppe einen ersten Parameterwert hat, und der für die zweite Richtungsgruppe einen zweiten Parameterwert hat. Die Vorrichtung umfasst zunächst die Einrichtung 40 zum Liefern einer Quellenposition zwischen zwei Richtungsgrup- penpositionen, also beispielsweise zum Liefern einer Quellenposition zwischen der Richtungsgruppenposition IIa und der Richtungsgruppenposition IIb, wie sie z.B. durch Blen- dAB in Fig. 3b spezifiziert ist.

Die erfindungsgemäße Vorrichtung umfasst ferner eine Einrichtung 42 zum Berechnen eines Lautsprechersignals für den wenigstens einen Lautsprecher basierend auf dem ersten Parameterwert, der über einem ersten Parameterwerteingang 42a bereitgestellt wird, der für die Richtungsgruppe RGA gilt, und basierend auf einem zweiten Parameterwert, der an einen zweiten Parameterwerteingang 42b bereitgestellt wird, und der für die Richtungsgruppe RGB gilt. Ferner erhält die Einrichtung 42 zum Berechnen das Audiosignal über einen Audiosignaleingang 43, um dann ausgangsseitig das Lautspre- chersignal für den betrachteten Lautsprecher in dem Bereich IV, V, VI oder VII zu liefern. Das Ausgangssignal der Einrichtung 42 am Ausgang 44 wird das tatsächliche Audiosignal sein, wenn der Lautsprecher, der gerade betrachtet wird, nur aufgrund einer einzigen Audioquelle aktiv ist. Ist der Lautsprecher dagegen aufgrund mehrerer Audioquellen aktiv, so wird, wie es in Fig. 7 gezeigt ist, für jede Quelle mittels eines Prozessors 71, 72 oder 73 eine Komponente für das Lautsprechersignal des betrachteten Lautsprechers auf-

grund dieser einen Audioquelle 70a, 70b, 70c berechnet, um dann letztendlich die in Fig. 7 bezeichneten N Komponentensignale in einem Summierer 74 zu summieren. Die zeitliche Synchronisation hierbei findet über einen Steuer-Prozessor 75 statt, der ebenfalls wie die DSS-Prozessoren 71, 72, 73 vorzugsweise als DSP (digitaler Signalprozessor) ausgebildet ist.

Selbstverständlich ist die vorliegende Erfindung nicht auf die Realisierung mit anwendungsspezifischer Hardware (DSP) beschränkt. Auch eine integrierte Implementierung mit einem oder mehreren PC oder Workstations ist ebenfalls möglich und kann für bestimmte Anwendungen sogar von Vorteil sein..

Es sei darauf hingewiesen, dass in Fig. 7 eine Sample-weise Berechnung dargestellt ist. Der Summierer 74 führt eine Sample-weise Summierung durch, während die Delta- Stereophonie-Prozessoren 71, 72, 73 ebenfalls Sample für Sample ausgeben, und wobei das Audiosignal ferner für die Quellen sampleweise geliefert wird. Es sei jedoch darauf hingewiesen, dass dann, wenn zu einer blockweisen Verarbeitung übergegangen wird, sämtliche Verarbeitungen auch im Frequenzbereich durchgeführt werden können, nämlich dann, wenn im Summierer 74 Spektren miteinander aufsummiert wer- den. Selbstverständlich kann bei jeder Verarbeitung mittels einer Hin/Her-Transformation eine bestimmte Verarbeitung im Frequenzbereich oder im Zeitbereich durchgeführt werden, je nach dem, welche Implementierung günstiger für die spezielle Anwendung ist. Genauso kann eine Verarbeitung auch in der Filterbankdomäne stattfinden, wobei hierfür dann eine Analysefilterbank und eine Synthesefilterbank benötigt werden .

Nachfolgend wird bezugnehmend auf Fig. 5 eine detaillierte- re Ausführungsform der Einrichtung 42 zum Berechnen eines Lautsprechersignals von Fig. 4 erläutert.

Das Audiosignal, das einer Audioquelle zugeordnet ist, wird über den Audiosignaleingang 43 zunächst einem Filtermischungsblock 44 zugeführt. Der Filtermischungsblock 44 ist ausgebildet, um dann, wenn ein Lautsprecher im Bereich VII berücksichtigt wird, alle drei Filter- Parametereinstellungen EQl, EQ2, EQ3 zu berücksichtigen. Das Ausgangssignal des Filtermischungsblocks 44 stellt dann ein Audiosignal dar, das in entsprechenden Anteilen, wie es später noch beschrieben wird, gefiltert worden ist, um ge- wissermaßen Einflüsse von den Filter-Parametereinstellungen aller drei beteiligten Richtungsgebiete zu haben. Dieses Audiosignal am Ausgang des Filtermischungsblocks 44 wird dann einer Delay-Verarbeitungsstufe 45 zugeführt. Die De- lay-Verarbeitungsstufe 45 ist ausgebildet, um ein verzöger- tes Audiosignal zu erzeugen, dessen Verzögerung nunmehr jedoch auf einem interpolierten Verzögerungswert basiert, o- der, wenn keine Interpolation möglich ist, dessen Signalform von den drei Verzögerungen Dl, D2, D3 abhängt. Im Falle der Verzögerungsinterpolation werden die drei Verzöge- rungen, die einem Lautsprecher für die drei Richtungsgruppen zugeordnet sind, einem Verzögerungsinterpolationsblock 46 zur Verfügung gestellt, um einen interpolierten Verzögerungswert Di nt zu berechnen, der dann in den Delay- Verarbeitungsblock 45 eingespeist wird.

Schließlich wird noch eine Skalierung 46 durchgeführt, wobei die Skalierung 46 unter Verwendung eines Gesamtskalie- rungsfaktors ausgeführt wird, der von den drei Skalierungsfaktoren abhängt, die ein und demselben Lautsprecher auf- grund der Tatsache, dass der Lautsprecher zu mehreren Richtungsgruppen gehört, zugeordnet sind. Dieser Gesamtskalie- rungsfaktor wird in einem Skalierungsinterpolationsblock 48 berechnet. Vorzugsweise wird dem Skalierungsinterpolationsblock 48 ferner auch der Gewichtungsfaktor, der das insge- samte Fading für das Richtungsgebiet beschreibt und in Verbindung mit Fig. 3b dargelegt worden ist, ebenfalls eingespeist, wie es durch einen Eingang 49 dargestellt ist, so dass durch die Skalierung im Block 47 die endgültige Laut-

sprecher-Signal-Komponente aufgrund einer Quelle für einen Lautsprecher ausgegeben wird, der bei dem in Fig. 5 gezeigten Ausführungsbeispiel zu drei unterschiedlichen Richtungsgruppen gehören kann.

Alle Lautsprecher der anderen Richtungsgruppen außer den drei betroffenen Richtungsgruppen durch die eine Quelle definiert ist, geben keine Signale für diese Quelle aus, können aber selbstverständlich für andere Quellen aktiv sein.

Es sei darauf hingewiesen, dass dieselben Gewichtungsfaktoren zum Interpolieren der Verzögerung Di nt oder zum Interpolieren des Skalierungsfaktors S verwendet werden können, wie sie zum Fading eingesetzt werden, wie es durch die Gleichungen in Fig. 5 neben dem Blöcken 45 bzw. 47 dargelegt ist.

Nachfolgend wird bezugnehmend auf Fig. 6 ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung dargestellt, das auf einem DSP implementiert ist. Das Audiosignal wird über einen Audiosignaleingang 43 bereitgestellt, wobei dann, wenn das Audiosignal in einem Integer-Format vorhanden ist, zunächst eine Ganzzahl/Gleitkomma-Transformation in einem Block 60 durchgeführt wird. Fig. 6 zeigt ein be- vorzugtes Ausführungsbeispiel des Filtermischungsblocks 44 in Fig. 5. Insbesondere umfasst Fig. 6 Filter EQl, EQ2, EQ3, wobei die übertragungsfunktionen bzw. Impulsantworten der Filter EQl, EQ2, EQ3 von entsprechenden Filter- Koeffizienten über einen Filter-Koeffizienteneingang 440 gesteuert werden. Die Filter EQl, EQ2, EQ3 können digitale Filter sein, die eine Faltung eines Audiosignals mit der Impulsantwort des entsprechenden Filters durchführen, oder es können Transformationseinrichtungen vorhanden sein, wobei eine Gewichtung von Spektralkoeffizienten durch Fre- quenzübertragungsfunktionen durchgeführt wird. Die mit den Equalizer-Einstellungen in EQl, EQ2, EQ3 gefilterten Signale, die alle auf ein und dasselbe Audiosignal zurückgehen, wie es durch einen Verteilungspunkt441 gezeigt ist, werden

dann in jeweiligen Skalierungsblöcken mit den Gewichtungsfaktoren gi, g 2 , g 3 gewichtet, um dann die Ergebnisse der Gewichtungen in einem Summierer aufzusummieren. Am Ausgang des Blocks 44, also am Ausgang des Summierers wird dann in einen Ringpuffer eingespeist, der Teil der Delay- Verarbeitung 45 von Fig. 5 ist. Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung werden die E- qualizer-Parameter EQl, EQ2, EQ3 nicht direkt, wie sie in der Tabelle, die in Fig. 2a dargestellt worden ist, stehen, genommen, sondern es wird vorzugsweise eine Interpolation der Equalizer-Parameter vorgenommen, was in einem Block 442 geschieht .

Der Block 442 erhält jedoch eingangsseitig tatsächlich die einem Lautsprecher zugeordneten Equalizer-Koeffizienten, wie es durch einen Block 443 in Fig. 6 dargestellt ist. Die Interpolationsaufgabe des Filter-Ramping-Blocks führt gewissermaßen eine Tiefpass-Filterung von aufeinanderfolgenden Equalizer-Koeffizienten durch, um Artefakte aufgrund von sich schnell veränderten Equalizer-Filter-Parameter EQl, EQ2, EQ3 zu vermeiden.

Die Quellen können also über mehrere Richtungsgebiete geblendet werden, wobei diese Richtungsgebiete sich durch un- terschiedliche Einstellungen für die Equalizer auszeichnen. Zwischen den verschiedenen Equalizer-Einstellungen wird geblendet, wobei, wie es in Fig. 6 im Block 44 gezeigt ist, alle Equalizer parallel durchlaufen und die Ausgänge überblendet werden.

Es sei ferner darauf hingewiesen, dass die Gewichtungsfaktoren gl, g2, g3, wie sie in Block 44 zum überblenden bzw. Mischen der Equalizer-Einstellungen verwendet werden, die Gewichtungsfaktoren sind, die in Fig. 3b dargestellt sind. Um die Gewichtungsfaktoren zu berechnen, ist ein Gewichtungsfaktor-Umwandlungsblock 61 vorhanden, der eine Position einer Quelle in Gewichtungsfaktoren für vorzugsweise drei umgebende Richtungsgebiete umrechnet. Der Block 61 ist

ein Positions-Interpolator 62 vorgeschaltet, der typischerweise abhängig von einer Eingabe einer Startposition (POSl) und einer Zielposition (POS2) und den entsprechenden Blen- ding-Faktoren, welche bei dem in Fig. 3b gezeigten Szenario die Faktoren Blend-AB und Blend-ABC sind, und typischerweise abhängig von einer Bewegungsgeschwindigkeitseingabe zu einem aktuellen Zeitpunkt eine aktuelle Position berechnet. Die Positionseingabe findet in einem Block 63 statt. Es sei jedoch darauf hingewiesen, dass auch zu jedem Zeitpunkt ei- ne neue Position eingegeben werden kann, so dass der Positions-Interpolator nicht vorgesehen werden muss. Ferner sei darauf hingewiesen, dass die Positions-Aktualisierungsrate beliebig einstellbar ist. So könnte für jedes Sample ein neuer Gewichtungsfaktor berechnet werden. Dies wird jedoch nicht bevorzugt. Statt dessen hat es sich herausgestellt, dass die Gewichtungsfaktor-Aktualisierungsrate auch im Hinblick auf eine sinnvolle Artefaktsvermeidung lediglich mit einem Bruchteil der Abtastfrequenz erfolgen muss.

Die Skalierungsberechnung, die in Fig. 5 anhand der Blöcke 47 und 48 dargestellt worden ist, ist in Fig. 6 nur teilweise gezeigt. Die Berechnung des Gesamtskalierungsfaktors, die im Block 48 von Fig. 5 vorgenommen worden ist, findet nicht in dem in Fig. 6 dargestellten DSP statt, sondern in einem vorgeschalteten Steuer-DSP. Der Gesamt- Skalierungsfaktor wird, wie es durch „Scales" 64 gezeigt ist, bereits eingegeben und in einem Skalie- rungs/Interpolations-Block 65 interpoliert, um schließlich eine abschließende Skalierung in einem Block 66a durchzu- führen, bevor dann, wie es in einem Block 67a gezeigt ist, zum Summierer 74 von Fig. 7 gegangen wird.

Nachfolgend wird bezugnehmend auf Fig. 6 die bevorzugte Ausführungsform der Delay-Verarbeitung 45 von Fig. 5 darge- stellt.

Die erfindungsgemäße Vorrichtung erlaubt zwei Delay- Verarbeitungen. Die eine Delay-Verarbeitung ist die Delay-

Mischung 451, während die andere Delay-Verarbeitung die De- lay-Interpolation ist, die durch einen IIR-Allpass 452 ausgeführt wird.

Das Ausgangssignal des Blocks 44, das im Ringpuffer 450 gespeichert worden ist, wird in der nachfolgend erläuterten Delay-Mischung mit drei verschiedenen Delays bereitgestellt, wobei die Delays, mit denen die Delay-Blöcke im Block 451 angesteuert werden, die nicht-geglätteten Delays sind, die in der Tabelle, die anhand von Fig. 2a für einen Lautsprecher erläutert worden ist, angegeben sind. Diese Tatsache wird auch durch einen Block 66b verdeutlicht, der darauf hinweist, dass hier die Richtungsgruppen-Delays eingegeben werden, während in einem Block 67b nicht die Rich- tungsgruppen-Delays eingegeben werden, sondern zu einem Zeitpunkt nur für einen Lautsprecher ein Delay, nämlich der interpolierte Delay-Wert Dint, der von Block 46 in Fig. 5 erzeugt wird.

Das mit drei unterschiedlichen Delays vorliegende Audiosignal im Block 451 wird dann jeweils, wie es in Fig. 6 gezeigt ist, mit einem Gewichtungsfaktor gewichtet, wobei Gewichtungsfaktoren nunmehr jedoch vorzugsweise nicht die Gewichtungsfaktoren sind, die durch lineare überblendung er- zeugt werden, wie es in Fig. 3b gezeigt ist. Statt dessen wird es bevorzugt, in einem Block 453 eine Lautheitskorrektur der Gewichte durchzuführen, um hier eine nicht-lineare dreidimensionale überblendung zu erreichen. Es hat sich herausgestellt, dass dann die Audioqualität bei der Delay- Mischung besser und artefaktfreier wird, obgleich die Gewichtungsfaktoren gi, g 2 , g 3 ebenfalls verwendet werden könnten, um die Skalierer im Delay-Mischungsblock 451 anzusteuern. Die Ausgangssignale der Skalierer im Delay- Mischungsblock werden dann summiert, um ein Delay- Mischungs-Audiosignal an einem Ausgang 453 zu erhalten.

Alternativ kann die erfindungsgemäße Delay-Verarbeitung (Block 45 in Fig. 5) auch eine Delay-Interpolation durch-

führen. Hierzu wird bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ein Audiosignal mit der (interpolierten) Delay, die über den Block 67b bereitgestellt wird, und die zusätzlich in einem Delay-Ramping- Block 68 geglättet worden ist, aus dem Ringpuffer 450 ausgelesen. Darüber hinaus wird bei dem in Fig. 6 gezeigten Ausführungsbeispiel dasselbe Audiosignal, jedoch um einen Abtastwert weniger verzögert, ebenfalls ausgelesen. Diese beiden Audiosignale bzw. gerade betrachtete Samples der Au- diosignale werden dann einem IIR-Filter zur Interpolation zugeführt, um an einem Ausgang 453b ein Audiosignal zu erhalten, das aufgrund einer Interpolation erzeugt worden ist.

Wie es bereits erläutert worden ist, hat das Audiosignal am Eingang 453a aufgrund der Delay-Mischung kaum Filter- Artefakte. Dagegen ist das Audiosignal am Ausgang 453b kaum Filter-Artefakt-frei. Allerdings kann dieses Audiosignal Frequenzhöhen-Verschiebungen haben. Wird die Delay von ei- nem langen Delaywert auf einen kurzen Delaywert interpoliert, so wird die Frequenzverschiebung eine Verschiebung zu höheren Frequenzen sein, während dann, wenn die Delay von einer kurzen Verzögerung auf eine lange Verzögerung interpoliert wird, die Frequenzverschiebung eine Verschiebung zu niedrigeren Frequenzen sein wird.

Erfindungsgemäß wird zwischen dem Ausgang 453a und dem Ausgang 453b in dem überblendungsblock 457, gesteuert durch ein Steuersignal, das aus dem Block 65 kommt, und auf des- sen Berechnung noch eingegangen wird, hin- und hergeschaltet.

Im Block 65 wird ferner gesteuert, ob der Block 457 das Ergebnis der Mischung oder der Interpolation weiterleitet o- der in welchem Verhältnis die Ergebnisse gemischt werden. Hierzu wird der geglättete bzw. gefilterte Wert aus dem Block 68 mit dem nicht geglätteten verglichen, um davon ab-

hängig welcher größer ist die (gewichtete) Umschaltung in 457 vorzunehmen.

Das Blockschaltbild in Fig. 6 umfasst ferner einen Zweig für eine statische Quelle, die in einem Richtungsgebiet sitzt und nicht überblendet werden muss.. Die Delay für diese Quelle ist die Delay, die dem Lautsprecher für diese Richtungsgruppe zugeordnet ist.

Der Delay-Berechnungs-Algorithmus schaltet daher bei zu langsamen oder zu schnellen Bewegungen um. Derselbe physikalische Lautsprecher ist in zwei Richtungsgebieten mit unterschiedlichen Pegel- und Verzögerungseinstellungen vorhanden. Bei einer langsamen Bewegung der Quelle zwischen den beiden Richtungsgebieten wird der Pegel geblendet und die Verzögerung interpoliert mittels eines Alpassfilters, es wird also das Signal am Ausgang 453b genommen. Diese Interpolation der Verzögerung führt jedoch zu einer Tonhöhenänderung des Signals, die jedoch bei langsamen änderungen nicht kritisch ist. überschreitet die Geschwindigkeit der Interpolation dagegen einen bestimmten Wert, wie beispielsweise 10 ms pro Sekunde, so können diese Tonhöhenänderungen wahrgenommen werden. Im Falle einer zu hohen Geschwindigkeit wird die Verzögerung daher nicht mehr interpoliert, sondern die Signale mit den zwei konstanten unterschiedlichen Verzögerungen werden geblendet, wie es im Block 451 dargestellt ist. Dadurch kommt es zwar zu Kammfilterartefakten. Diese werden jedoch aufgrund der hohen Blendgeschwindigkeit nicht hörbar sein.

Wie es ausgeführt worden ist, findet die Umschaltung zwischen den beiden Ausgängen 453a und 453b, abhängig von der Bewegung der Quelle bzw. genauer gesagt, abhängig von dem zu interpolierenden Delay-Wert statt. Muss viel Delay in- terpoliert werden, so wird der Ausgang 453a durch den Block 457 durchgeschaltet. Muss dagegen wenig Delay in einem bestimmten Zeitraum interpoliert werden, so wird der Ausgang 453b genommen.

Bei einem bevorzugten Ausfϋhrungsbeispiel der vorliegenden Erfindung findet jedoch die Umschaltung durch den Block 457 nicht hart statt. Der Block 475 ist derart ausgebildet, dass ein überblendungsbereich existiert, der um den Schwellwert herum angeordnet ist. Ist daher die Geschwindigkeit der Interpolation auf dem Schwellwert, so ist der Block 457 ausgebildet, um das ausgangsseitige Sample derart zu berechnen, dass das aktuelle Sample auf dem Ausgang 453a und das aktuelle Sample auf dem Ausgang 453b addiert werden und das Ergebnis durch zwei geteilt wird. Der Block 457 führt daher in einem überblendungsbereich um den Schwellwert herum einen weichen übergang von dem Ausgang 453b zum Ausgang 453a oder umgekehrt statt. Dieser überblendungsbe- reich kann beliebig groß gestaltet werden, derart, dass der Block 457 nahezu durchgängig im überblendungsmodus arbeitet. Für eine eher härtere Umschaltung kann der überblendungsbereich kleiner gewählt werden, so dass der Block 457 allermeistens entweder nur den Ausgang 453a oder nur den Ausgang 453b zum Skalierer 66a durchschaltet.

Bei einer bevorzugten Ausführungsform der vorliegenden Erfindung ist der überblendungsblock 457 ferner ausgebildet, um eine Jitterunterdrückung über einen Tiefpass und eine Hysterese des Verzögerungs-änderungs-Schwellwerts durchzuführen. Aufgrund der nicht-garantierten Laufzeit des Steuerdatenflusses zwischen dem System zur Konfiguration und den DSP-Systemen, kann es zu einem Jitter in den Steuerdaten kommen, die zu Artefakten in der Audiosignalverarbei- tung führen können. Es wird daher bevorzugt, durch eine Tiefpassfilterung des Steuerdatenstroms am Eingang des DSP- Systems diesen Jitter auszugleichen. Dieses Verfahren verringert die Reaktionszeit der Steuerzeiten. Dafür können sehr große Jitterschwankungen ausgeglichen werden. Werden aber für die Umschaltung von Verzögerungsinterpolationen auf Verzögerungsblendung und Verzögerungsblendung auf Verzögerungsinterpolation unterschiedliche Schwellwerte verwendet, so kann der Jitter in den Steuerdaten alternativ

zum Tiefpassfiltern ohne Verminderung der Steuerdatenreaktionszeit vermieden werden.

Bei einem weiteren bevorzugten Ausführungsbeispiel der vor- liegenden Erfindung ist der überblendungsblock 457 ferner ausgebildet, um eine Steuerdatenmanipulation beim Blenden von Verzögerungsinterpolationen auf Verzögerungsblendung durchzuführen .

ändert sich die Verzögerungsänderung sprunghaft auf einen Wert größer dem Umschaltschwellwert zwischen Verzögerungsinterpolationen und Verzögerungsblendung, so wird bei einer herkömmlichen Blendung immer noch ein Teil der Tonhöhenschwankung aus der Verzögerungsinterpolation zu hören sein. Um diesen Effekt zu vermeiden, ist der überblendungsblock 457 ausgebildet, um die Verzögerungssteuerdaten solange konstant zu halten, bis die komplette Umbiendung zur Verzögerungsblendung vollzogen ist. Erst dann werden die Verzögerungssteuerdaten dem tatsächlichen Wert angeglichen. Mit Hilfe dieser Steuerdatenmanipulation können auch schnelle Verzögerungsänderungen mit einer kurzen Steuerdatenreaktionszeit ohne hörbare Tonänderungen realisiert werden.

Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung umfasst das Ansteuersystem ferner eine Metering- Einrichtung 80, die ausgebildet ist, um pro Richtungsgebiet/Audioausgang ein digitales (imaginäres) Metering durchzuführen. Dies wird anhand der Fig. IIa und IIb erklärt. So zeigt Fig. IIa eine Audiomatrix 1110, während Fig. IIb dieselbe Audiomatrix 1110 zeigt, jedoch unter besonderer Berücksichtung der statischen Quellen, während in Fig. IIa die Audiomatrix unter Berücksichtung der dynamischen Quellen dargestellt ist.

Generell führt das DSP-System, von dem ein Teil in Fig. 6 gezeigt ist, dazu, dass aus der Audiomatrix an jedem Maxtrixpunkt eine Verzögerung und ein Pegel gerechnet werden, wobei der Pegel-Skalierungswert durch AmP in Fig. IIa

und Fig. IIb dargestellt ist, während die Verzögerung durch „Delay-Interpolation" für dynamische Quellen bzw. „Delay" für statische Quellen bezeichnet ist.

Um diese Einstellungen dem Benutzer darzustellen, werden diese Einstellungen in Richtungsgebieten aufgesplittet gespeichert, und es werden den Richtungsgebieten dann Eingangssignale zugewiesen. Dabei können auch mehrere Eingangssignale einem Richtungsgebiet zugewiesen werden.

Um nunmehr eine überwachung der Signale auf Nutzerseite zu ermöglichen, wird für die Richtungsgebiete ein Metering durch den Block 80 angezeigt, welches jedoch „virtuell" aus den Pegeln der Knotenpunkte der Matrix und den entsprechen- den Gewichtungen ermittelt wird.

Die Ergebnisse werden vom Metering-Block 80 an eine Anzeigenschnittstelle geliefert, was durch einen Block „ATM" 82 (ATM = Asynchronous Transfer Mode) symbolisch dargestellt ist.

An dieser Stelle sei darauf hingewiesen, dass typischerweise mehrere Quellen gleichzeitig in Richtungsgebieten spielen, wenn beispielsweise der Fall betrachtet wird, dass von zwei unterschiedlichen Richtungen zwei getrennte Quellen in ein- und dasselbe Richtungsgebiet „eintreten". Im Zuhörerraum kann niemals der Beitrag einer einzigen Quelle pro Richtungsgebiet gemessen werden. Dies wird jedoch durch das Metering 80 erreicht, weshalb diese Messung als virtuelle Messung bezeichnet wird, da sich gewissermaßen im Zuhörerraum immer alle Beiträge aller Richtungsgruppen für alle Quellen überlagern.

Darüber hinaus kann durch das Metering 80 auch der Gesamt- pegel einer einzigen Schallquelle unter mehreren Schallquellen über alle Richtungsgebiete, die für diese Schallquelle aktiv sind, berechnet werden. Dieses Ergebnis würde sich ergeben, wenn für eine Eingangsquelle die Matrixpunkte

für alle Ausgänge aufsummiert werden. Dagegen kann ein Beitrag einer Richtungsgruppe für eine Schaltquelle dadurch erreicht werden, wenn die Ausgänge der Gesamtanzahl von Ausgängen, die zu der betrachteten Richtungsgruppe gehören, aufsummiert werden, während die anderen Ausgänge nicht berücksichtigt werden.

Generell liefert das erfindungsgemäße Konzept ein universelles Bedienkonzept zur Repräsentation von Quellen unab- hängig von dem verwendeten Wiedergabesystem. Hierbei wird auf eine Hierarchie zurückgegriffen. Das unterste Hierarchie-Glied ist der einzelne Lautsprecher. Die mittlere Hierarchie-Stufe ist ein Richtungsgebiet, wobei auch Lautsprecher in zwei unterschiedlichen Richtungsgebieten vorhanden sein können.

Das oberste Hierarchie-Gebiet sind Richtungsgebiete- Presets, derart, dass für bestimmte Audioobjekte/Anwendungen bestimmte Richtungsgebiete zusammengenommen als ein „über-Richtungsgebiet" auf der Benutzerschnittstelle betrachtet werden können.

Das erfindungsgemäße System zur Positionierung von Schallquellen gliedert sich in Hauptkomponenten, die ein System zum Durchführen einer Vorstellung, ein System zum Konfigurieren einer Vorstellung, ein DSP-System zur Berechnung der Delta-Stereophonie, ein DSP-System zur Berechnung der WeI- lenfeldsynthese und ein Havarie-System für Notfalleingriffe umfasst. Bei einem bevorzugten Ausführungsbeispiel der vor- liegenden Erfindung wird eine graphische Benutzerschnittstelle verwendet, um eine visuelle Zuordnung der Akteure zu Bühne oder Kamerabild zu erreichen. Dem Systembetreiber wird eine zweidimensionale Abbildung des 3D-Raums präsentiert, die derart gestaltet sein kann, wie es in Fig. 1 dargestellt ist, die jedoch auch in der Weise implementiert sein kann, wie es in den Fig. 9a bis 10b für lediglich eine geringe Anzahl von Richtungsgruppen dargestellt ist. Mit Hilfe einer geeigneten Benutzerschnittstelle ordnet der Be-

nutzer über eine ausgewählte Symbolik Richtungsgebiete und Lautsprecher aus dem dreidimensionalen Raum der zweidimensionalen Abbildung zu. Dies geschieht durch eine Konfigurationseinstellung. Für das System erfolgt ein Mapping der zweidimensionalen Position der Richtungsgebiete auf dem Bildschirm auf die reale dreidimensionale Position der zu den entsprechenden Richtungsgebieten zugeordneten Lautsprecher. Mit Hilfe seines Kontexts über den dreidimensionalen Raum ist der Betreiber in der Lage, die reale dreidimensio- nale Position von Richtungsgebieten zu rekonstruieren und eine Anordnung von Klängen in den dreidimensionalen Raum zu realisieren.

über ein weiteres User-Interface- (Mixer) und die dortige Zuordnung von Klängen/Akteuren und deren Bewegungen zu den Richtungsgebieten, wobei der Mixer einen DSP gemäß Fig. 6 umfassen kann, erfolgt die indirekte Positionierung der Klangquellen im realen dreidimensionalen Raum. Mit Hilfe dieses User-Interfaces ist der User in der Lage, die Klänge in allen Raumdimensionen zu positionieren, ohne die Ansicht wechseln zu müssen, d.h., es ist möglich, Klänge in der Höhe und der Tiefe zu positionieren. Nachfolgend wird auf die Positionierung von Schallquellen bzw. ein Konzept zur flexiblen Kompensation von Abweichungen vom programmierten Bühnenablauf gemäß Fig. 8 dargestellt.

Fig. 8 zeigt eine Vorrichtung zum Steuern einer Mehrzahl von Lautsprechern vorzugsweise unter Verwendung einer graphischen Benutzerschnittstelle, die in wenigstens drei Richtungsgruppen gruppiert sind, wobei jeder Richtungsgruppe eine Richtungsgruppenposition zugeordnet ist. Die Vorrichtung umfasst zunächst eine Einrichtung 800 zum Empfangen eines Quellenpfads von einer ersten Richtungsgruppenposition zu einer zweiten Richtungsgruppenposition und einer Bewegungsinformation für den Quellenpfad. Die Vorrichtung von Fig. 8 umfasst ferner eine Einrichtung 802 zum Berechnen eines Quellenpfadparameters für verschiedene Zeitpunkte, basierend auf der Bewegungsinformation, wobei der Quel-

gewissermaßen ohne Kompensationspfad direkt vom Ausgangspunkt zum neuen Ziel zu wandeln. Diese Möglichkeit ist dann sinnvoll, wenn die Quelle feststellt, dass sie erst eine kurze Distanz auf dem Quellenpfad zurückgelegt hat und der Vorteil, nunmehr einen neuen Kompensationspfad einzuschlagen, nur ein kleiner Vorteil ist. Alternative Implementierungen, bei denen ein Kompensationspfad zwar als Anlass genommen wird, umzukehren und den Quellenpfad wieder zurückzugehen, ohne den Kompensationspfad zu beschreiten, können dann vorliegen, wenn der Kompensationspfad Bereiche im Zuhörerraum betreffen würde, die aus irgendwelchen anderen Gründen keine Bereiche sein sollen, in denen eine Schallquelle lokalisiert werden soll.

Die erfindungsgemäße Bereitstellung eines Kompensationspfads ist im Hinblick auf ein System, bei dem nur zugelassen wird, dass komplette Wege zwischen zwei Richtungsgebieten beschritten werden, von besonderem Vorteil, da die Zeit, zu der eine Quelle auf der neuen (geänderten) Positi- on ist, insbesondere dann, wenn Richtungsgebiete weit auseinander angeordnet sind, erheblich reduziert wird. Ferner werden für den Benutzer verwirrende bzw. künstliche Wege einer Quelle, die als seltsam empfunden werden würden, eliminiert. Wenn beispielsweise der Fall betrachtet wird, dass sich eine Quelle ursprünglich auf dem Quellenpfad von links nach rechts bewegen sollte und nunmehr auf eine andere Position ganz links, die nicht sehr weit von der Ursprungsposition entfernt ist, gehen soll, so würde das Nicht- Zulassen eines Kompensationspfads dazu führen, dass die Quelle nahezu zweimal über die gesamte Bühne läuft, während erfindungsgemäß dieser Vorgang abgekürzt wird.

Ermöglicht wird der Kompensationspfad dadurch, dass eine Position nicht mehr durch zwei Richtungsgebiete und einen Faktor bestimmt wird, sondern dass eine Position durch drei Richtungsgebiete und zwei Faktoren definiert wird, derart, dass auch andere Punkte außer den direkten Verbindungsli-

lenpfadparameter auf eine Position einer Audioquelle auf den Quellenpfad hinweist.

Die erfindungsgemäße Vorrichtung umfasst ferner eine Ein- richtung 804 zum Empfangen eines Pfadänderungsbefehls, um einen Kompensationspfad zu dem dritten Richtungsgebiet zu definieren. Ferner ist eine Einrichtung 806 zum Speichern eines Werts des Quellenpfadparameters an einer Stelle, an der der Kompensationspfad von dem Quellenpfad abzweigt, vorgesehen. Vorzugsweise ist ferner eine Einrichtung zum Berechnen eines Kompensationspfadparameters (BlendAC) vorhanden, welcher auf eine Position der Audioquelle auf dem Kompensationspfad hinweist, die in Fig. 8 mit 808 dargestellt ist. Sowohl der Quellenpfadparameter, der von der Einrichtung 806 berechnet worden ist, als auch der Kompensationspfadparameter, der von der Einrichtung 808 berechnet worden ist, werden in eine Einrichtung 810 zum Berechnen von Gewichtungsfaktoren für die Lautsprecher der drei Richtungsgebiete eingespeist.

Allgemein gesagt ist die Einrichtung 810 zum Berechnen der Gewichtungsfaktoren ausgebildet, um basierend auf dem Quellenpfad, dem gespeicherten Wert des Quellenpfadparameters und Informationen über den Kompensationspfad zu arbeiten, wobei Informationen über den Kompensationspfad entweder nur das neue Ziel, also das Richtungsgebiet C, umfassen, oder wobei die Informationen über den Kompensationspfad zusätzlich noch eine Position der Quelle auf dem Kompensationspfad, also den Kompensationspfadparameter, umfasst. Es sei darauf hingewiesen, dass diese Informationen der Position auf dem Kompensationspfad dann nicht nötig ist, wenn der Kompensationspfad noch nicht beschritten ist, sondern sich die Quelle noch auf dem Quellenpfad befindet. So ist der Kompensationspfadparameter, der eine Position der Quelle auf dem Kompensationspfad angibt, nicht unbedingt nötig, wenn die Quelle nämlich den Kompensationspfad nicht beschreitet, sondern den Kompensationspfad zum Anlass nimmt, auf dem Quellenpfad umzukehren zurück zum Ausgangspunkt, um

nien zwischen zwei Richtungsgruppenpositionen durch eine Quelle „angesteuert" werden können.

Damit erlaubt das erfindungsgemäße Konzept, dass jeder be- liebige Punkt in einem Wiedergaberaum durch eine Quelle angesteuert werden kann, wie es unmittelbar aus Fig. 3b ersichtlich wird.

Fig. 9a zeigt einen Regelfall, in dem sich eine Quelle auf einer Verbindungslinie zwischen dem Startrichtungsgebiet IIa und dem Zielrichtungsgebiet 11c befindet. Die genaue Position der Quelle zwischen dem Start- und dem Zielrichtungsgebiet wird durch einen Blendfaktor AC beschrieben.

Neben dem Regelfall gibt es jedoch, wie es bereits ausgeführt worden ist und in Verbindung mit Fig. 3b erläutert worden ist, den Kompensationsfall, der dann auftritt, wenn der Pfad einer Quelle bei laufender Bewegung geändert wird. Die änderung des Pfads einer Quelle bei laufender Bewegung kann dadurch dargestellt werden, dass sich das Ziel der Quelle während die Quelle sich auf dem Weg zum Ziel befindet, ändert. Dann muss die Quelle von ihrer aktuellen Quellenposition auf dem Quellenpfad 15a in Fig. 3b auf ihre neue Position, nämlich das Ziel 11c, geblendet werden. Da- durch ergibt sich der Kompensationspfad 15b, auf dem die Quelle dann läuft, bis sie das neue Ziel 11c erreicht hat. Der Kompensationspfad 15b läuft also von der ursprünglichen Position der Quelle direkt auf die neue ideale Position der Quelle. Im Kompensationsfall wird die Quellposition deshalb über drei Richtungsgebiete und zwei Blendwerten gebildet. Das Richtungsgebiet A, das Richtungsgebiet B und der Blendfaktor BlendAB bilden den Anfang des Kompensationspfads. Das Richtungsgebiet C bildet das Ende des Kompensationspfads. Der Blendfaktor BlendAbC definiert die Position der Quelle zwischen Anfang und Ende des Kompensationspfads.

Beim übergang einer Quelle in den Kompensationspfad ergeben sich folgende änderungen an den Positionen: Das Richtungs-

gebiet A bleibt erhalten. Das Richtungsgebiet C wird zum Richtungsgebiet B und der Blendfaktor BlendAC wird zu Blen- dAB, und das neue Zielrichtungsgebiet wird nach Zielrichtungsgebiet C geschrieben. In anderen Worten ausgedrückt wird also der Blendfaktor BlendAC zum Zeitpunkt zu dem die Richtungsänderung stattfinden soll, also zu dem Zeitpunkt, zu dem die Quelle den Quellenpfad verlassen soll und auf den Kompensationspfad einschwenken soll, durch die Einrichtung 806 gespeichert und für die nachfolgende Berechnung als BlendAB verwendet. Das neue Zielrichtungsgebiet wird nach Richtungsgebiet C geschrieben.

Erfindungsgemäß wird es ferner bevorzugt, harte Quellensprünge zu verhindern. Generell können Quellbewegungen so programmiert werden, dass Quellen springen, also sich schnell von einem Platz zum anderen bewegen können. Dies ist beispielsweise dann der Fall, wenn Szenen übersprungen werden, wenn ein ChannelHOLD-Modus deaktiviert wird, oder eine Quelle in Szene 1 auf einem andern Richtungsgebiet en- det als in Szene 2. Würden Quellsprünge hart umgeschaltet, so hätte dies hörbare Artefakte zur Folge. Daher wird erfindungsgemäß ein Konzept zur Verhinderung harter Quellsprünge eingesetzt. Hierzu wird wieder ein Kompensationspfad verwendet, der aufgrund einer bestimmten Kompensati- onsstrategie ausgewählt wird. Generell kann sich eine Quelle an unterschiedlichen Stellen eines Pfads befinden. Je nachdem, ob sie sich am Anfang oder am Ende, zwischen zwei oder drei Richtungsgebieten befindet, gibt es unterschiedliche Wege, wie eine Quelle am schnellsten auf ihre ge- wünschte Position kommt.

Fig. 9b zeigt eine mögliche Kompensationsstrategie, gemäß der eine Quelle, die sich auf einem Punkt eines Kompensationspfads befindet (900), auf eine Zielposition (902) ge- bracht werden soll. Die Position 900 ist die Position, die eine Quelle beispielsweise hat, wenn eine Szene endet. Beim Start der neuen Szene soll die Quelle auf ihre dort initiale Position, nämlich die Position 906, kommen. Um dort hin-

zugelangen, wird erfindungsgemäß von einer sofortigen Um- schaltung von 900 zu 906 abgesehen. Statt dessen läuft die Quelle zunächst auf ihr persönliches Zielrichtungsgebiet zu, also auf das Richtungsgebiet 904, um dann von dort auf das initiale Richtungsgebiet der neuen Szene, nämlich 906 zu laufen. Damit ist die Quelle an dem Punkt, bei dem sie beim Start der Szene hätte sein sollen. Nachdem die Szene jedoch schon begonnen hat und die Quelle eigentlich bereits losgelaufen wäre, muss die zu kompensierende Quelle noch mit erhöhter Geschwindigkeit auf dem programmierten Pfad zwischen dem Richtungsgebiet 906 und dem Richtungsgebiet 908 laufen, bis sie ihre Soll-Position 902 wieder eingeholt hat.

Generell wird nachfolgend in den Fig. 9d bis 9i eine Darstellung von verschiedenen Kompensationsstrategien gegeben, die alle der in Fig. 9c gegebenen Notation für das Richtungsgebiet, den Kompensationsweg, die neue Idealposition der Quelle und die aktuelle Realposition der Quelle gehor- chen.

Eine einfache Kompensationsstrategie befindet sich in Fig. 9d. Diese wird mit „InPathDual" bezeichnet. Die Zielposition der Quelle ist durch dieselben Richtungsgebiete A, B, C angegeben wie die Ausgangsposition der Quelle. Eine erfindungsgemäße Sprungkompensationseinrichtung ist daher ausgebildet, um festzustellen, dass die Richtungsgebiete zur Definition der Startposition identisch zu den Richtungsgebieten zur Definition der Zielposition sind. In diesem Fall wird die in Fig. 9d gezeigte Strategie gewählt, in der einfach auf demselben Quellenpfad weitergegangen wird. Wenn also die durch die Kompensation zu erreichende Position (I- dealposition) sich zwischen den gleichen Richtungsgebieten befindet, wie die gegenwärtige Position der Quelle (Realpo- sition) , dann kommen die InPath-Strategien zum Einsatz. Diese haben zwei Arten, nämlich InPathDual, wie es in Fig. 9d gezeigt ist, und InPathTriple, wie es in Fig. 9e gezeigt ist. Fig. 9e zeigt ferner den Fall, dass sich Real- und I-

dealposition der Quelle nicht zwischen zwei, sondern zwischen drei Richtungsgebieten befinden. In diesem Fall kommt die in Fig. 9e gezeigte Kompensationsstrategie zum Einsatz. Insbesondere zeigt Fig. 9e den Fall, wo sich die Quelle be- reits auf einem Kompensationspfad befindet und diesen Kompensationspfad wieder zurückgeht, um auf dem Quellenpfad einen bestimmten Punkt zu erreichen.

Wie es ausgeführt worden ist, wird die Position einer Quel- Ie über maximal drei Richtungsgebiete definiert. Haben Idealposition und Realposition genau ein gemeinsames Richtungsgebiet, dann kommen die Adjacent-Strategien zum Einsatz, die in Fig. 9f gezeigt sind. Hier gibt es drei Arten, wobei sich der Buchstabe „A", „B" und „C" auf das gemeinsa- me Richtungsgebiet beziehen. Insbesondere stellt die Stromkompensationseinrichtung fest, dass die Realposition und die neue Idealposition Durchsätze von Richtungsgebieten definiert werden, die ein einziges Richtungsgebiet gemeinsam haben, welches im Fall von AdjacentA das Richtungsgebiet A ist, welches im Fall von AdjacentB, das Richtungsgebiet B ist, und welches im Fall von AdjacentC das Richtungsgebiet C ist, wie es aus Fig. 9f ersichtlich ist.

Die in Fig. 9g gezeigten Outside-Strategien kommen dann zum Einsatz, wenn die Realposition und die Idealposition kein gemeinsames Richtungsgebiet gemeinsam haben. Hier gibt es zwei Arten, nämlich die OutsideM-Strategien und die Outsi- deC-Strategien. OutsideC kommt zum Einsatz, wenn sich die Realposition sehr nah an der Position des Richtungsgebiets C befindet. OutsideM kommt zum Einsatz, wenn die Realposition der Quelle zwischen zwei Richtungsgebieten ist, oder wenn die Position der Quelle zwar zwischen drei Richtungsgebieten, aber sehr nahe am Knie ist.

Es sei ferner darauf hingewiesen, dass bei der bevorzugten Implementierung der vorliegenden Erfindung jedes Richtungsgebiet mit jedem Richtungsgebiet verbunden werden kann, dass also die Quelle, um von einem Richtungsgebiet zu einem

anderen Richtungsgebiet zu kommen, niemals ein drittes Richtungsgebiet überschreiten muss, sondern von jedem Richtungsgebiet zu jedem anderen Richtungsgebiet ein programmierbarer Quellenpfad existiert.

Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird die Quelle manuell bewegt, d.h. mit einem sog. Cader. So existieren erfindungsgemäß Cader-Strategien, die verschiedene Kompensationspfade liefern. Es wird ge- wünscht, dass bei den Cader-Strategien in der Regel ein Kompensationspfad entsteht, der Richtungsgebiet A und Richtungsgebiet C der Idealposition mit der aktuellen Position der Quelle verbindet. Einen solchen Kompensationspfad sieht man in Fig. 9h. Die neu angenommene Realposition ist das Richtungsgebiet C der Idealposition, wobei in Fig. 9h der Kompensationspfad entsteht, wenn das Richtungsgebiet C der Realposition vom Richtungsgebiet 920 ins Richtungsgebiet 921 verändert wird.

Insgesamt gibt es drei Cader-Strategien, die in Fig. 9i gezeigt sind. Die linke Strategie in Fig. 9i kommt zum Einsatz, wenn das Zielrichtungsgebiet C der Realposition verändert wurde. Vom Pfadverlauf her entspricht Cader der Strategie OutsideM. Caderlnverse kommt zum Einsatz, wenn das Startrichtungsgebiet A der Realposition verändert wird. Der entstehende Kompensationspfad verhält sich genauso wie der Kompensationsfall im Normalfall (Cader), wobei sich jedoch die Berechnung innerhalb des DSP unterscheiden kann. CaderTriplestart kommt zum Einsatz, wenn sich die Realposi- tion der Quelle zwischen drei Richtungsgebieten befindet, und eine neue Szene geschaltet ist. In diesem Fall muss ein Kompensationspfad von der Realposition der Quelle auf das Startrichtungsgebiet der neuen Szene gebaut werden.

Der Cader kann dazu verwendet werden, um eine Animation einer Quelle durchzuführen. Im Hinblick auf die Berechnung der Gewichtungsfaktoren liegt kein Unterschied vor, der davon abhängt, ob die Quelle manuell oder automatisch bewegt

wird. Ein prinzipieller Unterschied besteht jedoch darin, dass die Bewegung der Quelle nicht durch einen Timer gesteuert wird, sondern durch ein Cader-Event ausgelost wird, das die Einrichtung (804) zum Empfangen eines Pfadande- rungsbefehls erhalt. Das Cader-Event ist daher der Pfadan- derungsbefehl . Ein Sonderfall, den die erfindungsgemaße Quellenanimation mittels Cader liefert, ist die Ruckwarts- bewegung von Quellen. Entspricht die Position einer Quelle dem Regelfall, dann bewegt sich die Quelle egal ob mit dem Cader oder automatisch auf dem vorgesehen Pfad mit dem Kompensationsfall jedoch unterliegt die Ruckwartsbewegung der Quelle einem Sonderfall. Zur Beschreibung dieses Sonderfalls wird der Pfad einer Quelle in den Quellenpfad 15a und den Kompensationspfad 15b aufgeteilt, wobei der Defaultsek- tor ein Teil des Quellenpfads 15a und der Compensationsek- tor in Fig. 10a den Kompensationspfad darstellt. Der De- faultsektor entspricht dem ursprunglichen programmierten Abschnitt des Pfads der Quelle. Der Compensationsektor beschreibt den Pfadabschnitt, der von der programmierten Be- wegung abweicht.

Wird die Quelle mit dem Cader rückwärts bewegt, dann hat es unterschiedliche Auswirkungen, je nachdem ob sich die Quelle auf den Compensationsektor oder auf dem Defaultsektor befindet. Wenn angenommen wird, dass sich die Quelle auf dem Compensationsektor befindet, so wird eine Bewegung des Caders nach links zu einer Ruckwartsbewegung der Quelle führen. Solange die Quelle noch auf dem Compensationsektor ist, erfolgt alles nach Erwartung. Sobald die Quelle aber den Compensationsektor verlässt und den Defaultsektor betritt, geschieht folgendes, die Quelle bewegt sich ganz normal auf dem Defaultsektor, aber der Compensationsektor wird dahingehend neu berechnet, dass man, wenn der Cader wieder nach rechts bewegt wird, die Quelle nicht erst auf dem Defaultsektor wieder entlang läuft, sondern direkt über den neu berechneten Compensationsektor auf das aktuelle Zielrichtungsgebiet zuläuft. Diese Situation ist in Fig. 10b dargestellt. Durch Rückwartsbewegen einer Quelle und

dann wieder Vorwärtsbewegen einer Quelle wird also dann, wenn durch das Rückwärtsbewegen ein Default-Sektor verkürzt wird, ein geänderter Kompensationssektor berechnet.

Im Folgenden wird die Berechnung der Position einer Quelle veranschaulicht. A, B und C sind die Richtungsgebiete, über die die Position einer Quelle definiert ist. A, B und Blen- dAB beschreiben die Startposition des Compensationsektors . C und BlendAbC beschreiben die Position der Quelle auf dem Compensationsektor . BlendAC beschreibt die Position der Quelle auf dem Gesamtpfad.

Es wird eine Quellenpositionierung gesucht, bei der auf die umständliche Eingabe von zwei Werten für BlendAB und Blend- AbC verzichtet wird. Statt dessen soll die Quelle direkt über ein BlendAC gesetzt werden. Wird BlendAC auf Null gesetzt, dann soll die Quelle am Anfang des Pfads sein. Wird BlendAC gleich 1 gesetzt, dann soll die Quelle am Ende des Pfads positioniert sein. Ferner soll der Benutzer bei der Eingabe nicht mit Kompensationssektoren oder Defaultsekto- ren „belästigt" werden. Andererseits hängt das Setzen des Werts für BlendAC aber davon ab, ob sich die Quelle auf dem Kompensationssektor oder auf dem Defaultsektor befindet. Allgemein gilt die in Fig. 10c oben beschriebene Gleichung für BlendAC.

Man könnte nun auf die Idee kommen, die Position einer Quelle auf dem aktuellen Pfadabschnitt durch eine eindeutige Angabe des BlendAC-Werts zu definieren. Fig. 10c zeigt einige Beispiele, wie sich BlendAB und BlendAbC verhalten, wenn BlendAC gesetzt wird.

Nunmehr wird darauf eingegangen, was passiert, wenn BlendAC auf 0,5 gesetzt wird. Was hier genau passiert, hängt davon ab, ob die Quelle auf dem Kompensation-Sektor oder auf dem Default-Sektor liegt. Wenn die Quelle auf dem Default- Sektor ist, dann gilt:

BlendAbC = Null.

Befindet sich die Quelle dagegen am Ende des Default- Sektors bzw. am Anfang des Compensationssektors, dann gilt:

BlendAbC = Null

und

(BlendAC = BlendAB / BlendAB + 1) .

Fig. 10d zeigt die Ermittlung der Parameter BlendAB und BlendAbC, abhängig von BlendAC, wobei in den Punkten 1 und 2 unterschieden wird, ob sich die Quelle auf dem Default- sektor oder auf dem Compensationsektor befindet, und wobei in Punkt 3 die Werte für den Default-Sektor gerechnet werden, während in Punkt 4 die Werte für den Compensationsektor berechnet werden.

Die gemäß Fig. 10d erhaltenen Blend-Faktoren werden dann, wie es anhand von Fig. 3b dargestellt worden ist, von der Einrichtung zum Berechnen der Gewichtungsfaktoren verwendet, um schließlich die Gewichtungsfaktoren gi, g 2 , g3 zu berechnen, aus denen dann wiederum die Audiosignale und In- terpolationen etc., wie es anhand von Fig. 6 beschrieben worden ist, berechnet werden können.

Das erfindungsgemäße Konzept kann besonders gut mit der Wellenfeldsynthese kombiniert werden. In einem Szenario, in dem auf der Bühne aus optischen Gründen keine Wellenfeld- synthese-Lautsprecherarrays platziert werden können, und statt dessen, um eine Schalllokalisation zu erreichen, die Deltastereophonie mit Richtungsgruppen eingesetzt werden muss, ist es typischerweise möglich, wenigstens an den Sei- ten des Zuhörraums und hinten am Zuhörerraum Wellenfeldsyn- these-Arrays aufzustellen. Erfindungsgemäß muss sich ein Benutzer jedoch nicht darum kümmern, ob eine Quelle nunmehr

durch ein Wellenfeldsynthese-Array oder eine Richtungsgruppe hörbar gemacht wird.

Ein entsprechendes gemischtes Szenario ist auch dann mog- lieh, wenn z.B. in einem bestimmten Bereich der Buhne keine Wellenfeldsynthese-Lautsprecherarrays möglich sind, weil sie sonst den optischen Eindruck stören wurden, wahrend in einem anderen Bereich der Buhne durchaus Wellenfeld- Synthese-Lautsprecherarrays eingesetzt werden können. Auch hier tritt eine Kombination der Deltastereophonie und der Wellenfeldsynthese statt. Erfindungsgemaß wird jedoch der Benutzer sich nicht darum kummern müssen, wie seine Quelle aufbereitet wird, da das graphische Benutzer-Interface auch Bereiche, an denen Wellenfeld-Synthese-Lautsprecherarrays angeordnet sind, als Richtungsgruppen bereitstellt. Auf Seiten des Systems zur Durchfuhrung einer Vorstellung wird daher immer der Richtungsgebietsmechanismus zur Positionierung bereitgestellt, derart, dass in einem gemeinsamen U- serinterface die Zuordnung von Quellen zur Wellenfeldsyn- these oder zur Deltastereophonie-Richtungsbeschallung ohne Benutzereingriff stattfinden kann. Das Konzept der Richtungsgebiete kann dabei universell angewendet werden, wobei der Benutzer immer auf die gleiche Art und Weise Schallquellen positioniert. In anderen Worten ausgedruckt sieht der Benutzer nicht, ob er eine Schalquelle in einem Richtungsgebiet positioniert, das ein Wellenfeldsynthesearray umfasst, oder ob er eine Schallquelle in einem Richtungsgebiet positioniert, das tatsachlich einen Stutzlautsprecher hat, der mit dem Prinzip der ersten Wellenfront arbeitet.

Eine Quellenbewegung findet allein dadurch statt, dass der Benutzer Bewegungspfade zwischen Richtungsgebieten liefert, wobei dieser vom Benutzer gesetzte Bewegungspfad durch die Einrichtung zum Empfangen des Quellenpfads gemäß Fig. 8 empfangen wird. Erst auf Seiten des Konfigurationssystems wird durch eine entsprechende Umsetzung entschieden, ob eine Wellenfeldsynthese-Quelle oder eine Deltastereophonie- Quelle aufzubereiten ist. Insbesondere wird dies dadurch

entschieden, dass ein Eigenschafts-Parameter des Richtungsgebiets untersucht wird.

Jedes Richtungsgebiet kann hierbei eine beliebige Anzahl von Lautsprechern und immer genau eine Wellenfeldsynthese- Quelle enthalten, die durch ihre virtuelle Position an einer festgelegten Stelle innerhalb des Lautsprecherarrays bzw. bezüglich des Lautsprecherarrays gehalten wird und insofern der (realen) Position des Stützlautsprechers in ei- nem Deltastereophonie-System entspricht. Die Wellenfeldsyn- these-Quelle repräsentiert dann einen Kanal des Wellenfeld- synthesesystems, wobei in einem Wellenfeldsynthesesystem, wie es bekannt ist, pro Kanal ein eigenes Audioobjekt, also eine eigene Quelle verarbeitet werden kann. Die Wellenfeld- synthese-Quelle zeichnet sich durch entsprechende Wellen- feldsynthese-spezifische Parameter aus.

Die Bewegung der Wellenfeldsynthese-Quelle kann je nach Zurverfügungstellung der Rechenleistung auf zwei Arten er- folgen. Die fix positionierten Wellenfeldsynthese-Quellen werden durch eine überblendung angesteuert. Wenn sich eine Quelle aus einem Richtungsgebiet hieraus bewegt, werden die Lautsprecher gedämpft werden, während in zunehmendem Maße die Lautsprecher des Richtungsgebiets, in das die Quelle hinein läuft, weniger gedämpft werden.

Alternativ kann aus den eingegebenen fixen Positionen eine neue Position interpoliert werden, die dann tatsächlich als virtuelle Position einem Wellenfeldsynthese-Renderer zur Verfügung gestellt wird, so dass ohne überblendung und durch eine echte Wellenfeldsynthese eine virtuelle Position erzeugt wird, was in Richtungsgebieten, die auf der Basis der Delta-Stereophonie arbeiten, natürlich nicht möglich ist .

Die vorliegende Erfindung ist dahingehend vorteilhaft, dass ein freies Positionieren von Quellen und Zuordnungen zu den Richtungsgebieben erfolgen kann, und dass insbesondere

dann, wenn überlappende Richtungsgebiete vorhanden sind, also wenn Lautsprecher zu mehreren Richtungsgebieten gehören, eine große Anzahl von Richtungsgebieten mit einer hohen Auflosung an Richtungsgebiete-Positionen erreicht wer- den kann. Prinzipiell konnte aufgrund der zugelassenen U- berlappung jeder Lautsprecher auf der Buhne ein eigenes Richtungsgebiet darstellen, das um sich herum angeordnete Lautsprecher hat, die mit einer größeren Delay abstrahlen, um die Lautstarkeanforderungen zu erfüllen. Diese (umgeben- den) Lautsprecher werden jedoch dann, wenn andere Richtungsgebiete betroffen sind, auf einmal zu Stutzlautsprechern und werden nicht mehr „Hilfslautsprecher" sein.

Das erfindungsgemaße Konzept zeichnet sich ferner durch ein intuitives Bedienerinterface ab, das dem Benutzer soviel als möglich abnimmt, und daher eine sichere Bedienung auch durch Benutzer ermöglicht, die nicht in allen Tiefen des Systems bewandert sind.

Ferner wird eine Kombination der Wellenfeldsynthese mit der Deltastereophonie über ein gemeinsames Bedienerinterface erreicht, wobei bei bevorzugten Ausfuhrungsbeispielen ein dynamisches Filtern bei Quellbewegungen aufgrund der Equalizer-Parameter erreicht wird und zwischen zwei Blend- Algorithmen umgeschalten wird, um eine Artefakterzeugung aufgrund des übergangs von einem Richtungsgebiet zum nächsten Richtungsgebiet zu vermeiden. Darüber hinaus wird erfindungsgemäß sichergestellt, dass keine Pegeleinbrüche beim Blenden zwischen den Richtungsgebieten stattfinden, wobei ferner auch eine dynamische Blendung vorgesehen ist, um weitere Artefakte zu reduzieren. Die Bereitstellung eines Kompensationspfads ermöglicht eine Live- Anwendungstauglichkeit, da nunmehr Eingriffsmoglichkeiten bestehen, um beispielsweise bei der Nachfuhrung von Klangen zu reagieren, wenn ein Akteur den spezifizierten Pfad ver- lässt, der programmiert worden ist.

Die vorliegende Erfindung ist besonders bei der Beschallung in Theatern, Musicalbühnen, Open-Air-Bühnen mit meist größeren Auditorien oder in Konzertstätten vorteilhaft.

Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren in Hardware oder in Software implementiert werden. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, dass das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfah- rens, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt, kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer-Programm auf einem Computer abläuft.