Wenn Sinne verschmelzen
Dies & Das, Film & Multimedia, Musik
Ein poetisches Experiment wagt «Sound Space» ab Januar in der Chollerhalle: Hört man anders, wenn man die Musik sehen kann?
Zug – Dieser Artikel erschien in der Januar/Februar-Ausgabe 2025. Hier geht es zu den weiteren Artikeln.
Stellen Sie sich vor, Sie sind im Wald. Licht und Schatten auf den jungen Blättern, Rauschen des Windes, ein Glitzern geht durch die Baumkronen.
Im Januar startet ein neuartiges Konzert in der Chollerhalle: Sound Space. Die Zuger Sinfonietta spielt ein Konzert, dazu entstehen dreidimensionale Projektionen aus der Musik heraus, eine Verbindung von Visuellem und Akustischem. Was wir sehen und was wir hören, verbindet sich.
Funktionieren unsere Sinne einzeln?
Federführend dabei waren Daniel Christen als Regisseur und künstlerischer Leiter, Daniel Huppert als Dirigent der Sinfonietta und Martin Riesen, der als Videokünstler für die technische Umsetzung zuständig war. Was aber nach reiner Infrastruktur klingt, ist im Fall von Sound Space einiges komplizierter. «Ich glaube, es ist falsch anzunehmen, dass unsere Sinne einzeln funktionieren», sagt Riesen. Die Idee zu Sound Space kam Daniel Christen im Wald im Frühling. Wenn man gut hinhöre, sehe man Dinge anders, wenn man gut hinschaue, höre man mehr.
Er fragte sich, ob man dieses Erlebnis nicht auch reproduzieren könnte. Nur wie, ohne es zu banalisieren?
Was sind die richtigen Inputs?
«Man kennt ja das Konzept: Musik wird gespielt, jemand malt parallel dazu ein Bild, es entstehen zwei Dinge: ein Bild und ein Stück», sagt Martin Riesen. Sound Space aber soll anders sein, verwobener: ein Geflecht aus Feedbackschleifen.
Spielen wird das Orchester der Sinfonietta Zug. Die Instrumente werden mit Piezomikrofonen bestückt, diese wandeln den Schalldruck der Instrumente in elektrische Signale um. «Wann immer man mit Daten arbeitet, muss man filtern», sagt der Videokünstler. «Wir fragten uns: Welches Instrument ist das entscheidende?», sagt Riesen. Eine Pauke beispielsweise, die einmal im Stück schlägt, ist für das Gesamterlebnis nicht ganz so entscheidend. Eine Geige oder Bratsche schon eher.
Das Mikrofon filtert den Klang, und was bleibt, ist nur das Auf und Ab des Signals. Ein eindimensionales Signal. Betrachtet man das Auf und Ab über die Zeit, ergibt das eine Welle, die Tonspur, die so zum Server gelangt. Aber halt: So etwas Komplexes wie das Spiel einer Geige soll eindimensional sein? Wie soll denn am Ende
ein umfassendes, reiches Kunstwerk entstehen, wenn schon der Input «eindimensional» ist? «Alles eine Frage der Übersetzung», sagt Martin Riesen. Verloren geht nichts. Im Gegenteil.
Und die vierte Dimension?
Stellen Sie sich vor, Sie sind eine Ameise auf einer Leine. Sie kann hin und her krabbeln. Es gibt nur die eine Linie, die eine Dimension. Und nun stellen Sie sich vor, sie sind eine Schachfigur. Vielleicht sogar die Königin. Sie kann nach vorne, sie kann zur Seite, sie fährt diagonal über das Brett. Die Schachfigur kennt also zwei Dimensionen. Aber was, wenn das Schachbrett aus irgendeinem Grund Wellen bekommt? Vielleicht weil es im Wald herumliegt, es feucht wird, das Holz sich wellt und ein Frosch beschliesst, auf dem Schachbrett zu wohnen? Für die Schachfigur ändert sich nichts. Noch immer fährt die Königin wie gewohnt nach vorne, nach hinten, zur Seite. Der Frosch aber hüpft hoch und runter, krabbelt über die Wellen und versteckt sich hinter den Hügeln. Für die Königin taucht der Frosch nun manchmal aus dem Nichts auf und verschwindet genauso wieder. Der Frosch bewegt sich in drei Dimensionen.
Kann man zwischen Dimensionen übersetzen?
Leider sind wir wie Frösche: Wir kennen nur drei Dimensionen. Eine vierte können wir höchstens erahnen. Daraus würde etwas aus dem Nichts auftauchen, ganz kurz, und wieder verschwinden. Wir können bloss erahnen, dass da etwas ist, so wie die Schachfigur manchmal einen kurzen Blick auf den Frosch erhascht.
Doch selbst wenn die Königin den Frosch nicht immer sieht, ist er trotzdem da.
«Wir wollen Akustik in Visualität übersetzen, dabei muss man erst die Daten haben, um diese dann in die neue Form zu bringen», sagt Riesen. Ein wenig wie ein Dolmetscher vielleicht, der erst verstehen muss, worum es geht, bevor er Worte dafür in der anderen Sprache findet.
Verändern Zuhörer*innen die Musik?
Worum es geht, zeigen die Daten. Im Server verwandelt sich das Wellensignal entlang eines definierten Sets an Regeln zu verschiedenen Formen. «Die Regeln definieren, welche Tonausschläge wie ausschauen sollen», sagt Riesen. Aber welche Formen und Bewegungen genau genommen werden, ist noch immer eine künstlerische Entscheidung. «Wir sind auf jedes Stück einzeln eingegangen, jedes Stück hat eine eigene Intensität, ein eigenes Gefühl, einen eigenen Ausdruck», sagt Daniel Christen.
Die visuelle Übersetzung der Tonsignale wird auf unsichtbare Gazen an der Decke der Chollerhalle projiziert. Wenn die Zuschauer*innen also im Dunkeln sitzen, malt die Geige über ihren Köpfen eine dreidimensionale Figur aus Licht. Doch nicht nur die Geige malt an diesem Bild mit. Auch die Handbewegungen des Dirigenten werden mit einem Bewegungssensor abgenommen, anders als die Welle der Geige ist die Bewegung im Raum ein dreidimensionales Signal. Das Signal wird nun zu Daten zerlegt und gleichwertig in die abstrakten Figuren der Projektionen übersetzt.
Noch ein drittes Signal kommt dazu. Auf einem iPad hat Martin Riesen ein visuelles Instrument gebaut, speziell für den Anlass, speziell für Daniel Christen. Denn eine Facette fehlt noch. Denken wir an den Wald zurück: Hört und sieht doch auch hier jeder Mensch anders.
Und genau diese Feedbackschlaufe soll das dritte Instrument einbauen. Auf dem iPad kann Daniel Christen in Echtzeit mitzeichnen, was die Musik bei ihm auslöst. Er kann Formen, Striche und Punkte auf die Signale der verschiedenen Eingänge legen, eine Linie kann sich im Signal der Instrumente schlängeln, ein Vieleck wabert im Takt der Dirigentenhände.
«Noch in der Umsetzungsphase habe ich angefangen, zur Musik zu zeichnen, als Entwurf. Doch wir waren überrascht, welche Ebene damit noch dazugekommen ist.» Das sei genau diese Verbindung von Musik und Visuellem im Moment, sagt Christen.
Übertönt das Visuelle die Akkustik?
In der Chollerhalle wird es für Sound Space zwei Tribünen geben, in der Mitte die Bühne mit dem Orchester, über den Köpfen des Publikums die Visualisierungen. Zwei Beamer projizieren aus gegenüberliegender Richtung ihre Bilder auf unsichtbare Gazen und erzeugen so in der dunklen Halle den Eindruck von Hologrammen. Eine dreidimensionale Projektion der Musik. «Das Visuelle ist so stark, da muss man sehr gut aufpassen, dass es die Musik nicht übertönt. Deshalb haben wir uns für sehr schlichte, poetische Formen entschieden, nur in Schwarz und Weiss», sagt Christen.
«Es wird nie exakt genau gleich laufen», sind sich Martin Riesen und Daniel Christen einig.
Jedes Mal spielen die Instrumente ein wenig anders, jedes Mal bewegen sich die Hände minimal anders. Selbst das Publikum im Raum ist am Ende Teil: Die Reaktionen, die Aufmerksamkeit und die Stimmung im Raum fliesst mit ins Spiel ein, fliesst mit in die Wahrnehmung von Daniel Christen, der sie wiederum in Formen übersetzt. «Dass es live ist, das spürt man», sagt Christen.
Text: Lionel Hausheer