Die Uraufführung von momentum fand am 31. August 2012 im Rahmen des Konzerts "NachKlang" statt, das gemeinsam mit dem Ensemble unitedberlin und dem Elektronischen Studio der TU Berlin, Fachbereich Audiokommunikation, in der St. Elisabeth-Kirche Berlin organisiert wurde.
Eine weitere Aufführung in der gleichen Besetzung gab es im Rahmen des Konzerts "Übergänge" am 7. Januar im BKA in Berlin.
Martin Glück, Flöte
Florian Juncker, Posaune
Andreas Bräutigam, Violine
Matthias Bauer, Kontrabass
Andre Bartetzki, Elektronik
Videoaufnahme der Uraufführung:
Der Klang von Musikinstrumenten läßt sich durch ihr spezifisches Resonanzverhalten beschreiben. Die Resonanzen - die Teiltöne der schwingenden Saite, der Luftsäule im Rohr, der Membranen oder des Korpus - lassen sich am zuverlässigsten durch impulsförmige Anregung hervorbringen, also etwa durch ein Pizzicato, einen Luftstoß oder durch Anschlagen. Mit Impulsfolgen, etwa durch periodische Luftstöße oder durch periodisches Auslenken einer Saite mit dem Bogen, lassen sich schließlich auch kontinuierliche Töne erzeugen, deren Klangfarbe das Resonanzmuster einer einzelnen impulsförmigen Anregung immer noch in sich trägt.
In der Physik der Mechanik beschreibt der Impuls (englisch: momentum) die Bewegungsgröße eines Körpers durch Verknüpfung seiner Masse und seines Geschwindigkeitsvektors. Treffen zwei massebehaftete bewegte Körper aufeinander, kommt es zu einem Austausch der Bewegungsenergie, die Impulse der Körper werden beide verändert und tauschen sich beim geraden Zusammenstoß aus.
Im Stück momentum wird die Ebene der mechanischen Klangerzeugung und des Energieaustauschs durch physikalische Modelle um Audioelektronik und animierte Computergrafik erweitert. Kraftwirkungen, Impulse, Schwingungen und Resonanzen können auf allen Ebenen - mechanische, elektronisch, visuell - entstehen bzw. zwischen diesen ausgetauscht werden: Instrumente bringen animierte Objekte zum Schwingen, visuelle Kollisionen erzeugen instrumentale Töne, Elektronik wird gezupft oder gestrichen, Klänge werden in der Bewegung durch den Raum zu sichtbaren Gestalten.
Elektronik und Visuals werden ausnahmslos in Echtzeit mit Hilfe von SuperCollider generiert und gesteuert. Die visuellen physikalischen Modelle werden dabei größtenteils mit der redUniverse-Library von Fredrik Olofsson realisisert.
Die Interaktion der audiovisuellen Elektronik mit den Instrumenten geschieht zum Einen mittels verschiedener Analysen der Mikrofonsignale (Lautstärkemessungen und Onset-Detection sowie FFT) und anschließender Verwendung der Analysedaten als "Weltparameter" der physikalischen Modelle, wie z.B. Reibungs- und Absorptionsverluste, Massen, Größen und Impulsenergieen. Zum Anderen erhalten die Musiker auch in Echtzeit generierte und per OSC auf die Displays von Smartphones und Tablet-Computer übermittelte Spielanweisungen, wie Tonhöhen, Akzente und Einsätze zu spielender Töne.