c't 25/2017
S. 34
News
Ableton-Loop-Konferenz

Unter Elektromuckern

Musikexperimente auf der Ableton Loop in Berlin

Absurde Instrumente, verblüffende Deep-Learning-Algorithmen und die neuesten Trends der Musikproduktion: Zum dritten Mal lud Ableton internationale Künstler und Musikentwickler zur Loop-Konferenz ins altehrwürdige Funkhaus nach Berlin ein.

Bereits eine Woche vor der Loop-Konferenz ließ der Berliner Hersteller Ableton die Katze aus dem Sack: Die neue Version der beliebten Digital Audio Workstation Live 10 soll im ersten Quartal 2018 erscheinen und viele kleine Workflow-Verbesserungen mitbringen. Vorab konnten wir einen ausführlichen Blick auf die Beta-Version werfen, die bereits beeindruckend stabil läuft (siehe ct.de/yx6e). In Berlin ging es denn auch gar nicht um Live 10, sondern um einen Gedankenaustausch von Musikern und Entwicklern, die die Grenzen der elektronischen Musik vorantreiben wollen – egal mit welchen Werkzeugen und mit welcher Software. Trotz des saftigen Eintrittsgeldes von 250 bis 350 Euro waren die Workshops quasi ausverkauft. Dort konnte man beispielsweise lernen, wie man aus einem einzigen Sample einen ganzen Song aufbaut. Etwa 2000 Teilnehmer reisten rund um den Globus an – von Tokyo bis San Francisco.

Kreativ-Kopf Dennis DeSantis von Ableton hatte eine illustre Riege von Musikern und Wissenschaftlern ins Funkhaus geladen. Drum&Bass-Produzent Goldie war aus Großbritannien angereist und erläuterte seine komplexen Arrangement-Ideen, die er in seinem jüngsten Album „The Journey Man“ umgesetzt hatte. Darin verlässt er die sonst so gradlinigen 4/4-Takt-Strukturen der Tanzmusik und mischt krumme Metren mit weitläufigen Vocal- und Orchester-Parts, die schon mal einen 20-minütigen Spannungsbogen aufbauen. „Ich male die Struktur des Songs vorher mit Bleistift auf Papier. Dabei überlege ich mir, wie ich die Energie auf- und wieder abbaue, wie ich spannende Überleitungen von einem Thema zum nächsten schaffe“, erklärte Goldie im Interview. DAW-Programme wie Ableton Live seien eine große Hilfe, aber man dürfe sich nicht von ihrer strikten Struktur einschränken lassen. Um das Metrum aufzubrechen, lässt er schon mal Streicher im 3/4-Takt gegen eine Bassline im 4/4-Takt laufen. „Experimentiert mehr mit Polyrhythmen“, gab er dem Publikum auf den Weg.

Die laute Gefahr

Mastering-Ingenieurin Mandy Parnell (Björk, Brian Eno, White Stripes) zog über die schlechte Musikqualität der Streaming-Dienste her. Vor allem prangerte sie die automatisierten Kompressions-Algorithmen an, die es ihrer Zunft quasi unmöglich machten, das Endresultat zu kontrollieren. Parnell hofft, dass neue Codecs wie Master Quality Authenticated (MQA) die Situation künftig verbessern und den Mastering-Ingenieuren die nötige Kontrolle über die Klangqualität zurückgeben. Sie hatte auch konkrete Tipps für Bedroom-Produzenten parat und wies auf die immer noch hohe Bedeutung der Monokompatibilität hin sowie darauf, Songs zugunsten einer besseren Dynamik nicht zu laut zu mischen.

Der Experimentalmusiker Koka Nikoladze führte einen Streichsensor vor, der Bewegungen eines Geigenbogens in MIDI-Signale umsetzt.

Vor zu lauter Musik warnte auch Susan Rogers, ehemals Tontechnikerin von Prince und heute Professorin am Musik-College in Berklee. „Jeder trägt Sonnenbrillen, um seine Augen vor zu viel Licht zu schützen, aber kaum jemand nutzt Ohrstöpsel zum Schutz vor Lärm“, erklärte sie. In ihrem Vortrag legte sie dar, wie Nervenzellen im Ohr bei zu lautem Lärm platzen und sich dadurch das akustische Auflösungsvermögen verringert – so als ob man einen A/D-Wandler von 24 Bit auf 4 Bit reduziert. Zur Kompensation würde das Gehirn einzelne Frequenzen über Gebühr verstärken, wodurch es zur Hyperakusis (Empfindlichkeit gegenüber bestimmten Frequenzen) oder zum Tinnitus komme. Fast jeder zweite Musiker leide inzwischen unter dem Ohrenpfeifen, während es in der restlichen Bevölkerung nur 10 bis 20 Prozent sind. Neben bekannten Desensibilisierungstherapien hofft Rogers, dass künftig auch Medikamente helfen. So hätten brasilianische Forscher just festgestellt, dass Oxytocin-Nasenspray den Tinnitus verringern kann. Es würde allerdings noch dauern, bis das verschreibungspflichtige Hormon zur Therapie zugelassen werde.

Maschinenmusik

Auf der Suche nach neuen Klängen und Instrumenten basteln manche Musiker die seltsamsten Apparaturen. Koka Nikoladze aus Georgien demonstrierte etwa seinen Streichsensor „Koka’s Macbook Bow“, den er mit einem Geigenbogen auf der Rückseite seines Macbook spielte. Der Sensor setzte die Streichbewegungen in MIDI-Signale um, mit denen er Sounds wie von einem Theremin oder einem Streich-Synthesizer spielte. Gitarren rückte er mit einem selbst gebauten E-Bow mittels Magneten und Propellern zu Leibe und verstärkte Töne über eine Lautsprecher-Rückkopplung. Hören kann man die Sound-Experimente auf seiner Webseite (ct.de/yx6e).

Alice Elderidge präparierte ihr Cello mit Tonabnehmern, Verstärkern und Lautsprechern, um aus Rückkopplungen neuartige Klänge zu erzeugen.

Die Cellistin Alice Elderidge aus Sussex (England) experimentiert ebenfalls mit Rückkopplungen und baute in ihr Cello einen Tonabnehmer mit Verstärker und Lautsprecher ein. Ihr „Resonating Feedback Cello“ wurde denn auch mit allerlei Bögen und Schlägeln traktiert, um seltsame sphärische und drohnenhafte Sounds zu erzeugen, die an eine Mischung aus John Cage und Caspar Brötzmann Massaker erinnerten.

Ebenso experimentell ging es bei Gene Kogan zu, der Deep-Learning-Algorithmen in Max for Live umsetzt, die bekannte Stücke etwa von John Coltrane oder Chopin analysieren und mit deren Sound dann selbstständig Musik improvisieren (ct.de/yx6e). Dazu führte er Beispiele wie WaveNet von Deepmind, Sprachsynthese von Lyrebird oder auch den neuralen Synthesizer NSynth von Magenta vor.

Das größte Problem bei der neuralen Musiksynthese sei laut Kogan jedoch der Zeitfaktor, da Musik im Unterschied zu Bildern nicht statisch sei und sich immer wieder verändere. Die per Algorithmen erzeugte Musik konnte zwar die Klangfarbe des Ausgangsmaterials imitieren – wenn zuweilen auch stark verrauscht –, hatte aber überhaupt keinen Bezug zum zeitlichen Ablauf der Kompositionen. Um es mit Hape Kerkeling zu sagen: Es klang größtenteils einfach „Hurz!“. Die Forscher glauben jedoch daran, dass Deep Learning in Zukunft ähnlich revolutionäre Musik-Synthese-Möglichkeiten erschließen wird, wie bei der Analyse und Manipulation von Bildern und Videos.

3D-Sound für DJs

Nach den Kinos soll der 3D-Sound künftig auch die Clubs und Tanztempel erobern. Ableton will der Live 10 Suite per integriertem Max for Live einen Surround-Panner spendieren, der mehr als die üblichen zwei Stereo-Kanäle ausgeben kann. In der aktuellen Beta fehlt er jedoch noch. Dolby führte in Berlin zudem erstmals seine neue DJ-Suite für Atmos vor. Sie besteht aus einem Panner-Plug-in (AU, VST), das einzelne Sounds frei im dreidimensionalen Raum platzieren und rhythmisch zum Song-Tempo bewegen kann. Zusammen mit einem Stereo-Bed, das die Grundelemente des Mixes wie die Kick-Drum, die Snare und den Bass enthält, schickt der Panner seine 3D-Sounds an eine parallel zur DAW laufende Atmos-Monitor-App, die schließlich die Lautsprecher ansteuert.

Ein fertiger Mix besteht somit aus dem Stereo-Grundgerüst sowie elf weiteren 3D-Objekten, die jeweils als Stereo-Stems aus der DAW herausgerendert werden. Das soll mit Live, aber auch mit anderen DAWs wie Cubase oder Logic Pro X funktionieren. Im Unterschied zur Atmos-Produktion „Kraftwerk 3D“ lassen sich die Atmos-DJ-Mixe jedoch offenbar nicht von normalen AV-Receivern abspielen, sondern nur von einer speziellen Atmos-DJ-App, die Lautsprecher-Anlagen in ausgerüsteten Clubs und Discos ansteuert. Details waren von Dolby jedoch noch nicht zu erfahren. Auf den Markt kommen soll die im Beta-Stadium befindliche Atmos-DJ-Suite in etwa einem halben Jahr. (hag@ct.de)

Kommentieren