Menü

Missing Link: Musik ohne Musiker? KI schwingt den Taktstock

Es geht voran: Künstliche Intelligenz komponiert Alben, Hologramme füllen Konzertsäle, Roboter lösen DJs ab und Algorithmen entdecken den Super-Hit von morgen.

Von
vorlesen Drucken Kommentare lesen 158 Beiträge
Missing Link: Musik ohne Musiker? KI schwingt den Taktstock

(Bild: pixabay.com)

Die Sorge, dass neue Techniken Komponisten, Songschreiber, Sänger oder Musiker insgesamt arbeitslos sowie die Kunst noch brotloser macht, geht seit Langem um. Spätestens seit Synthesizer auf dem Markt sind, Auto-Tune-Effekte um sich greifen, Samples und Loops automatisiert hergestellt und Musik mit Programmen wie Live von Ableton oder Final Scratch und Traktor von Native Instruments gemixt wird, ist vom Aus für den kreativen Musiker beziehungsweise der Übernahme eines Großteils seiner Arbeit die Rede. Nun aber schickt sich der Computer mithilfe Künstlicher Intelligenz endgültig an, den Taktstock zu schwingen und die individuelle Sound-Berieselung für den Alltag zu kreieren.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Ganz neu ist der Trend nicht. Schon zur Hochzeit der musikalischen Klassik Ende des 18. Jahrhunderts entwickelte sich ein System zum beliebten Zeitvertreib und Gesellschaftsspiel, mit dem sich Kompositionen mithilfe eines Zufallsgenerators zusammenstellen ließen. Wolfgang Amadeus Mozart soll ein Meister dieses "musikalischen Würfelspiels" gewesen sein, bei dem auf Basis einer Grundkomposition zunächst mehrere Variationen eines Themas als Versatzstücke generiert wurden. Eine mit dem Würfel erzeugte Zufallszahl legte dann fest, welcher Takt aus welcher Modifikation folgen sollte. Das Verfahren eignete sich vor allem für das Zusammensetzen gleichförmig und periodisch ablaufender Musikstücke wie Walzer, Polonaisen oder Menuette mit schematischem harmonischem Aufbau.

Wahrscheinlichkeiten

Inzwischen gebe es ausgefeilte Würfel in Form künstlicher neuronaler Netze, griff Sebastian Stober vom AILab der Universität Magdeburg den historischen Faden jüngst auf der Konferenz Most Wanted Music in Berlin auf und verknüpfte ihn mit neuen Computertechniken. Diese können Vorhersagen machen und auf Basis existierender Datensets lernen, wie sie mit hoher Wahrscheinlichkeit zueinander passende Akkorde und Melodien einsetzen. Am erfolgreichsten sind dabei sogenannte rekurrente beziehungsweise rückgekoppelte neuronale Netze (RNN), mit denen sich Sequenzen gut verarbeiten ließen.

Ein Panel auf der Konferenz Most Wanted Music in Berlin.

(Bild: Stefan Krempl / heise online)

Ein solches "Recurrent Neural Network" sei darauf trainiert, ähnlich wie Shakespeare zu schreiben, brachte der Professor für Künstliche Intelligenz (KI) ein Beispiel. Es liest dabei Buchstabe für Buchstabe und versucht so vorherzusagen, wie der nächste ausfallen sollte ohne jegliches explizite Verständnis von Rechtschreibung oder Grammatik. Aufsehen erregt im musikalischen Bereich hat in Expertenkreisen das ähnlich agierende FolkRNN, das nach dem gleichen Prinzip Note für Note aneinanderreiht und so irische Folksongs zusammenbastelt. Die Programmierer habe damit auch schon eine ganze CD veröffentlicht, wobei echte Musikanten die Lieder einspielten.

Überraschung!

Das Album hat gute Kritiken bekommen. Viele Zuhörer zeigten sich in Online-Foren überrascht, dass der Computer die Titel komponiert hat. Die Songs werden sogar im Radio gespielt. Stober spricht daher von einer Art Turing Test für Musik, da die "Schöpfungen" des neuronalen Netzwerks in der Regel als täuschend echt akzeptiert werden.

Inzwischen gibt es eine Webseite für das System, über die jeder Interessierte mithilfe des neuronalen Netzwerks selbst Songs kreieren kann. Man wählt dazu ein vorgefertigtes KI-Model, die gewünschte Klangtemperatur, die Geschwindigkeit, den Takt und die Tonart aus und kann zusätzlich eine anfängliche Notenabfolge eingeben. Den Rest erledigt die Maschine dank des ursprünglich in Großbritannien mit öffentlichen Mitteln geförderten Projekts. Diverse Demos und Beispiele helfen auch Einsteigern ins Kompositionsgeschäft weiter. Um das Resultat genießen zu können, war ursprünglich ein Midi-Player erforderlich, inzwischen lassen sich die Tonfolgen über fast jeden aktuellen Browser abspielen.

Die Automatisierbarkeit geht noch weiter: Der geneigte Maschinennutzer kann sich die generierte Melodie auch von einem Roboter-Musiker vorspielen lassen wie etwa "Shimon" vom Georgia Tech Center for Music Technology. Bei den aufgeführten Werken vermissen aber selbst ungeschulte Ohren noch die "lebendige" Ausdruckskraft.

Improvisations-Sets und dynamische Hintergrundmusik

Auf dem Markt gibt es mittlerweile einige Anbieter von Software, mit der sich mithilfe neuronaler Netze und anderer lernender KI-Spielarten Musik erzeugen lässt. Dazu gehören Amper Music, Google Magenta mit NSynth Super, IBM Watson Beat, Melodrive oder Jukedeck. Mit dem System des zuletzt genannten Startups lassen sich hauptsächlich Soundtracks für Videos oder für Fotocollagen kreieren. Auswählbare Parameter sind etwa diverse Musikstile, Stimmungslagen, die gewünschte Länge, Instrumentierung und Tempo. Auch der ein oder andere orchestrale Höhepunkt ist einstellbar. Das Ergebnis hört sich in der Regel recht episch an ähnlich wie bei Filmmusik, wirkt auf die Dauer aber noch ziemlich eintönig.

Die Oberfläche der Lösung von Amper Music lobt Stober als weiter fortentwickelt und anspruchsvoller. So kann der Nutzer dort auch Klangformen wie "Band" auswählen, Instrumente hinzufügen oder Markierungspunkte setzen für diverse symbolische Akzente oder Anfang und Ende eines Stücks. Der Schwerpunkte liegt aber auch hier auf Soundtracks für Videos. Etwas enttäuscht hat den Wissenschaftler, dass der Hersteller nicht verrate, welche KI-Technik er im Hintergrund einsetze und wie diese prinzipiell funktioniere. Amper habe zudem eine Schnittstelle für professionelle Produktionssoftware wie Adobe Premiere. Dabei gehe es nicht darum, gleich einen großen Hit zu veröffentlichen, sondern musikalisch "einen bestimmten Zweck zu erfüllen".

Ambient - wortwörtlich

Einen Schritt weiter geht die Lösung des Berliner Startups Melodrive, mit der sich Sound quasi in Echtzeit an diverse Umstände oder Umgebungen anpassen lässt. Am häufigsten wird das System derzeit dazu verwendet, dynamische Hintergrundmusik für individuelle Szenen in Computerspielen oder für Virtual-Reality-Anwendungen zu erzeugen. Sichtbare Objekte beeinflussen dabei automatisch den Sound: taucht etwa ein Hai auf, klingt die Begleitmusik dramatisch. Stober erläutert: "Um so überblenden zu können, ist es hilfreich, wenn die KI gelernt hat, die Dimensionen musikalischen Ausdrucks intern in einem Repräsentationsraum abzubilden".

Ein ähnliches Improvisationsset haben Forscher aus Tokio und Barcelona mit ihrer Demo für das System "JamSketch" geschaffen. Die "bluesigen" Trainingsdaten für das Programm stammen aus der öffentlichen Weimar Jazz Database. Daten aus der Public Domain sind in dem Sektor generell sehr gefragt, um die Algorithmen zu trainieren. Um keine Urheberrechte zu verletzen, stellen einige KI-Firmen auch Komponisten ein, um ihre Systeme mithilfe selbst kreierter Stücke auf Trab zu bringen. Die derzeitigen Möglichkeiten lassen sich etwa auch mit einem Interface von Google Magenta fürs automatisierte Klavierspiel einschätzen, das von "Guitar Hero" inspiriert ist. Bei diesem "Piano-Genie" muss man nur verschiedene bunte Knöpfe drücken, um die modernisierten Würfel Mozarts zu werfen und unterschiedliche Noten und Töne zu produzieren.

Neu arrangiert

In diese Richtung geht auch die öffentlich geförderte, unter dem Dach von Sony durchgeführte Forschung zu Flow Machines, das eine ganze Reihe von ziemlich komplizierten generativen Techniken einsetzt. Das System ist so imstande, musikalische Stile aus Trainingsdaten herauszuziehen und nach Belieben neu zu arrangieren. Praktisch lässt sich so etwa Beethovens "Ode an die Freude" in verschiedensten Ausdrucksarten wiedergeben und beispielsweise mit dem Sound der Beatles mischen. Die Produzenten Benoit Carré und François Pachet haben mit der Lösung nach eigenen Angaben das erste, "Hello World" betitelte Album aufgenommen, bei dem der Computer einen Großteil der Kompositionsarbeit erledigte. Dabei legten sie etwa beim Einspielen der Werke aber auf eine enge Kooperation mit klassischen Musikern wert.

"Flow Machines" nehme "Inspiration in Form von Audio-Material und Notenbildern auf", erläutert das Fachblatt "Musikexpress" das Verfahren. Das könne ein einzelner Gitarren-Part genauso sein wie ein komplettes Orchester-Stück. Anschließend generiere die KI daraus neue Kompositionen. Menschliche Künstler entschieden dabei, woher die Vorgaben kommen und ob sich der Stil etwa an Bon Iver, Jeff Beck oder Chopin orientieren solle. Dies beeinflusse das finale, im Rechner produzierte Werk mit. Pachet ist inzwischen Direktor am Spotify Creator Technology Research Lab, sodass Beobachter damit rechnen, dass der Streaming-Dienst bald mit Playlists aufwartet, die sich dem Kontext des Hörers automatisch anzupassen suchen.

Hilfestellungen

Stober hat auf dem größer werdenden Feld von Künstlicher Intelligenz und Musik so aktuell drei prägende Entwicklungen ausgemacht. Dazu gehören "KI-Musiker", die automatisch mehr oder weniger statisch klingenden Sound generieren. Weiter unterscheidet der Professor zwischen "KI-getriebenen Instrumenten-Interfaces", die es auch musikalisch Unbegabten ermöglichten, Songs zu erzeugen, sowie lernenden Systemen. Letztere ergänzen Fähigkeiten professioneller Komponisten oder anderer Musikmacher technisch beziehungsweise reichern sie mit den Schwerpunkten Inspiration, Kollaboration und stilistischer Ausdruck an.

Es gehe also nicht darum, dass KI "bessere" Musik erzeuge als der Mensch, sondern sich nützlich mache für Leute in der Kreativwirtschaft, meint der Wissenschaftler. Im Idealfall arbeiteten der Homo Sapiens und Maschinen auch in diesem Sektor künftig als Team zusammen. Dadurch werde der kreative Schaffensprozess erweitert, aber nicht ersetzt. Was oft noch fehle, seien Messwerte, mit denen Forscher automatisch erstellte Werke evaluieren könnten. Bisher sei es nur möglich, verfügbare Datensets zu vergleichen, womit Originalität aber nicht feststellbar sei. Eine Möglichkeit dafür könnte die Messung musikalischer Wahrnehmung im menschlichen Hirn sein.

Neue Ausdrucksmöglichkeiten für Musiker

Die Erkenntnisse des Wissenschaftlers decken sich weitgehend mit Ansichten, die Branchenvertreter und andere Experten zur laufenden Digitalisierungswelle im Musiksektor auf der Most Wanted Music vertraten. Die Idee von Melodrive sei es, mithilfe von KI Kollaborationswerkzeuge für neue Ausdrucksmöglichkeiten von Musikern zu schaffen, erklärte der Cheftechniker der Firma, Andy Elmsley. Es entstehe gerade dank der Technologie eine gigantische musikalische Spielweise, um adaptive und interaktive Formen hervorzubringen. Die erste Version der Melodrive-Software habe dabei noch zu viel aus dem kreativen Prozess mit dem Komponisten herausgenommen, räumte Elmsley ein. Für die zweite Stufe kündigte er mehr persönliche Einflussmöglichkeiten an, mit denen sich auch Spieler ihren "eigenen Soundtrack" schaffen könnten.

Die große Angst, dass gute Musik vom Computer zerstört wird, kann auch Jovanka v. Wilsdorf nicht teilen. Mit dem Heim-PC und dem Keyboard habe sich der Stil von Musik zwar geändert, echte Instrumente hätten aber auch ein Revival erlebt, weiß die Songschreiberin, die für BMG Rights Management auf der Talentsuche ist. Mit KI werde nun in dem Bereich sicher "viel Schrott" herauskommen ohne echte Schaffensfreude. Dazu träten aber mehr Optionen, das eigene Leben mit ständig neuen "Sound-Ästhetiken" zu untermalen. Außerdem sei die Gegenbewegung unvermeidlich, die auf den "echten Human Touch" setzen werde.

Pop-Blase

Die große Hoffnung, die v. Wilsdorf mit dem KI-Hype in der Industrie verbindet: Die "Pop-Blase" soll platzen. Dies sei absehbar, da sich auch auf weichgespülte Songs setzende Mainstream-Musiker künftig mehr anstrengen und sich differenzieren müssten, "um gegen die KI zu gewinnen".

Im Prinzip sei Künstliche Intelligenz ein Hilfswerkzeug für den Menschen, um Kunst zu generieren, sagt auch Diarmuid Moloney, Gründer von Rotor Video. Bei dem aktuellen Angebot des Startups kann der Nutzer "in zehn Minuten für 30 US-Dollar" ein Video für einen Song erzeugen. Das System, das in einer Betaversion online ist, untersucht die Musik anhand von Faktoren wie der Intensität des Begleitchors und produziert dazu passende visuelle Effekte.

Für die Sprachanalyse habe man "viel von Google" übernommen und darauf eigene Prozesse und Algorithmen aufgebaut, verrät Moloney. Auch "Elemente von Maschinenlernen und automatisierter Bilderkennung" seien im Spiel, um etwa sich bewegende Lippen auszumachen. Von "echter KI" will er aber noch nicht sprechen, lieber von einem "intelligenten Redaktionssystem". Um zu vermeiden, dass die davon produzierten Videos zu ähnlich aussehen, werde das visuelle Ausgangsmaterial immer wieder erneuert. Künftig wolle man auch mehr Personalisierungsmöglichkeiten schaffen oder Material etwa direkt von Drohnen aus einem Konzert einbinden. Ziel sei es, den Nutzern Optionen anzubieten, damit sie "unter die Haube der Technologie blicken können".

Neue Dynamiken

"Musik wird vollständig dynamisch", prophezeit der Berater Cliff Fluet. Die App AI Music weise in diese Richtung, da sie das Wesen der Musik an den Kontext anpasse, in dem sich der Hörer gerade befindet. Im Handumdrehen ließen sich mit der mobilen Anwendung etwa "Funky"-, "Chill down"- oder "Party"-Versionen bekannter Stücke erstellen. "Denken Sie dreidimensional, wenn es um Inhalte geht", empfahl der Brite dem Publikum. Vorbild sei der weitgehend personalisierte Newsfeed in sozialen Medien. KI sei aber auch ein wunderbares Kooperationswerkzeug, das Menschen zusammenbringen und gemeinsam einfacher musizieren lasse.

Vom "Tod der Musik" durch den smarten Rechner will auch Fluet nichts wissen. Schon die Beatles hätten im Studio produziert und die damals verfügbare Technik ausgereizt. Die Automatisierung verändere zwar viel, sie sei im kreativen Bereich aber kein Alleskönner und kein Patentrezept. Um lernende Systeme angemessen verwenden zu können, müssten sie einen handfesten Mehrwert für alle Beteiligten erzeugen.

Siehe dazu auf heise online:

(tiw)

Anzeige
Anzeige