Menü

Künstliche Intelligenz: Der Computer als Komponist

Lernende Maschinen erzeugen in Computerspielen und Filmen die Musik und nicht-lineare Erzählungen, woraus neue interaktive Medienformate entstehen.

Von
vorlesen Drucken Kommentare lesen 42 Beiträge
Künstliche Intelligenz: Der Computer als Komponist

Fabian Mrongowius und Designprofessor Thomas Langhanki

(Bild: Stefan Krempl)

Die Verheißungen interaktiver Medien, bei denen Nutzer unter anderem mithilfe von Virtual-Reality-Techniken völlig eintauchen können in verschiedenste Erzählstränge, sind mindestens so alt wie der Hypertext und die CD-ROM. Mit Algorithmen, die Musik und Geschichten mithilfe von Maschinenlernen und anderen Formen Künstlicher Intelligenz (KI) selbst entwickeln, sieht der Berliner Professor für Gamedesign, Thomas Langhanki, nun aber endgültig ein "goldenes Zeitalter" für eine neue Generation des "Storytelling" anbrechen. Der Gründer des Studios Experimental Game ist sich sicher: "Damit lassen sich interessante interaktive neue Medienformate erstellen, die vollständig immersiv sind."

Seine Firma habe mit der Anwendung Gamebook bereits eine "Produktionspipeline für nicht-lineare Erzählungen" auf den Markt gebracht, berichtete Langhanki am Freitag bei einer Podiumsdiskussion des Hybrid Music Lab in Berlin. "Wir selbst arbeiten noch nicht mit Künstlicher Intelligenz im Musikbereich, aber im Games-Business ist das schon weit verbreitet." Wenn man sich die Entwicklung von der 8-Bit- über die 16-Bit-Musik hin zu vollen, vom Computer weitgehend in Eigenregie erstellten Kompositionen anschaue, erkenne man, dass die Interaktionsmöglichkeiten mit Sound aus der Maschine schon deutlich zugenommen hätten. Musik sei aber nur ein Teil dieses Trends, der sich auf den gesamten Entertainment-Bereich erstrecke.

Bei Computerspielen etwa sei es hilfreich, wenn verschiedene Stationen und Abläufe mit ganz spezieller musikalischer Untermalung angereichert würden, führte der Designer aus. Dank KI könne die einschlägige Produktion deutlich schneller werden und sich besser direkt an den Nutzer anpassen. Künftig dürften die einschlägigen Algorithmen auch in der Lage sein, verschiedene Handlungsszenarien zu entwickeln oder 3D-Modelle für Charaktere zu erstellen. Am Ende werde ein "ganz anderes Medienerlebnis" stehen.

Fabian Mrongowius, Produzent am UFA Lab, berichtete von ersten Kooperationen mit einem skandinavischen Partner für den Einsatz Künstlicher Intelligenz am Filmset in den Bereichen Virtual Reality und "Immersive Sound". Eines der jüngsten Projekte in diesem Bereich sei ein "begehbarer Film" mit 3D-Hologrammen, die mit kommerzieller Software immer einfacher herstellbar seien. Vorher habe man mit einem 360-Grad-Video experimentiert. Die künstlichen Charaktere bewegten sich mittlerweile zwar nicht mehr so abgehackt "wie Lara Croft in den 90ern", das ein oder andere Manko sei aber geblieben: "Sie verfolgen einen nicht mit den Augen und wirken damit passiv."

Für Komponisten stehen laut Mrongowius mit KI-gestützter Software wie Flow Machines von Sony, NSynth von Magenta oder von Aiva Technologies im Kern "bessere Werkzeuge" für die eigene Arbeit am Rechner zur Verfügung. Für die Produktion von Geräuschkulissen und Hintergrundmusik für Computerspiele reichten diese oft aus, da die meisten Nutzer mitten im Fluss nicht sonderlich auf die Qualität der tonalen Untermalung achteten. Er könne sich auch gut vorstellen, dass der Computer entlang des persönlichen Musikgeschmacks künftig jedem etwa beim Spazierengehen einen individuellen Soundtrack einspiele passend zu den gegenwärtigen Gefühlen. Kreative Menschen bräuchten aber keine Angst vor der Technologie und vor Jobverlusten zu haben: "Es wird immer jemand nötig sein, der die Prozesse koordiniert oder überwacht."

Aus der Praxis brachte Valerio Velardo von der KI-Schmiede Melodrive das Ergebnis einer eigenen Untersuchung mit, wonach "adaptive", auf verschiedene Pfade und Handlungssituationen angepasste Musik aus dem Computer die mit Computerspielen verbrachte Zeit um 30 Prozent erhöhe. Technisch laufe die Produktion so ab, dass ein neuronales Netzwerk mit möglichst vielen Songs in einem Stil wie Klassik, Rock oder Grunge "gefüttert" werde. Der Algorithmus leite dann Regeln daraus ab, um die Musikrichtung nachzuahmen. "Wir versuchen dabei so zu denken wie ein Komponist", erklärte der Geschäftsführer. So experimentiere die Firma mit verschiedenen Funktionen für einzelne Stile. Parallel werde erforscht, wie sich entscheidende Hörerlebnisse formalisieren ließen, die für Menschen einfach verständlich seien.

Velardo beteuerte, dass Melodrive und vergleichbare Startups den menschlichen Komponisten und Songschreiber nicht ersetzen wollten. Vielmehr sollten diese von stupiden Aufgaben entlastet und die Einsatzbreite von Musik erweitert werden. KI-Programmierer und Komponisten würden künftig vielfach zusammenarbeiten. Zugleich beklagte der Techniker ausgewachsene Vorurteile von Menschen gegenüber Musik und Kunst, die von Maschinen generiert wurde. So würden Stücke regelmäßig schlechter eingeschätzt, wenn vorab bekannt sei, dass sie vom Rechner selbst produziert worden seien.

In einem Bereich herrscht aber offenbar bereits Gleichberechtigung: Berichten zufolge hat die französische Verwertungsgesellschaft SACEM die KI-Technologie von Aiva aus Luxemburg bereits als wahrnehmungsberechtigten Urheber eingeschätzt. Die Künstlermanagerin Annette Gentz hat trotzdem Bedenken gegenüber den "Schöpfungskräften" von Algorithmen. Sie vermisst dabei vor allem spontane Interaktionsprozesse bei der Produktion oder der Aufführung zwischen Komponisten und Redakteuren beziehungsweise live spielenden Künstlern und dem Publikum. Bei einem Konzert etwa entwickle sich eine ganz spezielle Atmosphäre, die man nicht vorhersehen könne und in der teils ganz unerwartete Geräusche entstünden. (Stefan Krempl) / (bme)

Anzeige
Anzeige