KI in der Musikproduktion – Ein Statement.
Es ist Zeit, über etwas Ernstes zu reden: Künstliche Intelligenz in Musik. Ich habe sehr lange darüber nachgedacht, zu welchem Ausmaß ich es nutzen würde, tolerieren oder ablehnen würde. Machine Learning Algorithmen in der Komposition und Musikproduktion werden uns in den nächsten Monaten und Jahren beschäftigen und es liegt an uns, wie wir damit umgehen.
Wie ich künstliche Intelligenz in der Musik sehe
Nach den ersten Gerichtsverfahren und Social Media Hypes, wird der Musikszene klar, dass sie sich auch mit dem Thema künstliche Intelligenz und Machine Learning beschäftigen muss. Ich bin mir sicher, dass der technologische Fortschritt solch eine erschütternde Auswirkung haben wird, der vergleichbar ist mit DAW Software, die 4-Track Kassetten für immer abgelöst hat. Junge Produzent*innen werden die Chance ergreifen, mit der Stimme ihrer Träume zu arbeiten, neue Beats zu generieren oder kreative Blockaden mit generiertem Content meistern. Auf der anderen Seite haben wir bekannte Künstler*innen, die um Verwertungsrechte kämpfen und Angst davor haben, dass ihre Werke im falschen Licht erscheinen. Ich verstehe beide Ansichten und habe mir daher gut überlegt, wo ich meine Grenze ziehe. Wo ist künstliche Intelligenz eine potenzielle Gefahr – Und wo ein Potenzial?
Ich könnte profitieren von:
- Amp Simulationen, Hall und anderen Effekten
- Algorithmen für Pitch und Tempo-Korrektur
- Algorithmen zum Säubern von Aufnahmen
- Sounddesign durch neue Synthesizer Architekturen
- Nachschlagewerke für Reime, Metrik, Synonyme
- Tools zur Analyse von Frequenzen, Dynamik, Lautheit
Ich bin gegen:
- Generierung ganzer Songs und Backing Tracks
- Generierung von Texten oder Songteilen
- Stiladaption, Remixe und Mash Ups
- Extraktion einzelner Spuren aus fertigem Material
- Ersetzen der Stimme durch berühmte Sänger*innen
- Künstlichen Gesang
- Automatisches Mixing und Mastering
- Verwendung meiner Kunst als Trainingsdaten für Algorithmen
Ein klares Statement
Jedes Musikstück, das ihr auf meinem Social Media Kanälen hören werdet, wurde von Menschen gespielt, aufgezeichnet, bearbeitet, programmiert und gemischt. Ich werde die ein oder andere Software für Sounddesign und Programming nutzen, als auch Tools zur Mixinganalyse, aber ich werde keinen Content mit künstlicher Intelligenz erstellen. Da ich mich vorwiegend als Komponistin sehe, nutze ich keine kompletten Songteile, Akkordfolgen oder markante Melodien aus der Konserve (Sampling) – ähnliches gilt für die bewusste Generierung dieser Inhalte durch künstliche Intelligenz. Ich habe kein Problem mit kleineren Fehlern, Patzern und unperfekten Stellen, denn mein Grund Musik zu machen ist sich mit anderen Künstler*innen zusammenzutun, Kreativität auszutauschen und kleinere Künstler*innen zu unterstützen. Deswegen werden von Menschen eingespielte Spuren *immer* Vorang haben.
Es fühlt sich für mich falsch an, Personen zu unterstützen, die künstliche Intelligenz zur Generierung von kreativen Inhalten verwenden und es als ihre eigene Arbeit deklarieren. Natürlich steckt in der Generierung der Prompts und Optimieren der Parameter Fleiß und Wissen, aber es kann nicht mit der Kreativität und Handwerk konventioneller Kunst gleichgesetzt werden. Ich freue mich, dass diese Personen einen Weg gefunden haben, sich auszudrücken, aber ich werde keine Kommentare, Reposts oder Käufe tätigen. Für mich ist es selbstverständlich alle Quellen und Beteiligte zu nennen und dazu gehört nun mal auch KI. Dann kann jeder für sich selbst entscheiden, inwiefern er oder sie das unterstützt.
Warum ist KI eine Bedrohung und Chance für Musik?
Technisches Wissen wird obsolet
Ich habe zwanzig Jahre meines Lebens damit verbracht, mir das Komponieren, Analysieren, Arrangieren, Strukturieren und Mischen beizubringen. Ich besitze viel Wissen über Instrumente, Spieltechniken, Gesangstechniken, Frequenzräume und kenne durch mein Studium die ganze Mathematik und Physik hinter all den Knöpfen eurer Kompressoren, Spektrometer und Hallgeräte. All dieses Wissen wird obsolet, wenn Algorithmen Melodien generieren und über die Dynamik und Instrumentierung entscheiden. Wieso sollte man all das lernen, wenn man einen Algorithmus trainieren kann, ein AC/DC Gitarrenriff zu komponieren, durchschnittliche Gesangsaufnahmen zu Freddie Mercury zu verwandeln und wie Steve Albini zu mischen? Wir stehen auf den Schultern von Giganten und nutzen dieses Wissen statt zu verstehen, WARUM es so wertvoll ist. Natürlich geht noch nicht alles auf Knopfdruck, aber es ist eine Frage der Zeit. Ich habe ein Problem mit dieser Einstellung!
Ihr könnt damit argumentieren, dass virtuelle Instrumente, Step Sequenzer, Presets, Reimwörterbücher, Samples und Funktionstheorie dasselbe tun – aber ich sehe all das als Low Level Tools an. Sie helfen einen zu lernen und zu wachsen, und man hat trotzdem die Freiheit neue Dinge auszuprobieren, wenn wir das Grundwissen besitzen. Beispielsweise kann man kein realistisches Schlagzeug programmieren, wenn man nie vor einem echten Schlagzeug saß oder sich monatelang Videos von Schlagzeuger*innen ansehen hat. Wenn ich mir MIDIs oder Samples kaufe, komme ich zwar zum Ziel, überspringe jedoch den Lernprozess und damit auch die Wertschätzung gegenüber denen, die Schlagzeug gelernt haben.
Fehlende Transparenz und Nachvollziehbarkeit
Die Machine Learning Algorithmen, die ready-to-use Content oder Deep Fakes erstellen, benötigen keinerlei Wissen über Physik, Musiktheorie und Instrumente. Sie können uns aber auch nicht sagen, wie sie zu diesem Resultat gekommen sind. Es sind schwarze Kisten, die nichts anderes tun als Wahrscheinlichkeitsrechnung in multidimentionalen mathematischen Räumen. Bloß, dass wir die Trainingsdaten oftmals nicht kennen und auch keine Ahnung haben, welche Parameter wofür stehen. Hinzu kommt, dass Machine Learning Algorithmen einen Bias haben können. Das heißt, sie arbeiten nicht vorurteilsfrei und können eine Präferenz für bestimmte Ergebnisse haben.
Wir Musiker*innen werden eine schwere Zeit vor uns haben, wenn KI Algorithmen in der Lage sind, große Teile von Songs oder komplette Spuren zu generieren. Der Markt wird voller Fakes, Bootlegs und Interpolationen sein. Wie würdest du dich fühlen, wenn du einen Song hörst, der sich genauso wie deine Musik anhört, obwohl du ihn nie geschrieben und gespielt hast? Wie würdest du dich fühlen, wenn jemand anderes das Tantiemen für die Verwendung deiner Stimme erhält? Ich habe ein ethisches Problem damit – Insbesondere wenn es keine Zustimmung vorliegt oder der Inhaber bereits gestorben ist. Es gibt nämlich kein Copyright auf Stimmfarben und Stile. Die Gerichte werden sich immer häufiger mit diesem Thema beschäftigen müssen. Es geht hier um viel mehr als Tribute Bands und Coverversionen.
Musik wird austauschbar
Musik wird sich schneller wandeln als bisher. Sie wird austauschbar, beliebig und damit an Wert verlieren. Gut ausgebildete Musiker*innen werden Artefakte erkennen können, aber die Algorithmen werden besser und den Markt fluten. Bald werden wir viele top abgemischte, durchschnittlich geschriebene Songs hören. Es ist nur eine Frage der Zeit, bis jeder mit dem Smartphone 2 Minuten Stücke im Stil von wem auch immer erstellen kann. Manche werden es lieben sich kinderleicht kreativ austoben zu können, andere werden lieber ein Livekonzert ansehen, um die Menschen dahinter zu unterstützen. Meine Sorge gilt vor allem den Heimproduzent*innen und Songwriter*innen, die ihr Handwerk viele Jahre gelernt haben, nicht live auftreten und gegen eine Masse ankämpfen müssen.
Optimierte Workflows und Soundqualität
Ich bin nicht gegen künstliche Intelligenz, ich mache lediglich eine Unterscheidung zwischen generierenden und analysierenden Anwendungen. Neue Amp Simulationen und Synthesizer werden das Klangerlebnis steigern. Wie wäre es denn damit nur ein Effektpedal zu nutzen statt Dutzende? Eine zehn Jahre alte Probeaufnahme brauchbar zu machen? Probleme im Mix zu finden, wenn die Ohren nachlassen? Das ist nur eine Handvoll der Anwendungen, wo ich künstliche Intelligenz als Chance wahrnehme.
Auswirkungen auf Cover und Musikvideos
Immer häufiger werden wir uns daran gewöhnen müssen, dass Künstler*innen mangels Budget ihre Cover, Visualisierungen und Musikvideos von KI generieren lassen. Ich kann verstehen, wieso man sich dieser Tools bedient, möchte aber hier auch darauf hinweisen, dass für das Training oft Daten benutzt wurden, die nicht von den Künstler*innen genehmigt wurden. Aus ethischen Gründen möchte ich die Nutzung dieser Tools vermeiden bis komplett einstellen. Ich zeichne und gestalte selbst gerne und möchte Fotographen und Illustratoren fördern. Für etablierte Bands habe ich *keinerlei* Verständnis, da sie sich auch in Vergangenheit Graphiker*innen buchen konnten. Dadurch entfällt eine weitere Einnahmequelle kleiner und mittelgroßer Freelancer.
Zusammengefasst
Wie ihr klar an der Länge dieses Artikels erkennen könnt, ist Künstliche Intelligenz in der Musik ein Thema, das mich sowohl als Komponistin, Produzentin, Künstlerin wie auch Wissenschaftlerin berührt. Die Revolution kann nicht mehr aufgehalten werden, aber wir müssen über Regulierung und Kennzeichnung sprechen, bevor der Musikmarkt geflutet wird. Ich befürworte eine transparente, vertrauenswürdige und gerechte Nutzung. Ich persönlich unterstütze keine generierten Inhalte, aber ich befürworte Weiterentwicklung von Effektgeräten und Analysetools.