Scheideweg 2.0: Wird künstliche Intelligenz die Popmusik aufwerten oder pervertieren?

Wird die künstliche Intelligenz die populäre Musik zu neuen Höhen führen - oder das Leben aus ihr heraus perfektionieren?

Scheideweg 2.0: Wird künstliche Intelligenz die Popmusik aufwerten oder pervertieren?

Jesse Engel stellt seinen Laptop mit der Inbrunst eines besessenen Dirigenten ein, der in einer Partitur blättert. Er ist groß, Mitte 30, hat einen struppigen Bart und dunkles Haar, das ihm über die Schultern fällt. Mit seinen engen Jeans und dem kaleidoskopischen Muster auf seinem weißen T-Shirt sieht er eher aus wie ein Bassist auf Tournee als ein Google-Forscher.

Wir befinden uns im fünften Stock des Google-Büros in San Francisco, in einem gut ausgestatteten Musikstudio, um etwas über das Projekt Magenta zu erfahren, ein Open-Source-Projekt, das künstliche Intelligenz und maschinelles Lernen nutzt, um Tools für Künstler zu entwickeln. Magenta bietet Codes, mit denen die Benutzer basteln können, darunter künstliche neuronale Netze, die den Neuronen des menschlichen Gehirns nachempfunden sind und für die Ausführung verschiedener Aufgaben trainiert wurden. Außerdem bietet es eine Community für Kreative und Techniker, die ihre eigenen Experimente mit anderen teilen können.

An einem Trio von Keyboards (der musikalischen Art) sitzt Douglas Eck, ein leitender Forschungswissenschaftler bei Google. Der etwas adrett aussehende 48-Jährige ist derjenige, der 2015 das Projekt Magenta ins Leben gerufen hat. Es wurde im Juni 2016 der Öffentlichkeit vorgestellt.

Wir werden gleich eine Jamsession veranstalten. Das war nicht geplant; Eck und Engel wollten mir und meinem Freund und Bandkollegen Adam Davis eine Software vorführen. Aber Eck scheint darauf bedacht zu sein, die Dinge zufällig zu halten. Wie könnte man Magenta besser verstehen, als mit ihm zu jammen?

Ich stehe hinter einem elektronischen Schlagzeug. Davis schnappt sich eine Fender Strat. Eck sitzt hinter den Tasten und ist begierig darauf, loszulegen. Am Remin (ein elektronisches Instrument, das man spielt, indem man wie ein Zauberer mit den Händen darüber fährt) sitzt Kory Mathewson, ein Sommerpraktikant, der seine Freizeit damit verbringt, mit Robotern Improvisationskomik zu machen. Das, so erzählt mir Eck mit einem Grinsen, war ein Faktor bei der Einstellung von Mathewson.

Bleibt noch ein letztes Mitglied unserer Band: ein Programm namens A.I. Duet, das die Magenta-Technologie nutzt. Man spielt eine Melodie auf einer angeschlossenen Tastatur, und das Programm erkennt allgemeine Muster auf der Grundlage von Notenauswahl, Rhythmus, Synkopen und Musik, die es zuvor gehört hat. Dann generiert es neue Zeilen, fast im Stil von Call-and-Response. Die von uns verwendete Version kann die Zufälligkeit der Antwort steuern, je nachdem, wie hoch man die "Temperatur" einstellt. Engel wählt die Bassgitarre für den Sound und beginnt, Melodien zu improvisieren. Sobald er eine Antwort erhält, die ihm gefällt, fixiert er sie. Er nimmt eine schwarze Gibson Les Paul-Gitarre, und der Jam beginnt.

Was dabei herauskommt, ist okay, aber ich bin mehr beeindruckt von der Basslinie, die aus dem A.I. Duet kommt. Wenn wir eine richtige Band wären, würden wir sicher wieder damit jammen. Musiker sind oft auf der Suche nach neuen Ideen, und dieses Programm scheint perfekt zu sein, um einen unendlichen Vorrat davon auszuspucken.

"Es ist, als hätte man einen weiteren Musiker im Raum", sagt Davis. Auch er probiert sich an Duet. Sobald er sich an das Instrument gewöhnt hat, fängt er an, außerhalb der Linien zu malen, sehr zur Freude unserer Bandkollegen. ("Wir sind wirklich gespannt darauf, wie die Leute das hinkriegen", sagt Engel.) Er dreht die Temperatur ganz hoch und produziert manische, unheimliche Melodien, die denen, die er eingegeben hat, kaum noch ähneln. Er spielt "Twinkle, Twinkle, Little Star", nur um zu sehen, was passiert. Bei voller Temperatur klingt es wie ein Weihnachtslied, das einen schlechten Trip hat.

"Technologie ist unglaublich wichtig für die Kunst", sagt Eck: "Stell dir vor, du schlägst diesen Gitarrenakkord an, ohne deine Gitarre anzuschließen. Jetzt schließt du sie an diesen fantastischen Verstärker an. Man verlässt sich sehr auf die Technologie, um die Arbeit zu erledigen."

Was sie tun, fügt er hinzu, ist vergleichbar mit dem Bau eines besseren Gitarrenpedals - sogar der E-Gitarre selbst. Das ist zumindest die Hoffnung. Im Moment sind sie noch nicht sicher, wie sich die Technologie auf die Musik auswirken wird oder ob sie so eingesetzt wird, wie sie es beabsichtigen. Das erinnert mich an Auto-Tune, die Aufnahmesoftware, deren ursprüngliche Funktion darin bestand, die Tonhöhe von Gesangsspuren für fade Popmusik zu korrigieren; Rapper wie T-Pain und Kanye West haben sie dann auf den Kopf gestellt, indem sie ihre Eigenschaften ausreizten und einen seltsamen neuen Sound kreierten.

Was auch immer mit der KI-Musikgenerierungstechnologie geschieht, Eck hat das Gefühl, dass es monumental sein wird: "Wir werden den Musikern folgen", sagt er, "wenn jemand etwas aufgreift, was wir machen, und etwas Großartiges damit macht, werden wir wahrscheinlich sagen: 'Oh, lasst uns mehr davon machen!'"

Wenn ich Eck zuhöre, merke ich, dass sein Gehirn darauf ausgerichtet ist, sich mit Algorithmen zu beschäftigen, aber es ist seine Leidenschaft für Musik, die ihn dazu bringt, Tools für Musiker aller Art zu entwickeln. Als ich ihn nach seiner eigenen Musik frage, bin ich überrascht zu erfahren, dass er seine Salattage nicht vor Synthesizer-Bänken verbracht hat; er erzählt mir schüchtern von seinen Erfahrungen mit dem Gitarrenklimpern in halbvollen Cafés.


Die Verbindung von künstlicher Intelligenz und Musik ist nicht neu, ebenso wenig wie die Debatte über den angemessenen Anteil an menschlichem Input. In den 1950er Jahren schrieben die Avantgarde-Komponisten Lejaren Hiller und Leonard Isaacson mit Hilfe eines Computers die "Illiac Suite", eine Partitur, die aus statistisch generierten Noten besteht, die bestimmten musikalischen Prinzipien folgen - zum Beispiel der harmonischen Interdependenz - und deren Regeln auf dem Wissen der Komponisten über traditionelle Musik basieren.

Bis vor kurzem blieb die KI-gestützte Musik vor allem im akademischen Bereich. Jetzt engagieren sich Google, Sony, IBM und andere Unternehmen in großen Forschungsprojekten. Und Start-ups wie Jukedeck, das mit Hilfe von KI Jingles und Hintergrundmusik für Videos generiert, und Brain.fm, das funktionale, von KI generierte Musik (zur Entspannung, Konzentration, zum Einschlafen usw.) erstellt, machen mit dieser Technologie Kasse.

Die verschiedenen Gruppen erzielen ähnliche Ergebnisse, aber jede hat ihre eigene Agenda. Google arbeitet an Tools für Künstler und entwirft offene, experimentelle Programme mit dem Ziel, die Kreativität zu fördern. Jukedeck konzentriert seine Ressourcen auf die Benutzerfreundlichkeit und wendet sich an Unternehmen, die Geld für Video-Soundtracks sparen wollen. Der Mitbegründer von Jukedeck, Patrick Stobbs, erzählt mir, dass das Unternehmen hofft, seinen Kundenstamm auf alle erweitern zu können, die sich für das Musikmachen interessieren: Es möchte die Technologie nutzen, um angehenden Musikern zu helfen, Songs zu schreiben, ohne ein Instrument spielen zu müssen.

"Ähnlich wie Instagram es einfacher gemacht hat, großartige Fotos zu machen, sehen wir Jukedeck als ein kreatives Werkzeug, mit dem viel mehr Menschen einfach und mit mehr Power Musik machen können", sagt er.

Eine Handvoll Musiksoftware-Apps, die eine ähnliche KI-Technologie verwenden, sind vor fast einem Jahrzehnt aufgetaucht, mit meist erschreckenden Ergebnissen. Microsofts Songsmith erzeugt Casio-Keyboard-ähnliche Begleitungen zu A-cappella-Gesangsstücken. Das Programm inspirierte zu zahllosen witzigen Videos, z. B. Freddie Mercurys mitreißende Performance von "We Will Rock You" zu einem Sound, der an lateinische Muzak erinnert.

Seitdem hat sich viel verändert, auch wenn Technologie und Geschmack weiterhin aufeinanderprallen. Letztes Jahr bekam die Welt einen kleinen Vorgeschmack darauf, wie KI-generierte Musik klingen wird, wenn sie in naher Zukunft auf den Markt kommt. Der Produzent Alex Da Kid arbeitete mit dem IBM-Supercomputer Watson zusammen, um die eingängige, emotionale Ballade "Not Easy" zu kreieren. Watson wertete fünf Jahre lang kulturelle Daten aus, darunter Schlagzeilen, Internetsuchen, Filmzusammenfassungen und Social-Media-Inhalte, um Trends und die damit verbundenen Emotionen der Menschen zu analysieren. Außerdem verarbeitete er mehr als 26.000 aktuelle populäre Songs, um gemeinsame Themen und musikalische Muster zu finden. Anhand dieser Informationen ermittelte der Supercomputer den "emotionalen Fingerabdruck" der jüngeren Geschichte und die musikalischen Komponenten, die bei den Zuhörern starke emotionale Reaktionen auslösten. Anhand dieser Daten wählte Alex dann das Thema Herzschmerz sowie musikalische Phrasen und Textfragmente aus, die ihm gefielen.

Mit einem Grammy-Nominierten an der Spitze entstand ein Song, der sich an ein möglichst breites Publikum richtete: "Not Easy" erreichte innerhalb von 48 Stunden Platz vier der iTunes Hot Tracks-Charts und war dabei völlig vergesslich, abgesehen von der Geschichte dahinter. Bei dem Versuch, die emotionale Temperatur von Millionen von Menschen zu messen, schien der Song... nichts auszudrücken. Der Auto-Tune-Vergleich drängt sich erneut auf: In den Händen derer, die die populäre Musik perfektionieren wollen, könnte die KI-Technologie ihren endgültigen Erfolg sehr wohl dadurch erreichen, dass sie das Leben aus ihr heraus digitalisiert.

Die Sony Computer Science Laboratories in Paris haben im Sommer 2012 mit finanzieller Unterstützung des Europäischen Forschungsrats ein fünfjähriges Projekt zur Entwicklung von KI-gestütztem Pop begonnen. Das Ergebnis liegt irgendwo zwischen "Not Easy" und Magenta. Der Direktor des Sony CSL, François Pachet, ein Informatiker und Jazz- und Popmusiker, beschäftigt sich seit den 1990er Jahren mit Musik und KI. Er und sein Team haben direkter mit Künstlern zusammengearbeitet als Google, und ihr Ziel - innovative Popmusik mit Indie-Künstlern unter Verwendung einer Reihe von Algorithmen namens Flow Machines zu kreieren - legt den Schwerpunkt auf den Output.

Ein von Flow Machines unterstützter Song, "Daddy's Car", ging letzten September viral. Der Song, der in Zusammenarbeit mit dem französischen Komponisten Benoît Carré entstand, klingt verblüffend nach den Beatles aus der Mitte der 1960er Jahre - vielleicht, weil Flow Machines bei der Erstellung des Songs ausschließlich mit Tracks der Fab Four gefüttert wurde.

"Daddy's Car' war ein bisschen wie eine Nachahmung", sagt Fiammetta Ghedini, Kommunikationsbeauftragte von Sony CSL, "es ist eine Stilübung. Man hat eine Erwartungshaltung, was passieren würde, wenn die Beatles wieder zusammen wären."

Flow Machines' Verständnis von "Stil" ist datenabhängig, d. h. man trainiert es auf bestimmte Musik und es sagt voraus, welche Art von Entscheidungen jemand treffen würde, der in diesem Stil komponiert. Mit anderen Worten, es versteht die Regeln der Musik allein auf der Grundlage des gewählten Datensatzes und der vom Programmierer festgelegten Einschränkungen. Das Programm gab Carré mehrere Beatles-eske Melodien und Akkordvorschläge, aus denen er den Song zusammenstellen konnte.

Um mir das künstlerische Potenzial von Flow Machines zu verdeutlichen, zeigt mir Ghedini einen anderen, weniger populären Song, den Carré mit der Software geschrieben hat: "Mr. Shadow", dessen Datensatz aus 429 Liedern "klassischer amerikanischer Songwriter" wie Cole Porter, George Gershwin, Richard Rodgers und Vernon Duke besteht. Ich höre mir das Stück mehrmals hintereinander an und kann es nur als "beunruhigenden Avant-Pop" beschreiben: Die Akkordfolgen sind ahnungsvoll, die Melodie verträumt und bedrohlich zugleich. Ein YouTuber kommentiert: "Perfekte Musik für die Zeit, in der Terminatoren in ein paar Jahrzehnten Menschen mit Gatling-Gewehren töten" Ich weiß nicht, ob mir der Song gefällt, aber ich habe das Gefühl, dass ich einen Einblick in eine andere Art von Musik bekomme, und ich will mehr.

Ein Pariser Konzert aus dem Jahr 2016 mit mehreren Künstlern, die mit Flow Machines zusammengearbeitet haben, von denen viele auf YouTube zu sehen sind, bietet diesen Einblick. Die Ergebnisse sind alle künstlerisch faszinierend und einzigartig und weitaus interessanter als der Song von Alex Da Kid. Carré hofft, noch in diesem Jahr ein Album mit seiner Musik mit Flow Machines zu veröffentlichen. Andere Künstler könnten diesem Beispiel folgen.

Google arbeitet in begrenztem Umfang mit Künstlern zusammen. Eck zieht es vor, dass seine Werkzeuge für experimentelle Musik eingesetzt werden, anstatt Hit-Singles am Fließband zu produzieren oder funktionale Hintergrundmusik zu erzeugen, auch wenn dies potenziell große Märkte sind. (Jukedeck hat große Fortschritte bei der Schaffung einer unbegrenzten Bibliothek von lizenzfreien Videotracks gemacht, was gut für die Produktionsbudgets, aber schlecht für die Komponisten ist). Er hofft, die künstlerische Richtung der Musik zu beeinflussen, und der beste Weg, dies zu tun, besteht seiner Meinung nach darin, innovativen Künstlern, die vielleicht nicht dem Mainstream-Geschmack entsprechen, Werkzeuge an die Hand zu geben.

"Wir sollten aktiv versuchen, Musik zu machen, die nicht jedem gefällt", sagt Eck, "wenn sie ein bestimmtes Publikum erreicht, auch wenn sie ein anderes abschreckt, ist das ein Gewinn. Es gibt immer diesen Neuheitseffekt, den man bei etwas Neuem und Verrücktem hat. Kommen sie nächste Woche wieder und sagen: 'Oh, da ist noch ein Song von diesem AI. Auch hier bietet die Popmusik eine Analogie: So wie Megastars von Madonna bis Beyoncé sich von den Rändern inspirieren ließen, werden die Popstars von morgen die Innovationen von KI-unterstützten Underground-Künstlern in ihre MOR-Chartstürmer einflechten.

Eduardo Reck Miranda, ein britischer Professor, der sich seit Mitte der 1980er Jahre mit diesem Thema beschäftigt, hat ein besonderes Herz für die seltsamen Risse in der Musik, die KI beleuchten kann.

Der aus Brasilien stammende Miranda war ursprünglich Komponist, wurde aber von der Technologie angezogen, um seine Musik aufführen zu können. Seine Begeisterung für dieses Thema ist ansteckend. Er erzählt mir von seiner Komposition "Symphony of Minds Listening", für die er eine KI-Software entwickelt hat, die Beethovens 7. Sinfonie neu abmischt und mithilfe von Gehirnscans dekonstruiert, wie Menschen die Musik hören.

"Können Maschinen das tatsächlich tun? Das war die Frage, die wir uns stellten", sagt er, "aber als wir dann feststellten, dass Maschinen das tatsächlich können, und als wir uns ansahen, wie langweilig die Musik ist, verschob sich die Frage: Wie können diese Maschinen etwas Sinnvolles tun?"

Ein Großteil der Technologie, die dieser Debatte zugrunde liegt, wurde bereits vor den Experimenten von Miranda, Eck und Pachet entwickelt. Und ein Großteil des Verdienstes an dieser Technologie gebührt David Cope - einem modernen Mystiker und einem Mann, der die Beziehung zwischen künstlicher Intelligenz und dem kreativen Gehirn vielleicht besser versteht als jeder andere.


Rund 30 Jahre lang war Cope Fakultätsmitglied an der University of California, Santa Cruz. Heute, mit 76 Jahren, komponiert der sanftmütige Ex-Professor weiterhin Musik und verfolgt andere künstlerische Bestrebungen, wobei er vor allem KI einsetzt.

Als ich die Treppe in Copes gemütliches Haus in Santa Cruz hinaufsteige, warnt er mich: "Machen Sie sich auf einen wirklich verrückten Moment in Ihrem Leben gefasst", und öffnet ohne weitere Erklärung die Tür zu seinem Büro, um einen Raum zu öffnen, der im direkten Gegensatz zum Rest des Hauses völlig unordentlich ist. Von der Decke hängen Dutzende von Windspielen. Überall liegen Bücher und andere Gegenstände herum, als hätten sie gerade einen Tornado überlebt. In der Mitte des Raumes steht ein Heimtrainer.

Das Chaos, so erklärt er mir, ist beabsichtigt: Es ermöglicht ihm, zwei beliebige Objekte zu betrachten und zu versuchen, eine Beziehung zwischen ihnen herzustellen. So wie seine Software der Musikerzeugung dient, ist die Unordnung eine kreative Aufforderung, die die überraschende Kraft des Zufalls nutzt. Es sagt viel über die Grundlagen aus, wie das alles funktioniert.

Cope schreibt Algorithmen, seit er ein Teenager war. Er hat etwa 100 Bücher verfasst, wobei die Abschnitte über computergenerierte Musik bereits 1977 auftauchten. Im Jahr 1980 begann er ein Langzeitprojekt mit dem Namen Experiments in Music Intelligence, das später in EMI und dann in Emmy abgekürzt wurde, um Urheberrechtsprobleme mit der Plattenfirma zu vermeiden. In den 1990er Jahren begann er mit der Entwicklung eines neuen Programms, Emily Howell. Normalerweise gibt er das nicht zu, aber er gab ihm einen menschlichen Namen, auch um die Neinsager zu ärgern, die behaupten, dass Maschinen die menschlichen Komponisten arbeitslos machen würden. Er erlaubt sich ein kleines Lachen darüber: "Sie tun, was wir ihnen sagen", sagt er, "sie haben kein Selbstbewusstsein. Sie haben kein Bewusstsein. Ich definiere KI als das Studium der Verwendung von Computern, um das menschliche Gehirn und seine Funktionsweise zu verstehen. Das ist alles, was es ist."

Er bittet mich zu überlegen, was Komponisten tun, wenn sie schreiben. Ich bin mir nicht sicher.

"Wir klauen", sagt er, "was bedeutet, dass der wichtigste Teil deines Algorithmus gar kein Algorithmus ist. Ich interpretiere das als den Flickenteppich aus Melodien, Stimmungen und Stilen, den Künstler bei der Schaffung ihrer eigenen Werke zusammensetzen. Cope erkannte, dass Computer auf die gleiche Weise funktionieren müssen.

Im Jahr 1988 erstellte er einen Datensatz mit Hunderten von Beispielen seiner eigenen Musik. Innerhalb von etwa 24 Stunden komponierte Emmy "Cradle Falling", das Cope für eines der besten Musikstücke hält, die er je geschrieben hat. Das Anhören dieser Komposition und anderer Emmy-Stücke bestätigte seine Theorie, dass Komponisten stehlen: "Es brachte Dinge zum Vorschein, von denen ich nicht wusste, dass sie so explizit in meiner Musik vorkommen, nämlich die Komponisten, die mich am meisten beeinflussen."

Ich erkenne, dass das, was Google und Sony mit Deep Learning machen, eine direkte Erweiterung von Copes datenabhängigem Ansatz ist. Miranda stimmt dem zu, fügt aber hinzu, dass der Ansatz unvollständig ist, was zum Teil der Grund dafür ist, dass sein kreativer Prozess immer experimentell war.

"Ein einzelnes Stück KI-Software ist nicht in der Lage, die Art und Weise, wie wir Musik machen, vollständig zu verkörpern", sagt Miranda, "das Beste, was wir tun können, ist, das Problem auf bestimmte Aspekte zu beschränken."

Dies führt zu einer weiteren verwirrenden Eigenart kreativer generativer Modelle: KI-Musik hat keinen klaren Maßstab für den Erfolg. Sprachübersetzungssoftware hat in den letzten Jahren dank der Technologie des maschinellen Lernens riesige Sprünge gemacht. Wir können uns alle darauf einigen, wie erfolgreich sie ist, weil die Ergebnisse objektiv sind. Aber wie können wir uns über den Wert der von KI-Software produzierten Musik einigen - Erfolg in den Charts? Popularität an der Basis? Kritischer Beifall? Eck und sein Team bei Google definieren ihn durch das anhaltende Interesse der Künstler. Wenn Musiker diese Tools auch nach dem Abklingen der anfänglichen Begeisterung weiter nutzen, weil sie glauben, dass die Ergebnisse, die sie erhalten, gut sind - unabhängig davon, was das Publikum denkt -, dann wird die KI ihren festen Platz im riesigen, unübersichtlichen Reich der Musik einnehmen.


Nachdem wir Google verlassen haben, sprechen Davis und ich über die Erfahrung: "Mir hat es gefallen, zu sehen, wo die Dinge anfangen, zusammenzubrechen", sagt er. "An bestimmten Punkten würde es aus den Fugen geraten. Es wusste nicht, was es mit den Informationen anfangen sollte, die ihm gegeben wurden. Das hat wirklich interessante Musik erzeugt."

Jason Freidenfelds, Senior Communications Manager bei Google, ist der Meinung, dass die Auswirkungen der KI auf die Musik weit über die einzelnen technologischen Fortschritte hinausgehen werden.

"Sie könnte so groß sein wie der ursprüngliche Wechsel von Menschen, die Musik hauptsächlich mit ihrem eigenen Körper machten, hin zur Herstellung von Instrumenten, die ihre eigenen einzigartigen Eigenschaften und Klänge hatten", sagt er, "KI könnte mit diesem Sprung von einfachen Objekten zu komplexen Instrumenten mithalten. Jetzt werden die Instrumente selbst intelligent sein. Sie werden nicht nur einzigartige Klänge produzieren, sondern auch einzigartige Ideen für neue Klangfarben oder Melodien, auf die Musiker dann zurückgreifen können."

Später schickt mir Freidenfelds zwei neue, von Magenta generierte Klaviertracks, die ohne jeglichen menschlichen Input entstanden sind. Ihre Komplexität und Nuanciertheit schockieren mich.

Viele Künstler und Musikfans haben berechtigte Angst, dass die KI-Technologie ehrliche Leute in die Arbeitslosigkeit treibt und die Kreativität auf den kleinsten gemeinsamen Nenner drückt. Aber Davis' Drang, mit den Werkzeugen zu spielen und die Schwachstellen zu finden, ist genau das, worauf Innovatoren wie Eck, Engel, Miranda und Pachet setzen. Computer machen schließlich auch Fehler, genau wie wir. Und der seltsame, unvollkommene und unvorhersehbare menschliche Instinkt ist der Motor, der der KI die Macht geben wird, die Musik neu zu definieren.