INTERVIEW: LISANNE DEHNBOSTEL
Künstliche Intelligenz (KI) klont Stimmen wie die des Rappers Eminem, schreibt neue Songtexte – und macht das Komponieren selbst für Musikneulinge möglich. Seit den letzten Jahren werden die Softwareprogramme immer besser. Eines davon hat Ali Nikrang entwickelt. Er ist Professor für Künstliche Intelligenz und Musikalische Kreation an der Hochschule für Musik und Theater München (HMTM).
P.M.: Herr Nikrang, Sie beschäftigen sich seit über 15 Jahren mit Musik und KI. Können Sie sich noch daran erinnern, als Sie das erste Mal ein KI-generiertes Musikstück hörten?
ALI NIKRANG: Ich fand es von Beginn an faszinierend, dass diese Musik wirklich im Stande war, in uns Emotionen hervorzubringen. Denn gleichzeitig wusste ich ja, dass sie nur aus Berechnungen entsteht. Ich habe sehr viele Stücke gehört, vor allem auch in der Zeit, als die KI noch nicht so gut war. Aber das erste Mal, wo es wirklich gut war, ging es um ein Stück, das ich mit MuseNet von OpenAI gemacht habe. Das war 2019.
P.M.: Wie entwickelt die KI ein Musikstück?
ALI NIKRANG: Hauptsächlich wird generative KI eingesetzt. Dabei generiert eine KI Inhalte nach dem Prinzip der Wahrscheinlichkeit. Im Fall von Musik geht es zum Beispiel um die Wahrscheinlichkeiten der nächsten Note, basierend auf allen vorangegangenen Noten. Die KI ermittelt die nächsten Noten, die in einem ähnlichen Kontext am häufigsten vorkommen. Auch ChatGPT funktioniert nach diesem Prinzip, nur dass es ums nächste Wort geht. Bei uns Menschen ist es im Übrigen ähnlich. Vieles, was wir sagen, hat mit Mustern im Gehirn zu tun, die sich durch Wiederholung gebildet haben.
P.M.: Wenn die Neukomposition eines KI-Stückes nur auf Wahrscheinlichkeiten beruht: Wie kreativ kann generative KI dann sein?
ALI NIKRANG: Ich würde sie durchaus als kreativ bezeichnen. Denn die KI hat zwar die Aufgabe, Daten zu generieren, die statistisch ähnlich wie die im Trainingssatz sind – aber doch nicht gleich sind. Das wäre künstlerisch uninteressant. Die KI ist also gezwungen, mit neuen Ideen zu kommen.
DIE KI IST GEZWUNGEN, MIT NEUEN IDEEN ZU KOMMEN
P.M.: Die KI erschafft also völlig neue Kompositionen?
ALI NIKRANG: Auf jeden Fall. Das können wir schon jetzt beobachten. Die KI wird mit Daten aus vorhandenen Musikstücken trainiert. Es gibt unzählige Möglichkeiten, wie die KI die Eigenschaften dieser Daten kombinieren kann, zum Beispiel verschiedene Stile, Instrumente und Spielarten. So entsteht etwas Neues. Allerdings kann die KI vorerst nur im Rahmen der Trainingsdaten bleiben. Wenn man etwas ungewöhnlich Neues erschaffen will, müssen Menschen die KI zunächst anleiten. Es braucht also die Intention und Initiative von Menschen.
P.M.: Wie bringt man die KI dazu, etwas Einmaliges zu kreieren?
ALI NIKRANG: Man kann versuchen, die KI in einen Kontext zu bringen, den es so im Datensatz oder auch in der Realität nicht gibt. Ich würde das gern anhand eines Beispiels aus dem Bildbereich beschreiben, weil das leichter vorstellbar ist. Angenommen, man möchte mit der KI ein ungewöhnliches Bild erzeugen: ein rotes Klavier mit einer weißen Katze drauf. Ein solches Bild wird wahrscheinlich im Datensatz nicht vorkommen. Trotzdem kennt die KI die einzelnen Eigenschaften. Die KI weiß, was ein Klavier, eine rote Farbe, eine Katze und eine weiße Farbe ist. Deshalb kann man die KI diese Eigenschaften in einer neuen und gleichzeitig realistischen Art und Weise kombinieren lassen. Es ist aber wichtig, dass die Menschen dabei die Initiative übernehmen. Die KI wird nicht von sich selbst etwas völlig Neues und Interessantes finden, weil diese Eigenschaften immer nur von Menschen bewertet werden können.
54 Prozent Musikschaffende des Genres »Electro« gaben bei einer Studie von Gema und Sacem an, KI zu nutzen, dicht gefolgt von »Rap« und »Werbemusik«. Schlusslichter: »Weltmusik« (30 Prozent) und »Chanson« (23 Prozent)
P.M.: Sie selbst entwickeln seit 2019 das Programm Ricercar, obwohl es bereits andere KIs zur Musikkomposition gibt, wie Jukebox oder mittlerweile auch Suno AI. Warum?
ALI NIKRANG: Wir wollten unser eigenes KI-Modell: Denn unser Ziel ist es, mit der KI künstlerisch zu arbeiten und zu forschen. Dafür braucht es ein Programm, dass man selbst trainieren kann, weshalb wir es an der Hochschule für Musik und Theater München und am Ars Electronica Futurelab in Linz stetig weiter entwickeln. Im ersten Schritt geht es um die technische Entwicklung. Es gibt noch viel Raum nach oben, damit die Ergebnisse von der musikalischen Qualität her besser werden. Dabei soll aber nicht die Imitation von Daten die Zielsetzung sein. Darin ist die KI in vielen Bereichen bereits sehr gut. Außerdem wird unser Programm ausschließlich mit gemeinnützigen, freien Datensät zen trainiert.
P.M.: Was fehlt noch für die perfekte KI – neben der besseren Qualität der generierten Stücke?
ALI NIKRANG: In der Forschung beschäftigt uns auch die Frage: Wie kann ich überhaupt mit der KI kommunizieren? Im Bild, Film und Textbereich wird beispielsweise als Kommunikationskanal die Sprache genutzt. Wörter beschreiben dabei die Eigenschaften von Objekten, etwa die Farbe. In der Musik dagegen gibt es kein so großes Vokabular. Denn Musik funktioniert intuitiv. In unserer Forschung wollen wir neue Wege für die Kommunikation finden. Vielleicht mit der Sprache als Ergänzung, vielleicht aber auch ohne Sprache.
P.M.: In der Musiktheorie gibt es Begriffe. Warum nutzen Sie nicht die?
ALI NIKRANG: Es gibt zwar musiktheoretische Begriffe, aber auch allgemeine Begriffe, die die Wahrnehmung von Musik beschreiben. Zum Beispiel, ob sie fröhlich oder dramatisch klingt. Doch das ist begrenzt und subjektiv, weil es wenig über den tatsächlichen Inhalt der Musik aussagt und weil jeder etwas anderes darunter verstehen kann. Sprache reicht hier also nicht.
P.M.: Was braucht es stattdessen?
ALI NIKRANG: Die Grundidee ist, dass man unter anderem durch die Musik selbst kommuniziert. Musikstücke sollen der KI als Inspiration dienen und so besser zu individuellen musikalischen Konzepten führen. KI-Systeme werden ja viel zu oft als Automatisierungssysteme gesehen, die es ermöglichen, schneller zu komponieren und produktiver zu sein. Aber das ist im künstlerischen Bereich nicht immer das Ziel.
P.M.: Sondern?
ALI NIKRANG: Die klassische künstlerische Arbeit strebt nach individuellen Konzepten, die sich von denen anderer Künstler unterscheiden. Das ist auch das Ziel von Ricercar. Mithilfe der KI sollen die Musikstücke noch individueller und personalisierter werden. Das gilt für den professionellen als auch für den Amateurbereich. Und das funktioniert eben nicht, wenn man die KI als ein reines Auto matisierungstool benutzt.
1978 sang John Lennon »Now and Then«. Doch der Song war überlagert von Klaviermusik. Zwei Jahre später wurde Lennon ermordet. Mittels KI gelang es 2023, seine Stimme zu filtern und Beatles-Fans mit einem neuen Song zu beglücken
P.M.: Brauchen Musiker in Zukunft also ein besseres Verständnis für KI?
ALI NIKRANG: Ich glaube, früher oder später wird man als Künstler und Künstlerin in diesem Bereich das Bedürfnis haben, mehr Individualität von der KI zu wollen. Nur, wer die KI anders als die breite Masse nutzt, schafft etwas Individuelles. Dafür ist die Voraussetzung, dass man weiß, wie die KI funktioniert.
P.M.: Doch nicht alle Musikschaffende sind der KI wohlgesonnen: In einer Umfrage im Auftrag von »Gema« und »Sacem« haben 64 Prozent angegeben, dass die Risiken der KI den Chancen überlegen wären. Auch haben 30 000 Künstler im Oktober 2024 in einem offenen Brief gefordert, dass eine Zustimmung erforderlich wird, wenn KI mit ihren Werken trainiert wird. Wie bewerten Sie das?
ALI NIKRANG: Es ist eine schwierige Frage, wie man in Zukunft fair mit Daten umgehen kann. Ich habe im Moment keine Antwort darauf. Auch deshalb, weil die Entwicklung sich monatlich verändert. Die Frage ist, mit welchen Daten eine KI trainiert ist. Allgemein sind diese bei den großen kommerziellen Systemen geschützt. Auch wenn das Ergebnis nicht ähnlich klingt, hätte die KI es ohne die Daten nicht erzeugen können. Langfristig könnte sich die Fragestellung jedoch verändern, weil die modernen KIs immer öfter auch mit synthetischen Daten trainiert werden.
NUR, WER DIE KI ANDERS ALS DIE BREITE MASSE NUTZT, SCHAFFT ETWAS INDIVIDUELLES
P.M.: Was bedeutet das?
ALI NIKRANG: Es sind Daten, die andere KIs erzeugt haben oder auch die Daten über Interaktionen mit den Nutzern. Sie könnten potenziell für das Trainieren der nächsten KI-Generation benutzt werden.
P.M.: Außerdem befürchten viele Musikschaffende, ihren Job zu verlieren.
ALI NIKRANG: Viele Sorgen sind berechtigt. Die KI kann viele Prozesse übernehmen und beschleunigen – das kostet Arbeitsplätze.
P.M.: Wird es in der Zukunft also den Beruf des Musikers oder Dirigenten nicht mehr geben?
ALI NIKRANG: Musikschaffende braucht es weiterhin. Das zeigt auch die historische Perspektive. Beispielsweise wurden durch das Aufkommen des Tonfilms plötzlich Musiker und Musikerinnen, die in Kinos gespielt haben, arbeitslos – und trotzdem hat der Beruf des Musikers überlebt, und eine ganze Industrie ist im Filmmusikbereich entstanden. Entscheidend wird dabei sein, wie persönlich der Künstler oder die Künstlerin arbeitet und mit Menschen kommuniziert. In Bereichen, in denen weniger Individualität erforderlich ist, sind die Jobs leider umso gefährdeter. Das gilt im Moment etwa für kleine Teams in Low-budget-Filmen oder für Computerspiele. Zum Beispiel könnte ein Filmregisseur mit KI in Zukunft die Musik selbst komponieren. Ich vertraue aber darauf, dass die Menschheit immer nach etwas Neuem strebt und sich nicht mit dem zufrieden geben wird, was die KI automatisiert komponieren kann. Daraus entstehen dann neue künstlerische Formate und Tätigkeiten.
P.M.: Was für einschlagende Veränderungen gab es in der Vergangenheit, die ähnlich wie KI die Musik beeinflusst haben?
ALI NIKRANG: Auch viele Instrumente haben die Musik in ihrer Natur verändert. Zum Beispiel war das Klavier vor über 300 Jahren das erste Tasteninstrument, auf dem man die Lautstärke einzelner Töne sehr gut kontrollieren konnte. Ein neueres Beispiel ist elektronische Musik. Dadurch wurden neue Instrumente ermöglicht, wie etwa E-Gitarren oder E-Kontrabasse.
P.M.: Was hätte wohl Mozart zur KI gesagt – und damit gemacht?
ALI NIKRANG: Mozart hat bereits mit der Idee des Würfelspiels komponiert: Er hat beispielsweise ein Stück geschrieben, bei dem man den nächsten Takt der Musik nach Würfelergebnissen bestimmt. In einer Tabelle war für jedes Würfelergebnis ein Takt definiert. Damit konnte jeder komponieren, ohne etwas von Musik zu verstehen, wie er das selber in der Einleitung beschrieben hat. Als anderes Beispiel komponierte Bach mathematisch strukturierte Stücke wie etwa seine Kanons, bei denen sich viele Noten algorithmisch durch die Spiegelung von anderen Noten ergeben. Auch damals gab es also schon die Idee, ein System zu schaffen, das Musik produziert. Wie Mozart nun KI benutzt hätte, ist eine andere Frage. Das können wir nicht beantworten.
MUSIKSCHAFFENDE BRAUCHT ES WEITERHIN. DAS ZEIGT AUCH DIE HISTORISCHE PERSPEKTIVE
P.M.: Wie wichtig wird es in Zukunft für Menschen noch sein, Instrumente zu lernen oder die Stimme zu schulen?
ALI NIKRANG: Das steht in keiner Konkurrenz zur KI. Da bei der KI der körperliche Bezug zu einem Instrument fehlt, wird KI nie das Spielen von Instrumenten oder Singen ersetzen können. Zudem glaube ich, dass die KI den Zugang zur Musik erleichtern kann. Viele Klänge, die die KI erzeugt, ähneln klassischen Instrumenten wie einem Klavier. Dadurch wird bei manchen vielleicht erst die Lust geweckt, ein Instrument zu spielen. Hinzu kommt, dass auch Anfänger mit der KI schnell komponieren können und damit einen schnellen Zugang zu Musik finden.
P.M.: Zum Schluss ein Blick in die Zukunft: Wie wird Musik in zehn Jahren klingen?
ALI NIKRANG: Sehr viel wird sich verändern, aber das kann ich nicht alles vorhersagen. Und selbst, wenn ich es könnte, sind wir wieder bei dem Problem: Wie soll ich das verbal beschreiben? Ohne ein Beispiel zu haben wäre das schwierig. KI verändert die Musik aber ohnehin sehr schnell. Ich warte schon auf die nächste Überraschung.