Navigation für Screenreader Zur Hauptnavigation springen | Zum Seiteninhalt springen | Zur Meta-Navigation springen | Zur Suche springen | Zur Fuß-Navigation springen

The AI MusicCon Tagung des Landesmusikrats NRW und der Soundtrack_Cologne vom 5. Juli in Köln

So viele Möglichkeiten und Herausforderungen stellen aktuelle Programme mit dem Anspruch künstlicher Intelligenz bereit, dass Soundtrack_Cologne und Landesmusikrat NRW ihre Tagung gleich dreizügig planten: In drei Räumen des Comedia Theaters in der Kölner Südstadt gingen Referent’innen Chancen und Risiken nach.

Auf einem Panel diskutierten Anselm Kreuzer und Matthias Hornschuh die drastischen Veränderungen und Beschränkungen, die Kreative durch KI erleben und die wenigen Regulierungsmaßnahmen, die der AI Act der Europäischen Union gegen die internationalen Konzerne durchzusetzen versucht. Klipp und klar sezierte danach Rechtsanwältin Kerstin Bäcker die Rechtslage und das magere Instrumentarium, das zum Schutz des geistigen Eigentums zur Verfügung steht.

Auch konstruktiven Möglichkeiten gingen Referenten nach. Künstliche Intelligenz erhebt ja den Anspruch, auch komponieren zu können. Und wenn die Ergebnisse vielleicht nicht sonderlich eigenständig wirken, dann können die Applikationen doch menschlichen Komponierenden als Tools dienen, die bei Arrangement, Instrumentation, Harmonisierung helfen, sogar Singstimmen ersetzen, klonen und neu textieren. Künstliche Intelligenz verändert also unser Musikleben.

Die Workshops, Dialogformate und Referate wurden teils deutsch-, teils englischsprachig gehalten. Das Publikum bestand aus internationalen Gästen, die sich für die Filmmusik-Formate von Soundtrack_Cologne interessierten, sowie aus Musikerinnen und Musikern aus Nordrhein-Westfalen, die sich Lösungen für praktische Aufgabenstellungen im Musikleben versprachen, und anderen Interessenten am Thema.

Janina Klabes, Eva Luise Roth und Robert v. Zahn moderierten die Tagung, Janina Klabes führte auch im Abschlusspanel verschiedene Perspektiven zusammen. Michael Edwards, Kompositionsprofessor an der Folkwang Universität und Mitglied des Präsidiums des Landesmusikrats NRW, beschrieb noch einmal den schwierigen Weg, der zum Schutz der Rechte der internationalen Kreativen führen könnte. Er war überrascht über die unterschiedlichen Haltungen, die sich bei den Tagungsbeteiligten gezeigt hatten. Beim Forum von Rechtsanwältin Bäcker herrschte noch Alarmstimmung, während man später Statements hörte, dass Musikerinnen und Musiker von Qualität auch wirtschaftlich überleben würden.

In der Tat – das hatten Workshops von Yevgeni Birkhoff (Köln) und auch von Ludger Brümmer (ZKM Karlsruhe) klar gezeigt – zielt der Hype von komponierenden Anwendungen wie Suno und Udio auf die Zielgruppe der Musikfans und digitalen Bastler, nicht auf Berufsmusikerinnen und -musiker. Für professionelle Kreative eignen sie sich allenfalls als Tools. Doch was mögen die nächsten technischen Entwicklungsstufen bringen? Birkhoff hatte in drei Workshops mit den Teilnehmerinnen und Teilnehmern über AI-Musikgeneratoren, KI-gestützte Audio- und Musik-Produktionstools sowie Voice Cloning gesprochen.

Michael Edwards erinnerte in der Schlussdiskussion an die 1990er Jahre und die Angst vieler Musikerinnen und Musiker vor der Sample-Technik, als viele dachten, die ge’sample‘ten Klänge, die elektronisch wie aus dem Baukasten zusammengefügt wurden, würden viele Interpretinnen und Interpreten einmal ersetzen. In keiner Weise hat sich diese Befürchtung bewahrheitet.

Alissa Krusch, Kulturforum Witten und ebenfalls Präsidium des Landesmusikrats NRW, hatte sich vor allem an die Praktiker unter den Referenten gehalten. Sie zeigte sich angetan, wie rege in deren Foren Tipps und Tricks ausgetauscht wurden, viele davon für den Einsatz in der Alltagsarbeit. Krusch forderte die Einrichtung von Transferstellen im Kulturleben, die das Wissen über den Umgang mit KI verbreiten.

KI bietet in der Musikpädagogik und in der Amateurmusik Chancen. Thomas Hanz vom Landesverband der Musikschulen in NRW hatte demonstriert, wie man aus der Kombination kommerzieller KI-Tools eine geeignete Applikation für musikpädagogische Anwendungen schaffen kann. Felix Herrmann von der Chorjugend NRW hatte die effiziente Vorbereitung und Durchführung von Kulturveranstaltungen mit KI-Software erklärt. Transferbeispiele hatte auch die estische Marketing-Spezialistin Marju Sokmann geboten: Sie übertrug Erkenntnisse aus anderen Branchen auf den Einsatz von KI zur Ansprache im Musikleben.

Francisco Tigre Moura, Professor für Online-Marketing und Business Administration an der IU Internationale Hochschule Bad Honnef, hat in der Tagung eine weite Welt zwischen ‚human made music‘ und ‚AI music‘ entdeckt. Für ihn müssen Komponierende unabdingbar auf die Technik eingehen: „Wir haben Technologien, die wirklich alles verändern können. Wir müssen sie erlernen.“ Aber sie müssten menschennah bleiben. Und Krusch sah die Frage als durchaus offen an, wie wir den Umgang mit KI menschennah entwickeln.

‚Novelty‘ hatte Dave Murray Rust, Associate Professor für Human-Algorithm Interaction Design an der TU Delft, in den Blick genommen, einen Schlüsselbegriff für das Beurteilen generativer KI. Die entscheidenden Elemente der menschlichen Kreativität sind Neuheit und Nützlichkeit, sie bilden die Messlatte für KI-Applikationen. Neuheit bezieht sich auf die Generierung von Originalinhalten, die zuvor nicht bekannt waren, während Nützlichkeit die Erstellung von Inhalten meint, die in einem bestimmten Kontext relevant, wertvoll und praktisch anwendbar sind.

Dave Murray Rust hatte mindestens ein Gleichgewicht von Novelty und Unsefulness in KI-Modellen gefordert und Michael Edwards fokussierte noch auf die Neuheit. Die ist für die Entwickler nicht einfach zu realisieren. Anders als regelbasierte Systeme lernen KI-Modelle aus einer enormen Zahl von Beispielen, denen sie während ihrer Trainingsphase begegnen. Sie haben keinen Zugang zu einem expliziten Verständnis der Welt. Novelty ist deshalb eine große Herausforderung, für Edwards die Messlatte für alle KI-Anwendungen gerade im Bereich der Musik.

Hier setzte auch André Schnoor an. Gerade aufgrund der besonderen Komplexität von Musik sieht Schnoor die Kreativen der Musik in einer besseren Position als etwa Grafiker oder Texter. Musik ist ein sehr komplexes Kommunikationsmedium, und in diesem Medium ist der Mensch schwer durch Logarithmen zu ersetzen. Alleinstellungsmerkmale der KI-Ergebnisse sind wichtig und derzeitig Mangelware. Birkhoff, Schnoor und etliche weitere Beiträger zur Tagung waren sich darin einig, dass Musik wenig taugt, wenn sie von allem etwas erhält. „Die KI müllt alles mit allem zu,“ so Schnoor und so setzte er Fragezeichen hinter die weitere Entwicklung. Die Musikgeschichte habe oft die Entstehung musikalischer Genres erlebt, die zehn bis zwanzig Jahre brauchten, um allgemein akzeptiert zu werden. KI könne so etwas nicht, sie könne nur reproduzieren. Dies in der weiteren Entwicklung zu überprüfen, ist eine Steilvorlage für eine Fortsetzungstagung 2025.

„The AI MusicCon“ wurde von SoundTrack_Cologne und Landesmusikrat NRW in Kooperation mit dem Kulturrat NRW ausgerichtet und vom Ministerium für Kultur und Wissenschaft NRW gefördert.

rvz

Fotos: Publikum im Raum 2 der Tagung "AI MusicCon", Comedia Theater Köln, Yevgeni Birkhoff, Dave Murray Rust sowie auf dem Panel Janina Klabes, Michael Edwards, Alissa Krusch, Francisco Moura und André Schnoor; dazu Michael Aust eröffnend. Fotos: LMR NRW.

Link: Vgl. auch das Interview des WDR-Hörfunks mit Yevgeny Birkhoff zur Tagung unter https://lnkd.in/eKzinAvi.