
Wollen GoogleStones und RollingDeep einen neuen Musikstil etablieren?
22. November 2023Von Horst Buchwald
Wollen GoogleStones und RollingDeep einen neuen Musikstil etablieren?
21.11-2023
Vor einigen Wochen hat Googles DeepMind seine technischen Experten aus allen Abteilungen des Konzerns mit zahlreichen weltbekannten Künstlern und Songwritern zusammengebracht. Sie sollten untersuchen, „wie generative Musiktechnologien die Zukunft des Musikschaffens verantwortungsvoll gestalten können.“
Das Ergebnis fand viel Lob. In einer Stellungnahme heißt es : „ Wir freuen uns über die Entwicklung neuer Technologien, die die Arbeit professioneller Musiker und der Künstlergemeinschaft verbessern und einen positiven Beitrag zur Zukunft der Musik leisten können“.
Okay: „neue Technologien“ und „Zukunft der Musik“das macht neugierig. Sind die Initiatoren etwa auf dem Weg zu einem völlig neuen Musik – Stil und Produkt?
Über die Bedeutung der Musik für den Menschen muss man nicht streiten. Die Musikindustrie hat das frühzeitig begriffen . Somit wurde es ein Bombengeschäft. Seit den 60ern hat sich der weltweite Umsatz von auf über 30 Milliarden Dollar verdoppelt. 2022 waren die musikalischen Produkte in Deutschland zu 80% digitalisiert. Kein anderes Erlebnis löst bei den Menschen eine derartige Kaskade von Emotionen aus. Sie reicht vom Ausflippen, in vollen Zügen genießen und entspannen, bis zum träumen und Davonfliegen. Sollte es Googles DeepMind gelingen, hier einen Punkt zu setzen, eine neue Musikrichtung etablieren, würde der Musikmarkt der Zukunft anders aussehen. Also noch mal: Habt ihr nicht noch mehr Stoff, um meinen Verdacht, den ich vorerst für mich behalte, zu bestätigen?
Jetzt fällt der wohlklingende Name „ Lyria“. Nun wird es konkreter. Sie beginnen mit einer Definition: Lyria sei das „ fortschrittlichste KI- Modell zur Musikgenerierung.“ . Interessant, aber habt ihr noch mehr ? Ja, sie halten nicht damit hinter dem Berg . Das von DeepMind entwickelte Lyria-Modell zeichnet sich dadurch aus, dass es „hochwertige Musik mit Instrumentalstücken und Gesang generiert, Transformations- und Fortsetzungsaufgaben durchführt und Benutzern eine differenziertere Kontrolle über den Stil und die Leistung der Ausgabe gibt“.
Jetzt kann sich der staunende Laie schon mehr vorstellen. Aber wie wäre es denn, wenn das noch präziser konkreter wird ?` Und jetzt passt mal auf:
„Wir testen Lyria in einem Experiment namens Dream Track, das neue Möglichkeiten für Künstler testen soll, mit ihren Fans in Kontakt zu treten, und das in Zusammenarbeit mit YouTube entwickelt wurde. Im Rahmen des Experiments wird eine begrenzte Gruppe von Schöpfern in der Lage sein, Dream Track für die Produktion eines einzigartigen Soundtracks mit der KI-generierten Stimme und dem Musikstil von Künstlern wie Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia, T-Pain, Troye Sivan und Papoose. Jeder teilnehmende Künstler hat mit uns zusammengearbeitet und wird uns dabei helfen, die Zukunft der KI in der Musik zu testen und zu lernen, sie zu gestalten.
Benutzer von Dream Track können einfach ein Thema eingeben und einen Künstler aus dem Karussell auswählen, um einen 30-sekündigen Soundtrack für ihren Kurzfilm zu erstellen. Mithilfe unseres Lyria-Modells generiert Dream Track gleichzeitig den Text, den Backing-Track und die KI-generierte Stimme im Stil des ausgewählten teilnehmenden Künstlers“.
WOWW! Der HammER! Alle sind begeistert. Als Abschiedsgeschenk gab es noch diese Empfehlung: Hier sind ein paar Beispiele, die im Stil von Charlie Puth oder T-Pain erstellt wurden.
Ob sich mein Verdacht bestätigt, werden wir bald wissen. Bleibt dran.