Rekord- Umsätze bei Hörbüchern erwartet
21. Juni 2023Rekord- Umsätze bei Hörbüchern erwartet
San Franxcisco, 20.6. 2023
Bis 2030 wird erwartet, dass der Umsatz mit Hörbüchern jährlich 35 Milliarden US-Dollar übersteigt, wobei KI bei der Produktion eine immer größere Rolle spielt.
KI-Technologie ersetzt bereits menschliche Erzähler in Hörbüchern, wie in neuen Angeboten von Google Play und Apple Books zu sehen ist. Allerdings bleiben Herausforderungen in Bereichen wie Übermittlung, Timing und Aussprache bestehen. Für seine digitale Erzählung kombiniert Apple fortschrittliche Sprachsynthese-KI mit der Expertise von Audioingenieuren, Qualitätskontrollspezialisten und Linguisten. Derzeit verfügt Amazons Audible über einen Dienst zum Aufzeichnen von Hörbüchern, der allerdings vorschreibt, dass die Hörbücher von Menschen vorgetragen werden.
Die Entscheidung, KI-Stimmen in der Hörbuchproduktion einzusetzen, hängt immer noch von Kosten, Zeit und Hörerpräferenzen ab. Synchronsprecher haben unterschiedliche Ansichten über die Auswirkungen von KI auf ihren Beruf. Einige glauben, dass KI nicht mit den Nuancen und Emotionen menschlicher Stimmen mithalten kann, während andere darin ein nützliches Werkzeug für die Lizenzierung ihrer geklonten Stimmen sehen.
Mit dem Aufkommen von Smartphones hat die Hörbuchbranche bereits ein Jahrzehnt bedeutenden Wachstums erlebt. Laut Wordsrated werden die Hörbuchverkäufe von 2022 bis 2030 voraussichtlich jährlich um beeindruckende 26,4 % wachsen. Damit ist es das weltweit am schnellsten wachsende Buchformat, wobei die Rolle von KI bei der Hörbuchproduktion voraussichtlich erheblich zunehmen wird.
Forscher von Spitzenuniversitäten warnen vor dem Problem des Zusammenbruchs von KI-Modellen, der auftritt, wenn generative KI-Modelle auf Daten trainiert werden, die von anderen KI-Modellen erstellt wurden. Der Prozess führt zu Leistungseinbußen, mehr Fehlern und sich wiederholenden Reaktionen. Das Training von Modellen mit maschinengenerierten Daten statt mit von Menschen erstellten Daten führt dazu, dass sie „vergessen“, was ein Problem darstellen könnte, da LLMs immer mehr zur Online-Sprache beitragen.
Der Zusammenbruch eines Modells entsteht durch die Anhäufung von Fehlern während des Trainings, die das Verständnis des Modells für die Realität verzerren. Rekursives Training verschärft dieses Problem und führt dazu, dass Modelle weiter von der ursprünglichen Datenverteilung abweichen.
In ihrer Studie simulierten die Forscher die Auswirkungen des Trainings generativer Modelle auf ihre eigenen Daten und beobachteten vollständige Veränderungen in der Datenverteilung innerhalb von 50 Generationen. Um die Qualität zukünftiger generativer Modelle aufrechtzuerhalten, betonen die Forscher die Bedeutung des Trainings mit von Menschen erstellten Inhalten und der Gewährleistung einer fairen Vertretung von Minderheitengruppen in den Datensätzen.
Sie schlagen vor, den ursprünglichen, von Menschen erstellten Datensatz zu bewahren, ihn regelmäßig in das Modelltraining einzubeziehen und neue, saubere, von Menschen erstellte Datensätze einzuführen.