Beschwerden über schwer verständliche Sprache sind bei den meisten Fernsehsendern ein wohlbekanntes Thema. Derzeit kommen verschiedene KI-basierte Lösungen auf den Markt, die dieses Problem adressieren. Sie erzeugen aus bestehenden Audiomischungen automatisch eine neue Version mit abgesenkten Geräuschen und Musik und bieten diese als optionale Tonspur an. MPEG-H Dialog+ ist eine Technologie, die für das neue „Klare Sprache“-Angebot des On-Demand-Segments der ARD-Mediathek genutzt wird. Der zu Grunde liegende Workflow wurde vom Fraunhofer IIS, dem Westdeutschen Rundfunk (WDR) und Telos Alliance entwickelt und zur Anwendung gebracht. Lesen Sie in diesem Artikel mehr zu den technischen Hintergründen von MPEG-H Dialog+, der praktischen Anwendung und warum Deep Learning und objektbasiertes Audio eine starke Kombination sind.
Eine kurze Geschichte des Dialogue Enhancements
Dialogue Enhancement hat eine bewegte Geschichte. Schon im Jahr 1991 erschien eine BBC R&D-Studie, in der regelmäßige Beschwerden über schwer verständliche Sprache dokumentiert wurden. Der Hauptgrund: Hintergrundgeräusche und Musik waren zu laut. Das Ziel der Studie war zu verstehen, wie stark der Hintergrundpegel abgesenkt werden müsste, um die Verständlichkeit von Fernsehsprache deutlich zu verbessern. Die Ergebnisse waren jedoch nicht eindeutig; es erschloss sich nämlich erst später, dass der optimale Lautstärkeunterschied zwischen Dialog und Musik & Effekten höchst individuell ist. Daher sind die persönliche Präferenz und Höranstrengung für das Sprachverständnis von größter Bedeutung. In der Studie wurde auch darauf hingewiesen, dass das damalige Rundfunksystem nicht in der Lage sei, eine zusätzliche Spur mit erhöhtem Sprachpegel zu übertragen.
-----
5 Seiten
Download
Laden Sie sich diesen geschützten Artikel als Abonnent kostenlos herunter.
- Einloggen und Artikel kostenlos herunterladen
- Diesen Artikel für 3,50 € kaufen*
Hinweis Widerrufsrecht