07.10.2021 | Ausgabe 10/2021

Schneller Wechsel zu dezentralen und virtualisierten Arbeitsabläufen

Quelle: Photo by ThisisEngineering RAEng on Unsplash

In den letzten drei Jahrzehnten haben wir einen Wandel von spezialisierten Komponenten für verschiedene Video- und Audiofunktionen hin zu Hochleistungs-Hardware-Plattformen erlebt, die bei Bedarf umfunktioniert werden können, um beliebige AV-Prozesse zu unterstützen, und schließlich zu virtualisierten Medienanwendungen und Microservices, die nur bei Bedarf gestartet und bereitgestellt (und abgerechnet) werden.

Die Rundfunkanstalten üben ständigen Druck auf die Lieferanten aus, damit sie ihre Investitionsausgaben in Betriebskosten umwandeln, die flexibler verwaltet werden können, sowie die Reaktionsfähigkeit und Skalierbarkeit verbessern, indem sie Dienstleistungen nur für konkrete Veranstaltungen oder Produktionen anbieten.

Zwei wesentliche technologische Entwicklungen haben diesen Wandel ermöglicht: AV-over-IP und Kompression. Die Umstellung von Punkt-zu-Punkt-SDI-Verbindungen auf IP-Transport unter Verwendung offener und interoperabler Standards wie SMPTE ST 2110 hat dazu geführt, dass Geräte im Netzwerk adressierbar wurden, und dass Audio-, Video- und Datenpakete über größere Distanzen und an mehrere Orte gleichzeitig transportiert werden können. Dies hat viele Vorteile, nicht zuletzt, dass die Hardware praktisch überall auf der Welt, entweder vor Ort oder in Cloud-Rechenzentren, betrieben werden kann. Darüber hinaus trägt das Aufkommen von leichtgewichtigen Mezzanine-Kompressionsverfahren mit geringer Latenz wie JPEG-XS dazu bei, den Medientransfer im Netzwerk zu vereinfachen, bestehende Ethernet-Installationen für AV-over-IP bei 4K und darüber hinaus zu nutzen und effizientes Streaming in und aus der Cloud zu ermöglichen. Auch die H.264- und H.265-Kodierung wird immer häufiger für Beiträge und Live-Streaming eingesetzt.

Der Wandel der Branche von der Spezialisierung zur Virtualisierung
Der Wandel der Branche von der Spezialisierung zur Virtualisierung. // Quelle: Xilinx

Die Auswirkungen der globalen Pandemie
Dieser Wechsel von spezialisierten On-Premise-Plattformen zu verteilten Workflows fand ohnehin statt, aber die globale COVID-19-Pandemie hat den Übergang von Technologie-Proof-of-Concepts zu technisch und kommerziell praktikablen Implementierungen für Live-TV und Produktion enorm beschleunigt. Es überrascht nicht, dass der IABM Special Report (Sep. 2020) die drei wichtigsten Prioritäten in den Technologie-Roadmaps auflistet: Cloud & Virtualisierung, OTT & Streaming-Plattformen und At-Home/Remote-Produktion, und mit bewährten Implementierungen werden diese wahrscheinlich zur Norm werden.

Wir haben gesehen, dass viele Bereiche der Branche stark unter den Lockdowns gelitten haben, die den Ausfall von großen Sport- und Live-Events erzwangen, einige haben sich dagegen gut entwickelt.

Die Nachfrage nach Remote-Einsätzen hat aufgrund von Reisebeschränkungen und sozialer Distanzierung deutlich zugenommen. Auf der Beitragsseite hat die Technologie das Live-Streaming von Inhalten durch Mitarbeiter von Sendern ermöglicht, die von zu Hause aus arbeiten (WFH) und dabei kostengünstiges Produktionsequipment verwenden – oft reicht eine qualitativ gute Spiegelreflexkamera mit HDMI-Ausgang und eine Live-H.264-Encoder-Box oder ein Mini-Switcher, der mit dem Internet verbunden ist, aus. Dies ist einer der Hauptgründe, warum wir einen großen Anstieg der Verwendung von Systemen etwa auf Basis Xilinx Zynq UltraScale+MPSoC gesehen haben, die AV-Konnektivität und H.264/H.265-Codec in einen kostengünstigen Ein-Chip-Multimedia-Prozessor integrieren.

Auf der Aufnahmeseite ist es mit denselben Geräten möglich, die soziale Distanz am Set zu gewährleisten, indem komprimiertes Video über drahtlose Kamera-
transmitter an entfernte Field-Monitore gesendet wird oder ferngesteuerte PTZ-Kameras (Point, Tilt & Zoom) verwendet werden. KVM (Keyboard-, Video- und Maus-
extender) werden ebenfalls zunehmend für die Fernsteuerung und -anzeige verwendet, um die Bediener gefahrlos von der Quelle zu trennen.

Reisebeschränkungen können durch den Einsatz virtueller Sets teilweise überwunden werden. Spannende Entwicklungen bei der Verwendung von Fine-Pitch-LED-Wänden anstelle traditioneller Greenscreens und Echtzeit-CG mit kamerainternen VFX bieten eine Möglichkeit, praktisch jeden Ort, ob real oder imaginär, zu schaffen. Die Steuerung solcher Wände, insbesondere bei großen Formaten wie 8K, erfordert eine leistungsstarke Softwareverarbeitung und Hardwarebeschleunigung. Die Kreativität, die dadurch entfesselt wird, ist unglaublich.

In der Produktion hat das Aufkommen von ST 2110, Cloud-basierten Workflows und zuverlässigem Streaming mit z. B. Secure Reliable Transport (SRT) auch verteilten Produktionsteams ermöglicht, bequem von zu Hause aus an großen Live-Events zu arbeiten.

All diese Anwendungsfälle wurden zwar nicht durch die Pandemie erschaffen, sondern haben ihre Verbreitung nur noch weiter beschleunigt. Es hat sich dabei aber gezeigt, dass die Technologie funktioniert und dass neue Arbeitsweisen viel schneller als geplant erreicht werden können und in vielen Fällen wahrscheinlich auch zu einer festen Einrichtung werden.

Virtualisation
Eine der wichtigsten technologischen Veränderungen in der Remote-Produktion und bei verteilten Workflows ist die Loslösung von der Hardware bzw. die Virtualisierung. Verständlicherweise hören wir von vielen Broadcast-Ausrüstern, dass sie jetzt „software-only“ sind, aber Software braucht immer noch etwas, auf dem sie läuft. Was sie wirklich meinen, ist, dass es ihnen nicht mehr wichtig ist, auf welcher Hardware ihre Systeme laufen, sei es CPU, GPU oder FPGA, oder wo sie sich befindet. Sie muss einfach zu implementieren und zu verwenden sein, einfach zu integrieren und die erforderliche Leistung für niedrige Latenzzeiten, Mehrkanal-HD, 4K oder mehr bieten.

Durch den Einsatz von Hardware wie den Xilinx Alveo PCIe-Beschleunigerkarten entweder vor Ort oder in Rechenzentren können Produktionsteams von einer hochdichten und hochwertigen Codierung und Transcodierung für OTT-Streaming oder einer beschleunigten Mehrkanal-Videoverarbeitung in der Produktion profitieren. Abstraktion bedeutet, dass die Softwareumgebung lediglich eine wohldefinierte API benötigt. Der Schlüssel zur Agilität in Rechenzentren oder vor Ort eingebetteten Mediensystemen ist die Verwendung kompletter Software-Stacks, die Abstraktion und Portabilität unter Verwendung gemeinsamer, offener Frameworks und Bibliotheken wie FFmpeg und GStreamer ermöglichen. Die zusätzliche Bereitstellung von Microservices auf verteilter Hardware mithilfe von Docker-Containern und Kubernetes-Orchestrierung bietet noch mehr Flexibilität, Verwaltbarkeit und Kontrolle. All dies bedeutet, dass Broadcaster Dienste nur bei Bedarf oder bei konkreter Notwendigkeit hochfahren und dennoch von der für die Verarbeitung von 4K-Videos erforderlichen Leistung profitieren können.

Die neue Normalität
Während die Welt hoffentlich zur Normalität zurückkehrt, ist es klar, dass sich die Einstellungen ändern werden. Die Pandemie zwang zur Beschleunigung der Innovationsprozesse. Soziale Distanz und Reisebeschränkungen erforderten den schnellen Einsatz von Streaming-fähigen Technologien. Trotz der Nachteile hat sich die Remote-Arbeit als eine praktikable Option für die Produktivität erwiesen. Die Technologien, die von bemerkenswert innovationsfreudigen Unternehmen bei der Erstellung und Verteilung von Medieninhalten und der Zusammenarbeit eingesetzt werden, haben bewiesen, dass dezentrale Arbeitsabläufe nicht nur erfolgreich funktionieren, sondern auch effizienter, skalierbarer und beweglicher sein können. Ermöglicht durch AV-over-IP und Komprimierung, mit Abstraktion durch Multimedia-Software-Frameworks, können Medienunternehmen effektiver mit verteilter Content-Erstellung arbeiten, um die Zuschauer zu erreichen und zu unterhalten.


 

Newsletter
Ja, ich möchte den Newsletter von FKT abonnieren