11.07.2022 | Ausgabe 7/2022

CHEMNITZER FORSCHER ENTWICKELN SOZIALE VIRTUAL-REALITY-ANWENDUNG

Live-Übertragung einer stereoskopischen Bühnenaufnahme in die mit Avataren bevölkerte virtuelle Eventlocation. // Quelle: Grafik: SocialSTAGE-VR

Live-Übertragung einer stereoskopischen Bühnenaufnahme in die mit Avataren bevölkerte virtuelle Eventlocation. // Quelle: Grafik: SocialSTAGE-VR

Kulturbranche 4.0: Die TU Chemnitz entwickelt mit Partnerinnen und Partnern eine soziale Virtual-Reality-Anwendung zum gemeinsamen Erleben von Konzerten und Theateraufführungen abseits von TV und Live-Stream. Bühnen-Shows, wie Konzerte, Musicals oder Theateraufführungen, sind besondere soziale Erlebnisse. Aber nicht alle Menschen können oft und gleichermaßen in den Genuss derartiger Ereignisse kommen. So besucht laut Umfragen, beispielsweise des Bundesverbands der Veranstaltungswirtschaft, etwa nur die Hälfte der Bevölkerung überhaupt Live-Shows und dann in der Regel nur ein- bis zweimal pro Jahr. Nicht nur finanzielle Gründe stehen dem entgegen, sondern vor allem auch mangelnde Zeit, regionale Erreichbarkeit oder mobile Einschränkungen. Mit Virtual Reality (VR) soll das Erlebnis von kulturellen Live-Shows nun zum ersten Mal von der Bühne nach Hause gebracht werden können.

VR-Brillen ermöglichen einen Zugang zu entfernten Umgebungen, so als ob man selbst ein Teil davon ist und schaffen dabei die Illusion eines gemeinsamen Beisammenseins. Diese Möglichkeiten will das vom Bundesministerium für Bildung und Forschung geförderte Forschungs- und Entwicklungsprojekt SocialSTAGE-VR an der Technischen Universität Chemnitz nutzen, um Konzerte und andere Bühnen-Shows ortsunabhängig und für alle gleichermaßen virtuell zugänglich zu machen. Der von der Professur Arbeitswissenschaft und Innovationsmanagement sowie der Professur Produktionssysteme und -prozesse geführte Projektverbund entwickelt derzeit eine VR-Anwendung, die Bühneninhalte live und dreidimensional in virtuelle Veranstaltungsräume überträgt, die von interessierten Personen als Avatare gemeinsam besucht werden können. Neben der TU Chemnitz sind das Fraunhofer-Institut für Integrierte Schaltungen IIS aus Erlangen, Die Etagen GmbH aus Osnabrück, die YOUSE GmbH Berlin sowie die point omega AG aus Heidelberg am Forschungsprojekt beteiligt.

„Die technischen Möglichkeiten von VR-Events stellen keinen Ersatz für reale Erlebnisse dar und sollen dies auch gar nicht“, erklärt Dr. Frank Dittrich, Mitarbeiter an der Professur Arbeitswissenschaft und Innovationsmanagement, der das Projekt initiierte und nun koordiniert. Er fügt hinzu: „Es werden dadurch neue soziale Formate, mit denen kulturelle Inhalte konsumiert werden können, geschaffen.“ Im Gegensatz zu gängigen digitalen Formaten, wie einer TV-Übertragung oder Live-Streaming im Internet, realisiere die VR das Gefühl eines räumlichen Beisammenseins mit anderen örtlich entfernten Personen und auch ein gewisses Vor-Ort-Gefühl. „Dadurch wird es möglich, dass ich beispielsweise mit Freunden aus Australien gemeinsam ein Live-Konzert in den USA besuche und das ganz bequem von zuhause aus“, erläutert Dittrich. Daraus ergebe sich für die Kulturbranche die bisher meist auf Regionalität begrenzt sei, plötzlich die Möglichkeit, ein ortsunabhängiges Publikum zu erreichen und auch Personen anzusprechen, die bisher aus verschiedenen Gründen nicht an Live-Shows teilnehmen. Dazu müssen mittelfristig auch geeignete Geschäftsmodelle entwickelt werden, um den Konsumentinnen und Konsumenten den Zugang zu notwendiger Hardware wie VR-Brillen sicherzustellen. Langfristig, so die Forscherinnen und Forscher, werden brillenbasierte Endgeräte allerdings zur medialen Grundausstattung gehören.

In den vergangenen Monaten fanden bereits erste Erprobungen beim Projektpartner Die Etagen GmbH in Osnabrück statt. Dort wurde eine lokale Eventlocation digitalisiert und Probeaufnahmen mit stereoskopischen Kamerasystemen umgesetzt. Ziel war es, den Einfluss verschiedener Kameraparameter auf den wahrgenommenen 3D-Effekt zu überprüfen. Dazu trafen sich die Projektpartnerinnen und -partner mit VR-Brillen von unterschiedlichen Orten aus als Avatare gemeinsam in einer virtuellen Location. „In den nächsten Monaten werden wir damit nun erst einmal Studien mit Probandinnen und Probanden im Labor durchführen“, sagt Dittrich. „Ziel wird es sein, das eigene Präsenzgefühl und das Gefühl der sozialen Präsenz zu bewerten. Also fühle ich mich als Teil der Umgebung und habe das Gefühl, andere Menschen seien Teil dieser Umgebung. Aus den Ergebnissen werden wir Ableitungen für weitere Forschungs- und Entwicklungsarbeiten treffen.“

Für die nächsten zweieinhalb Jahre hat sich das Projektteam noch viel vorgenommen: So sollen Verfahren entwickelt werden, die das Problem der fehlenden Parallaxe stereoskopischer Videos minimieren, die mit möglichst wenig Aufwand große reale Veranstaltungsräume mittels Photogrammetrie digitalisieren können und die Interaktionen zwischen Künstlerinnen und Künstlern auf der realen Bühne und Zuschauenden im virtuellen Raum ermöglichen.Alle Entwicklungsarbeiten stehen dabei unter der Prämisse, praxistaugliche Lösungen zu erzielen. „Unser Angebot soll niederschwellig sein und möglichst mit einer autarken VR-Brille einem breiten Publikum soziale und kulturelle Teilhabe ermöglichen“, sagt Christian Fuchs, Wissenschaftler der Professur Produktionssysteme und -prozesse, der im Projekt vor allem für die Interaktionsgestaltung der virtuellen Avatare untereinander oder mit verschiedenen Gegenständen im virtuellen Veranstaltungsraum verantwortlich ist.

Im Sinne einer nutzungszentrierten Entwicklung erfolgt sowohl eine enge Einbindung der Konsumentinnen und Konsumenten als auch der Künstlerinnen und Künstler in die Gestaltung der VR-Anwendung. So sollen neue Konzepte entwickelt werden, die nicht einfach nur reale Veranstaltungen kopieren, sondern die Möglichkeiten virtueller Realität nutzen und über real-physikalische Grenzen hinaus neue Wege der künstlerischen Umsetzung beschreiten. Neben den geförderten Entwicklungspartnerinnen und -partnern beteiligen sich deshalb weitere assoziierte Partnerinnen und Partner, wie das ZDF, die Städtische Theater Chemnitz gGmbH oder die Berliner Popgruppe MIA, am Projekt. Weitere Akteure aus Medien und Kultur können sich zudem gern beim Verbund melden und eine assoziierte Partnerschaft eingehen. So sind während der Projektlaufzeit regelmäßige Informationsveranstaltungen geplant, bei denen Projektergebnisse vorgestellt und mit der Kulturbranche diskutiert werden sollen.


 

Cloud-Produktionen: Vom Zukunftsthema zur „State of the Art“-Technologie

Anzeige

LiveU treibt die Cloud-Revolution mit smarten Tools und Best Practices voran

Seit vielen Jahren schon reden die Visionäre der Videobranche von „Cloud-Produktionen“. Doch erst in den letzten Monaten finden Cloud-basierte Produktionstools verstärkte Anwendung. Die Coronapandemie und der damit einhergehende Ruf nach Remote Work und Kostenreduzierung haben den Siegeszug der virtuellen Videoverarbeitung zweifelsohne angetrieben. Nicht nur immer mehr Anwender nutzen die Cloud-Tools. Auch die technologischen Angebote selbst wurden immer vielgestaltiger, ausgereifter und einfacher zu bedienen. Branchenexperten dürfte es wenig überraschen, dass LiveU – Vorreiter auf dem Gebiet IP-basierten Videoproduktion und -übertragung – schon früh in die Entwicklung von Cloud-Technologien eingestiegen ist und heute eine Reihe von Lösungen im Portfolio hat, die sich bereits im Praxis-Einsatz bewährt haben.

Weiterlesen....

 

Newsletter
Ja, ich möchte den Newsletter von FKT abonnieren