Dieses Bild hat keinen alternativen Text.
XH4D/ iStock

Medientechnologien

Vom 13. bis 14. Juni 2023 fand bei Fraunhofer FOKUS das zehnte Media Web Symposium (MWS) statt. Im Fokus der Vorträge und Workshops des MWS stehen immer wieder neue Medientechnologien und ihre Anwendungen. In diesem Jahr waren beispielsweise Green Streaming und das Metaverse Schwerpunkte der Diskussion. Welche neuen Entwicklungen es bei internetbasierten Medien gibt, erklären Stefan Arbanowski und Stephan Steglich, Leiter des Geschäftsbereichs Future Applications and Media bei Fraunhofer FOKUS.

Herr Arbanowski, Herr Steglich, was muss man sich unter internetbasierten Medien vorstellen? Geht es Ihnen hier z. B. um YouTube-Videos oder die Mediatheken von privaten oder öffentlich-rechtlichen Fernsehsendern? Und woran genau arbeitet Fraunhofer FOKUS in diesem Bereich? 

Stefan Arbanowski: Fraunhofer FOKUS beschäftigt sich mit dem Streaming von Videos. Genauer gesagt arbeiten wir daran, wie Videos effizient generiert und an die Endgeräte übertragen und dort abgespielt werden können. Wir unterstützen damit die Aufbereitung von Videos fürs Streaming über verschiedene Plattformen, unter anderem die Mediatheken verschiedener Fernsehsender. Damit ist unsere Expertise für alle Mitglieder der Wertschöpfungskette interessant – angefangen bei den Content-Produzenten bis hin zu den Herstellern der Endgeräte.

Stephan Steglich: Um noch einmal zu unterstreichen, warum es so wichtig ist, Videos effizient zu übertragen: Hier herrscht ein großer Druck für die Anbietenden von Online-Medien. Jedes Megabyte, welches zusätzlich übertragen werden muss, kostet Geld. Wir versuchen die Übertragung mit unseren Technologien effizienter zu gestalten. Darüber hinaus geht es auch um Dinge wie Latenz beim Live-Streaming. Im Vergleich zum klassischen Broadcasting ist die Latenz beim Streaming immer noch eine Herausforderung. Gerade bei Live-Events, wie zum Beispiel bei der Übertragung eines Fußballspiels über das Internet, ist dies relevant. Für die effizientere Übertragung entwickeln wir neue technische Ansätze, wie zum Beispiel unsere Technologie Deep Encode, die unter anderem beim TV-Sender arte bereits eingesetzt wird. Bei Deep Encode verwenden wir Künstliche Intelligenz, um einzuschätzen, wie ein Video effizient encodiert werden kann und welche Bitrate für unterschiedliche Videos, also zum Beispiel für ein Actionvideo oder einen Landschaftsfilm, am geeignetsten ist. Die Technologie trägt dadurch zu einer erheblichen Kostenreduktion beim Streaming bei. Wir haben die Deep-Encode-Software mit unterschiedlichen Referenzdaten vieler Videos trainiert. So kann die Software durch Künstliche Intelligenz nahezu in Echtzeit entscheiden, wie ein Video encodiert werden sollte. Die Entscheidung fällt sie anhand von 50 bis 100 Parametern. In diesem sogenannten Per-Title-Ansatz werden also nicht, wie bisher üblich, alle Videos gleich codiert, sondern entsprechend der spezifischen Anforderungen jedes einzelnen Videos. Künstliche Intelligenz ermöglicht hier eine schnelle Analyse und Entscheidung.

Wir arbeiten auch am Thema Streaming Analytics. Unsere FAMIUM-SAND-Technologie sammelt und analysiert beispielsweise technische Statistiken des Streamings und Abspielens von Videos. Sie schaut, wie qualitativ ein Video beim Nutzer dargestellt wird, welche Pakete abgespielt werden oder auch wie voll der Abspiel-Buffer des Endgerätes ist. Die Streaminganbietenden erhalten durch FAMIUM SAND so Parameter, wie sie ihre Server und ihr Netz optimieren können. Dies ist wichtig, da Untersuchungen zeigen, dass Konsumentinnen und Konsumenten ein Video nicht weiterschauen, wenn Probleme, wie schon eine Verzögerung von zwei Sekunden beim Abspielen auftreten. Hier optimieren wir, damit solche Fälle nicht auftreten.

Mit dem MWS fand nun zum zehnten Mal eine ganze Konferenz zum Thema Medientechnologien statt. Wie sind Sie auf die Idee gekommen?

Stefan Arbanowski: Wir haben eine lange Historie bei Messeauftritten, wie beispielsweise auf der IFA, Hannover Messe, ibc oder auch NAB. Dabei ist die Idee entstanden, eine kleine Hausmesse zu veranstalten und Gäste aus aller Welt dazu einzuladen. Wie wollten unsere Expertise zeigen und Trends beim Streaming und Internetfernsehen verfolgen. Darüber hinaus waren wir auch immer schon in Standardisierungsgremien aktiv. Dort wurden wir angesprochen, dass es schön wäre, eine Konferenz zu veranstalten, auf der man über solche Themen diskutieren kann.

Apropos Standardisierung: Rund um den MWS finden eine Reihe von Arbeitstreffen von Standardisierungsgremien bei Fraunhofer FOKUS statt. Worum geht es dabei genau und welche Rolle spielt Standardisierung im Medienbereich?

Stephan Steglich: Die Auslieferungskette von Medien über das Internet ist komplex. Standardisierung trägt dazu bei, Inhalte in einer bestimmten Qualität zu erzeugen, zu speichern und dann über das Internet auf verschiedene Geräte auszuliefern. Hier werden insbesondere Webtechnologien eingesetzt: Ein Großteil der Medien wird schließlich über Webbrowser bzw. Anwendungen, die darauf basieren, abgespielt. Verschiedene Standardisierungsgremien, wir beispielsweise das W3C, haben festgelegt, wie man kompatibel Ketten aufbauen kann, um Medien auf verschiedenen Geräten abzuspielen. Dabei sollen sie überall in gleicher Qualität angezeigt werden. Neben dem eigentlichen Video, sind beispielsweise Mehrwertfunktionen durch Standards festgelegt, beispielsweise das Untertiteln: Also an welcher Stelle diese erscheinen, wie groß sie sein sollen und so weiter. Aber auch das Einblenden von Werbung ist ein relevantes Thema für die Standardisierung. Sie soll an einer bestimmten Stelle im Video erscheinen und möglichst auf allen Geräten gleich aussehen.

Mit jeder neuen Konferenz rücken auch neue Themen in den Fokus der Aufmerksamkeit. In diesem Jahr waren es zum Beispiel Künstliche Intelligenz und das Metaverse. Was hat Künstliche Intelligenz mit der Übertragung von Medien zu tun?

Stephan Steglich: Künstliche Intelligenz war auch schon beim FOKUS Media Web Symposium 2022 ein zentrales Thema. Sie spielt eine große Rolle, wenn es darum geht, komplexe Fragestellung schnell zu beantworten. Content-Generierung ist ein Beispiel dafür. Die Diskussion geht in die Richtung, dass wir zukünftig vielleicht überhaupt keine linearen Inhalte mehr sehen, sondern diese auf unseren persönlichen Interessen basiert jeweils angepasst werden. Mit Künstlicher Intelligenz wird dies nun möglich. Wir arbeiten daran, wie man solche Technologien, vernünftig einbinden kann.

Und was ist das Metaverse? Was entwickeln Sie hier gerade?

Stephan Steglich: Das Metaverse ist ein brandneues Thema, und in gewisser Weise aufbauend auf unseren bisherigen Tätigkeiten, wie 360°-Video, Augmented Reality und Extended Reality. Der Einsatz von Metaverse-Anwendungen wird momentan für verschiedene Bereiche diskutiert, von Lerntechnologien bis hin zu industriellen Anwendungen.

Das Metaverse selbst ist aber natürlich auch ein Medium, dessen Benutzerschnittstelle auch auf Endgeräte übertragen werden muss. Es müssen hier audio-visuelle Daten in bidirektionaler Richtung ausgetauscht werden mit möglichst geringer, nicht wahrnehmbarer Latenz. Wir entwickeln derzeit genau hierfür entsprechende technologische Ansätze.

Aber warum wird das Thema so gehypt?

Stefan Arbanowski: Wie Stephan schon sagte, ist das Metaverse der Oberbegriff für ganz verschiedene Anwendungen. Second Life war schon vor Jahren ein Versuch, eine Art von virtuellem Avatar zu etablieren. Mittlerweile gibt es voll immersive Anwendungen mit Force Feedback, die jedoch niemand zuhause nutzen wird, da dafür komplexe Technik nötig ist. In unserer Metaverse-Anwendung nutzen wir interaktive Technologien, um zum Beispiel die Lautstärke von Tönen zu verändern, wenn man in einer Simulation näher an eine Person oder Präsentation herantritt. Wir kümmern uns in unseren Projekten nur um die Technologie, also beispielsweise darum, wie der Augenkontakt im Metaverse funktioniert, wie der Ton lippensynchron wird, wie ein Video so übertragen wird, dass es auf der Brille ruckelfrei erscheint. Die letztendlichen Anwendungen sind dann nicht mehr unser Thema. Wir machen uns also weniger Gedanken darum, warum das Metaverse gebraucht wird oder nicht. Aber man kann sich schon vorstellen, dass zum Beispiel bei Produktionsprozessen, wenn es darum geht, Teile an eine bestimmte Stelle zu platzieren oder etwas an der richtigen Stelle zu verschrauben, eine virtuelle Unterstützung hilfreich sein kann und den Prozess im Zweifel auch beschleunigt.  Solche Anwendungsfälle erforschen wir gerade in unserem 6GNext-Projekt

Am diesjährigen MWS nahmen über 60 Referentinnen und Referenten teil. Hatten Sie einen persönlichen Favoriten bzw. welches Thema war für Sie am spannendsten und warum?

Stephan Steglich: Uns fällt es immer schwer, eine beziehungsweise einen unserer Referentinnen und Referenten herauszuheben. Wir machen die Veranstaltung immer mit Herzblut und finden daher alle Themen spannend. Was aber für uns ein Highlight war, war das Standardisierungspanel. Hier waren alle Vertreter der wichtigsten Standardisierungsgremien vertreten, die über die neuesten Entwicklungen berichtet haben.

Stefan Arbanowski: Welches Thema in Zukunft vielleicht im Fokus stehen wird, ist »Green Streaming«. Wichtig wird es oder ist es schon, da ein Großteil des Energieverbrauchs des Internets durch das Streaming entsteht. Ein extremes Beispiel ist ein Cricket-Spiel in Indien, welches parallel auf 32 Millionen Geräten gestreamt wurde. Da kann man sich schon vorstellen, welche Ressourcen dafür bereitstehen müssen. Die Frage ist, wie man zukünftig beim Streaming Energie und damit CO2 einsparen kann. Wir haben dazu gerade unser »Green Streaming«-Projekt gelauncht und analysieren, wie man die gesamte Streamingkette ­– also vom A/V-Encoder über das Packaging, Content-Delivery-Networks, A/V-Player bis hin zum Endgerät – energieeffizienter gestalten kann.