4Max/shutterstock.com

16. April 2013 / von Dr. Helge Schütt

Media Web

Symposium

2013

Das Media Web Symposium ist eine jährliche Konferenz, die vom Fraunhofer Fokus Institut in Berlin veranstaltet wird. Sie fand in diesem Jahr zum dritten Mal statt. Die Veranstalter haben die Konferenz vom Herbst in den Frühling verlegt, was allerdings in diesem Jahr vom Wetter her keinen Vorteil gebracht hat.

Die Konferenz beschäftigt sich im Wesentlichen mit dem Zusammenwachsen von Fernsehen und Internet, sei es in der Form IPTV, als „Connected TV“, als „Smart TV“ oder in Form von „Over-the-top“ (OTT) Angeboten.

Ein besonderer Schwerpunkt lag in diesem Jahr auch auf der Entwicklung von „Multiscreen-Anwendungen“ im Allgemeinen und den so genannten „Second Screen“ Anwendungen, also der Zusammenarbeit zwischen einem mobilen Endgerät (Smartphone oder Tablet) und dem Fernseher, im Speziellen.

Daneben wurden aber auch andere Forschungsthemen gestreift, wie zum Beispiel die „Smart City“ und das „Internet of Things“ (IoT). Auch das Thema Webinos (webinos.org), war ein ständiger Beleiter auf der Konferenz und wurde in zahlreichen Vorträgen, insbesondere zu Multiscreen Technologien, erwähnt und referenziert.

Das Format der Konferenz ist eine große Menge von sehr kurzen Vorträgen zu je 15 Minuten, ergänzt um wenige große Vorträge bzw. Tutorials sowie Vorführungen der Sponsoren. Ziel dieses Blog-Eintrags ist daher nicht, die vollständige Liste der Vorträge aufzuführen. Stattdessen sollen die aus unserer Sicht interessantesten Trends kurz beleuchtet werden.

Hierbei beschränken wir uns auf die TV-Themen (inklusive dem Second Screen).

Die wichtigste Botschaft dieser Konferenz ist: Die Standardisierung der Infrastruktur hat große Fortschritte gemacht:

  • Als Übertragungsprotokoll wurde MPEG-DASH (Dynamic Adaptive Streaming over HTTP) inzwischen als ISO/IEC Standard 23009-1:2012 verabschiedet. Für den VLC gibt es mit der Libdash inzwischen auch eine Referenzimplementierung. Damit dürften die Tage der proprietären Übertragungsprotokolle wie Apples HLS, Microsofts SmoothStreaming oder Adobes HHTP Dynamic Streaming gezählt sein.
  • Als Dateiformat verwendet MPEG-DASH fragmented MPEG-4 Dateien, die über eine Media Presentation Description (MPD) Datei zusammengehalten werden. fMP4 ist eine der Möglichkeiten, die im Media Base File Format ISO/IEC 14496-12:2005 vorgesehen sind.
  • Deswegen kann man auf fMP4 Dateien auch das Common Encryption Format (cenc) anwenden, das in ISO/IEC 23001-7:2012 spezifiziert ist. Man ist sich also inzwischen beim DRM einig, dass man sich nicht einigen wird. Aber zumindest hat man so eine Hülle gefunden, in der man alle gängigen DRM Verfahren verpacken kann.
  • Man kümmert sich inzwischen auch um die Kleinigkeiten, die das TV-Leben einfacher machen: So wird z.B. das W3C das <video> Tag in HTML-5 um ein track-Attribut erweitern. Dieses bietet die Möglichkeit Untertitel in Form von Web Video Text Tracks (WebVTT) einzubinden. Derartige Erweiterungen werden von der TV Interest Group beim W3C verfolgt.
  • Eine weitere interessante Standardisierung wird beim W3C durch die Media Source Extensions vorangetrieben. Ziel ist es, HTMLMediaElemente durch JavaScript Methoden manipulierbar zu machen. Dabei wurde als Haupt Use-Case angegeben, dynamisch Werbung in Video-Streams einblenden zu können. Man merkt: An diesem Standard arbeiten nicht die Fernseh-Zuschauer mit, sondern Netflix.
  • Einige Hersteller der Fernsehgeräte haben sich zur Smart TV Alliance zusammengeschlossen mit dem Ziel, die App-Entwicklung für Smart TV Geräte Plattform-übergreifend zu standardisieren. Leider arbeitet Samsung hier noch nicht mit. Deswegen ist noch unklar, wie groß der Einfluss der Smart TV Alliance letztlich sein wird.
  • HbbTV hinkt leider wie immer hinter der rasanten Entwicklung hinterher. Man hat sich inzwischen dazu durchgerungen, zu prüfen, ob es sinnvoll sein könnte, eine Arbeitsgruppe einzurichten, die diskutieren soll, ob die durch HTML-5 spezifizierten HTMLMediaElemente auch in CE-HTML berücksichtigt werden könnten. Mit etwas Glück könnte diese Arbeitsgruppe schon im Sommer 2013 ihre Arbeit aufnehmen. Ein Termin, wann der daraus entstehende HbbTV Standard in der Version 2.0 erscheinen wird, wurde allerdings nicht genannt. Möglicherweise wird im Rahmen dieser Erweiterungen übrigens sogar CSS-3 betrachtet.

Nun, ich möchte nicht zu viel lästern: Einfache Anwendungen wie der erweiterte Teletext im HbbTV Angebot der öffentlich-rechtlichen Sender oder die sendungsbegleitenden HbbTV Applikationen der Pro7Sat1 Sendergruppe finden einen stetig wachsenden Kreis an Zuschauern. Aber diese Anwendungen sind zurzeit reine Kostenfaktoren. Für ernsthafte Anwendungen mit personalisierter Werbung oder kostenpflichtigen Inhalten ist HbbTV nicht die Plattform, die man wählen würde.

Die aktuell spannendste offene Frage ist die nach dem Endgerät: Wer wird langfristig das Rennen machen: Der smarte Fernseher oder die Set Top Box? Oder eben doch die Spielekonsole? Alle drei Bereiche rüsten massiv auf, sowohl bezogen auf ihre technischen Fähigkeiten als auch auf die Menge der angebotenen Inhalte.

Und wie wird sich das Zusammenspiel zwischen diesen First Screens und dem Tablet als Second Screen entwickeln? Besteht die Lösung wirklich darin, eine Fernbedienung für den Fernseher mit einer Tastatur auszustatten, so wie es Philips getan hat? Oder ist eher die Steuerung des Fernsehers vom Tablet aus der richtige Weg?

Die Zukunft wird es zeigen.

Der Second Screen ist nur ein Anwendungsfall für die Entwicklung von Applikationen, die sich auf mehrere „Screens“ verteilen, aktuell aber sicherlich derjenige, mit der größten Aufmerksamkeit.

Auch für Multiscreen Anwendungen sollen Web Technologien zukünftig die erste Wahl sein und daher stellt sich auch hier die Frage nach den Standards. Diese stecken an dieser Stelle noch in den Kinderschuhen:

  • Insbesondere das Thema „Service Discovery“ wird die Branche in den nächsten Jahren beschäftigen. Verschiedene W3C Working Groups nähern sich seit kurzem aus verschiedenen Richtungen dem Problem, wie die Kommunikation zwischen Web Anwendungen aufgebaut und Nachrichten und Daten sicher ausgetauscht werden können.
  • Web Applikationen sollen in die Lage versetzt werden, Dienste in lokalen Netzwerken zu finden und nutzen zu können.
  • Die W3C Device API working group und die System Applications WG haben hierzu verschieden Working Drafts hervorgebracht.
  • Die Zukunft von Web Intents ist aktuell unsicher, da Google, einer der bisherigen Treiber des Ansatzes, die Technologie aus dem Chrome Browser wegen Usability Issues zurückgezogen hat.
  • Standards für Content und Screen Sharing sollen zukünftig die Entwicklung von Funktionen, wie wir sie heute z.B. von Apple Airplay kennen, für Web Anwendungen ermöglichen und vereinheitlichen.

Schau‘n mer mal, wie gut man mit dem Zweiten (Bildschirm) wirklich sehen kann.

Autor

Dr. Helge Schütt
Dr. Helge Schütt
Weitere Artikel

Das könnte Sie auch interessieren