Название | Praxishandbuch Medien-, IT- und Urheberrecht |
---|---|
Автор произведения | Anne Hahn |
Жанр | |
Серия | C.F. Müller Wirtschaftsrecht |
Издательство | |
Год выпуска | 0 |
isbn | 9783811447066 |
7
Sofern die Bild- und Tonsignale audiovisueller Inhalte nicht bereits mit digitaler Aufnahmetechnik produziert werden oder wurden, sondern noch in analoger Form vorliegen, müssen sie erst mittels der (Quell-) Codierung bzw. des sog. Encodings in digitale Signale umgewandelt werden. Hierzu werden erstens die Zeitwerte der analogen Signale ermittelt (Abtastung), zweitens den einzelnen Zeitwerten ein jeweiliger Amplitudenwert zugeordnet (Quantisierung) und drittens die so erfassten Signalwerte in eine Abfolge binärer Werte umgeformt (Codierung). Bei der Quellcodierung digitaler Fernsehbilder hat sich der MPEG-2 Standard international durchgesetzt und wurde sowohl in Europa als auch in den USA gesetzlich festgeschrieben. Dieser Codierungsstandard konnte sich für die Umwandlung von Bewegtbildern deshalb durchsetzen, weil er eine Reduktion der Datenmenge durch die Verwendung von Kompressionsverfahren ermöglicht[20] und damit eine der wichtigsten Voraussetzungen für den Erfolg des digitalen Fernsehens schafft.[21] Beim Encoding von analogen Bewegtbildern und Tönen entsteht ein sehr hohes Volumen digitaler Daten, deren Verbreitung eine enorme Speicher- und Übertragungskapazität erfordern würde.[22] Die Komprimierungsverfahren nach dem MPEG-2 Standard ermöglichen jedoch eine derart effiziente Datenreduktion, dass im Ergebnis die digitalen Signale eine erheblich geringere Übertragungskapazität benötigen als die analogen Signale.[23] Da die derzeit schnell voranschreitende Umstellung auf hochauflösende Bildformate (HDTV und UltraHD) und die beginnende Einführung von 3-D-Filmen erneut die zur Programmübertragung benötigte Übertragungskapazität um ein Vielfaches erhöht, werden hierfür weiterentwickelte Kompressionsverfahren verwendet wie MPEG-4 mit dem H264 Codec für HDTV Inhalte und HEVC mit dem H265-Codec für UltraHD bzw. 4K. Es ist deshalb bereits jetzt abzusehen, dass sich in Zukunft der MPEG-4 Standard, der auch bei IPTV und DVB-T2 verwendet wird, aufgrund seiner höheren Datenkompression und der damit verbundenen effizienteren Nutzung von Übertragungskapazitäten den MPEG-2 Standard in der Praxis vollständig ablösen wird.[24] Diese Entwicklung wird auch politisch forciert, indem die Kommission zur Ermittlung des Finanzbedarfs (KEF) den öffentlich-rechtlichen Sendeunternehmen die Finanzierung der Satellitenverbreitung im SD-Standard bislang nur bis zum Ende des Jahres 2019 genehmigt hat. Neben der Art und Weise der Datenkompression ist auch die für den Sendevorgang verwendete Modulation sowie das Bandbreitenmanagement (insbesondere das Multiplexing) für die Frage der effizienten Nutzung von Übertragungskapazitäten von besonderer Bedeutung.
1.2 Multiplexing
8
Digitale Programmsignale benötigen eine weitaus geringere Übertragungskapazität (Bandbreite) als analoge Programmsignale, die die gesamte Bandbreite eines frequenztechnisch festgelegten Übertragungskanals beanspruchen. Um eine effiziente Nutzung der vorhandenen Übertragungskapazitäten sicherzustellen, werden auf den festgelegten Übertragungskanälen digitale Transportdatenströme verbreitet, die zwar die gleiche oder eine ähnlich Bandbreite wie die analogen Programmsignale benötigen, aber statt nur einem Programm eine Vielzahl von Programmen beinhalten. Denn mehrere digitale Programmsignale werden durch den technischen Vorgang des Multiplexings zu einem einheitlichen sendefähigen Transportstrom verpackt.[25] Durch die Möglichkeit des dynamischen Multiplexings werden den einzelnen digitalen Programmsignalen innerhalb des Multiplexes keine konstanten Bandbreiten zugeteilt, sondern die Gesamtmenge der Übertragungsbandbreite (z.B. 50 Mbit/s je digital genutzten Kabelkanalplatz) wird den Programmen des Multiplexes bedarfsgerecht zugewiesen. Dadurch können Programmen, die aufgrund eines hohen Bewegtbildanteils (z.B. Sportübertragungen) eine vergleichsweise große Bandbreite benötigen, zusätzliche Übertragungsbandbreiten zugeteilt werden, während im gleichen Moment ein anderes Programm des selben Multiplexes nur einen geringen Kapazitätsbedarf hat (z.B. Standbilder oder Zeichentrickfilme). Diesen Transportdatenströmen bzw. Multiplexen werden beim Vorgang des Multiplexings bzw. dem „Verpacken“ noch weitere digitale Informationen hinzugefügt, die für die weitere Programmverarbeitung und -darstellung von großer Bedeutung sind (z.B. weitere digitale Fernseh- und Hörfunkprogramme, Programm Service Informationen (PSI-Daten), Netzwerkinformationen (NIT = Network Information Table), Startzeiten von Programmen (EIT = Event Information Table), genaue Programmbeschreibungen (SDT = Service Description Table), Jugendschutzinformationen, Kopierschutzinformationen, Informationsdienste, Benutzerführer bzw. „electronic programme guides“ (EPGs), Verschlüsselungsinformationen (EMM und ECM), Fehlerkorrekturprogramme und gesonderte Kennungen, sog. „Paket-Identifier“ (PID)).
Nach der technischen Verknüpfung (Verpackung oder „Packaging“) dieser unterschiedlichen Informationen in ein einheitliches digitales Sendesignal, dem Multiplex, wird dieser Transportdatenstrom an den Empfänger übermittelt und belegt hierbei nur eine Sendefrequenz bzw. einen „Kanal“, was zu einer wesentlichen Erweiterung des Programmangebots durch effektivere Nutzung der Übertragungsfrequenzen führt. Dies wird im Rundfunkbereich besonders anschaulich, denn beispielsweise im analogen Fernsehen über Kabelnetze wird eine Sendefrequenz (Übertragungskanal mit einer Bandbreite von ca. 8 MHz) mit nur einem analogen Fernsehprogramm belegt, wohingegen die digitale Verbreitung eine Nutzung dieser Frequenz durch einen Multiplex mit zehn bis sechzehn Fernsehprogrammen in SD-Qualität und zusätzlichen Diensten ermöglicht. Die Anzahl der Fernsehprogramme, die innerhalb eines Multiplexes verbreitet werden können, ist davon abhängig, wie viel Bandbreite einem Programm im Rahmen des dynamischen Multiplexings zugeteilt und welche Modulation bei der Übertragung des Multiplexes verwendet wird.[26]
2. Bilddarstellung
9
Angesichts einer Entwicklung, in der immer mehr Privathaushalte ihre Wohnzimmer mit Bild- und Audiotechnik zu Heimkinos aufrüsten und somit die Verbreitung von LCD- oder Plasma-Flachbildschirmen mit Bilddiagonalen von über 90 cm sprunghaft zunimmt, gewinnt die Form (Format) und Qualität (Bildauflösung) der Bilddarstellung einen wachsenden Stellenwert. Da der ehemals vergebliche Versuch, die Einführung des hochauflösenden Fernsehens mittels eines auf europäischer Ebene vorgegebenen Standards (HD-MAC)[27] zu fördern, sich mahnend in Erinnerung ruft, vertrauen die Gesetzgeber derzeit stärker auf eine marktgetriebene Entwicklung leistungsfähiger Bildstandards und setzen auf eine flankierende Gesetzgebung statt auf starre Normierungseingriffe.
2.1 High Definition Television (HDTV)
10
Im Gegensatz zur analogen Bilddarstellung im PAL- und SECAM-Format bietet die HDTV-Technik eine bessere Bildqualität mittels einer höheren Bildauflösung. Diese hohe Bildauflösung wird durch die Verwendung einer höheren Anzahl von Bildzeilen und Bildpixeln je Zeile erreicht. Beispielsweise verwenden die HD-Formate 1080p und 1080i eine Auflösung von 1 920 Bildpixel je Zeile bei einer Darstellung in 1080 Bildzeilen.[28] Bei der Bildauflösung im UltraHD-Standard wird mit einer Darstellung von 3840 x 2160 Pixel bei 60 Bildern pro Sekunde (UHD1 oder 4K) oder sogar doppelt so hoch auflösend 7680 x 4320 Pixel bei 120 Bildern pro Sekunde (UHD2 oder 8K). Im Vergleich hierzu verwendet der analoge Bildstandard PAL eine Auflösung von je 346 Pixeln in 625 Bildzeilen. Die Übertragung von HDTV-Formaten benötigt aufgrund der höheren Bildauflösung deshalb weitaus höhere Übertragungsraten, z.B. von ca. 10 – 16 Mbit/s je Einzeldienst bei HDTV-Programmen im MPEG-4 Standard.[29] Betreiber von Telekommunikationsnetzen wie beispielsweise Breitband-Kabelnetzen verfügen jedoch in der Regel über Kabelkanäle mit einer Bandbreite von 8 MHz, die eine Übertragungsrate