[index] [back] [next]



2. Standards und Kompression

2.1. MPEG-Standards

Die sogenannte "White Book"-Spezifikation legt die Parameter für die Video- und Audiodatenströme fest. Die Motion (Moving) Pictures Expert Group (MPEG) arbeitete 1992 einen Vorschlag zur Darstellung von Videos aus, der heute als MPEG-1 bekannt ist: Er erlaubt Videosequenzen mit 25-30 fps bei 352x240 (SIF), bis 1,86 MBit/s (normal: 1,5 MBit/s) Datenrate. Maximal sind Bilder mit einer Auflösung von 4095x4095 möglich. 1994 wurde dann MPEG-2 entwickelt, das nun höhere Auflösungen und Bitraten gestattete: 25-30 fps bei 720x480 (CCIR 601), 6-15 MBit/s, maximal 16Kx16K-Bilder. Das sind die z.Z. gebräuchlichen Standards; an MPEG-3 und MPEG-4 wird gearbeitet. MPEG-3 war ursprünglich dazu gedacht, HDTV-Applikationen mit 1920x1080 bei 30 Hz abzuspielen, jedoch ist dies mit MPEG-2 bei geringen Anpassungen auch möglich, so dass MPEG-3 anscheinend vorerst auf Eis gelegt wurde.

Unterschiede zwischen MPEG-1 und MPEG-2:

Farben und Mustergenauigkeit:

Mögliche Rahmenraten:

Anforderungen an die Rechenleistung:

--> nicht symmetrisch, da für Dekodierung wesentlich weniger Rechenleistung erforderlich

Aufbau von MPEG-Dateien:

TeilZweck und Aufgabenbereich
1 Systemteil:
  • Syntax für den Transport von Paketen von Audio- und Videodaten über digitale Kanäle
  • Syntax für Synchronisation der Audio- und Videoströme
2 Videoteil:
  • Definition der Rahmenrate und Bildpixel und der Dimension für die verschlüsselte Bildreihenfolge
  • Bereitstellung von Komprimierungsalgorithmen, die eine hohe Kompressionsrate ermöglichen
3 Audioteil:
  • Beschreibung der Audiokompression in den drei Layern
4 Übereinstimmung zwischen den ersten drei Teilen (Audio, Video, System)
5 Daten der Video- und Audiokomprimierung (z.B. IPB-Bilder)
6* Syntax, die Kontrollen des VCR bereitstellt --> Befehle wie "schnell vorwärts", "rückwärts" und "gehe zu" möglich
7* Neue Syntax, um Audiodaten durch getrennten Multichannel ausgeben zu können --> nicht mehr nur zwei getrennte Kanäle --> auch Dolby AC-3 möglich
8* 10 Bit-Videoerweiterung:
  • Verbesserung der Mustergenauigkeit
  • Anwendung im Studiovideo, sonst nur 8 Bit
9* Real Time Interface (RTI):
  • Syntax für die Kontrolle der Signale zwischen Set-Top-Boxes und Head-End-Servers

*) nur MPEG-2-Dateien

2.2. Videokompression

Zur Aufnahme benötigt man eine Capture-Karte. Real-Time-Grabber liefern nicht die gesamte Auflösung, und die Bilder sind komprimiert. Da die MPEG-Encoder nicht standardisiert sind, erhält man unterschiedliche Qualitäten bei unterschiedlichen Verfahren und Kompressionsraten. Man erreicht Kompressionsraten bis Faktor 150 (200) gegenüber der unkomprimierten Bildfolge, so dass bis zu 45 s Film auf einer 1,44 MB-Diskette Platz finden. Bei der Softwarekomprimierung sind nur geringe Kompressionsraten möglich (1:5 bis 1:7), wohingegen die Hardwarekomprimierung (mit Erweiterungskarte) bessere Raten liefert (1:20 bis 1:120 und mehr). Bei 1:20 gibt es kaum Qualitätsverluste, darüber nimmt die Qualität immer mehr ab. Somit werden Datenraten zur Festplatte von 1 MB/s möglich.

Auf der letzten CeBIT wurde von Hitachi eine Digitalkamera vorgestellt, die etwa 20 min Video auf einer eingesteckten 260MB-HD speichern kann, MPEG-1-komprimiert mit einem Faktor von 100, und das Ganze in Echtzeit! Die Kamera beinhaltet den weltweit ersten Ein-Chip-MPEG-Kompressor. Alternativ erlaubt sie die Aufnahme von 3000 JPEG-Standbildern oder 1000 JPEG-Bildern mit je 10s Ton. Erhältlich ist diese Kamera voraussichtlich ab Herbst 1997 für knapp 5000,- DM.

Anforderungen an MPEG:

Die Videodaten werden in Teil 5 der MPEG-Datei abgelegt. Der Datenstrom besteht aus drei Teilen: Video-, Audio- und Systeminformationen, wobei die Systeminformationen die Art der Integration von Audio- und Videoinformationen beschreiben, um eine Synchronisation der beiden zu erlauben. Der Ausgangspunkt für den Videodatenstrom sind Bildsequenzen mit der Größe von 352x240 und 25 fps bei PAL (Dtl. - 50 Halbbilder/25 Bilder bei 50 Hz) bzw. 352x288 und 30 fps bei NTSC (USA - 60 Halbbilder/30 Bilder bei 60 Hz) und einer Farbauflösung von 176x120 (bzw. 144), was in etwa VHS-Qualität entspricht.

Komprimierung der Daten:

hoch    <-----------------------------------------------------  niedrig
                           Informationsgehalt
              |                    |                     |
          I-Bilder             P-Bilder              B-Bilder
              |                    |                     |
                            Kompressionsgrad
niedrig  ----------------------------------------------------->    hoch

Bei der Dekodierung wird alle 0,5 s ein neues komplettes I-Bild berechnet, um daraus weitere P- und B-Bilder berechnen zu können. Daraus folgt: Zuerst müssen die I-, dann die P- und dann die B-Bilder gelesen werden, um das Video zu dekomprimieren.

2.3. Audiokompression

Die MPEG-Audiokompression ist ähnlich aufgebaut wie Philips PASC (Precision Adaptive Subband Coding), der für DCC (Digital Compact Cassette) genutzt wird. Es ist die z.Z. wohl leistungsfähigste standardisierte Komprimierung. Den Ausgangspunkt bildet ein psychoakustisches Modell, d.h. die Unzulänglichkeiten in der menschlichen Wahrnehmung werden ausgenutzt. Die redundanten Informationen und nicht wahrnehmbare Frequenzen werden unterdrückt:

Mit MPEG sind unterschiedliche Qualitäten möglich, die durchaus fast bis an Redbook-Audio (CD-Qualität) heranreichen, aber bei einer Datenrate von nur 256 KBit/s gegenüber 1,4 MBit/s bei CD-Audio. Mögliche Bitraten sind 64 KBit/s bis 448 KBit/s (für beide Kanäle) bzw. 32 KBit/s für einen Kanal. Gesamplet werden die Audidaten mit 44,1 kHz, 48 kHz oder 32 kHz. Zusätzlich besteht die Möglichkeit eines "Joint Stereo"-Modus, der die Auswertung redundanter und irrelevanter Informationen unterstützt, die aus dem Stereomodus resultieren.

Es gibt drei MPEG-Audio-Layer: Layer I und II sind für die Filterung, das psychoakustische Modell und Skalierungen verantwortlich, Layer III beinhaltet nichtlineare Quantisierung, adaptive Segmentierung u.a. Ein (De-)Kodierer für Layer II unterstützt auch Layer I, und einer für Layer III unterstützt alle drei.


[index] [back] [next]