Semesterarbeit über digitales Satellitenfernsehen  
     
Homepage
 
Vorwort
Zusammenfassung
Inhalt
Einleitung
Kapitel 1
Kapitel 2
Kapitel 3
Kapitel 4
Kapitel 5
Kapitel 6
Kapitel 7 Teil1
Kapitel 7 Teil2
Kapitel 8 Teil1
Kapitel 8 Teil2
Kapitel 9 Teil1
Kapitel 9 Teil2
Kapitel 9 Teil3
Kapitel 9 Teil4
Kapitel 10
Abkürzungen
Symbole
Literaturverzeichnis
Anhang A
Anhang B

1 Video - analog und digital

Die Übertragung von Fernsehbildern orientiert sich an den Seheigenschaften des Menschen. Wichtige Parameter wie Bildwiederholungsfrequenz und Auflösung sind deshalb so ausgelegt, dass das Auge einen möglichst natürlichen Bildeindruck erhält.
Das Auge erkennt die drei Grundfarben rot, grün und blau mit farbselektiven Sehzellen. Deshalb nimmt eine Farbkamera diese drei Farben getrennt auf. Damit eine flüssige Bildfolge entsteht, müssen mindestens 16 Vollbilder pro Sekunde abgetastet und übertragen werden. Um jedoch einen flimmerfreien Eindruck zu erhalten, ist eine Bildwiederholfrequenz von grösser 50 Hz notwendig. Es reicht allerdings aus, zwei verzahnte Halbbilder mit jeweils 50 Hz zu übertragen, wobei die Bandbreite gleich gross wie bei 25 Vollbildern bleibt.
Die Zeilenzahl wurde (bei PAL) mit 625 Zeilen so festgelegt, dass die vertikale Auflösung in etwa der des Auges entspricht. Die horizontale Auflösung wird durch die Videobandbreite bestimmt und wurde der vertikalen angepasst.

1.1 Analoge Bildsignale

Anstelle einer vollständigen Übertragung der drei Grundfarben werden Verfahren angewandt, die mit weniger Bandbreite auskommen. Es werden die Helligkeit (Luminanz oder Y) mit der vollen Bandbreite von 5 MHz, die Differenzsignale Blau minus Luminanz (B-Y) und Rot minus Luminanz (R-Y) mit der reduzierten Bandbreite von je ca. 1.3 bis 1.5 MHz gesendet. Die Luminanz ist für die Bildschärfe massgebend (volle Bandbreite), während die Farbinformation weniger genau übermittelt werden muss. Bild 1.1 zeigt das Basisband-Spektrum des Composite Signals. Die Luminanz belegt fast die ganze Kanalbandbreite. Die Farbinformation wird einem Träger aufmoduliert, der - um Interferenzen zu vermeiden, Bandbreite zu sparen und kompatibel zum vorhergehenden schwarz-weiss Fernsehsystem zu sein - im Bereich geringer spektraler Energiedichte der Luminanz liegt. Das Audiosignal wird ebenfalls moduliert und am oberen Rand des Kanalspektrums untergebracht.

Bild 1.1
Bild 1.1 Basisband-Spektrum des Composite Signals

Bild 1.2 zeigt eine FBAS- (Farbe, Bildhelligkeit, Austastung, Synchronisation) Zeile eines Testbildes im Zeitbereich mit den Austastlücken, den abgestuften Helligkeiten und dem überlagerten Farbträger. Ferner sind die Quantisierungsstufen des Digital-Composite-Formates angegeben. Die Digitalisierung der Komponenten nach ITU 601 ist in Bild 1.3 dargestellt.

Bild 1.2
Bild 1.2 FBAS Testbildzeile und Composite Quantisierungsstufen

Bild 1.3

Bild 1.3 Digitalisierung der Komponenten nach ITU 601

1.1.1 Der NTSC-Standard

Das amerikanische NTSC-Verfahren hat eine Kanalbandbreite von 6 MHz. Die Farbinformation wird quadraturamplitudenmoduliert:

Formel 1.1   (1.1)

Weitere Parameter des Standards sind:

Zeilen: 525
Vertikalfrequenz: 60 Hz
Horizontalfrequenz: 15750 Hz
Videobandbreite: 4.2 MHz
Kanalbandbreite: 6 MHz
Farbträger: 3.58 MHz
Tonträger: 3.58 MHz

1.1.2 Der SECAM- Standard

Ein grosser Nachteil des NTSC-Verfahrens ist die Anfälligkeit auf Phasenfehler. Deshalb wird bei SECAM (séquentiel couleur à mémoire) die Farbinformation nicht amplituden- sondern frequenzmoduliert und zwar so, dass in den geradzahligen Zeilen der (R-Y)- und in den ungeradzahligen der (B-Y)-Anteil übertragen wird. Der Vorteil ist eine praktisch beliebige Resistenz gegenüber Phasenfehlern. Die Nachteile dagegen sind ein höherer Schaltungsaufwand (u.a. muss im Empfänger die Chrominanzinformation um die Dauer einer Zeile verzögert werden) und die Halbierung der vertikalen Farbauflösung. Dies ist allerdings unter dem gleichen Aspekt zulässig, wie auch schon die horizontale Auflösung der Chrominanz durch die Bandbreitenbegrenzung von 5 auf ca. 1.5 MHz reduziert wurde.

Zeilen: 625
Vertikalfrequenz: 50 Hz
Horizontalfrequenz: 15625 Hz
Videobandbreite: 5 MHz
Kanalbandbreite: 8 MHz
Farbträger: 4.25 MHz (B-Y), 4.4 MHz (R-Y)
Tonträger: 6.5 MHz

1.1.3 Der PAL- Standard

Der Phasenfehlerproblematik begegnet PAL durch einen Trick bei der Quadraturmodulation: Die Inphasenkomponente (R-Y) wird zeilenweise umgepolt. Der Encoder kann so durch Zeilenverzögerung und vektorielle Mittelung den Phasenfehler korrigieren.

Formel 1.2   (1.2)

Die restlichen Parameter des PAL-Verfahrens lauten wie folgt:

Zeilen: 625
Vertikalfrequenz: 50 Hz
Horizontalfrequenz: 15625 Hz
Videobandbreite: 5 MHz
Kanalbandbreite: 7 / 8 MHz
Farbträger: 4.43 MHz
Tonträger: 5.5 MHz

1.2 Digitale Bildsignale

Die oben dargestellten Analogverfahren verwenden sogenannte Composite-Signale, die Chrominanz und Luminanz gleichzeitig in einem Signal übertragen. Daneben gibt es die Möglichkeit, Chrominanz und Luminanz ebenfalls in einem Signal zu übertragen, allerdings nacheinander im Zeitmultiplex (MAC-Verfahren = Multiplexed-Analogue-Components). Die qualitativ hochwertigste Möglichkeit ist die Komponenten-Technik, bei der die drei Anteile auf getrennten Leitungen übermittelt werden (wird praktisch nur im Studio verwendet).
Entsprechend zu den oben genannten analogen Verfahren gibt es digitale, die entweder die Composite-Signale digitalisieren (Digital-Composite) oder die drei Komponenten getrennt digitalisieren und hinterher im Zeitmultiplex in einem Signal ausgeben (DSC = Digital Serial Components) oder die drei Komponenten getrennt digitalisieren und als drei getrennte Signale ausgeben (Digital-Component).

1.2.1 Die Digitalisierung

Da die Bild- und Tonsignale nach wie vor analog entstehen, müssen sie für eine digitale Weiterverarbeitung zuerst digitalisiert werden. Unter dem Vorgang des Digitalisierens versteht man die drei folgenden Schritte:

1. Abtastung

Es werden in festen zeitlichen Abständen (zeitdiskret) Signalwerte ermittelt. Dabei muss nach dem Nyquist-Theorem die Abtastfrequenz mindestens doppelt so hoch sein wie die obere Grenzfrequenz des Signals. Um Aliasing zu Vermeiden, werden die Signale vorher mit einem Tiefpass bandbegrenzt.

2. Quantisierung

Die ermittelten Signalwerte werden einem diskreten Amplitudenwert mit maximal 2m Stufen zugeordnet.

3. Codierung

Den zeitdiskreten und quantisierten Signalwerten werden binäre Worte der Länge m zugeordnet.

1.2.2 Digital-Composite

Bei Digital-Composite wird das komplette FBAS-Signal mit der vierfachen Farbträgerfrequenz abgetastet und mit acht oder zehn Bit quantisiert. Dieses Verfahren ermöglicht es, ohne grossen Aufwand und preiswert digitale Studios einzurichten und digital aufzunehmen. Allerdings ist mit diesem Verfahren keine Qualitätsverbesserung gegenüber analogen FBAS-Signalen möglich, jedoch werden Kopien mit weniger Verlusten erreicht.
Die Aufzeichnungsformate D2 (Ampex und Sony) und D3 (Panasonic) gehören in diese Kategorie.

1.2.3 Digital Serial Components

Der Unterschied zum Digital-Component-Verfahren (siehe unten) besteht darin, dass das Signal im Zeitmultiplex auf einer Leitung übertragen wird und nicht auf drei getrennten Leitungen. Dieses Verfahren findet vor allem in Studios seine Verwendung, um über längere Strecken das gesamte Signal über nur ein Koaxial- oder Glasfaserkabel zu übertragen. Da die weiteren Parameter identisch mit dem Digital-Component-Verfahren sind, werden sie nur unter 1.2.4. erwähnt.

1.2.4 Digital-Component

Bei diesem Verfahren werden zuerst die Komponenten Y, CR (Y-R) und CB (Y-B) aus den RGB-Signalen erstellt. Danach werden Y, CR und CB gefiltert, abgetastet und quantisiert. Dieses Verfahren wird nur für Übertragungen auf kurzen Strecken (weniger als einige Meter) verwandt, da der Aufwand mit drei Leitungen sonst zu gross wäre. Je nachdem welche Abtastfrequenzen gewählt werden, unterscheidet man verschieden Formate, die in der ITU-R 601 Recommendation normiert wurden:

fTY fTCR fTCB Format Auflösung Nettodatenrate
13.5 MHz13.5 MHz13.5 MHz 4:4:48 bit324 Mbit/s
13.5 MHz6.75 MHz6.75 MHz 4:2:28 bit216 Mbit/s
13.5 MHz1)1) 4:2:08 bit124.5 Mbit/s 2)
13.5 MHz13.5 MHz13.5 MHz 4:4:410 bit405 Mbit/s
13.5 MHz6.75 MHz6.75 MHz 4:2:210 bit270 Mbit/s
13.5 MHz1)1) 4:2:010 bit155.6 Mbit/s 2)

Tabelle 1 Digitale Abtastformate nach ITU-R 601
fTY: Abtastfrequenz des Luminanzsignals,    fTCR: Abtastfrequenz des CR-Signals,    fTCB: Abtastfrequenz des CB-Signals,   
1) fTCR+fTCB zusammen 6.75 MHz, da zeilensequentiell abgetastet wird.
2) es wird nur das aktive Bild ohne die Austastlücken übertragen

Das dazugehörige Aufzeichnungsformat D1 wird in der ITU-R 657 Rec. definiert.

 
Homepage
Zurück Top Weiter
 
Diese Seite verwendet keine Frames !
e-mail: Alexander Braun Diese Seite wurde auf einem A4000 gestaltet 15. August 1997