CD-Player Wissen + Service aus 1992
Auf diesen Seiten wird das damalige Wissen des Autors Rodekurth teilweise erst mal original zitiert und jeweils mit aktuellem Wissen kommentiert. Der Autor hatte 1992 entweder noch nicht alle Informationen erhalten, die teilweise noch Firmengeheimnis waren oder irgendwo ganz tief im Text versteckt waren. Auch die beschriebenen Mustergeräte und Komponenten sind nur ein Bruchteil der damals am Mark befindlichen Produkte. Von den Senkrechtladern ist nichts zu lesen und auch SPDIF war scheinbar unbekannt. Weiterhin konzentriert sich der Autor auf die großen älteren Audio-CD-Player. Aber gerade bei der PC-CD-Technik wurden die größten Innovationen eingeführt, die dyynamische Auswuchtung unrunder CDs zum Beispiel und das beschreiben von CDs. Die einführende Seite finden Sie hier.
.
5 Datenverarbeitung im CD-Player
Ähnlich wie das von anderen PCM-Produkten bekannte Cross-Inter-Leave- System arbeitet dieses System. Ein genaues Schema der Korrektur wird geheim gehalten.
Die Reihenfolge der Originaldaten wird nach einem bestimmten Schlüssel einem Raster zugeordnet. Fällt innerhalb dieses Rasters eine Datenzeile aus, so läßt sich der Daten-Inhalt anhand der anderen noch vorhandenen Datenzeilen errechnen (Anmerkung : teilweise erraten !!).
Bei der Interleave-Methode werden entgegen der Aufzeichnung Wörter (das sind Gruppen von Daten-Bits) für eine feste Zeitdauer und in spezifizierten Intervallen beschleunigt wiedergegeben. Durch dieses Prinzip ist sichergestellt, daß von drei Daten bei einem Drop-out mindestens ein "Datum" erhalten bleibt.
Beim CD-System beträgt dies 28 Wörter. Eine Kombination von Cross-Code und Interleaving nennt man Cross-Interleave-System. Bei der Fehlerkorrektur nach dem CIRC-System arbeitet man zusätzlich noch mit der Bildung von Polynomen (vielgliedrige Größe), Multiplikationen und Subtraktionen.
Die Fehlerkorrektur ist notwendig, weil unterwegs von den vielen Impulsen keiner verloren gehen darf. Passiert das, dann stimmt entweder der daraus resultierende Zahlenwert (Abb. 23) für das Tonsignal nicht oder eine der Servoschaltungen, die auf die Steuerimpulse angewiesen sind, kann nicht funktionieren. Es entsteht eine Fehlinformation, die als Knack oder Kracher hörbar ist, oder die Abtastführung spielt verrückt.
Um die steigende Begriffs Vielfalt bei den CD-Playern zu verdeutlichen, sollen die fünf verschiedenen Arten von CD-Playern, mit denen man aus den „Pits" die Musik macht, erklärt werden.
.
- Anmerkung : Wir sind auf dem Wissensstand von 1992/1993
.
Die fünf verschiedenen Arten von CD-Playern
Die Arten, das digital verschlüsselte Signal (Cross Interleaved Reed Solomon Code) von der Compact Disc abzutasten und in ein analoges Audio-Signal umzusetzen, sind:
- 14-Bit-CD-Player mit Realsampling
16-Bit-CD-Player mit Realsampling - 14-Bit-CD-Player mit 4fach Oversampling
- 16-Bit-CD-Player mit 2fach Oversampling
- 16-Bit-CD-Player mit 4fach Oversampling
- 16-Bit-CD-Player mit 8fach Oversampling
.
5.1 CD-Player mit Realsampling
D/A-Wandler haben den geringsten technischen Aufwand. Das mit 16 Bit quantisierte und auf Platte gespeicherte Signal wird mit 14 Bit decodiert. Die zwei Bits des kleinsten Signalpegels werden bei der D/A-Wandlung einfach ignoriert. Diese CD-Player tasten die Digital-Signale mit der Ursprungstaktfrequenz von 44,1 kHz ab, wodurch kein zusätzlicher Dynamikgewinn erzielt wird.
Dies ergibt einen Dynamikumfang von "nur" 84dB. Bei 16Bit wird das gleiche Digital/Analog-Verfahren angewand wie bei den 14Bit-CD-Playern, nur daß hier das Quellensignal mit 16Bit decodiert wird. Die 12dB Dynamikeinbuße entfallen, da sich diese sowieso nur im untersten Lautstärkebereich befinden.
Die CD-Player mit Realsampling arbeiten mit analogen Filtern. Um den Schwierigkeiten, die steilflankige Analogfilter mit sich bringen, aus dem Weg zu gehen, entwickelten einige Hersteller (Philips und andere deutsche Hersteller) ein Verfahren, das als Oversampling (Überabtastung) bezeichnet wird.
5.2 CD-Player mit Oversampling
Bei diesem Verfahren wird das Signal bei der Wiedergabe scheinbar mit einer höheren Taktfrequenz abgetastet, als es bei der Aufnahme der Fall war.
Die Taktfrequenz liegt beim 2fach Oversampling bei 88,2 kHz, diese wurde nur verdoppelt, beim 4fach Oversampling bei 176,4 kHz und beim 8fach Oversampling bei 352,8 kHz. (Bei 16Bit erhält man 65535 mögliche Abtastwerte, bei 18Bit sind es bereits 262144, hier wird also eine genauere und wesentlich feinere Erfassung der Spannungswerte möglich.)
Zusätzliche Abtastwerte können allerdings von der CD nicht gelesen werden, wenn sie nicht gespeichert wurden. Hier werden die Abtastwerte, die bei Oversampling zusätzlich entstehen, zwischen die Orginalabtastwerte verschachtelt (interpoliert)
- (Anmerkung : Es wird geschummelt. Es werden Daten künstlich erzeugt, die es nie gab.)
.
Beim 2fach Oversampling-Verfahren
Beim 2fach Oversampling-Verfahren wird dann ein Filter nachgeschaltet, welches dann einfacher sein kann und welches vor allem die unerwünschten Filterwirkungen (Anmerkung : nicht unerhebliche Phasendrehungen), den sanften Höhenabfall unterhalb von 20 kHz, vermeidet, und so der Frequenzgang und damit der Phasenverlauf im Hochtonbereich hiervon unberührt bleiben.
Da aber das dabei entstehende Störspektrum (Abb. 21) noch immer eine entsprechende Filterung verlangt, weil es so dicht am hörbaren Bereich liegt, ist das Bestreben, die Abtastfrequenz noch weiter zu erhöhen, durchaus sinnvoll. Beim zweifach Oversampling muß die notwendige Steilflankigkeit der Filter erheblich herabgesetzt werden, da sich außerdem das Quantisierungsrauschen über den größeren Frequenzbereich verteilt. Nach der Filterung ergibt dies einen besseren Signal/Rausch-Abstand.
Das Quantisierungsrauschen von ca. 0-44 kHz (Dynamikgewinn ca. 3dB), verteilt sich hier, während es beim 4fach Oversampling von ca. 0-88 kHz einen Dynamikgewinn von ca. 6dB ergibt.
.
4fach Oversampling
Diese Verbesserung erreicht man aus der Verlagerung des Störgeräusches in den oberen Frequenzbereich aufgrund der jeweils erhöhten Tastfrequenz (88,2 oder 176,4 oder 352,6 kHz).
Bei einer Tastfrequenz von 88,2 kHz tritt z. B. die erste Differenzfrequenz erst bei 88,2 kHz - 20kHz = 68,2 kHz auf, so daß das nachgeschaltete Tiefpaßfilter nur eine geringe Flankensteilheit aufweisen muß und daher eine Klangbeeinflussung nahezu nicht mehr stattfindet.
.
8- bzw. 16fachem Oversampling
Bei 8- bzw. 16fachem Oversampling müssen die benutzten D/A-Wandler wesentlich schneller sein, denn diese müssen in Echtzeit den angelieferten dichteren Datenstrom umsetzen. 353 kHz sind dies bei 8fachem Oversampling und sogar 705 kHz bei einem 16 fachen Oversampling, in die die Analogwerte rückverwandelt werden müssen.
Da aber z. Zt. (wir sind noch in 1992) so schnelle Wandler nicht zur Verfügung stehen, wird der Datenstrom aufgeteilt. Das heißt, in der zur Verfügung stehenden Zeit erhält jeder nur eine Datenmenge von 176 kHz. Durch eine entsprechende Kaskadenschaltung, welche am Ausgang wieder zusammengeschaltet wird, steht dann das fertige gewandelte Audiosignal, bei welchem nun auch noch das Filter entfallen kann, an.
5.3 Sampling-Technik (Abtasttechnik)
Unter diesem Wort verbirgt sich das erwähnte Abtasten und Vermessen eines Wellenzuges (Abb. 17). Genauer in der Sprache der Techniker gesagt, wird der gemessene Wert für einen Moment festgehalten und dann gespeichert (Sample and Hold).
Aus einem originalen Wellenzug wird dieser in einzelne Nadelimpulse zerlegt, welche dann wiederum in ihrer Höhe vermessen und, entsprechend ihrer Meßwerte, im Speicher abgelegt werden. Diese als quantisierte Menge vom Meßwertspeicher erfaßten Daten werden je nach Aufwand (Sampling-Technik) in Stufen binär vermessen.
Aus der quantisierten Menge mit den momentan erfaßten elektrischen Spannungswerten werden Zahlen, die sich binär (000-111) darstellen lassen, ohne Probleme weitergeleitet bzw. gespeichert.
Weitere Unterschiede bei CD-Playern liegen in der Samplingtechnik, z.B. besteht die Möglichkeit, die Frames (Kanalworte) für den linken und rechten Kanal nacheinander mit einem D/A-Wandler auszuwerten und die Signale dann getrennt den Kanalfiltern zuzuführen, was aber einen Nachteil durch die Verzögerung der einzelnen Signale um ca. 4us mit sich bringt.
- Anmerkung : Das passierte 1980 bei den "PCM onto Videotape" Konzepten.
Eine andere Möglichkeit, diese Verzögerung von 4us auszuschließen, wäre, für jeden Rechts/Links-Kanal einen eigenen D/A-Wandler zu nehmen (5.9.1).
.
5.4 Der Reed-Solomon-Code
Wird ein Reed-Solomon-Code verwendet, der besonders leistungsfähig ist, dann ist er in der Lage, die theoretisch mögliche Maximalzahl von Fehlern zu detektieren und korrigierend einzugreifen. Da diese adaptive Fehlerkorrektur zwischen den einzelnen Fehlern differenziert, sind längere Fehlerimpulskorrekturen möglich.
Die im Vor-FIFO-RAM gespeicherten Daten
- Anmerkung : FIFO steht für "first in = first out", also ein symbolisch kreisförmiger Pufferspeicher, der zwar puffert, aber - auf Anfage - immer die zuerst angekomenen Daten auch wieder zuerst raus schickt.
RAM steht für randon access memory, also ein ganz gewöhnlicher Hauptspeicher wie im PC
welche maximal 4 Symbole plus 2 Fehlerflagbits pro Symbol enthalten, werden für eine entsprechende Fehlerkorrektur vorbereitet.
- Anmerkung : Der erstmalig hier vorkommende Begriff "Symbol" ist so nicht korrekt übersetzt. Versuchen wir es mit Symbol = Daten-Block.
Diese Daten gelangen zu 32 Symbolen, pro Korrekturframe, organisiert in das RAM. Anschließend werden diese wieder ausgelesen und in bereits erwähnter Form in ein externes 16 kBit FIFO-RAM geschrieben. Dieses nun als DRAM bezeichnete Speichermedium entschachtelt diese Daten.
Das heißt, die Daten aus dem Vor-FIFO-RAM werden im DRAM zu 32 8Bit-Symbolen plus Zweifehlerflagbits pro Symbol organisiert. 24 dieser Symbole enthalten 12 Audio-Abtastwerte, die restlichen 8 Symbole sind Paritätssymbole, die dann im DRAM als 16k 4-Bit-Worte gespeichert werden.
Auf einem 4-Bit-Datenbus findet in einem zeitmultiplex gesteuerten Adreßsignal die Datenübertragung statt.
Ein nachgeschalteter Verstärker hebt den Pegel der entsprechenden Audiosignale auf den gewünschten Ausgangspegel an. Die nun darauffolgenden Baugruppen sind reine Audio-Analog-Stufen.
5.5 Die Delta-Modulation
Eines der am längsten bekannten Modulationsverfahren in der Digitaltechnik ist die sogenannte Delta-Modulation.
Dieser Begriff für Unterschied oder Differenz kommt aus der Mathematik. Dies trifft insbesondere bei der digitalen Nf-Signal-Verarbeitung zu.
Übertragen wird der jeweilige Momentanwert des Nf-Signals, egal ob er größer oder kleiner wird. Diese Ja/Nein-Aussage kann rein auf die digitale Datenverarbeitung mit 0 oder 1 bzw. High und Low übermittelt werden (Abb. 17).
Für eine gute Wiedergabe ist es natürlich erforderlich, die Abfrage der aktuellen Spannung, ob kleiner oder größer, möglichst oft vorzunehmen. Geschieht das, dann sieht das reproduzierte Signal möglichst naturgetreu aus.
Für eine gute Sprachverständigung reichen schon ca. 8.000 Abtastungen pro Sekunde aus. Hierbei spricht man von einer Samplefrequenz von 8kHz. Diesen Abtastwert müßte man, sollte auch Musik vom Deltamodulator verarbeitet werden, auf mindestens 60kHz erhöhen.
Die Rückverwandlung in ein Nf-Signal (Demodulation) des deltamodulierten Digital-Signals geschieht über ein Integrationsglied. Dies ist im Prinzip nichts anderes als ein einfacher Tiefpaß, dessen Grenzfrequenz gleich der untersten zu übertragenden Nf ist und dadurch über das gesamte Nf-Spektrum eine Höhenabsenkung von 6dB/Oktave (achter Ton einer diatonischen Tonleiter vom Grundton) aufweist.
Geringer Aufwand mit bescheidener (Sprach) Qualität
Der technische Aufwand für die Delta-Modulation ist also verhältnismäßig gering. Aus diesem Grund wird sie heute zur digitalen Sprachspeicherung eingesetzt.
Die Delta-Modulation besitzt leider zwei große Nachteile, weswegen sie sich bei der digitalen Tonaufzeichnung (CD) nicht durchsetzen konnte.
Eine Exaktheit bei der Reproduktion des Nf-Signals ist durch das Verhältnis vom Sample- und Signalfrequenz nicht gegeben. Das heißt, je größer dieses Verhältnis ist, desto orginalgetreuer ist dann anschließend die Wiedergabe. Das führt dann leider dazu, daß die Wiedergabequalität bei hohen Frequenzen schlechter ist als bei niederen. Bei hohen Frequenzen macht sich gerade der Intermodulationseffekt störend bemerkbar.
Aus diesem Grund müßte die Sample-Frequenz sehr hoch gewählt werden, was dann wiederum zu einer hohen notwendigen Bandbreite des Digital-Signals führen würde.
Ein Delta-Modulator liefert zum zweiten bei fehlendem Nf-Eingangssignal am Ausgang die halbe Sample-Frequenz, wodurch ein dauernder Bitwechsel stattfinden würde. Diese Frequenz muß anschließend sehr wirksam gesiebt werden, weil sie sonst ihrerseits zu Intermodulationseffekten bei leisen Passagen und zu einem schlechten Störabstand beitragen würde.
5.5.1 Die Puls-Code-Modulation (PCM)
Für die digitale Tonaufzeichnung wird heute durchweg die PCM-Technik verwendet.
Man geht hierbei von folgender Überlegung aus : der momentane Signalwert wird nicht als Spannung, sondern als digital verschlüsselter Meßwert übertragen. Das kann man sich so vorstellen, als wenn ein schnelles Digitalvoltmeter pausenlos mit hoher Frequenz seine Meßergebnisse (Zahlen) als rein digitales Datensignal (Abb. 17) aufzeichnete. Bei der Wiedergabe würde dann eine digital steuerbare Spannungsquelle den ursprünglichen Signalwert wieder herzustellen.
Für eine einwandfreie Reproduktion des ursprünglichen Signals wäre für eine Hi-Fi-Aufzeichnung mit einer Nf-Bandbreite von 20kHz als Abtastung die doppelte Signalfrequenz erforderlich, d. h., der momentane Amplitudenwert müßte 40.000 mal pro Sekunde abgetastet und aufgezeichnet werden.
Die Genauigkeit der gemessenen Amplitudenwerte
Die Exaktheit des Wiedergabesignals hängt auch schließlich noch davon ab, wie genau die Amplitudenwerte gemessen werden. Da die digitale Information in Form von Ja/Nein- oder O/1-Entscheidungen als Bits übertragen wird, läßt sich jeder Spannungswert als Bitkombination darstellen. Bei Verwendung von nur vier Bits zur Darstellung eines Signalwertes ergeben sich 24 = 16 Möglichkeiten, wodurch sich mit vier Bits 16 unterschiedliche Spannungswerte darstellen lassen.
Da dies aber für eine HiFi-Übertragung mit ihrem großen Dynamikbereich nicht ausreicht, arbeitet man nach heutigem Standard mit 14 Bits, entsprechend 16.384 Spannungswerten (5.1 u. 5.2).
Hieraus läßt sich unmittelbar die erreichbare Dynamik errechnen. Geht man davon aus, daß positive und negative Spannungswerte auftreten, so kann man, bei Beschränkung auf nur eine Polarität, statt der 16.384 nur noch 8.182 Werte darstellen.
Nachteil der PCM-Tonaufzeichnung
Ein Nachteil der PCM-Tonaufzeichnung besteht darin, daß nur ein einziges falsch übertragenes Bit einen sehr lauten Knack bei der Wiedergabe hervorrufen kann. Um dies zu verhindern, arbeitet man bei der PCM-Tonaufzeichnung mit unterschiedlichen Fehlererkennungsverfahren.
Tritt bei einem Amplitudenwert ein Übertragungsfehler auf, der durch eine falsch erkannte Prüfsumme registriert wird, so ersetzt man ihn entweder durch den vorhergehenden Wert oder aber auch durch den Mittelwert des vorhergehenden und des folgenden. Anmerkung : Es wird auch hier dann interpoliert = geschummelt)
Die Besonderheit beim PCM-System ist, daß die Audio-Signale periodisch abgetastet und als Binär-Code dargestellt werden. Bedingt durch die Digitalisierung (Abb. 18) kommen verschiedene Fachbegriffe vor, welche hier zum Verständnis kurz erklärt werden sollen.
Als Sampling-Schaltung bezeichnet man das Abtasten der Amplitude eines Analogsignals in regelmäßigen Zeitintervallen. Eine Sampling-Schaltung dient dazu, das Analogsignal in eine Puls-Amplituden-Modulation (PAM) mit festgelegten Zeitintervallen umzuwandeln. Als Sampling-Intervalle sind diese bekannt, eine Umkehrung wird als Sampling-Frequenz bezeichnet.
Nach der Shannonschen Informationstheorie (Anmerkung : ein sehr komplexws hichtechnisches Thema) können nur Frequenzen, die kleiner als die Hälfte der Sampling-Frequenz sind, nach der Digitalisierung unverfälscht zurückgewonnen werden.
Normalerweise ist die Holding-Schaltung mit der Sampling-Schaltung verkoppelt, weil hier die Grenzen für die Ausführungsgeschwindigkeit des Quantisierens gesetzt sind.
Die Quantisierung
Quantisieren (Messen) ist ein Prozeß, der während der Holdphase abläuft. Die Amplituden des periodisch abgetasteten und kurzzeitig festgehaltenen Audio-Signals werden in festgelegte Stufen unterteilt.
Je feiner diese Stufen unterteilt sind, desto genauer ist auch der Signalpegel an dieser Stelle definiert, um so besser ist auch das Signal/ Rausch- Verhältnis. Um Hi-Fi-Wiedergabe in allerhöchster Form zu erreichen, hat man 14 .... 16 Stufen festgelegt, welche auch noch einen wirtschaftlichen Aspekt beinhalten müssen.
Lineare Quantisierung würde innerhalb des gesamten Amplitudenbereichs des Signals die gleiche Quantisierungs-Stufenbreite zeigen. Bei Musik und anderen Signalen, die einen extrem großen Dynamikbereich haben, sollen die Quantisierungs-Stufen bei großen Amplituden größer und bei kleinen Amplituden kleiner sein, um die Summe der zu übertragenden Daten zu verringern (Abb. 19).
Durch das logarithmische Hörempfinden des menschlichen Gehörs geschieht das im Einvernehmen mit der Technik.
Der Rauschpegel bei digitaler PCM Aufzeichnungen
Der Rauschpegel bei (PCM) digitaler Aufzeichnungen hat mit dem jeweiligen Tonträger nichts zu tun, betrachtet man das Quantisierungs-Rauschen (Abb. 20), welches dieser durch einen Prozeß mit sich bringt, wobei die Amplituden der getasteten Signale, die noch analog sind, umgesetzt werden in eine Reihe von vorbestimmten diskreten Werten. Hierbei bildet sich zwischen dem Originalsignal und dem Digitalwert ein kleiner Fehler.
Diese Fehler werden als Rauschen gehört und sind das sogenannte Quantisierungs-Rauschen. Beim PCM-System ist das Signal/Rausch-Verhältnis hauptsächlich durch dieses Rauschen festgelegt, was besagt, je feiner die Quantisierung ausgeführt wird, desto geringer ist das Rauschen.
Ist die Eingangsfrequenz kleiner als die Hälfte der Sampling-Frequenz, so kann das quantisierte Signal wieder in seine Ursprungsform gebracht werden.
Ein Tiefpaßfilter ist vor den Sample- und Hold-Kreis eingebaut, um die unnötigen höheren Frequenzen abzutrennen. Ist die obere Grenzfrequenz des Tiefpaßfilters zu hoch, dann entsteht das Aliasing-Rauschen (Abb. 21).
Die Umwandlung quantisierter Amplituden in einen Puls-Code wird als Encoding bezeichnet. Die Quantelung und die Codierung werden nebeneinander im Analog-Digital-Umsetzer durchgeführt (A/D-Wandler).
Das Signal, das unter Berücksichtigung der Zeit und der Amplitude durch Sampeln und Quantisieren in diskrete Werte umgesetzt wurde, wird weiter verwandelt in codierte Impulse, wobei man den binären Code verwendet.
Durch Staub, Kratzer oder entsprechende CD-Platten-Fehler werden Aussetzer, sogenannte Drop-outs, produziert. In der Analogtechnik würde dieser Effekt eines Drop-outs lediglich zu einer kurzen Signallücke führen und nicht weiter stören. Bei PCM werden jedoch Drop-outs in Form von irritierenden Pulsgeräuschen gehört, die als Code-Fehler bezeichnet werden.
Die Fehlererkennung
Verschiedene bekannte Verfahren zur Fehlererkennung sind das Parity-Bit (Prüfsumme) und die Zyklische Redundanz-Kontrolle (CRC).
In beiden Fällen werden zusätzliche Prüfbits zu den Datenbits (Aufnahme-Verfahren) addiert, und bei der Wiedergabe kann hierdurch ein Fehler erkannt werden.
Zur Parity-Methode wird ein Einzelbit als 1-Bit-Prüfsumme während der Aufnahme zu einem Datenwort (einer Gruppe von Daten-Bits) hinzugefügt. Ergibt sich bei der nun folgenden Prüfsummen-Errechnung des Wiedergabesignals ein anderes Parity-Bit, so trat ein entsprechender Fehler auf. Sollten aber zwei Fehler hintereinander in einem Datenwort auftreten, so werden sie bei dieser Methode nicht erkannt und sind somit dafür nicht ausreichend.
Während bei der Parity-Methode nur ein Bit Verwendung findet, werden bei der CRC-Methode mehrere Prüfbits übertragen. Wird die Anzahl der Bits mit n angegeben, so ist die Erkennungswahrscheinlichkeit 1 bis 2.
Bei einem Wert von 16 liegt diese bei 99,9985%. Dies besagt, daß die CRC-Fehlererkennungs-Methode bereits genügend Erkennungsfähigkeit besitzt.
Ein Fehlerkorrektur-Code erkennt nicht nur den Code-Fehler, sondern korrigiert ihn auch perfekt. Da diese Art von Code sehr komplex ist, sei hier auf die in den Abb. 22 und 23 in vereinfacht dargesteller Form der verwendeten Kreuzparität hingewiesen.
Anmerkung : Es sollte auf jeden Fall auf die benötigte Rechenkapazität des Prozessors hingewiesen sein, die sonst das eigentliche Ausgangssignal verzögert und die Musik kommt nicht mehr zeitrichtig bzw. phasensynchron an.
.
Fehlerbeseitigungs-Techniken
Die nun folgende Fehlerbeseitigungs-Technik hat die Aufgabe, Auswirkungen der bereits erkannten Code-Fehler auf die Wiedergabequalität zu vermeiden, wobei drei Methoden hier aufgezeigt werden.
Bei der Stummschaltung wird das fehlerhafte Wort stummgeschaltet und hier durch Null ersetzt (Abb. 24).
Wird ein Wort-Fehler bei der Vorspeicher-Haltefunktion (Abb. 25) entdeckt, dann wird das falsche Wort durch das vorhergehende ersetzt, so daß fast (Anmerkung : aber auch nur fast) kein hörbarer Unterschied entsteht.
Die beste Drop-out-Kompensation bietet die lineare Interpolation. Hier wird bei einer Wortfehlererkennung das fehlerhafte Wort durch den Durchschnittswert des vorhergehenden und darauffolgenden Wortes ersetzt (Abb. 26). Der Fehler wird dadurch so gut kompensiert, daß keine hörbare Differenz erkennbar ist.
- Anmerung : Das ist ein Irrtum, den die geschulten Ohren der Tonmeister oder auch die Ohren von Musikern hören das.
.
5.5.2 Die EFM-Modulation
Immer wieder taucht die Bezeichnung EFM (Eight-to-Fourteen-Modulation) in Verbindung mit der CD auf. EFM wird beim Aufspielen der Datensignale auf das CD-Glasmaster im 8Bit-Format mit dem Musiksignal digitalisiert und in ein 14-Bit-Format umgewandelt.
Diese Umwandlung bringt einige Vorteile, der Datenstrom, bestehend aus 261 Bits, erfährt nach der Umwandlung 588 Bits bei einer Vergrößerung der Aufzeichnungsdichte. Die Zeitsteuerung, der Takt, wird noch enger und genauer, wodurch Fehllesungen "unwahrscheinlicher" ?? werden. Das ganze Spektrum wird nach oben verlagert, wodurch die Trennung von den niederfrequenten Störsignalen (Kontroll- und Display-Bits) noch sicherer wird.
Vorab mehr über die Steuer- und Anzeigeinformationen in jedem Datenblock
.
- Anmerkung : Das hier Flgende ist an absolut unpassender Stelle eingebaut, weil bislang nichts über die zusätzlichen digitalen Informations-Blocks auf der CD erklärt wurde.
Als Besonderheit beim CD-System sind neben der Audio-Information auch die Steuer- und Anzeigeinformationen in jedem Datenblock vorhanden.
Ein solcher Datenblock enthält 588 Bit und wird auch als Frame bezeichnet. Gelegentlich taucht auch Subcode für die gleiche Bezeichnung auf, dieser besteht aus 98 Worten a 8 Bit. Die 8 Bit pro Frame werden mit den Buchstaben P bis W (Kanäle) bezeichnet, wobei ein Frame 136us lang ist. Der Subcode besteht wiederum aus 98 Worten, wobei sich eine Wiederholfrequenz von 1/136us x 98 = 75 Hz und einen Datenstrom von 75 x 98 x 8 = 58.800 Bits ergibt.
Da sich aus dem EFM-Signal kein Clocksignal (Taktsignal) zurückgewinnen läßt, sitzt am Anfang eines jeden Frames ein 27-Bit-Synchronwort, welches den Clock-Oszillator im CD-Player synchronisiert und die Drehzahl des Plattenmotors steuert.
Weiter ist pro Frame ein Subcodewort mit 8-Bit-Datenbreite untergebracht, welches die Kanäle P,Q,R,S,T,U,V,W beinhaltet. Zur Zeit werden nur die Kanäle P und Q benutzt.
Mit den freien Bits kann ggf. eine Grafik oder ein Standbild über den TV-Schirm passend zum Musikstück übertragen werden. Eine genaue Aufteilung der noch freien Bits ist in absehbarer Zeit zu erwarten.
Die im Subcode zu übertragende Bitrate beträgt 58.800 Bits/s. Eine BTX-Auflösung würde bei einer monochromen Darstellung ca. 1,3s benötigen.
Mit Grauabstufungen und entsprechender Farbe würde sich der Bildaufbau entsprechend verlängern. Zusätzlich könnten über diesen Subcode während der Musik Texte übertragen werden mit einer Geschwindigkeit von 7200 Zeichen/s. Ein Bildschirm mit 80 Zeichen/Zeile hat vollgeschrieben 2000 Zeichen. Das zeigt, welche große Datenmenge zusätzlich zur Musik übertragen werden kann (ca. 25 MByte). Wie gering sind dann die für die Steuerung und Synchronisation von CD-Playern nötigen Datenmengen!
Der P-Kanal ist ein Flag Bit, das den Start des Audiosignals angibt und zwar bei der logischen 0 das Audiosignal und bei der logischen 1 den Anfang bzw. das Ende des Audiosignals (min. 2s).
Beim Übergang von 1 nach 0 startet zugleich ein Zähler, wodurch nach jedem Stück der P-Kanal auf 1 gesetzt wird. Dieses Bit wird auch zum Suchen der Audio-Signalanfänge benutzt (nächstes Programmstück).
Kommt der Laserstrahl in die Auslaufspur (Lead out track) so wechselt der P-Kanal im 2Hz-Rhythmus zwischen 0 und 1 und zeigt somit das Ende an.
Über die Codierng der Kanäle, der "Channels"
Im Q-Kanal ist codiert:
.
- 1 Die Nummer des Musikstückes
- 2 Der Index (Markierung während des Musikstückes, z. B. Solostimmen, Instrumente usw.)
- 3 Die Spielzeit
- 4 Der Plattenindex
- 5 Die Preemphasis
- 6 Die Stummschaltung (Muting)
.
Aus diesem Grund wird an das einwandfreie Auslesen von Daten mit hoher Informationsdichte und an die verwendete Modulationsart EFM eines CD-Players eine hohe Anforderung gestellt. Eine falsche Fokussierung des Laserstrahls oder ein Schrägversatz (Abb. 32, 33) zur optischen Achse zieht zwangsläufig eine Verschlechterung von Phasen und Amplitudengang nach sich. Daher sollte das Modulationssystem auch bei hoher Informationsdichte gegenüber solchen Abweichungen unempfindlich sein.
Eines der wichtigsten Signale beim CD-System ist "der" ? Bitclock, er dient zur Synchronisierung der digitalen Daten und zur Servosteuerung.
Dieser wird aus den Piträndern bzw. aus dem ausgelesenen Signal (A-F oder D1-D6) ermittelt. Die Modulation muß eine ausreichende Anzahl von Übergängen aufweisen, d. h. der maximale Abstand zwischen den Übergängen Pit/Spiegelebene muß möglichst klein sein, ohne daß Interferenzstörungen erzeugt werden.
.