Your SlideShare is downloading. ×
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Eine Formel verändert die Welt (PDF)
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Eine Formel verändert die Welt (PDF)

852

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
852
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
2
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. 1 Eine Formel verändert die Welt Johannes B. Huber Lehrstuhl für Informationsübertragung Friedrich–Alexander Universität Erlangen–Nürnberg 5 Jahre Institut für Vernetzte und Eingebettete Systeme der Alpen–Adria–Universität Klagenfurt Zusammenfassung:Am Beispiel der Kapazitätsformel für den Additive White Gaussian Noise (AWGN–) Kanal wird gezeigt, welche grundsätzlicheBedeutung der Informationstheorie nach C.E. Shannon beim Übergang vom Industrie– zum Informationszeitalter in derzweiten Hälfte des 20. Jahrhunderts zukommt. Hierzu werden exemplarisch zwei mathematische Konzepte zur Ableitunginformationstheoretischer Theoreme behandelt. Aus der Kapazitätsformel werden einfache Beziehungen zum Zusammenhangzwischen Information und Energie sowie elementare Existenzschranken für analoge und digitale Informationsübertragungs-systeme abgeleitet. Allgemeine Betrachtungen zur Bedeutung theoretischer Grundlagen für technische Entwicklungen und eineWürdigung des Widmungsträgers schließen den Beitrag ab. I. E INLEITUNG : Dieser Beitrag stellt die schriftliche Ausarbeitung des Vortrages, zur akademischen Feierstunde anlässlich des 5–jährigenBestehens des Instituts für Vernetzte und Eingebettete Systeme der Alpen–Adria–Universität Klagenfurt am 21.6.2012 dar.Daher sind die Ausführungen so gestaltet, dass sie für ein breites, nicht speziell mathematisch–naturwissenschaftlich gebildetesPublikum verständlich sein sollten, weshalb auch strenge mathematische Beweisführungen vermieden werden. Zweck diesesBeitrages ist es, Methoden und Denkrichtungen aufscheinen zu lassen, auf denen unsere moderne Informationstechnik beruht.Fachleute mögen daher über manche mathematischen und physikalischen Oberflächlichkeiten großzügig hinwegsehen. Der Titel „Eine Formel verändert die Welt“ wurde von einem Buch von Harald Fritzsch [1] entliehen. Dort ist natürlichdie Einstein–Formel von der Äquivalenz von Masse und Energie gemeint, was durch die Einbandgestaltung mit E = mc 2 unddem Untertitel „Newton, Einstein und die Relativitätstheorie“ unmittelbar deutlich wird. In diesem Beitrag geht es jedoch umeine ganz andere Formel, die gleichwohl eine vergleichbare Relevanz für unsere heutige Lebensrealität besitzt, da die moderneInformationstechnik maßgeblich hierauf beruht. Zwei Hauptsäulen tragen den Übergang vom Industrie– zum Informationszeitalter ab der Mitte des 20. Jahrhunderts: DieErfindung des Transistors und die hieraus folgende Mikroelektronik und die Informationstheorie. Die Mikroelektronik ist derSchlüssel zur Lösung des Problems: „Wie kann man informationstechnische Systeme effizient implementieren?“ – während dieInformationstheorie folgende Fragen stellt und zugleich beantwortet: „Was ist eigentlich ein effizientes informationstechnischesSystem? Aus welchen Komponenten soll es bestehen und welche Methoden sind zu dessen Entwurf anzuwenden?“, oder kurzzusammengefasst in der Frage: „Was will man eigentlich implementieren?“ Erstaunlicherweise entstanden Mikroelektronik und Informationstheorie zur gleichen Zeit, den 40–er Jahren mit Durch-brüchen in den Jahren 1947/48, und am gleichen Ort, den AT&T Bell Laboratories in Murray Hill, New Jersey, USA. Die Abbildung 1: (a) Claude Elwood Shannon (1916 – 2001), [2]; (b) Shannonstatue, [3]Informationstheorie wurde von Claude Elwood Shannon (1916 – 2011) begründet. Abb. 1a zeigt ein Foto aus dem Jahr
  • 2. 21948, dem Jahr der Publikation seiner ersten Serie von Artikeln zur Informationstheorie. Am Sockel seiner Statue in seinerHeimatstadt Gilmore, Abb. 1b, ist zu Recht der Ehrentitel „The Father of Information Age“ angebracht. Nach der Lockerungvon kriegsbedingten Geheimhaltungsvorschriften erschien 1948 sein Artikel „A Mathematical Theory of Communications“ [4],siehe Abb. 2. Der Erscheinungszeitpunkt kann als Beginn eines neuen Zeitalters, des Informationszeitalters, angesehen werden.In kurzen Abständen folgten weitere grundlegende Beiträge von C.E. Shannon zum Thema, siehe [5]. Reprinted with corrections from The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948. A Mathematical Theory of Communication By C. E. SHANNON T I NTRODUCTION HE recent development of various methods of modulation such as PCM and PPM which exchange bandwidth for signal-to-noise ratio has intensified the interest in a general theory of communication. A basis for such a theory is contained in the important papers of Nyquist 1 and Hartley2 on this subject. In the present paper we will extend the theory to include a number of new factors, in particular the effect of noise in the channel, and the savings possible due to the statistical structure of the original message and due to the nature of the final destination of the information. The fundamental problem of communication is that of reproducing at one point either exactly or ap- proximately a message selected at another point. Frequently the messages have meaning; that is they refer to or are correlated according to some system with certain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem. The significant aspect is that the actual message is one selected from a set of possible messages. The system must be designed to operate for each possible selection, not just the one which will actually be chosen since this is unknown at the time of design. Abbildung 2: Titel und Zusammenfassung des Artikels, durch den die Informationstheorie begründet wurde Ein Jahr später veröffentlichte er die Artikelserie zur Informationstheorie auch als Buch [6], nun aber mit dem leichtveränderten Titel „The Mathematical Theory of Communications“. Bereits 1949 ist sich Shannon also ganz sicher, dass er dieeinzig wahre Theorie der Kommunikation entwickelt hat. II. D IE K APAZITÄTSFORMEL Wir betrachten eine gestörte Nachrichtenübertragung nach Abb. 3, das wohl einfachst mögliche praxisrelevante Modell. Einer unabhängige Gaußsche Störvariablen 2 W σW = N X Y 2 2 σX = S σY = S + N Abbildung 3: Gestörte Informationsübertragung (AWGN–Kanalmodell)eine Information repräsentierenden reellen Variable X überlagert sich ein reeller Störwert W , der mittelwertfrei und gaußverteiltsei, ein nach dem zentralen Grenzwertsatz sehr wohl begründetes Modell, vgl. [7]. Die Varianz der informationstragenden reellenVariable X sei mit S, die Varianz der reellen Störung W mit N bezeichnet. Die Informationstheorie gibt die Antwort auf dieFrage „Wie viel Information über X kann die gestörte Ausgangsvariable Y , die der Informationsempfänger beobachtet, imbesten Fall noch bereitstellen?“, und diese lautet: Bei gegebenen Varianzen S und N wird am meisten Information C über Xdurch Y repräsentiert, wenn X ebenfalls eine mittelwertfreie, gaußverteilte Zufallsvariable darstellt und zwar 1 S bit C= log2 1 + . (1) 2 N Kanalbenutzung In den Abschnitten 3 und 4 wird näher erläutert, wie diese Beziehung ursprünglich zustande kam und wie sie zu interpretierenist. Gemäß dem Abtasttheorem (vgl. z. B. [8]), das zwar oft auch Shannon zugeschrieben wird, das aber mindestens 50 Jahreälter ist (vgl. [9], Shannon selbst verweist auf frühere Quellen), kann ein auf die (einseitige) Fourier–Bandbreite B striktbandbegrenztes zeit– und wertkontinuierliches Signal durch 2B Abtastwerte pro Sekunde informationsverlustfrei zeitdiskretrepräsentiert werden. Im Umkehrschluss bedeutet dies, dass bei einem solchen Signal maximal 2B Werte je Sekunde freigewählt werden können, während die Signalwerte zu allen anderen Zeitpunkten hierdurch eindeutig festgelegt sind. Somit
  • 3. 3können unter dieser Bandbegrenzungsbedingung maximal je Sekunde nur 2B unabhängige informationstragende Variablen Xübertragen werden und man gelangt zur wohl berühmtesten Formel der Informationstheorie: S S bit CT = B log2 1 + = B log2 1 + . (2) N N0 · B s Diese Gleichung begrenzt strikt die Informationsmenge, die pro Zeiteinheit mittels eines spektral bandbegrenzten Signalsbeim Vorhandensein einer Störung durch weißes gaußsches Rauschen mit der einseitigen Rauschleistungsdichte N 0 zuverlässigrepräsentiert bzw. übertragen werden kann. Diese beiden Beziehungen nach Gl. (1) und Gl. (2) hatten und haben weiterhin großen Einfluss auf den Entwurf und dieEntwicklung von informationstechnischen Systemen. Somit wurden durch sie im letzten halben Jahrhundert unsere Lebensweltganz maßgeblich verändert. Aus Gl. (1) folgt, dass beim Vorhandensein einer Störung, in der Praxis also immer, dennthermisches Rauschen ist nach Planck und Boltzmann ja immer gegenwärtig, durch eine wertkontinuierliche Variable imMittel maximal nur die begrenzte Anzahl von 2 C unterschiedlicher Nachrichten repräsentiert werden kann, trotz der unendlichenMächtigkeit jedes nicht–leeren Intervalls reeller Zahlen. Hieraus ergibt sich unmittelbar, dass Information sinnvollerweise durchSymbolalphabete mit endlicher Mächtigkeit, also digital zu repräsentieren ist, da die Zuverlässigkeit bei der Unterscheidungkontinuierlicher Variablen im Umfeld von Störungen prinzipiell begrenzt ist. Die Informationstheorie verspricht andererseits aberauch, dass trotz des Vorhandenseins einer Störung die nach Gl. (1) begrenzte Informationsmenge absolut zuverlässig repräsentiertund übertragen werden kann. Eine effiziente Informationstechnik ist somit eine digitale Informationstechnik. Zusammen mitder Entwicklung der Mikroelektronik ist diese Erkenntnis die Grundlage unserer modernen Informationstechnik. Darüber hinaus lassen sich, im Gegensatz zur analogen Informationstechnik, Nutzsignal und Störung vollständig wiedertrennen, solange die Schranke nach (1) und (2) nicht überschritten wird. Damit ist eine sog. Signalregeneration möglich undes können beliebig weite Strecken der Informationsübertragung in Raum und Zeit absolut störungsfrei überbrückt werden. AlsBeispiel sei hierzu das Kopieren von einer CD angeführt: Die Kopie ist genauso gut wie das Original, mitunter sogar besser, daevtl. vorhandene Bitfehler im Kopiervorgang durch einen fehlerkorrigierenden Code beseitigt werden und nicht auf die Kopieübertragen werden. Im Gegensatz hierzu war beispielsweise bei einem analogen Audio–Tonband (z. B. Audiokassette) eineKopie von der Kopie schon so sehr in der Qualität gemindert, dass sie nicht mehr brauchbar war. III. B EISPIELE ZU M ETHODEN DER I NFORMATIONSTHEORIE Beispielhaft werden nachfolgend zwei mathematische Grundlagen für unsere die Welt verändernde Formeln (1) bzw. (2)kurz beleuchtet: Das Gesetz der großen Zahlen und vieldimensionale Euklidische Signalräume. Wiederholt man ein Zufallsexperiment häufig genug, stellen sich Mittelwerte ein, die zunehmend genauer Erwartungswertenentsprechen. Von diesem Effekt leben zum Beispiel Versicherungen: Während im Einzelfall völlig unvorhersehbar ein Schadeneintritt oder nicht, kann die erwartete Schadenshöhe bei einer sehr großen Zahl von Versicherten sehr gut abgeschätzt werdenund als Grundlage für eine Prämienkalkulation dienen. Wir verwenden zur Veranschaulichung das einfachst mögliche Beispiel,den fairen Münzwurf mit den Ergebnissen Wappen (bzw. Kopf) oder Zahl: Die Wahrscheinlichkeit, dass man bei n Würfen wmal Wappen erhält, ist durch Pr {W = w} = (n ) 2−n w (3)gegeben. Abb. 4 zeigt diese Wahrscheinlichkeiten für n = 10, 1000 und 100000 Münzwürfe. Deutlich von Null verschiedeneWahrscheinlichkeiten konzentrieren sich mehr und mehr auf den Bereich um n/2, also zunehmend schärfer führt die Hälfteder Würfe zum Ergebnis Wappen oben. Große relative Abweichungen von diesem Erwartungswert sind für hohe Zahlen n vonWürfen äußerst unwahrscheinlich. 0.25 0.025 0.0025 n = 10 n = 1000 n = 100000 0.2 0.02 Pr{W = w} → 0.002 0.15 0.015 0.0015 0.1 0.01 0.001 0.05 0.005 0.0005 0 0 0 0 100 200 300 400 500 600 700 800 900 1000 0 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000 w→ 0 1 2 3 4 5 6 7 8 9 10 w→ w→ Abbildung 4: Wahrscheinlichkeiten für die Zahl w von erhaltenen Ereignissen „Wappen oben“ bei n fairen Münzwürfen Neben mehreren anderen möglichen Wegen kann die Kapazitätsformel Gl. (1) anhand von Kugeln in vieldimensionalenendlichen Räumen veranschaulicht werden, was nachfolgend mit einfachen mathematischen Methoden versucht wird. Hierzuist jedoch ein kurzer Exkurs zu Kugeln in vieldimensionalen Räumen notwendig.
  • 4. 4 Exkurs: Vieldimensionale Euklidische Räume R n und Kugeln Ein Punkt x im n–dimensionalen Euklidischen Raum R n (mit R: Menge der reellen Zahlen) wird durch die Folge n reellerZahlen xi , die sog. Koordinaten des Punktes x, spezifiziert 1 . Diese n Koordinaten werden zu einem n–Tupel bzw. einem Vektoraus reellen Zahlen zusammengefasst: x = (x1 , x2 , x3 , . . . , xi , . . . , xn ) ∈ R n mit i ∈ {1,2,3,4, . . . , n} . (4)Wir gehen von sog. kartesischen Koordinaten aus, d. h. alle Koordinatenachsen seien wechselseitig als zueinander orthogonaldefiniert. Der (sog. Euklidische) Abstand d xy zweier Punkte x und y ist damit nach dem Satz von Pythagoras gegeben durch n 2 2 2 2 dxy = (y1 − x1 ) + (y2 − x2 ) + · · · + (yn − xn ) = (yi − xi ) . (5) i=1Eine Kugel ist mathematisch dadurch gekennzeichnet, dass alle Punkte der Kugeloberfläche den gleichen Abstand R, denKugelradius, vom Mittelpunkt m besitzen. Die Kugeloberfläche S K ist damit die Menge aller Punkte x, für die gilt n 2 SK = x ∈ Rn (xi − mi ) = R2 . (6) i=1Der Raum innerhalb einer Kugel um den Mittelpunkt m mit Radius R einschließlich der Oberfläche wird durch die Punktemenge n 2 K= x ∈ Rn (xi − mi ) ≤ R2 (7) i=1spezifiziert. Beispiel: Im zweidimensionalen Raum (n = 2) ist die Kugeloberfläche durch die Kreislinie, das Kugelinnere durchdie beinhaltete Kreisfläche gegeben. Für den dreidimensionalen Raum ergibt sich die gewohnte Kugel, für n > 3 ist unsereVorstellungskraft zwar überfordert, die mathematische Definition ist jedoch völlig analog. Kugeln im R n mit dem Radius Rbesitzen ein Volumen V für das gilt 2 : π n/2 Vn = · Rn mit (n/2)! 1 √ · 2 · 3 . . . (n/2) für n gerade (n/2)! = (8) π · 1 · 2 . . . (n/2) für n ungerade. 2 3Die Oberfläche Sn einer Kugel ist die Ableitung des Volumens nach dem Radius dVn π n/2 Sn = = · n · Rn−1 . (9) dR (n/2)!Aus dem Anstieg des Kugelvolumens mit der n–ten Potenz des Radius folgt, dass sich im vieldimensionalen Euklidischen Raumnahezu alle Punkte einer Kugel ganz nahe an, bzw. auf der Oberfläche befinden. Für n → ∞ werden somit die PunktemengenKugeloberfläche und Kugelinneres identisch.Ende des Exkurses Wir kommen zum einfachsten Übertragungsmodell, nach Abb. 3 zurück, betrachten aber nun die Übertragung einer langenFolge von informationstragenden reellen Variablen X i , siehe Abb. 5, aus denen durch die Überlagerung von wechselseitigstatistisch unabhängigen Störwerten W i die empfangsseitig beobachtbaren Werte Y i hervorgehen: Y i = Xi + Wi . 3 xi 2 i 1 3 4 5 Abbildung 5: Folge von Information repräsentierenden mittelwertfreien reellen Variablen Die Varianz S = σx = E |Xi |2 der Werte Xi sei vorgegeben, deren Mittelwert sei Null E {X i } = 0 (E {·}: Erwar- 2tungswertoperator). Entstehen die Werte X i wechselseitig statistisch unabhängig, so liegt eine n–fache Realisierung eines 1 Räume mit mehr als drei Dimensionen existieren, nur nicht in der menschlichen Erfahrungswelt. Sie mögen daher zunächst Befremden auslösen. 2 Der Leser möge die Gleichungen (8) und (9) für n = 1 (Intervall der Breite 2R auf der reellen Zahlengeraden), sowie für n = 2 (Kreis) und n = 3(Kugel) mit den aus der Schulzeit bekannten Formeln vergleichen. 3 Anmerkung zur Notation: Repräsentanten von Zufallsvariablen werden mit Großbuchstaben, die bei der Durchführung des Zufallsexperiments entstandenenVariablen mit Kleinbuchstaben notiert.
  • 5. 5 n 1Zufallsexperiments vor. Nach dem Gesetz der großen Zahlen nähert sich damit der Mittelwert der Quadrate q n = n Xi2 der i=1vorgegebenen Varianz S zunehmend genauer an, bzw. es gilt n 1 lim qn = lim Xi2 = S. (10) n→∞ n→∞ n i=1Werden lange Folgen von Signalwerten X i als die Komponenten eines n–dimensionalen Vektors aufgefasst, so liegen für größerwerdende Zahlen n alle möglichen typischen Vektoren ziemlich genau auf der Oberfläche einer Kugel um den Koordinatenur- √sprung mit dem Radius n · S. Dabei ist für n → ∞ immer weniger zwischen dem Kugelvolumen und der Kugeloberflächezu unterscheiden. Hält man einen gesendeten Punkt x fest, so entsteht um diesen Punkt eine Wolke mit allen möglichen zufälligen Störungen, √die für lange Folgen aufgrund der gleichen Argumentation selbst wieder zur Kugel wird, nun mit dem Radius n · N . Fürn → ∞ existiert also um jeden gesendeten Vektor x eine Rauschkugel aller möglichen Störungen. Empfangsseitig beträgt dieLeistung S + N , da Nutzsignal und Störung als statistisch unabhängig angenommen werden. Alle Vektoren Y bilden damitPunkte auf einer Kugel mit dem Radius n(S + N ). Für n = 2, den Raum der Zeichenebene, ist das in Abb. 6 veranschaulicht: x2 w x2 w x1 x1 Abbildung 6: Gesendete Vektoren X mit umgebenden Störwolken (Rauschkugeln) Aus dieser Überlegung kann nun abgeschätzt werden, wie viele unterschiedliche Nachrichtenvektoren X maximal existierenkönnen, die trotz des Vorhandenseins der Störung empfangsseitig mit sehr hoher Zuverlässigkeit unterschieden werden können.Da die Störwolken für n → ∞ aufgrund des Gesetzes der großen Zahlen zu scharf begrenzten Rauschkugeln werden, sindmaximal so viele Nachrichten übertragbar wie kleine Rauschkugeln in die große Kugel aller möglichen empfangenen VektorenY passen. Dies entspricht dem Quotienten aus den Volumina von großer und kleiner Kugel. Damit gilt als obere Schranke Lfür die Zahl M der zuverlässig unterscheidbaren Nachrichten n π n/2 (n/2)! n(S + N ) M ≤L= √ n . (11) π n/2 (n/2)! nNUm L verschiedene Elemente einer Menge durch eine Folge von binären Symbolen bezeichnen bzw. adressieren zu können, n/2benötigt man log 2 (L) binäre Symbole. Damit können durch lange Folgen von Variablen X i maximal log2 S+NN binäreSymbole, sog. Bits, zuverlässig über den durch weißes gaußsches Rauschen gestörten Kanal übertragen werden. Je einzelneVariable erhalten wir daher Gl. (1) als obere Schranke: n/2 1 S 1 S bit C≤ log2 1 + = log2 1 + . (12) n N 2 N Kanalbenutzung Durch eine genauere Analyse kann zudem bewiesen werden, dass man für n → ∞ genau M = L Punkte so regelmäßig aufeine Kugeloberfläche platzieren kann, dass sich die zugehörigen Rauschkugeln gerade eben nicht wechselseitig durchdringen.Damit können trotz des Vorhandenseins der Störung genau L Nachrichten völlig fehlerfrei unterschieden werden. Infolge desGesetzes der großen Zahlen wird für sehr lange Folgen von Werten, also für n → ∞, die Zufälligkeit der Störung nämlichexakt eingrenzbar (siehe auch [10]). Es ergibt sich somit Gl. (1) und hieraus unmittelbar Gl. (2). IV. I NFORMATION UND E NERGIE Durch unsere die Welt verändernde Formel (1) können auf sehr einfache Weise grundsätzliche Beziehungen zwischenInformation und Energie hergestellt werden, siehe auch [11]. Nach Boltzmann beträgt die einseitige spektrale Leistungsdichte
  • 6. 6N0 von thermischem Rauschen bei der absoluten Temperatur T abs , gemessen in Kelvin: N 0 = kB · Tabs . Dabei bezeich-net kB = 1,38 · 10−23 Hz K die Boltzmann–Konstante. Bei Zimmertemperatur von 293 Kelvin ergibt sich ein Wert von: W −21 WN0 = 4 · 10 Hz . Ein theoretisch optimales digitales Übertragungssystem, dessen Nachrichtensignal auf die (einseitige)Fourier–Bandbreite B bandbegrenzt ist, erreicht eine übertragene Datenrate (einen übertragenen Informationsfluss) R T , die Sexakt der Kanalkapazität nach Gl. (2) entspricht: R T = B log2 1 + N . Mit den Definitionen E b = S/RT für die äquivalente bit/ sSignalenergie je bit übertragener Information und Γd = RT /B Hz für die spektrale Effizienz des optimalen digitalenÜbertragungsverfahrens folgt aus Gl. (2) S RT Eb Eb 1 Γd Γd = log2 1 + · = log2 1 + Γd bzw. = 2 −1 . (13) N0 B RT N0 N0 Γd Diese Beziehung stellt den theoretisch optimalen Austausch von spektraler Effizienz Γd und Leistungseffizienz bei derdigitalen Übertragung her, wobei der Quotient E b /N0 üblicherweise als Vergleichssignalstörleistungsverhältnis für alle digitalenÜbertragungsverfahren bei einer Übertragung über den AWGN–Kanal herangezogen wird. Gl. (13) gibt das Vergleichssignalstör-leistungsverhältnis (also die Leistungseffizienz) an, das für eine zuverlässige digitale Übertragung über das AWGN–Kanalmodellmittels eines Verfahrens mit spektraler Effizienz Γd minimal erforderlich ist. Deshalb wird diese Beziehung (13) auch als dieShannongrenze der digitalen Übertragung bezeichnet, siehe auch Abb. 9. Der Quotient nach Gl. (13) erreicht ein Minimum, d. h. die Leistungseffizienz daher ein Maximum, wenn die Signalbandbrei-te B unendlich groß ausgedehnt wird, bzw. die spektrale Effizienz Γd nach Null strebt, siehe Abb. 9. Gemäß der Ableitungsregelnach L’Hospital erhält man: Eb 2Γd −1 eln(2)Γd · ln(2) = lim = lim = ln(2) = 0,693 . . . (14) N0 min Γd →0 Γd Γd →0 1 bzw. Eb, min = ln(2)N0 = ln(2)kB Tabs , z. B. bei Zimmertemperatur T abs = 293 K : Eb, min = 2,8 · 10−21 Ws. (15) Wir erhalten also eine minimale Energie E b, min , die aufzuwenden ist, um ein bit Information im Umfeld von thermischemRauschen physikalisch repräsentieren bzw. übertragen zu können. Damit ist ein fundamentaler Zusammenhang zwischenInformation und Energie hergestellt und es sind die Urprinzipien Masse, Energie und Information zueinander in Beziehunggesetzt. Allerdings ist zu berücksichtigen, dass die resultierende Energie so klein ist, dass die hier angenommenen Gesetze derklassischen Physik aufgrund von quantenphysikalischen Effekten keine Gültigkeit mehr besitzen, wodurch die Bedeutung vonZahlenwerten stark eingeschränkt wird. Information s T ab kB 2) ln( = in ,m Eb E E = mc2 m Energie Masse Abbildung 7: Masse, Energie, Information Dem Zusammenhang zwischen Information und Energie kommt eine besondere Bedeutung hinsichtlich des zweiten Haupt-satzes der Thermodynamik zu, der besagt: In einem abgeschlossenen System nimmt die (thermodynamische) Entropie nie-mals ab. Der Begriff Entropie wurde von C.E. Shannon aus formalen Gründen (Ähnlichkeit der Definitionsgleichungenim Zusammenhang mit der kinetischen Gastheorie) für den mittleren Informationsgehalt eines Zufallssymbols (bzw. einerZufallsvariablen) wiederverwendet. In beiden Fällen wird die Komplexität einer exakten Beschreibung des Ergebnisses einesZufallsexperimentes als Mittel über alle möglichen Ergebnisse ausgedrückt. Der zweite Hauptsatz der Thermodynamik besagt inplakativer Ausdrucksweise, dass die Unordnung in einem abgeschlossenen System niemals abnimmt, was sich der werte Leseram Zustand seines Schreibtisches tagtäglich vergegenwärtigen mag. (Auch Aufräumen nützt da nichts, denn hierdurch erzeugtder Mensch im abgeschlossenen System „Arbeitszimmer“ durch seine Bewegungen etwas Wärme, wodurch Luftmoleküleetwas mehr in zusätzliche ungeordnete Bewegung geraten. Im abgeschlossenen Zimmer wird also Unordnung durch denVersuch, Ordnung zu schaffen, im Sinne der Thermodynamik leider immer nur vergrößert, ein unabweisbares Argument fürordnungsunwillige Kinder.) Der zweite Hauptsatz der Thermodynamik verbietet beispielsweise Autos zu bauen, die 20 Gradwarme Luft einsaugen, diese auf 10 Grad abkühlen und mit so gewonnener Energie den Motor antreiben. Thermische Energieist aufgrund höherer Entropie weniger edel als geordnete, kinetische Energie. Die Umwandlung von thermischer in kinetischeEnergie ist deshalb nur unter Verlusten möglich, weshalb beispielsweise Kraftwerke Kühltürme benötigen.
  • 7. 7 Der 2. Hauptsatz wurde um die Mitte des 19. Jahrhunderts als Naturgesetz aus Beobachtungen, später aus statistischenÜberlegungen heraus formuliert. James Clark Maxwell hatte aber 1867 ein schwerwiegendes Argument gegen dieses Naturgesetzvorgebracht, den Maxwellschen Dämon 4 . Durch Information ließe es sich nämlich außer Kraft setzen. Um dies zu verdeutlichenbetrachten wir einen Glaszylinder mit einem verschiebbaren Kolben (siehe Abb. 8). Im Kolben befindet sich ein Gas, daszunächst der Einfachheit halber nur aus einem einzigen Molekül bestehen möge, das sich ungeordnet thermisch bewegt. DiesesSzenario beobachtet der Maxwellsche Dämon. Wenn er wahrnimmt, dass sich das Molekül, wie in Abb. 8(a) dargestellt, geradein der linken Hälfte des Kolbens befindet, kann er ohne jeglichen Energieaufwand den Kolben bis zur Mitte einschieben, weilsichergestellt ist, dass das Molekül keinen Gegendruck erzeugt, siehe Abb. 8(b). Zu wissen, ob sich das Molekül links oderrechts befindet, bedeutet genau ein bit Information, da beide Fälle gleichwahrscheinlich vorkommen. Das Molekül bewegtsich nachfolgend thermisch und stößt daher mehrmals auf den Kolben, wodurch dieser nach rechts ausgetrieben wird, vgl.Abb. 8(c). Dabei wird die ungeordnete Wärmeenergie des Moleküls vollständig in geordnete Bewegungsenergie des Kolbensvon links nach rechts umgewandelt! Das darf aber nach dem zweiten Hauptsatz der Thermodynamik prinzipiell nicht möglichsein! (Nachdem der Kolben an den rechten Rand gelangt ist kann der Vorgang wiederholt werden.) Gaszylinder reibungsfrei beweglicher, aber Gasmolekül dichter Kolben in thermischer Bewegung Beobachter (Maxwellscher Dämon) (a) (b) (c) s 0 l/2 l l/2Abbildung 8: Aufbau eines Gedankenexperiments zum Maxwellschen Dämon. (a) Zylinder ungeladen, (b) Zylinder geladen,(c) Arbeitsphase Der Maxwellsche Dämon gewinnt bei einem Arbeitsschritt verbotenerweise die Energie E MD = F (s) ds. Dabei be- 0,5zeichnen F (s) die auf den Kolben wirkende Kraft und s den momentanen Ort des Kolbens im Zylinder nach Abb. 8(a). Fürdie isotherme Expansion eines Gases gilt das Gesetz nach Boyle (formuliert im Jahr 1662) und Mariott (1676) mit dessenPräzisierung nach Boltzmann (1860): p(s) · V (s) = const = z · kB · Tabs mit p(s) : Druck; V (s) : Volumen; z : Zahl der Gasmoleküle F (s)Mit V (s) = A · s (A: Querschnittsfläche des Zylinders) und p(s) = A sowie z = 1 (ein Molekül) folgt: kB · Tabs EMD = ds = kB · Tabs · ln(2) = N0 ln(2) = Eb, min (16) s 0,5 Die im Widerspruch zum zweiten Hauptsatz gewonnene kinetische Energie ist also exakt gleich der minimal notwendigenEnergie zur Repräsentation bzw. Übertragung von einem bit Information im Umfeld von thermischen Rauschen, aus demja diese kinetische Energie gewonnen werden würde, vgl. Gl. 15. Das Gedankenexperiment Maxwellscher Dämon ist damitwiderlegt5 . Die hier sehr vereinfachte Behandlung des Problems ist ein schönes Beispiel dafür, wie ästhetisch Wissenschaften,gerade auch Naturwissenschaften und Technik sein können! Zwei zunächst völlig unterschiedliche Dinge wie ein 350 Jahrealtes Gasgesetz einerseits und Kugeln in hoch dimensionalen Räumen andererseits begegnen sich schließlich in der gleichenBeziehung. V. D IREKTE F OLGERUNGEN AUS DER K APAZITÄTSFORMEL Aus der Shannon’schen Kapazitätsformel können auf einfache Weise fundamentale weitere Beziehungen für Informations-übertragungsverfahren direkt abgeleitet werden. 4 Die nachfolgenden Darstellungen folgen weitestgehend der Arbeit von H. Marko [11] 5 So einfach wie hier dargestellt ist die Sache im Detail freilich nicht. Erst 1988 gelang es Zurek (vgl. [12]), den Maxwellschen Dämon endgültig zuentlarven, nachdem sich viele bedeutende Wissenschaftler, wie z. B. Szilard, Landauer, Brillonins, Bennet und noch viel andere mehr intensiv mit dieser Fragebefasst hatten.
  • 8. 8A. Leistungs– und Bandbreiteneffizienz digitaler Übertragungsverfahren In einem sog. Leistungs–Bandbreitendiagramm für die digitale Übertragung trägt man die spektrale Effizienz Γ d eines digita-len Übertragungsverfahrens nach Gl. (13) über dem minimalen Vergleichsstörabstand 10 log 10 (Eb /N0 ) auf, der notwendig ist,um eine hinreichende Datenzuverlässigkeit zu erreichen (z. B. eine tolerierte Bitfehlerwahrscheinlichkeit BER T ≤ 10−8 ), sieheAbb. 9. Die Gl. (13) markiert hierbei die Shannongrenze für die Existenz bzw. Nichtexistenz digitaler Übertragungsverfahrenbei der Übertragung über das AWGN–Kanalmodell 6. In Abb. 9 sind neben der Shannongrenze Punkte für verschiedene digitaleÜbertragungsverfahren ohne Kanalcodierung, sowie für Verfahren mit iterativ decodierbaren Kanalcodierverfahren (LDPC–und Turbo–Codes) und optimaler codierter Modulation mittels Multilevel–Codes mit Multistage–Decodierung (vgl. [14])schematisch eingetragen. Erst ab dem Jahr 1993 gelang es nach einer ca. 50 Jahre dauernden Forschungstätigkeit zur Ka-nalcodierung praktikable Verfahren zu finden, die im Austausch von Leistungs– und Bandbreiteneffizienz die Shannongrenzesehr nah erreichen. Es ist auch anzumerken, dass diese Shannongrenze auch für Multiple–Input–Multiple–Output (MIMO–) 128 QAM 7 tolerierte Bitfehlerrate BERT = 10−8 64 QAM 64 PSK 6 ze spektrale Effizienz Γd [ bit/s ] → en Gr 32 QAM 32 PSK 5 Hz on nn a 16 QAM 16 PSK Sh 4 8 PSK 3 4 QAM = 4 PSK 2 2 PSK 1 ohne Kanalcodierung mit Kanalcodierung und Multilevel Codes 0 −5 0 5 10 15 20 25 30 10 log(Eb /N0 ) [dB] → ← Leistungseffizienz Abbildung 9: Leistungs–Bandbreiten–Diagramm für die digitale Informationsübertragung über das AWGN–KanalmodellÜbertragungsverfahren gilt, bei denen neben einem Frequenzband auch der Raum und/oder Polarisationsrichtungen usw. alsweitere Ressourcen zur Übertragung herangezogen werden. Hierzu hat man jedoch den Begriff Bandbreite im Sinne vonShannon verallgemeinert als die Zahl der Dimensionen im Signalraum zu verstehen, die pro Sekunde zur Verfügung stehen,was als Shannon–Bandbreite bezeichnet wird.B. Optimale Digitalisierung von Folgen analoger Werte Bei der Digitalisierung und Rekonstruktion analoger Werte entstehen unvermeidlich Störungen, das sog. Quantisierungs-rauschen, da dem Kontinuum entstammende Werte durch endlich viele Repräsentanten darzustellen sind. Verwendet man ineinem Gedankenexperiment den Übertragungskanal vom Eingang der Digitalisierung bis zum Ausgang der Rekonstruktionselbst wiederum zur digitalen Übertragung, so kann die Kapazität dieses Ende–zu–Ende–Übertragungskanals gemäß dem DataProcessing Theorem der Informationstheorie (siehe z. B. [15]) niemals den tatsächlichen Datenstrom von R Bit pro Wertzwischen Digitalisierung und Rekonstruktion übersteigen, siehe Abb. 10; es gilt also C ≤ R. Analogwerte Diskrete Werte Daten X[k] Digitalisierung Rekonstruktion Y [k] X ∈R R bit/Wert Y ∈ {y1 ,y2 , . . . , y2R } Kapazität für eine digitale Übertragung C = 1/2 log 2 (1 + S/N ) Abbildung 10: Digitalisierung und Rekonstruktion einer Folge analoger Werte Bei gegebenem Signalstörleistungsverhältnis S/N wird die wechselseitige Information von zeitdiskreten Kanälen mit addi-tiver Störung durch weißes gauß’sches Rauschen minimiert, da statistisch unabhängige gauß’sche Zufallsvariablen die größt-mögliche differentielle Entropie bei vorgegebener Varianz aufweisen, vgl. z. B. [15]. Somit wird umgekehrt beim Kanal nach 6 Gl. (13) markiert die Shannongrenze für eine fehlerfreie Übertragung (BER = 0). Mittels der Rate–Distortion–Capacity, vgl. z. B. [13], lässt sich diese TGrenze für jede tolerierte Bit– und Wortfehlerwahrscheinlichkeit verallgemeinern. Für geringe tolerierte Fehlerraten sind jedoch Unterschiede zur Grenze nachGl. (13) kaum zu erkennen.
  • 9. 9Abb. 10 bei vorgegebener maximaler Kapazität C = R der höchste Störabstand erreicht, wenn das Quantisierungsrauscheneinen weißen gauß’schen Störprozess bildet. Setzt man zudem voraus, dass die Folge X[k] ebenfalls ein weißer gauß’scherZufallsprozess ist, so erhält man unmittelbar die folgende Schranke für das Signalstörleistungsverhältnis bei der Digitalisierungund Rekonstruktion analoger gauß’scher Zufallsvariablen mit einer Rate von R Bit pro Wert R ≥ log2 (1 + S/N ) bzw. S/N ≤ 22R − 1. (17)Diese Beziehung wird als die Rate–Distortion–Grenze für die Digitalisierung für die gauß’sche Zufallsvariable bezeichnet. 7Diese Schranke lässt sich durch eine sog. Vektorquantisierung auch erreichen, also durch eine gemeinsame Digitalisierungvon Folgen der Länge n von analogen Zufallsvariablen. Als optimale Quantisierungszellen im vieldimensionalen Raum R nergeben sich für einen weißen gauß’schen Eingangsprozess X[k] Kugeln der Dimension n − 1 auf der Oberfläche der n– √dimensionalen Kugel mit dem Radius n · S, auf der gemäß zum Abschnitt 3 alle Vektoren aus Werten X[k] für n → ∞ zuliegen kommen. Da eine Projektion in einer hochdimensionalen Kugel auf eine einzelne Dimension die gauß’sche Glockenkurveerzeugt (siehe z. B. [16], Seite 239), entsteht durch eine solche Vektorquantisierung tatsächlich das theoretisch optimalegauß’sche Quantisierungsrauschen beim einzelnen Signalwert.C. Leistungs– und Bandbreiten–Diagramm für die Übertragung analoger Signale Aus der Shannon’schen Kapazitätsformel lässt sich auch auf einfache Weise eine Schranke für den optimalen Austauschvon Leistungs– und spektraler Effizienz bei der Übertragung analoger Quellensignale über den AWGN–Kanal herleiten, wobeidavon ausgegangen wird, dass das niederfrequente Quellensignal (NF–Signal) x(t) auf die (einseitige) NF–Bandbreite B NFbandbegrenzt sei. Analoges Sende- AWGN-Kanal Empfangs- Rekonstruiertes Quellensignal signal Signal Quellensignal x(t) Sender Empfänger y(t) s(t) e(t) Bandbreite BNF Bandbreite BHF Störung CHF = BHF log2 (1 + SNRHF ) CNF = BNF log2 (1 + SNRNF ) Abbildung 11: Modell zur optimalen Übertragung analoger Signale über den AWGN-Kanal Würde man den Kanal von Sendereingang x(t) zu Empfängerausgang y(t) zur digitalen Übertragung nutzen, so kannselbstverständlich die Kapazität C NF dieses Ende–zu–Ende–Kanals nicht größer sein als die Kapazität C HF des tatsächlichenHF–Übertragungskanals C NF ≤ CHF . Im Falle eines optimalen Sender–, Empfängerpaares wird allenfalls Gleichheit erreicht.Wie in Abschnitt V.B bereits erörtert, liegt bei gegebener Kapazität C NF das größte Signalstörleistungsverhältnis (Signal to NoiseRatio) SNRNF für das Empfängerausgangssignal y(t) dann vor, wenn die Störung im Signal y(t) einen innerhalb der BandbreiteBNF weißen gauß’schen Störprozess darstellt. Andererseits wird die Kapazität C NF für einen innerhalb der Bandbreite B NFweißen gauß’schen Zufallsprozess als Nutzsignal maximiert. Deshalb stellen diese Modelle für Nutz– und Störsignal dengünstigst möglichen Fall dar. Als Bandbreiteneffizienz Γa eines Verfahrens zur Übertragung eines analogen NF–Signals wirddefiniert Γa = BNF /BHF , wobei BHF die Bandbreite des hochfrequenten Sendesignals (HF–Signals) bezeichnet. Des Weiterenist es für einen Vergleich von Übertragungsverfahren mit unterschiedlichen HF–Bandbreiten üblich, zur Charakterisierung Sdes HF–Kanals nicht das Signalleistungsverhältnis SNR HF = N0 ·BHF für das HF–Signal nach dessen Bandbegrenzung in der SEmpfängereingangsstufe direkt zu verwenden, sondern statt dessen ein Vergleichssignalstörleistungsverhältnis SNR 0 = N0 ·BNF ,das dann für den HF–Kanal vorliegen würde, wenn ein die Signalbandbreite nicht veränderndes Übertragungsverfahren (z. B.Einseitenbandmodulation bzw. gar kein Modulationsverfahren) verwendet werden würde. Durch die Bedingung C HF ≥ CNFerhält man unmittelbar die Schranke 1/Γa 1/Γa SNRNF ≤ (1 + SNRHF ) − 1 = (1 + Γa · SNR0 ) −1 (18)für den NF–Signalstörabstand bzw. für den best möglichen Austausch von Leistungs– und Bandbreiteneffizienz bei dersog. transparenten Übertragung analoger Quellensignale. Der Begriff transparente Übertragung drückt hierbei aus, dass 7 Im Unterschied zur meist in der Literatur genannten Gleichung S/MSE ≤ 2 2R , welche sich auf den Quotienten aus S = E |X[k]|2 und 2MSE = E |Y [k] − X[k]| bezieht, gibt die Schranke (17) das nachrichtentechnisch relevante Signalstörleistungsverhältnis für die RekonstruktionswerteY [k] an, wobei die Leistung S des Nutzanteils aus Y [k] zur Leistung N des Störanteils in Y [k] ins Verhältnis gesetzt ist. Wie aus der Schätztheorie allgemeinbekannt ist (vgl. z. B. [7]) muss das Verhältnis S/MSE um 1 verringert werden, um S/N für eine Bias–freie Schätzung von X aus Y zu erhalten. DieGl. (17) stellt also die Rate–Distortion–Schranke für eine Bias–freie Schätzung dar.
  • 10. 10das Quellensignal bis auf die Begrenzung seiner (einseitigen) Fourier–Bandbreite auf die NF–Bandbreite B NF keinerleiweiteren Einschränkungen unterliegt. In Abb. 12 ist Gl. (18) als Shannongrenze für die transparente Analogsignalübertragungin ein Leistungs–Bandbreiten–Diagramm für analoge Quellensignale eingetragen. Dabei ist die erwünschte Ende–zu–EndeÜbertragungsqualität durch einen vorgegebenen NF–Störabstand (hier zu 60 dB gewählt) fixiert. Dieses Leistung–Bandbreiten–Diagramm entspricht somit als Pendant unmittelbar dem Leistungs–Bandbreiten–Diagramm für die digitale Übertragung nachAbb. 10, wobei die maximal tolerierte Bitfehlerwahrscheinlichkeit BER T durch den geforderten NF–Störabstand ersetzt wird. Indiesem Diagramm werden z. B. Amplitudenmodulations– (AM–) Übertragungsverfahren durch Punkte und Frequenzmodulation(FM) als Kurve abhängig vom Parameter Frequenzhub Δf charakterisiert. In Abb. 12 ist ein mittlerer Aussteuerpegel von−13 dB vorausgesetzt, der in etwa einem optimalen Ausgleich zwischen Maximierung des NF–Störabstands und Begrenzungnichtlinearer Verzerrungen infolge Übersteuerungen entspricht. 10 log2 (SNRNF ) = 60 dB 1 20 log2 (qeff ) = −13 dB EM Bandbreiteneffizienz Γ a −→ 0.8 Quellencodierung n = 2/ ideale Kanalcodierung (nicht transparent) Shannon-Grenze (transparent) 0.6 ZSB-AM ZSB-AM 1024 ohne Träger mit Träger 0.4 512 256 128 64 32 PCM, n = 12 bit/sample ← Δf 0.2 16 + uncoded dig. QAM FM (γ = 2) 4 0 0 10 20 30 40 50 60 70 80 90 10 lg(SNR0 ) [dB] −→ ←− Leistungseffizienz Abbildung 12: Leistungs–Bandbreitendiagramm für die Übertragung analoger Quellensignale Für Pulscodemodulation (PCM) ist eine an die gauß’sche Wahrscheinlichkeitsdichtefunktion des Quellensignals optimalangepasste nicht gleichmäßige Quantisierung nach Panter und Dite (vgl. [17]: 10 log 10 (SNRNF ) = R · 6,02 dB − 4,35 dB),mit R = 11 bit/Abtastwert, sowie digitale Übertragung ohne Kanalcodierung mittels digitaler M –stufiger QAM–Verfahren mitWurzel–Nyquist–Impulsen bei einem roll–off–Faktor von 0,2 vorausgesetzt, wobei eine Bitfehlerquote von 10 −8 toleriert wird. CT Setzt man über das Abtasttheorem R = 2BNF in die Beziehung (17) ein, so erhält man mittels Gl. (2) ebenfalls dieSchranke (18). Somit ist gezeigt, dass mittels (optimaler) Digitalisierung eines analogen Quellensignals und anschließender(optimaler) digitaler Übertragung insgesamt ein optimales Übertragungsverfahren für analoge Quellensignale erzeugt wird. Diedigitale Informationstechnik stellt also tatsächlich eine optimale Informationstechnik dar! Diese Feststellung ist ein Spezialfallzum allgemeineren Theorem der prinzipiellen Trennbarkeit von Quellen– und Kanalcodierung (Theorem of Separability ofSource and Channel Coding). Allgemein ergeben sich folgende Zusammenhänge zwischen den Leistungs–Bandbreitendiagrammen für die digitale und dieanaloge Informationsübertragung bei einer digitalen Repräsentation von im Mittel R Bit pro Abtastwert, bzw. mittels einerDatenrate RT = 2BNF R: Eb Γd SNR0 = 2R · und Γa = . (19) N0 2RAus der Gl. (18) folgt bei optimaler Digitalisierung nach Gl. (17) für den Austausch zwischen Leistungs– und Bandbreitenef-fizienz bei der analogen Übertragung die Gleichung 1 2RΓa SNR0 = 2 −1 , (20) Γawelche die enge Verwandschaft zur Shannongrenze (13) deutlich macht.D. Nicht transparente Übertragung analoger Quellensignale Nimmt man eine Einschränkung auf typische analoge Quellensignale vor, dann lässt sich die Rate R der Digitalisierungdeutlich absenken (vgl. MP3 für Audiosignale oder Videocodierverfahren bei der Bewegtbildübertragung). Damit können nach
  • 11. 11Gl. (19) sowohl die Leistungs–, als auch die spektrale Effizienz der Nachrichtenübertragung entscheidend erhöht werden. InAbb. 13 ist die prinzipielle Wirkungsweise von Quellencodierverfahren schematisch illustriert. Datenreduktion erfolgt in der Quellencodierung einerseits in Form einer Redundanz–Reduktion: Nicht für alle, sondernnur für typische Quellensignale müssen unterschiedliche Adressierungen vorgesehen werden, wodurch der Adressumfang zurRepräsentation von Folgen der Länge n aus M –wertigen Symbolen von log 2 (M n ) für n → ∞ auf nH(X) abgesenkt werdenkann. Hierbei bezeichnet H(X) die Entropie der Informationsquelle, also den mittleren Informationsgehalt je Quellensymbol.Eine solche Redundanzreduktion stellt eine verlustfreie Form der Datenreduktion dar; d. h. solange das Quellensignal bzw.die Quellensymbolfolge die Bedingung typisch zu sein erfüllt, ist eine (evtl. bis auf Quantisierungsrauschen) verlustloseRekonstruktion möglich. In Abb. 13 werden typische Sequenzen durch eine kleine Teilmenge aus der Menge aller M n möglichenFolgen illustriert. Punkte: alle M n möglichen Nachrichten. Punkte innerhalb der fett gezeichneten Umrandung: Menge der typischen Nachrichten. Kreuze: Repräsentanten für Nachrichten innerhalb des umgebenden Gebietes. Abbildung 13: Illustration der Quellencodierung durch Redundanz– und Irrelevanzreduktion Andererseits ist Quellencodierung in Form der Irrelevanz–Reduktion möglich: Üblicherweise sind Nachrichtenempfängernicht in der Lage alle möglichen angebotenen Signale wirklich wechselseitig zu unterscheiden. Somit genügen oft wenigetypische Repräsentanten, um beim Empfänger einen gleichwertigen Eindruck von der übertragenen Nachricht zu erwecken.Eine Informationssenke kann analog zur Quelle ebenfalls durch eine Entropie H irr (X) hinsichtlich ihrer Aufnahmefähigkeitvon Information charakterisiert werden, wenn von allen M n möglichen Folgen M –wertiger Symbole für n → ∞ nur 2 nHirr (X)Folgen tatsächlich für den Empfänger unterscheidbar sind. Als Beispiel sei die Irrelevanzreduktion bei der Audio–Codierung(z. B. MP3) genannt: Laute Töne verdecken für unser Gehör leisere Töne im benachbarten Frequenzbereich. Da diese nichtzu hören sind, braucht man sie auch nicht zu übertragen. In Abb. 13 verdeutlichen die Symbole × die wenigen Folgen, dieausreichen, um für den Informationsempfänger alle möglichen Folgen adäquat zu repräsentieren. Werden beide Methoden zugleich benutzt, so sind für n → ∞ nur 2 n(H(X)+Hirr (X)−log2 (M)) Nachrichten zu unterschei-den und somit im Mittel R = H(X) + H irr (X) − log2 (M ) bit Information je Quellensymbol zu übertragen. Reduziert manbeispielsweise bei Audiosignalen die Rate von 16 Bit/Abtastwert (CD–Qualität) auf 2 Bit/Abtastwert mittels eines modernenAudio–Codierverfahrens, so ergibt sich gemäß Gl. (20) die in Abb. 12 dargestellte, im Vergleich zur transparenten Übertragungweit günstigere Schranke. Diese Kurve zeigt, dass durch Datenreduktion infolge Quellencodierung insbesondere bei hohenAnforderungen an die spektrale Effizienz Γa enorm hohe Gewinne in der Leistungseffizienz möglich sind, weit mehr alsdurch Kanalcodierung, vgl. hierzu den Abstand der Punkte für uncodierte digitale Übertragung zur Shannongrenze in Abb. 10.Gesparte Bits wirken sich, wie durch Gl. (19) verdeutlicht, doppelt positiv auf die Leistungseffizienz aus: Zum einen ist keineEnergie zu deren Übertragung aufzuwenden, zum anderen sinkt die Anforderung an die spektrale Effizienz.E. Beispielhafte Systemvergleiche Die Abb. 12 erlaubt auf einfache Weise einen Vergleich zwischen traditionellen Nachrichtenübertragungsverfahren und aufden Erkenntnissen der Informationstheorie beruhenden modernen Verfahren. Hierzu zwei Beispiele: 1) AM–Radio : Gegenüber dem Übertragungsverfahren AM mit Träger (spektrale Effizienz Γ a = 0,5), das immer noch fürMittel– und Kurzwellenrundfunk eingesetzt wird, könnte bei einer sehr hohen Anforderung an die Übertragungsqualität von60 dB NF-Störabstand ein Gewinn von bis zu 67 dB in der Leistungseffizienz bei gleichbleibender spektraler Effizienz erreichtwerden! Ein großer AM–Sender mit einer äquivalenten Sendeleistung (equivalent isotropic radiated power: EIRP) von 500 kWwäre also zumindest theoretisch beim AWGN–Kanalmodell durch einen Kleinstsender mit einem EIRP von 0,1 W gleichwertigersetzbar! Dabei entfallen ca. 42 dB Gewinn auf die Anwendung eines digitalen Übertragungsverfahrens und ca. 25 dB aufdie Quellencodierung, vgl. Abb. 12. Bei der Umstellung von analogem AM–Radio auf digitalen Rundfunk (z. B. DigitalRadio Mondiale (DRM)) sind solche großen Gewinne natürlich in der Praxis nicht erreichbar, da für das historische analogeVergleichssystem von einem weit geringeren NF–Störabstand auszugehen ist (z. B. 30 dB) und zugleich die NF–Bandbreitestark erhöht sowie Stereo–Übertragung eingeführt wird.
  • 12. 12 2) FM–Radio : Gegenüber FM–Rundfunk (mono, Δf = 75 kHz, Γa = 15 kHz/210 kHz = 0,071) ist gemäß Abb. 12, beisehr hohen Anforderungen an die Übertragungsqualität ein Gewinn von ca. 49 dB erreichbar, dabei entfallen ca. 40,6 dB aufein digitales Übertragungsverfahren und ca. 8,8 dB auf eine geeignete Quellencodierung. D. h. ein Sender mit einem EIRPvon 100 kW wäre bei gleichbleibender spektraler Effizienz durch einen ca. 1 W Sender ersetzbar. Für den Stereo–Betrieb sinddie möglichen Gewinne noch weit größer. Allerdings ist beim üblichen FM–/AM–Stereoübertragungsverfahren ein Ziel–NF–Störabstand von 60 dB in der Praxis kaum erreichbar. Diese beiden Systemvergleiche verdeutlichen, dass durch eine anhand der Theoreme der Informationstheorie entwickelte In-formationstechnik höchste Effizienz erreicht. Heute zur Verfügung stehende Verfahren erreichen theoretische Existenzschrankendabei bereits sehr nahe und sind durch mikroelektronische Systeme zudem äußerst kostengünstig zu implementieren. VI. F ORMELN VERÄNDERN DIE W ELT ODER VON T HEORIE UND P RAXIS Nicht nur die Formeln aus spezieller und allgemeiner Relativitätstheorie von A. Einstein oder, wie hier dargestellt, aus derInformationstheorie von C.E. Shannon haben die Lebensbedingungen und die alltägliche Lebensrealität nahezu der gesam-ten Menschheit drastisch verändert. Weitere vergleichbare Entwicklungen wurden beispielsweise durch die Thermodynamik(Grundlage für effiziente Wärmekraftmaschinen), die Maxwellschen Gleichung (Elektrodynamik als Grundlage der Entwicklungder Elektrotechnik) oder die Quantenmechanik (Grundlage der Mikroelektronik und Nanotechnologie usw.) ausgelöst. DieListe der Beispiele ließe sich weiter fortsetzen. Spätestens seit der Mitte des 19. Jahrhunderts sind die Fundamente dertechnischen und damit auch wirtschaftlichen Entwicklung im wesentlichen Formeln, also höchst abstrakte theoretische Gebilde.Technischer Fortschritt kann damit nur durch Wissenschaftler und Ingenieure mit sehr soliden Kenntnissen und Fertigkeiten inden ihren Arbeitsgebieten zugrundeliegenden theoretischen Grundlagen erreicht werden. In der modernen Technik verschwindetdabei der Unterschied zwischen Theorie und Praxis immer mehr, zumal heutzutage häufig neue theoretische Erkenntnisse alsSoftwarelösungen (z. B. neue Algorithmen in der Informationsübertragung und –verarbeitung) ohne weitere Zwischenschnittesehr rasch in Produkte umgesetzt werden können. Der bereits seit der Mitte des 19. Jahrhunderts populäre Satz „Eine guteTheorie ist das Praktischste, was es gibt.“, der mehreren bekannten Wissenschaftlern zugeschrieben wird, so auch dem PhysikerG.R. Kirchhoff (1824 – 1887), ist für die Technik im 21. Jahrhundert mehr gültig denn je zuvor. Der häufig zu beobachtende Versuch, durch das Hervorheben eines besonderen Praxisbezugs einer Tätigkeit oder einesAusbildungswegs Lücken im theoretischem Fundament ausgleichen oder gar kaschieren zu wollen, ist angesichts der technisch–wissenschaftlichen Realität als völlig vergeblich einzuordnen. Vor diesem Hintergrund ist den Tendenzen einer fortschreitendenrechtlichen (und bei weitem nicht inhaltlichen) Gleichstellung von (Fach–)Hochschulen und Universitäten und deren Ausbil-dungsgänge vor allem im technisch–naturwissenschaftlichen Bereich klar und entschieden entgegen zu treten. Formeln, welche die Welt verändern, lassen sich nicht durch Organisationsstrukturen oder Wissenschaftsmanagement her-beizwingen, sondern entstehen zumeist im ungezwungenen freien wissenschaftlichen Umfeld ohne jegliche die Kreativitäteinengenden Beschränkungen. Hierzu kann wiederum C.E. Shannon als exemplarisches Beispiel dienen, dessen ausschließlichesInteresse zeit seines Lebens der wertfrei betrachteten Theorie sowie der Phantasie und Technik für ganz ungewöhnlicheSpielzeuge galt. Er fasste sein ungeheuer reiches wissenschaftliches Lebenswerk in dem überraschenden Satz zusammen:„I never in my life tried to do anything usefull.“ Der heutige Universitäts– und Wissenschaftsbetrieb lässt leider solche um-fassenden Freiräume, wie sie C.E. Shannon damals sogar durch seine industriellen Arbeitgeber gewährt worden waren, leideroft kaum mehr zu. Die immer währende und sich immer schneller sinnlos drehende Reformitis an Universitäten, Laboratorienund Forschungsinstituten hat den Boden für die Phantasie und Kreativität, die für fundamentale Erkenntnisse unabdingbar sind,inzwischen leider ziemlich radikal ausgetrocknet. Moderne Technik, welche die Welt verändert, ist hinsichtlich ihrer Auswirkungen auf die Menschheit grundsätzlich ambi-valent. Dabei haben Naturwissenschaftler und Ingenieure zumeist überhaupt keine Macht darüber zu bestimmen, wozu ihreFormeln und die hieraus entstehende Technik letztlich angewendet werden, ob eher zum Wohl oder eher zum Schreckenfür die Menschheit. Mit der fortlaufenden Höherentwicklung von Naturwissenschaften und Technik nehmen dabei auch diePotenziale für gravierende Auswirkungen in beide Richtungen extrem zu. Eine immer komplexer werdende Technik erfordertalso zugleich unabdingbar eine immer höhere kulturelle und soziale Entwicklung der menschlichen Gesellschaft, um positivenTechnikfolgen jederzeit die Oberhand zu sichern. Hierin ist eine zentrale Aufgabe der Geisteswissenschaften zu sehen, derenenorme Verantwortung bei der Weiterentwicklung der Gesellschaft im technischen Umfeld nach Ansicht des Verfassers viel zuwenig betont und auch durch deren Vertretern kaum wahrgenommen wird. Zum Beispiel gereichen für viele Ingenieure, die antechnischen Lösungen in der Informationstechnik mitwirken, die Inhalte, welche per digitalem Fernsehen über weit mehr als1000 Kanälen in unsere Wohnzimmer transportiert werden, zumeist zum blanken Entsetzen darüber, wozu ihre wunderbarentechnischen Möglichkeiten einer breiten Informations– und Bildungsvermittlung aus kurzfristigen und skrupellosen wirtschaft-lichen Interessen missbraucht werden. Die Schere zwischen technischen Möglichkeiten und dem verantwortungsvollen Umgangdamit scheint sich offenbar derzeit leider mehr zu öffnen als zu schließen. Der geistig–moralischen Gesellschaftsentwicklungdurch ethische Orientierung, Wertedefinition und Wertevermittlung usw., die mit technischem Fortschritt zwingend einhergehensollte, ist daher unabdingbar genauso große Aufmerksamkeit zu widmen, wie deren technischen Wissenschaften selbst.
  • 13. 13 L ITERATUR [1] H. Fritzsch, Eine Formel veraendert die Welt. Piper-Verlag, 1990. [2] Foto Claude Elwood Shannon. [Online]. Available: http://cm.bell-labs.com/cm/ms/what/shannonday/shannon.small.jpg [3] Shannon Statue. [Online]. Available: http://www.eecs.umich.edu/shannonstatue/ [4] C.E. Shannon, “A mathematical theory of communication,” Bell System Technical Journal, vol. 27, pp. 379–423 and 623–656, 1948. [5] C.E. Shannon, Collected Papers, N.J.A. Sloane and A.D. Wyner, Eds. IEEE Press, 1993. [6] C.E. Shannon and W. Weaver, The mathematical theory of communication. Urbana, University of Illinoise Press, 1949. [7] A. Papoulis, Probability, Random Variables and Stochastic Processes. McGraw-Hill Publ. Comp.; 4. Edition, 2002. [8] K.-D. Kammeyer, Nachrichtenübertragung. Vieweg + Teubner Verlag; 5. Auflage, 2011. [9] H. Lueke, “The origins of the sampling theorem,” IEEE Communications Magazine, vol. April, pp. 106–108, 1999.[10] J. Wozencraft and I. Jacobs, Principles of Communication Engineering. Wiley, New York, 1965.[11] H. Marko, “Physikalische und biologische Grenzen der Informationsübermittlung,” Kybernetic, vol. 2, Heft 6, pp. 274–284, 1965.[12] W. Zurek, “Quantum discord and maxwell’s demons,” Phys. Rev., vol. A 67, p. 12320, 2003.[13] J. Huber and T. Hehn, “The lowest-possible BER and FER for any discrete memoryless channel with given capacity,” IEEE Transactions on Communications, vol. 57, pp. 2849–2852, 2009.[14] U. Wachsmann, R. Fischer, and J. Huber, “Multilevel codes: Theoretical concepts and practical design rules,” IEEE Transactions on Information Theory, vol. Vol. 45, No. 5, pp. 1361–1391, 1999.[15] T. Cover and J. Thomas, Elements of Information Theory. Wiley-Interscience, 2. edition, 2006.[16] R. Fischer, Precoding and Signal Shaping. Wiley & Sons, 2002.[17] P. Panter and W. Dite, “Quantization distortion in pulse-count modulation with nonuniform spacing of levels,” Proc. IRE, vol. 39, pp. 44–48, 1951.

×