Shannon-Hartley-Gesetz
aus Wikipedia, der freien Enzyklopädie
Das Shannon-Hartley-Gesetz (nach Claude Shannon und Ralph Hartley) beschreibt die theoretische Obergrenze der Kanalkapazität (maximale Datenübertragungsrate ohne Übertragungsfehler) eines Übertragungskanals in Abhängigkeit von Bandbreite und Signal-zu-Rausch-Verhältnis. Es ist eine der wichtigsten Grundlagen der Nachrichtentechnik und Kommunikationstechnologie.
In der Praxis wird die maximale Datenübertragungsrate von der Kanalkodierung beeinflusst. Das Shannon-Hartley-Gesetz liefert das theoretische Maximum, das mit einer hypothetischen optimalen Kanalkodierung erreichbar ist. Ebenso definiert es den minimalen Signal-Rauschabstand (Eb/N0) für die Übertragung von Information.
Inhaltsverzeichnis |
[Bearbeiten] Einführung
Über einen perfekten Übertragungskanal könnte man theoretisch Daten in unbegrenzter Menge übertragen. Da aber real existierende Kanäle sowohl in ihrer Bandbreite begrenzt sind als auch Störungen unterworfen sind, wie es eingestreute Störungen, thermisches Rauschen, endlicher Widerstand des Leiters, usw. sein kann, ist die maximal mögliche Übertragungsrate begrenzt. Die Übertragungsrate wird durch beide Faktoren begrenzt:
- Die Bandbreite des Übertragungsweges bestimmt die maximal mögliche Symbolrate, wieviele einzelnen Symbole pro Zeiteinheit sicher übertragen werden können.
- Die Stärke der auf dem Übertragungsweg entstandenen bzw. eingefangenen Störungen, beschrieben durch das Signal-Rausch-Verhältnis, begrenzt den maximalen Informationsgehalt eines Symbols d. h. wieviele unterschiedliche Symbole am Empfänger noch sicher unterschieden werden können.
Vereinfachend gesagt bestimmt die Bandbreite, wie oft bei der Übertragung durch ein Kabel die Spannung pro Zeiteinheit geändert werden kann und das Signal-Rausch-Verhältnis, wie viele verschiedene Spannungspegel dabei beim Empfänger noch sicher unterschieden werden können.
[Bearbeiten] Mathematische Beschreibung
[Bearbeiten] Maximale Übertragungsrate bei rauschfreiem Übertragungskanal
Harry Nyquist beschrieb den Zusammenhang aus Bandbreite B und Datenübertragungsrate C bei einem störungsfreien Übertragungskanal:
- (1)
mit
- CN = Datenübertragungsrate in Symbole je Sekunde (sym/s);
- B = Bandbreite in Hertz;
Umfasst das Symbolalphabet nur zwei Zeichen, ist sym/s = bit/s (bps). Sind es L Zeichen, lassen sie sich durch log2(L) Bits darstellen:
- (2)
mit
- CN = Datenübertragungsrate in Bit je Sekunde (bit/s).
Beispiel: Bei einer Bandbreite von 1000 Hz können maximal 2000 Symbole/Sekunde übertragen werden. Bestehen die Symbole aus einem Bit, z. B. „0“ oder „1“, erreicht man eine Datenrate von 2000 bit/s. Handelt es sich um 26 Zeichen des deutschen Alphabets (ohne Sonderzeichen), ist die Datenrate mit 9400 bit/s um log2(26) größer. Durch Wahl hinreichend vieler unterschiedlicher Symbole kann auf einem rauschfreien, bandbegrenzten Übertragungskanal eine beliebig hohe Bitrate erzielt werden.
[Bearbeiten] Maximale Übertragungsrate bei gestörtem Übertragungskanal
Claude Shannon verallgemeinerte dieses Theorem für einen mit weißem Rauschen gestörten Kanal zum Shannon-Hartley-Gesetz:
- (3) =
mit
- CS = effektive Datenübertragungsrate in Bit je Sekunde;
- S / N = Signal-Rausch-Verhältnis (arithmetische Größe).
Für ein großes Signal-Rausch-Verhältnis kann man die „1“ im Logarithmus vernachlässigen. Mit erhält man (für ein als logarithmische Größe angegebenes Signal-Rausch-Verhältnis) die Näherungsformel:
Beispiel: Über eine Leitung mit dem Signal-Rausch-Abstand von 20 dB lassen sich bei einer verfügbaren Bandbreite von 1000 Hz demnach maximal 6,7 kbit/s übertragen:
Dieser Wert stellt eine obere, theoretische Grenze unter den angenommen Voraussetzungen dar. Jene Bitraten lassen sich beispielsweise durch entsprechende Kanalcodierung wie den Turbo-Codes annähernd in der Praxis erreichen.
Weitere Werte zur Abschätzung bei 1 kHz Bandbreite:
S/N [dB] | C [kBit/s] |
---|---|
3 | 1,6 |
6 | 2,3 |
10 | 3,5 |
20 | 6,7 |
40 | 13 |
60 | 20 |
[Bearbeiten] Shannon Grenze
Die kleinste Informationseinheit ist ein Bit. Die Energie pro Bit Eb, um ein Bit zu übertragen, erfordert die Signalleistung S, die den Status für die Dauer T präsentiert. Der Kehrwert von T ist die Bitrate C: C = 1 / T:
- Eb = S / C
Die Rauschleistung N ist das Produkt aus Bandbreite B und der spektralen Rauschleistungsdichte N0 (in W/Hz):
Umformen und Einsetzen der Ausdrücke für S und N in (3) liefert:
Mit der Näherung folgt schließlich als Grenzwert:
oder:
- (4) ln(2) = 0,69 = −1,6 dB < Eb / N0
Der Ausdruck (4) heißt auch Shannon-Grenze (engl. Shannon limit). Wenn die Sendeenergie nicht mehr ausreicht und das Verhältnis von Eb / N0 unter 0,7 sinkt, lässt sich auch bei unendlich großer Bandbreite keine Information mehr übertragen, siehe Abbildung.
Der Shannon-Grenzwert gilt für leistungsbegrenzte Signale. Beispielsweise ist die Kommunikation zu Raumsonden leistungsbegrenzt, während die Abstrahlung auf einem großen Frequenzband erfolgt.
Im Gegensatz dazu sind die meisten terrestrischen Verbindungen bandbreitenbegrenzt. Kommunikationssatelliten liefern in Verbindung mit Hochgewinnantennen hohe Sendeleistungen, um möglichst hohe Datenraten zu erzielen. Den Zusammenhang zwischen Signalrauschen, das von der Sendeleistung abhängt, und Datenrate zeigt die Beziehung (3) oben.
[Bearbeiten] Shannons geometrisch-stochastischer Ansatz
In der Arbeit „Communication in the presence of noise“ modellierte Claude Elwood Shannon den Übertragungskanal als reellen Vektorraum. Jedes übertragbare Symbol ist eine Koordinate in diesem Vektorraum. Da in der Zeit beliebig viele Symbole übertragen werden können, ist der Vektorraum unendlichdimensional. Jeder Koordinate entspricht ein Basissignal, d. h. eine reellwertige, von der Zeit abhängige Funktion. Der Einfachheit des Modells halber sollen sich die Basissignale periodisch wiederholen, wobei die Kopien sich nur um eine Zeitverschiebung unterscheiden. Z. B. könnte das (k+nD)-te Basissignal identisch zum k-ten Basissignal sein bis auf eine Zeitverschiebung um nT. Dabei ist D die Anzahl der „elementaren“ Basissignale, deren Abfolge sich mit Periode T wiederholt. Man kann dann davon sprechen, dass im Zeitraum nT eine Anzahl von nD Symbolen übertragen werden kann.
Es sei angenommen, dass die den Koordinaten zugeordneten Basissignale zueinander orthogonal sind und insgesamt eine orthonormale Basis des Signalvektorraums aufspannen. Ein beliebiges Signal ist dann eine (unendliche) Linearkombination dieser Basissignale. Die Koeffizienten dieser Linearkombination, die den übertragenen Symbolen entsprechen, können nun durch Bilden der Skalarprodukte des Signals mit den Basissignalen zurückgewonnen werden.
Im wichtigen, theorieleitenden Beispiel der bandbeschränkten Übertragungskanäle ist die Symbolrate durch die maximale Frequenz W auf 2 W begrenzt. In einem Zeitintervall endlicher Länge T kann also nur eine endliche Anzahl D von Symbolen übertragen werden. Diese spannen einen Untervektorraum der Dimension D im Signalvektorraum auf. Es sei die nach dem Abtasttheorem maximale Dimension D=2WT angenommen.
[Bearbeiten] Beispiele für Basissignale
Im folgenden werden einige mathematische, d. h. idealisierte Übertragungskanäle mit ihren Systemen von Basisfunktionen aufgeführt, die die obigen Annahmen für einen Signalvektorraum erfüllen. Diese sind sämtlich bandbeschränkt, wobei neben dem „elementaren“ Basisbandkanal auch Systeme von Basissignalen für Kanäle mit von Null verschiedener minimaler Frequenz angegeben werden können.
[Bearbeiten] Kardinalreihen
Shannon benutzte als einfachstes Signalmodell die Basisbandsignale mit einer höchsten Frequenz W. Nach dem WKS-Abtasttheorem (für Whittaker-Kotelnikow-Shannon, siehe Nyquist-Shannon-Abtasttheorem) können in diesem Kanal gerade 2WT Symbole im Zeitraum T übertragen werden, die Basissignale sind sinc-Funktionen
- ,
n = …, −1, 0, 1, … Diese haben jeweils ihr Zentrum bzw. Maximum bei , d. h. die Symbolrate beträgt 2 W. Dieses Orthonormalsystem ist die ideale theoretische Modellierung des frequenzbeschränkten PCM-Verfahrens (Puls-Code-Modulation).
[Bearbeiten] QAM
Das ideale QAM--System (Quadraturamplitudenmodulation) überträgt mit Symbolrate W Daten auf dem Frequenzband [F-W/2, F+W/2]. Dabei muss die mittlere Trägerfrequenz F ein ganzzahligens Vielfaches der Bandbreite W sein. Die Symbole sind hier komplexe Zahlen An + iBn, d. h. Punkte in der Gaußschen Zahlenebene. Es werden also wieder 2WT reelle Zahlen im Zeitraum T übertragen. Pro komplexem Symbol muss es auch zwei Basisfunktionen geben, diese können zu einer komplexwertigen Funktion zusammengefasst werden:
- ,
n = …, −1, 0, 1, … Jedes Signal ergibt sich dann als Summe über AngQ,n(t) + BngI,n(t).
[Bearbeiten] OFDM
Das ideale OFDM-System (Orthogonal Frequency Division Multiplexing) überträgt mit Symbolrate W/M einen komplexwertigen Vektor der Dimension M auf dem Frequenzband [F-W/(2M),F+W+W/(2M)]. F muss ein ganzzahliges Vielfaches der Datenrate W/M sein. Es muss also 2M reellwertige Basissignale pro vektorwertigem Symbol geben, die zu M komplexwertigen Funktionen zusammengefasst werden können
-
-
-
- ,
-
-
j = 0, …, M-1, n = …, −1, 0, 1, …
Da die sinc-Funktion technisch nicht zu realisieren ist, muss man andere Lösungen finden. Durch Frequenzfilter wird die Orthogonalität der Basissignale zerstört, es entstehen gegenseitige Störungen innerhalb des Symbols (ICI) und zwischen den Symbolen (ISI). Erhöht man die Taktrate der Signalerzeugung, ohne die Datenrate zu erhöhen, so kann man die gewonnene Freiheit zur Formung eines schon ohne Filterung frequenzbeschränkten Signals nutzen. Eine Variante davon benutzt Wavelet-Paket-Bäume.
[Bearbeiten] Übertragung im rauschgestörten Kanal
Es seien die reellen Basissignale mit einem einzelnen Index durchnummeriert und ein Zeitraum T so fixiert, dass innerhalb dieses Zeitraums D=2WT Basissignale liegen. Gleichmäßiges, auf den Übertragungskanal beschränktes Rauschen kann durch Linearkombinationen ebendieser Basissignale mit normalverteilten, voneinander unabhängigen zufälligen Koeffizienten der Varianz σ2 = N simuliert werden.
Ein Code der Länge D, d. h. ein Tupel reeller Zahlen, wird als kontinuierliches Signal gesendet. Während der Übertragung wird diesem eine Störung linear überlagert, das empfangene, gestörte Signal ist
- .
[Bearbeiten] Geometrie der Signalpunkte
Sei das Signal auf eine durchschnittliche Leistung P beschränkt, wobei Leistung direkt dem Amplitudenquadrat entspreche. Das ist zulässig, da am Ende nur Verhältnisse verschiedener Leistungen verglichen werden, weitere konstante Faktoren sich also kürzen. Da die Basissignale orthonormal sind, hat das kontinuierliche Signal die Quadratsumme seiner Koeffizienten als Leistung, d. h. .
Anders gesagt, der Code ist ein Punkt auf einer D-dimensionalen Sphäre mit Radius .
Die Quadratsumme der D voneinander unabhängigen Fehler liegt nach dem Gesetz der großen Zahlen dicht bei ihrem Erwartungswert DN. Damit liegt der empfangene Code mit sehr hoher Wahrscheinlichkeit innerhalb einer Kugel vom Radius mit dem gesendeten Code als Mittelpunkt. Da die Störungen als von Signal unabhangig vorausgesetzt werden, liegt die Quadratsumme des empfangenen Codes mit hoher Wahrscheinlichkeit nahe dem Erwartungswert , d. h. nahe der Sphäre mit dem Radius R1 um den Nullpunkt.
[Bearbeiten] Zufällige Konfiguration
Es sei eine Konfiguration von M=2DB zufällig ausgewählten Codes mit mittlerer Leistung P fixiert, welche M verschiedenen digitalen Botschaften entsprechen soll, d. h. es werden DB Bit mittels D Basissignalen oder B Bit pro Basissignal kodiert.
Von den kleinen Kugeln mit Radius um die Codes der Konfiguration passen maximal Stück in die große Kugel der empfangbaren Signale, d. h. für die maximale Bitrate gilt (mit D/2=WT)
- .
[Bearbeiten] Abschätzung des Übertragungsfehlers
Für sehr großes D liegen die gesendeten Codes auf einer Kugel mit Radius und die empfangenen Codes mit hoher Wahrscheinlichkeit in Kugeln mit Radius um diese und auf der Kugel mit Radius. Man kann also den empfangenen Code mit allen Codes aus der Konfiguration vergleichen, um den zu bestimmen, der einen Abstand kleiner r hat.
Die Fehlerkugel mit Radius r und mit Mittelpunkt auf der Sphäre der empfangenen Codes überstreicht einen Bereich in der Sphäre der gesendeten Codes, welcher seinerseits innerhalb einer Kugel mit Radius liegt. Die Wahrscheinlichkeit, dass ein zufälliger Code außerhalb dieses Bereichs liegt, ist also größer als
- .
Dass alle M-1 von dem gesendeten Code verschiedenen Codes der Konfiguration außerhalb dieses Bereichs liegen, hat also eine Wahrscheinlichkeit, die größer ist als
- .
Soll eine Fehlerwahrscheinlichkeit e unterschritten werden, d. h. obiger Ausdruck größer als 1-e sein, so erhält man nach Umstellen für die Bitrate
- .
log2(e) im zweiten Summanden ist negativ und im Betrage sehr groß, der Beitrag des zweiten Summanden kann aber beliebig klein gestaltet werden, wenn der Zeitraum T und damit auch die Mächtigkeit M der Konfiguration groß genug sind.
Damit kann, mit wachsender Länge der Signale in der Konfiguration, die Bitrate beliebig nahe an die ideale Bitrate herangeführt werden. Jedoch stellen Verwaltung der Konfiguration und das Suchen des am besten dem empfangenden ähnelnden Signals einer direkten praktischen Anwendung schnell wachsende Anforderungen entgegen.
[Bearbeiten] Siehe auch
[Bearbeiten] Weblinks
- Claude Elwood Shannon: Communication in the Presence of Noise; In: Proc. IRE, Vol. 37, No. 1 (Jan. 1949), Nachdruck in: Proc. IEEE Vol. 86, No. 2, (Feb 1998)