Theorie Der Informationsübertragung - Alexandru Spǎtaru

Theorie Der Informationsübertragung

Signale und Störungen
Buch | Softcover
696 Seiten
1973 | 1. Softcover reprint of the original 1st ed. 1973
Vieweg & Teubner (Verlag)
978-3-528-08318-2 (ISBN)
54,99 inkl. MwSt
Aus dem klassischen Gebiet der Schwachstromtechnik, deren wesentlichste BestandteiIe Akustik, Fernmeldetechnik und Hochfrequenztechnik waren, hat sich nach einem DifferenzierungsprozeB, in dem neue TeiIdisziplinen, wie Hochstfrequenztechnik, Regelungstechnik, Halbleitertechnik und Rechentech nik entstanden, wieder auf hoherer Stufe ein neues, einheitliches Wissensgebiet entwickelt. Die gemeinsame Grundlage ist die Erzeugung, Wandlung, "Obertragung, Ver arbeitung und Auswertung von Infonnation. Informations-, Signal-und Sy stemtheorie, Theorie der Modulation und Kodierung, Automatentheorie, Ent scheidungstheorie und Festkorperphysik sind die neuen theoretischen Grund lagen fiir Elektronik, Automatisierungs-und Informationstechnik. Mit der Verkniipfung des Informationsbegriffs mit der Wahrscheinlichkeit durch SHANNON hat die Wahrscheinlichkeitsrechnung als mathematische Grund {age neben der Analysis einen festen Platz in der Theorie der Informationstech nik eingenommen. Die modeme Algebra schlieBt sich an. Diesen raschen Wandel in den Grundlagen und Betrachtungsweisen iiber schaubar darzulegen und in verstandlicher Form zuganglich zu machen, ist das Anliegen des Verfassers. Professor SPA-TARU hat sich der miihevollen und dan kenswerten Aufgabe unterzogen, mit dem vorliegenden Band Tkeorie der In/or matio'fll8iibertragu'1I{I-SigMle und StOru'1l{len ein ordnendes und systematisieren des Lehrbuch fiir dieses Gebiet, aufbauend auf eigener praktischer Tatigkeit in der Lehre und Forschung, zu schaffen. Den vielen bereits praktisch auf diesem Gebiet Tatigen, aber auch den neu Hinzukommenden, den Studierenden, wird das Buch wertvolle Unterstiitzung beim Eindringen in die Probleme der Informationsiiliertragung sein. September 1972 PETER FEY VORWORT Die Wissenschaft gestattet in ihrem standigen Fortschritt durch Akkumula tion neuer Tatsachen, durch Deutung derselben und durch Erweiterung des Prozesses der Verallgemeinerung die Feststellung von gemeinsamen Merkmalen fur Ficher, die beim ersten Anblick sehr weit voneinander liegen.

1. Einleitung.- 1.1. Terminologie.- 1.2. Modell eines Systems zur Informationsübertragung.- 1.3. Aufgaben eines Systems zur Informationsübertragung.- 2. Grundbegriffe der Wahrscheinlichkeitsrechnung.- 2.1. Ereignisse.- 2.1.1. Definierung einiger Operationen der Ereignis-Algebr.- 2.2. Definition der Wahrscheinlichkeit.- 2.2.1. Klassische Definition der Wahrscheinlichkeit.- 2.2.2. Geometrische Definition der Wahrscheinlichkeit.- 2.2.3. Axiomatische Definition der Wahrscheinlichkeit.- 2.2.4. Definition der bedingten Wahrscheinlichkeit.- 2.2.5. Definition der totalen Wahrscheinlichkeit.- 2.2.6. Formel von BAYES.- 2.2.7. Zuverlässigkeit der Systeme in einem gegebenen Zeitintervall.- 2.3. Zufällige Veränderliche.- 2.3.1. Merkmalsraum.- 2.3.2. Grundlegende Gesetzmäßigkeiten.- 2.4. Diskrete zufällige Veränderliche, diskrete Verteilungen und Verteilungsfunktionen für diskrete Veränderliche.- 2.4.1. Verteilungen erster Ordnung.- 2.4.2. Verteilungen zweiter Ordnung.- 2.4.3. Bedingte Verteilungen.- 2.4.4. Asymptotische Entwicklung nach LAPLACE.- 2.4.5. Integralsatz von LAPLACE.- 2.4.6. PoIssoNsches Verteilungsgesetz (Satz seltener Ereignisse).- 2.5. Kontinuierliche zufällige Veränderliche.- 2.5.1. Verteilungsfunktionen, Wahrscheinlichkeitsdichte.- 2.5.2. Wahrscheinlichkeitsdichte der diskreten zufälligen Veränderlichen.- 2.5.3. Uniforme Verteilung.- 2.5.4. Normalverteilung (GAUSS-Verteilung).- 2.5.5. CAUCHY-Verteilung.- 2.5.6. Exponential-Verteilung.- 2.5.7. Gemischte (kontinuierlich-diskrete) Verteilungen.- 2.5.8. Verteilungen zweier kontinuierlicher zufälliger Veränderlichen.- 2.5.9. Kontinuierliche bedingte Verteilungen.- 2.5.10. Normalverteilung zweier zufälliger Veränderlichen.- 2.6. Momente der zufälligen Veränderlichen.- 2.7. Funktionen der zufälligenVeränderlichen (Transformationen der zufälligen Veränderlichen).- 2.7.1. Fall einer einzigen zufälligen Veränderlichen.- 2.7.2. Fall zweier zufälliger Veränderlichen.- 2.7.3. Transformation der kartesischen Koordinaten in Polarkoordinaten.- 2.7.4. R?YLEIGH-Verteilung.- 2.8. Mittelwerte der Funktionen von zufälligen Veränderlichen.- 2.8.1. Mittelwert der Funktion ? = f (?).- 2.8.2. Mittelwert der Summe.- 2.8.3. Mittelwert des Produktes von zwei zufälligen Veränderlichen.- 2.8.4. Korrelationskoeffizient.- 2.8.5. Lineare Unabhängigkeit und statistische Unabhängigkeit.- 2.8.6. Dispersion der Summe von zwei zufälligen Veränderlichen.- 2.9. Charakteristische Funktionen.- 2.9.1. Einige Eigenschaften der charakteristischen Funktion.- 2.9.2. Charakteristische Funktionen einiger Verteilungen.- 2.9.3. Wahrscheinlichkeitsdichte der Summe von unabhängigen zufälligen Veränderlichen.- 2.10. Zentraler Grenzwertsatz.- 2.10.1. Die Summe von Zeigern mit zufälliger Phase und Amplitude.- 2.11. TSCHEBYSCHEFFsche Ungleichung.- 2.12. Gesetz großer Zahlen.- 2.13. Konvergenz von zufälligen Veränderlichen.- 2.13.1. Konvergenz in Wahrscheinlichkeit.- 2.13.2. Konvergenz im quadratischen Mittel.- 3. Deterministische Signale.- 3.1. Darstellung deterministischer Signale ..- 3.2. Darstellung periodischer Signale.- 3.2.1. Reihenentwicklung der periodischen Signale nach FOURIER.- 3.2.2. Korrelationsfunktion periodischer Signale.- 3.2.3. Autokorrelationsfunktion periodischer Signale.- 3.2.4. Eigenschaften der Autokorrelationsfunktion periodischer Signale.- 3.2.5. Spektraldichte und Leistungsspektraldichte periodischer Funktionen.- 3.2.6. Faltungssatz periodischer Funktionen.- 3.3. Darstellung nichtperiodischer Signale.- 3.3.1. FOURIER- und LAPLACE-Transformationen.- 3.3.2. EinigeEigenschaften der FOURIER-Transformierten.- 3.3.3. Korrelationsfunktion und Spektraldichte der Energie nichtperiodischer Signale.- 3.3.4. Autokorrelationsfunktion nichtperiodischer Signale.- 3.3.5. Eigenschaften der Autokorrelationsfunktion nichtperiodischer Signale.- 3.3.6. Kurzzeitspektren.- 3.3.7. Faltungssatz nichtperiodischer Funktionen.- 3.3.8. Abtasttheorem (Probensatz).- 3.3.9. Eigenschaften der Spaltfunktion.- 3.3.10. Energie des Signals als Funktion der diskreten Werte in den Abtastpunkten.- 3.4. Analytisches Signal.- 3.4.1. Bestimmung des analytischen Signals, das einem gegebenen Signal zugeordnet ist.- 3.4.2. Momentanamplitude und Momentanphase.- 3.4.3. Momentanfrequenz.- 3.4.4. Abtasttheorem für Signale, deren Spektrum nicht bei Null beginnt.- 3.5. Lokalisierung des Signals im Zeit- und Frequenzbereich.- 3.5.1. Lokalisierung des Signals im Zeitbereich.- 3.5.2. Lokalisierung des Signals im Frequenzbereich.- 3.5.3. Beispiele.- 3.6. Bandbreite und Dauer der Signale.- 3.6.1. Beziehungen zwischen Bandbreite und Dauer des Signals.- 4. Zufällige Signale.- 4.1. Der Begriff des zufälligen Signals.- 4.2. Typen von zufälligen Signalen.- 4.3. Statistische und zeitliche Mittelwerte der zufälligen Signale.- 4.3.1. Statistische Mittelwerte (Scharmittelwerte).- 4.3.2. Zeitliche Mittelwerte.- 4.4. Gemischte Signale.- 4.5. Stationäre Signale.- 4.6. Klassifikation zufälliger Signale.- 4.6.1. Rein zufälliges Signal.- 4.6.2. Einfache MABKOFF-Prozesse.- 4.6.3. Ergodische Prozesse.- 4.7. Experimentelle Bestimmung der Wahrscheinlichkeitsverteilungsfunktion.- 4.8. Stetigkeit zufälliger Signale.- 4.9. Differentiation zufälliger Signale.- 4.10. Integration zufälliger Signale.- 4.11. Leistungsspektraldichte und Theorem von WIENER-CHINTSCHIN.- 4.12. Leistungsspektraldichteund Autokorrelationsfunktion der Ableitung des Signals.- 4.13. Leistungsspektraldichte und Autokorrelationsfunktion des Integrals des Signals.- 4.14. Leistungsspektraldichte gemischter Signale.- 4.15. Eigenschaften der Autokorrelationsfunktion.- 4.16. Zufällige periodische Signale.- 4.17. Orthogonale Reihenentwicklung nichtperiodischer zufälliger Signale.- 4.17.1. Reihenentwicklung nach FOTJREER.- 4.17.2. Reihenentwicklung in Spaltfunktionen.- 4.17.3. Reihenentwicklung mit unkorrelierten Koeffizienten.- 4.18. Schmalbandige Signale ..- 4.19. Breitbandige Signale.- 4.20. GAUSS-Signal.- 4.21. Schmalbandiges GAUSS-Signal.- 5. Signalraum und Signal-Flußdiagramme.- 5.1. Vektorräume.- 5.1.1. HILBERT-Raum L2.- 5.1.2. EUKLIDischer Raum Rn.- 5.1.3. Raum l2.- 5.2. Darstellung der Signale.- 5.2.1. Darstellung der Signale im Raum Rn.- 5.2.2. Wahrscheinlichkeitsdichte im Raum Rn.- 5.3. Funktionaloperator.- 5.4. Signal-Flußdiagramme.- 5.4.1. Elementare Äquivalenzen.- 5.4.2. Äquivalenz von Schleifen.- 5.4.3. Absorption der Knotenpunkte.- 5.4.4. Reduktion der Graphen.- 5.4.5. Allgemeine Signal-Flußdiagramme.- 5.4.6. Transmittanz des Graphen.- 5.4.7. Bahn und Masche.- 5.4.8. Aufspaltung eines Knotenpunktes.- 5.4.9. Maschentransmittanz eines Knotenpunktes und Maschentransmittanz eines Zweiges.- 5.4.10. Determinante des Graphen.- 5.4.11. Darstellung der Determinante des Graphen als Funktion der Transmittanzen der Maschen.- 5.4.12. Allgemeine Darstellung der Transmittanz des Graphen.- 6. Lineare stationäre Systeme.- 6.1. Beschreibung linearer stationärer Systeme.- 6.1.1. Bestimmung des Operators ? im Frequenzbereich.- 6.1.2. Bestimmung des Operators ? im Zeitbereich.- 6.2. Stabilität und Realisierbarkeit.- 6.2.1. Stabile Systeme.- 6.2.2. Realisierbare Systeme.- 6.2.3.Physikalisch realisierbare Systeme.- 6.3. Bestimmung der Übertragungsfunktion aus der Lage der Pole und Nullstellen.- 6.3.1. Betrag und Phase der Übertragungsfunktion.- 6.3.2. Klassifikation der Übertragungsfunktion nach Lage der Pole und Nullstellen.- 6.4. Sätze von BODE.- 6.5. Dämpfung und Phase der Übertragungsfunktionen.- 6.5.1. Ideales Tiefpaßfilter.- 6.5.2. GAUSS-Filter.- 6.5.3. Filter mit der Amplitudencharakteristik $$left| {{{sin omega tau } over {omega tau }}} right|,{rm{und}},{{{{sin }^2}omega tau } over {{{left( {omega tau } right)}^2}}}$$.- 6.6. Laufzeit und Gruppenlaufzeit.- 6.7. Ideale, nichtverzerrende Systeme.- 6.8. Ideale Filter.- 6.8.1. Idealer Tiefpaß.- 6.8.2. Idealer Bandpaß.- 6.8.3. RC-Filter.- 6.8.4. Mittelwertbildendes Filter.- 6.8.5. Angepaßtes Filter.- 6.8.6. Wirkung der Nichtlinearität der Phase auf das übertragene Signal.- 6.9. Übertragung zufälliger Signale durch lineare Systeme.- 6.9.1. Autokorrelationsfunktion des Ausgangssignals.- 6.9.2. Leistungsspektraldichte des Ausgangssignals.- 6.9.3. Übertragung von weißem Kauschen durch lineare Systeme.- 6.9.4. Rauschersatzbandbreite.- 6.9.5. Korrelationsdauer.- 6.9.6. Übertragung GAtrssscher Signale durch lineare Systeme.- 6.9.7. Messung der Korrelationsfunktion.- 6.9.8. Messung der Leistungsspektraldichte.- 6.9.9. Bestimmung durch Kreuzkorrelation der Impulsantwort eines linearen Systems.- 7. Lineare zeitvariable Systeme.- 7.1. Beschreibung linearer zeitvariabler Systeme.- 7.1.1. Impulsantwort.- 7.1.2. Übertragungsfunktion zeitvariabler Systeme.- 7.2. Diskrete lineare zeitvariable Systeme.- 7.2.1. ?-Transformation.- 7.2.2. ?-Rücktransformation.- 7.2.3. Beziehungen zwischen der LAPLACE- und der ?-Transformation.- 7.2.4. Einige Eigenschaften der?-Transformation.- 7.2.5. Diskrete Übertragungsfunktion H(z).- 7.2.6. Modifizierte ?-Transformation.- 7.2.7. Modifizierte ?-Rücktransformation.- 8. Nichtlineare Systeme.- 8.1. Klassifikation nichtlinearer Systeme.- 8.1.1. Nichtlineare Systeme ohne Speicherelemente.- 8.1.2. Nichtlineare trennbare Systeme mit Speicherelementen.- 8.1.3. Nichtlineare untrennbare Systeme mit Speicherelementen.- 8.2. Beschreibung des nichtlinearen Systems im Zeitbereich.- 8.2.1. Bedingung für die Trennbarkeit des Systems.- 8.3. Beschreibung des nichtlinearen Systems im Frequenzbereich.- 8.4. Übertragung zufälliger Signale durch nichtlineare Systeme.- 8.4.1. Direktes Verfahren.- 8.4.2. Verfahren der charakteristischen Funktionen.- 9. Störungen.- 9.1. Klassifikation der Störungen.- 9.1.1. Klassifikation additiver Störungen.- 9.1.2. Störungsfreie ideale Kanäle.- 9.2. Impulsrauschen.- 9.2.1. Darstellung des Impulsrauschens.- 9.2.2. Allgemeine Eigenschaften des Impulsrauschens.- 9.3. Fluktuationsrauschen.- 9.3.1. Darstellung des Fluktuationsrauschens.- 9.3.2. Statistische Eigenschaften des Fluktuationsrauschens.- 9.3.3. Spitzenwert des Fluktuationsrauschens.- 9.3.4. Thermisches Rauschen.- 9.3.5. Rauschfaktor.- 9.3.6. Quasi-GAUSSsches Rauschen.- 10. Modulation.- 10.1. Modulation mit sinusförmigem Träger.- 10.2. Modulation mit pulsförmigem Träger.- 10.2.1. Impulsmodulation ohne Quantisierung.- 10.2.2. Impulsmodulation mit Quantisierung.- 10.3. Störungsstabilität.- 11. Lineare Modulation.- 11.1. Definition eines Modulationsoperators im Zeitbereich.- 11.1.1. Amplitudenmodulation (AM).- 11.1.2. Definition eines Modulationsoperators im Frequenzbereich.- 11.1.3. Darstellung linear modulierter Signale im Frequenzbereich.- 11.1.4. Darstellung linear modulierter Signale imZeitbereich.- 11.2. Modulatoren.- 11.2.1. Modulatoren für Amplitudenmodulation (AM).- 11.2.2. Modulatoren für AM mit unterdrücktem Träger.- 11.2.3. Modulatoren für ESB-AM.- 11.3. Demodulation linear modulierter Signale.- 11.3.1. Hüllkurvendemodulation.- 11.3.2. Produkt-Demodulation.- 11.4. Demodulatoren.- 11.4.1. Hüllkurvendemodulatoren.- 11.4.2. Produktdemodulatoren.- 11.5. Störungen in Systemen mit linearer Modulation.- 11.5.1. Überlagerungsstörungen in Systemen mit linearer Modulation.- 11.5.2. Rauschen in Systemen mit linearer Modulation.- 11.6. Antwort linearer Systeme auf amplitudenmodulierte Signale.- 11.6.1. Verzerrungen linear modulierter Signale beim Durchgang durch lineare Filter.- 12. Exponentielle Modulation.- 12.1. Darstellung exponential modulierter Signale (EM).- 12.1.1. Begriff der Momentanfrequenz.- 12.1.2. Spektrum des mit einer sinusförmigen Nachricht exponentialmodulierten Signals.- 12.1.3. Mittlere Leistung des exponential modulierten Signals.- 12.1.4. Bandbreite der exponential modulierten Signale.- 12.1.5. Spektrum eines exponential modulierten Signals für eine aus einer Summe von sinusförmigen Schwingungen bestehende Nachricht.- 12.1.6. Spektrum eines exponential modulierten Signals, für eine aus einer Rechteck-impulsfolge bestehende Nachricht.- 12.1.7. Schlußfolgerungen bezüglich der Bandbreite exponential modulierter Signale.- 12.2. Modulatoren für exponentielle Modulation.- 12.2.1. Modulatoren mit Reaktanztransistoren.- 12.2.2. Frequenzmodulierte Oszillatoren.- 12.3. Antwort linearer Systeme auf exponentialmodulierte Signale.- 12.3.1. Idealer Diskriminator.- 12.3.2. Begrenzer.- 12.3.3. Diskriminatoren.- 12.4. Quasistationärer Betrieb.- 12.4.1. Berechnung der Verzerrungen im Fall eines quasi stationären Betriebes.- 12.5.Störungen in Systemen mit exponentieller Modulation.- 12.5.1. Überlagerungen in Systemen mit exponentieller Modulation.- 12.5.2. Rauschen in Systemen mit exponentieller Modulation.- 13. Pulsmodulation.- 13.1. Abtastung der Signale.- 13.1.1. Abtastsignale.- 13.1.2. Darstellung von mit der DIRACschen ?-Funktion abgetasteten Signalen.- 13.1.3. Darstellung von mit der periodischen rechteckförmigen Funktion abgetasteten Signalen.- 13.1.4. Quadratischer Mittelwert der diskreten Ordinaten einer Nachricht.- 13.1.5. Gleichmäßige Abtastung und natürliche Abtastung.- 13.2. Spektrum der amplitudenmodulierten Impulse (PAM).- 13.2.1. Spektrum amplitudenmodulierter Impulse im Falle gleichmäßiger Abtastung.- 13.2.2. Spektrum amplitudenmodulierter Impulse im Falle der natürlichen Abtastung.- 13.3. Spektrum der mit einer sinusförmigen Nachricht phasenmodulierten Impulse.- 13.3.1. Spektrum der phasenmodulierten Impulse im Falle gleichmäßiger Abtastung.- 13.3.2. Spektrum der phasenmodulierten Impulse im Falle natürlicher Abtastung.- 13.4. Spektrum der mit einer sinusförmigen Nachricht dauermodulierten Impulse.- 13.4.1. Spektrum der dauermodulierten Impulse im Falle gleichmäßiger Abtastung.- 13.4.2. Spektrum der dauermodulierten Impulse im Falle natürlicher Abtastung.- 13.5. Schlußfolgerungen.- 13.6. Pulsmodulatoren.- 13.6.1. Pulsamplitudenmodulatoren (PAM).- 13.6.2. Pulsdauermodulatoren (PDM).- 13.6.3. Pulsphasenmodulatoren (PPM).- 13.7. Pulsdemodulatoren.- 13.7.1. Demodulatoren für amplitudenmodulierte Impulse (PAM) ..- 13.7.2. Demodulatoren für dauermodulierte Impulse (PDM).- 13.7.3. Demodulatoren für phasenmodulierte Impulse (PPM).- 13.8. Störabstand in Systemen mit Pulsamplitudenrnodulation (PAM).- 13.8.1. Störabstand im Falle idealer Abtastung im Empfänger(PAM).- 13.8.2. Störabstand im Falle gleichmäßiger Abtastung.- 13.8.3. Störabstand im Falle natürlicher Abtastung.- 13.9. Störabstand in Systemen mit Pulsphasen- oder Pulsdauermodulation (PPM oder PDM).- 13.9.1. Störabstand im Falle weißen Rauschens (PPM-AM).- 13.9.2. Störabstand im Falle dreieckförmigen Rauschens (PPM-FM).- 13.9.3. Vergleich zwischen der Übertragung von PPM oder PDM durch Amplituden-oder Frequenzmodulation.- 13.9.4. Vergleich zwischen PPM und PDM.- 13.10. Pulskodemodulation (PCM).- 13.10.1. Gleichmäßige Quantisierung.- 13.10.2. Exponentielle Quantisierung.- 13.10.3. Realisierung der gleichmäßigen Quantisierung.- 13.10.4. Realisierung der exponentiellen Quantisierung.- 13.10.5. Bandbreite der pulskodemodulierten Signale.- 13.10.6. Realisierung der Pulskodemodulation.- 13.10.7. Rauschen, verursacht durch Übertragungsfehler.- 13.10.8. Gesamter Störabstand.- 13.10.9. Deltamodulation.- 14. Multiplexübertragung.- 14.1. Phasenmultiplex-Systeme.- 14.1.1. Übersprechen zwischen Kanälen.- 14.1.2. Synchronisierung.- 14.2. Frequenzmultiplex-Systeme.- 14.2.1. ESB-AM System.- 14.2.2. ESB-AM-FM System.- 14.2.3. FM-FM-System.- 14.3. Zeitmultiplex-Systeme.- 14.3.1. Analoge Multiplex Systeme.- 14.3.2. Digitale Multiplex-Systeme.- 15. Maß der Information in diskreten Signalen.- 15.1. Maß der Information im diskreten Fall.- 15.1.1. Bestimmung der Funktion U.- 15.1.2. Maßeinheit der Information.- 15.2. Diskrete Quellen.- 15.2.1. Einschränkungslose diskrete Quelle.- 15.2.2. Diskrete Quelle mit festen Einschränkungen.- 15.2.3. Diskrete Quelle mit Wahrscheinlichkeits- Einschränkungen.- 15.3. Entropie.- 15.3.1. Eigenschaften der Entropie.- 15.3.2. Informationsfluß und Redundanz der Quelle.- 15.3.3. Primärquellen und Sekundärquellen.- 15.4. DiskreteKanäle.- 15.4.1. Entropie am Eingang und am Ausgang des Kanals.- 15.4.2. Bedingte Entropie.- 15.4.3. Beziehungen zwischen verschiedenen Entropien.- 15.4.4. Transinformation.- 15.4.5. Graphische Darstellung der Beziehungen zwischen den Entropien.- 15.5. Kapazität des diskreten Kanals, Redundanz, Wirkungsgrad.- 15.5.1. Kapazität des diskreten ungestörten Kanals.- 15.5.2. Fundamentalsatz der Kodierung für ungestörte Kanäle.- 15.5.3. Kapazität des diskreten gestörten Kanals.- 15.5.4. Kapazität des binären Kanals.- 15.5.5. Symmetrisch gestörte Kanäle.- 15.5.6. Fundamentalsatz der Kodierung für gestörte Kanäle.- 16. Maß der Information in kontinuierlichen Signalen.- 16.1. Transinformation im kontinuierlichen Fall.- 16.2. Entropie im kontinuierlichen Fall.- 16.2.1. Veränderung der Entropie im kontinuierlichen Fall bei Transformation des Koordinatensystems.- 16.3. Invarianz der Transinformation im Fall linearer Transinformationen.- 16.4. Entropie pro Freiheitsgrad und Entropiefluß.- 16.4.1. Entropie und Transinformation pro Freiheitsgrad im Fall unabhängiger diskreter Ordinaten.- 16.5. Kanäle mit additiven Störungen.- 16.6. Kapazität des kontinuierlichen Kanals.- 16.6.1. Kapazität des Kanals mit additiven Störungen.- Anhang I. Einheitssprungfunktion und DIRACsche ?-Funktion.- Anhang II. HILBERT-Transformation.- Anhang III. Isoperimetrisches Problem der Variationsrechnung, angewendet auf die Entropien.- Tabellen.- Schrifttum.- Sach Wörterverzeichnis.

Erscheint lt. Verlag 1.1.1973
Zusatzinfo 696 S. 335 Abb.
Verlagsort Wiesbaden
Sprache deutsch
Maße 170 x 244 mm
Gewicht 1225 g
Themenwelt Informatik Software Entwicklung User Interfaces (HCI)
Mathematik / Informatik Informatik Theorie / Studium
Mathematik / Informatik Mathematik Finanz- / Wirtschaftsmathematik
Schlagworte Algebra • Automaten • Automatentheorie • Grundbegriffe • Informationstechnik (IT)
ISBN-10 3-528-08318-2 / 3528083182
ISBN-13 978-3-528-08318-2 / 9783528083182
Zustand Neuware
Haben Sie eine Frage zum Produkt?
Mehr entdecken
aus dem Bereich
Aus- und Weiterbildung nach iSAQB-Standard zum Certified Professional …

von Mahbouba Gharbi; Arne Koschel; Andreas Rausch; Gernot Starke

Buch | Hardcover (2023)
dpunkt Verlag
34,90