Statistische Nachrichtentheorie

Erster Teil: Signalerkennung und Parameterschätzung
Buch | Softcover
VIII, 184 Seiten
1973
Springer Berlin (Verlag)
978-3-540-06499-2 (ISBN)

Lese- und Medienproben

Statistische Nachrichtentheorie - Kristian Kroschel
49,95 inkl. MwSt
zur Neuauflage
  • Titel erscheint in neuer Auflage
  • Artikel merken
Zu diesem Artikel existiert eine Nachauflage
Bei der Signalerkennung oder Detektion kennt man drei Kriterien: das Bayes-Kriterium, das Neyman-Pearson Kriterium und das Kriterium nach dem Maximum-a-posteriori-Prinzip (MAP). Das Wichtigste ist das Kriterium nach dem MAP-Prinzip, bei dem die Fehlerwahrscheinlich keit zum Minimum gemacht wird. Die beiden anderen Kriterien spie len nur bei Sonderfgllen der Detektion - z. B. in der Radartechni- eine Rolle. Der Grund dafUr liegt an der Schwierigkeit, sinnvolle Kosten fUr die vie len m5glichen Entscheidungen (Bayes-Kriterium) bzw. mehrere Arten von Fehlalarmwahrscheinlichkeiten bei multipler Detektion anzugeben. Bei allen Kriterien wird bei bingrer Detek tion das Likelihood-Verhgltnis gebildet, das mit einer yom Krite rium abhgngigen Schwelle zu vergleichen ist. Bei multipler Detektion wird die Entscheidungsregel bei gauBschen St5rungen und gleichen A-priori-Wahrscheinlichkeiten fUr das Kri terium nach dem MAP-Prinzip besonders einfach: Man hestimmt den Abstand zwischen dem gest5rten Empfangsvektor und allen SiRnal vektoren und entscheidet, daB dasjenige Signal gesendet wurde, dessen Vektor den geringsten Abstand zum Empfangsvektor besitzt. Die Fehlerwahrscheinlichkeit hgngt nur von der relativen Lage der Signalvektoren zueinander, nicht jedoch yom Abstand zum Koordina tenursprung abo Diesen Freiheitsgrad nutzt man dazu aus, urn bei vorgegebener Fehlerwahrscheinlichkeit diejenige Konfiguration von Signalvektoren mit minimaler mittlerer Signalenergie zu finden.

Kristian Kroschel studierte an den Universitäten Karlsruhe und Erlangen-Nürnberg Elektrotechnik mit dem Schwerpunkt Nachrichtentechnik. An der Universität Karlsruhe wurde er 1971 zum Dr.-Ing. promoviert. 1974 erfolgte seine Habilitation für das Fach Nachrichtentechnik an der Fakultät für Elektrotechnik und Informationstechnik der Universität Karlsruhe. Bis 2008 lehrte er dort als Professor und ist seitdem am Fraunhofer Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) in Karlsruhe als wissenschaftlicher Berater tätig. Daneben hält er Kurse in der Industrie zu Themen der digitalen Signalverarbeitung und Informationsübertragung, mit denen sich auch seine über 100 Publikationen befassen.

0. Aufgaben der statistischen Nachrichtentheorie.- 0.1 Detektion.- 0.2 Estimation.- 0.3 Entwurfsansätze.- 1. Grundbegriffe der statistischen Systemtheorie.- 1.1 Begriffe der Statistik.- 1.2 Transformationen von Zufallsvariablen und Prozessen.- 2. Signaldarstellung durch Vektoren.- 2.1 Darstellung von Prozessen durch Vektoren.- 2.2 Vektordarstellung von M Signalen.- 2.2.1 Gram-Schmidt-Verfahren.- 2.3 Irrelevante Information.- 2.4 Vektorkanäle.- 2.5 Zusammenfassung.- 3. Signalerkennung (Detektion).- 3.1 Binäre Detektion.- 3.1.1 Bayes-Kriterium.- 3.1.2 Maximum-a-posteriori-Kriterium (MAP).- 3.1.3 Neyman-Pearson-Kriterium.- 3.1.4 Empfängercharakteristik (ROC).- 3.2 Multiple Detektion.- 3.2.1 MAP-Prinzip für multiple Detektion.- 3.2.2 Entscheidungsregel bei Gaußprozessen.- 3.2.3 Wahl der Signalvektoren.- 3.2.3.1 Rechtwinklige Signalvektorkonfigurationen.- 3.2.3.2 Orthogonale und damit verwandte Signalvektorkonfigurationen.- 3.2.4 Abschätzung der Fehlerwahrscheinlichkeit.- 3.2.5 Vergleich der Signalvektorkonfigurationen.- 3.3 Realisierung der Empfänger für die Detektion.- 3.4 Zusammenfassung.- 4. Parameterschätzung (Estimation).- 4.1 Schätzung von Parametern mit bekannter Dichtefunktion (Bayes-Kriterium).- 4.1.1 Kostenfunktion des quadratischen Fehlers.- 4.1.2 Kostenfunktion des absoluten Fehlers.- 4.1.3 Kostenfunktion mit konstanter Bewertung großer Fehler.- 4.2 Invarianz des optimalen Schätzwertes bezüglich einer Klasse von Kostenfunktionen.- 4.3 Schätzung von Parametern ohne jede A-priori-Information.- 4.3.1 Maximum-likelihood-Estimation.- 4.3.2 Minimale Fehlervarianz.- 4.4 Mittlerer quadratischer Fehler. Parameter mit bekannter A-priori-Dichte.- 4.5 Multiple Parameterestimation.- 4.5.1 Schätzverfahren.- 4.5.1.1 Parametervektor mit bekannter A-priori- Dichte.- 4.5.1.2 Parametervektor ohne A-priori-Information.- 4.5.2 Schätzfehler.- 4.5.2.1 Minimale Fehlervarianzen, Parametervektor ohne A-priori-Information.- 4.5.2.2 Mittlerer quadratischer Fehler. Parametervektor mit bekannter A-priori- Dichte.- 4.6 Lineare Schätzeinrichtungen.- 4.6.1 Gauß-Markoff-Theorem.- 4.6.2 Geometrische Interpretation des Gauß-Markoff- Theorems.- 4.6.3 Additive unkorrelierte Störungen.- 4.6.4 Parametervektor ohne A-priori-Information.- 4.6.5 Verbesserung der Schätzwerte.- 4.6.6 Verbesserte Schätzwerte: Kaiman Formeln.- 4.7 Zusammenfassung.- Aufgaben mit Lösungen.- Namen- und Sachverzeichnis.

Erscheint lt. Verlag 22.10.1973
Reihe/Serie Hochschultexte / Universitexts
Zusatzinfo VIII, 184 S.
Verlagsort Berlin
Sprache deutsch
Maße 178 x 254 mm
Gewicht 400 g
Themenwelt Mathematik / Informatik Informatik Netzwerke
Technik Elektrotechnik / Energietechnik
Technik Nachrichtentechnik
Schlagworte Information • Nachricht • Statistik • Systemtheorie • Verfahren
ISBN-10 3-540-06499-0 / 3540064990
ISBN-13 978-3-540-06499-2 / 9783540064992
Zustand Neuware
Haben Sie eine Frage zum Produkt?
Mehr entdecken
aus dem Bereich
Ein einführendes Lehrbuch

von Wolfgang Riggert; Ralf Lübben

Buch | Hardcover (2022)
Hanser, Carl (Verlag)
34,99
das umfassende Handbuch für den Einstieg in die Netzwerktechnik

von Martin Linten; Axel Schemberg; Kai Surendorf

Buch | Hardcover (2023)
Rheinwerk (Verlag)
29,90