Lineare numerische Analysis

(Autor)

Buch | Softcover
359 Seiten
1972 | 1971
Vieweg & Teubner (Verlag)
978-3-528-08291-8 (ISBN)

Lese- und Medienproben

Lineare numerische Analysis - Noël Gastinel
49,95 inkl. MwSt
Bekanntlich kann man in Rn (oder 0") (d. h. in einem Vektorraum uber R oder 0) eine lineare Abbildung a (im. vorliegenden Kapitel werden wir allgemein diese Schreibweise verwenden) vermittels der zu dieser Transformation gehorenden Matrix A bezuglich der Fundamentalbasis PlJ = {e ea , en} von Rn definieren. 1 Die i-te Spalte von A ist a(ei). Es sei PlJ' = lei, e . . e~} eine andere Basis von 2 Rn. Einem Vektor entsprechen die Zahlen ~1' ... ~~, so daB X = ~i ei + ~2 e+ ... + ~~ e~ ist; die 2 Zahlen ~~ sind die Komponenten von X bezuglich der Basis PlJ'. Sie konnen in einer Spalte angeordnet werden, und man erhalt damit den (Spalten-)Vektor Man erkennt sogleich, wie die Komponenten von X' in Abhangigkeit von X zu berechnen sind. Es seien .. e e e e ei = P11 l + P21 a + ... + Pnl n = E Pk1 k, k=l (I) n e~ = PI .. e+ Pan e+ ... + p,." en = E Ph ek 1 a k=l ej = 1; Pkjek). Fur X ergibt sich daraus (oder k=l X = i ~iej = i ~i (i Pklek) = 1; (i Pkj~l) ek = i ~kek.

1. Elementare Eigenschaften von Matrizen.- 1.1. Allgemeine Theorie.- 1.2. Matrizenrechnung.- 2. Vektor- und Matrizennormen.- 2.1. Grundlegende Eigenschaften.- 3. Invertierung von Matrizen-Theorie.- 3.1. Lineare Unabhängigkeit von Vektoren.- 3.2. Hauptsatz über die Existenz von Lösungen eines homogenen linearen Systems mit mehr Unbekannten als Gleichungen.- 3.3. Dimension.- 3.4. Isomorphie des Rn (bzw. Cn) zu jedem Vektorraum über R (bzw. C) von endlicher Dimension n.- 3.5. Umkehrbarkeit einer linearen Abbildung von Rn in Rm (bzw. von Cn in Cm).- 3.6. Linearität der inversen Abbildung einer umkehrbaren linearen Abbildung. Inverse Matrix.- 3.7. Indikator der linearen Unabhängigkeit.- 3.8. Eigenschaften der Determinanten.- 3.9. Existenz und Konstruktion von Determinanten.- 3.10. Formeln und Definitionen.- 3.11. Notwendige und hinreichende Bedingungen für die Invertierbarkeit einer Matrix A aus ?(n,n).- 3.12. Invertierbarkeit und Norm.- 3.13. Lösung eines linearen Systems (Theorie).- 4. Direkte Lösungsmethoden für lineare Systeme.- 4.1. Diagonalsysteme.- 4.2. Dreieckssysteme.- 4.3. Invertierung von Dreiecksmatrizen.- 4.4. Allgemeiner Fall: Der Gaußsche Algorithmus oder die Methode der einfachen Elimination.- 4.5. Der Gaußsche Algorithmus zur Lösung eines linearen Systems. Einfache Elimination; Rechenschema.- 4.6. Verbesserter Gaußscher Algorithmus. Das Verfahren von Crout.- 4.7. Die Methode von Jordan (Diagonalisierungsverfahren. Vollständige Elimination).- 4.8. Orthogonalisierungsmethoden. Schmidtsches Verfahren.- 4.9. Anwendung der allgemeinen direkten Verfahren zur Invertierung einer Matrix.- 4.10. Berechnung von Determinanten.- 4.11. Systeme mit symmetrischen Matrizen.- 4.12. Teilmatrizenverfahren.- 4.13. Ergänzungsverfahren.- Aufgaben zu denKapiteln 1-4.- 5. Indirekte Lösungsmethoden.- 5.1. Iteration und Relaxation.- 5.2. Lineare Iteration.- 5.3. Iterationen durch Projektionsmethoden.- 5.4. Iterationen für Systeme mit symmetrischer Matrix.- 5.5. Bemerkungen (für den Fall nichtsymmetrischer Systeme).- 5.6. Bemerkungen zur Konvergenz und Konvergenzverbesserung.- 5.7. Verbesserung der Elemente einer inversen Matrix (Hotelmng-Bodewig).- Aufgaben zu Kapitel 5.- 6. Invariante Unterräume.- 6.1. Einführung.- 6.2. Invariante Unterräume.- 6.3. Polynomtransformationen.- 6.4. Invariante Unterräume und Polynomtransformationen.- 6.5. Diagonalform.- 6.6. Das charakteristische Polynom.- 6.7. Polynommatrizen. Elementarteiler von Polynommatrizen.- 6.8. Normalformen. Basen bezüglich einer linearen Transformation.- 6.9. Funktionen von linearen Transformationen (Matrizenfunktionen).- 7. Anwendung der Eigenschaften invarianter Unterräume.- 7.1. Der Satz von Schub und Schlußfolgerungen.- 7.2. Polare Zerlegung.- 7.3. Matrizen mit nichtnegativen Elementen.- 7.4. Graphentheorie und Matrizen mit positiven Elementen.- 7.5. Vergleich der klassischen linearen Iterationen.- 7.6. Die Young-Frankelsche Theorie der Überrelaxation.- 7.7. Die Polynommethode. Das Verfahren von Peaceman-Rachford.- 7.8. Approximation des Spektralradius einer Matrix über eine Norm.- 8. Numerische Verfahren zur Berechnung von Eigenwerten und Eigenvektoren.- 8.1. Methoden zur direkten Bestimmung der charakteristischen Gleichung.- 8.2. Bestimmung des charakteristischen Polynoms mit Hilfe von Ähnlichkeitstransformationen.- 8.3. Berechnung von Eigenwerten und Eigenvektoren durch Iterationsverfahren (für nicht notwendig symmetrische Matrizen).- 8.4. Hermitesche (bzw. symmetrische) Matrizen.- Aufgaben zu den Kapiteln 6-8.- Literatur.- Namen- undSachverzeichnis.

Erscheint lt. Verlag 1.1.1972
Reihe/Serie Logik und Grundlagen der Mathematik
Zusatzinfo 359 S.
Verlagsort Wiesbaden
Sprache deutsch
Maße 170 x 244 mm
Gewicht 620 g
Themenwelt Mathematik / Informatik Mathematik Algebra
Mathematik / Informatik Mathematik Analysis
Schlagworte Analysis • Determinanten • Differenzialgleichung • Ebene • Eigenvektor • Eigenwert • Hilbert-Raum • lineare Abbildung • Lineare Unabhängigkeit • Matrix • matrix theory • Matrizen • Minimum • Skalarprodukt • Unterräume • Vektoren
ISBN-10 3-528-08291-7 / 3528082917
ISBN-13 978-3-528-08291-8 / 9783528082918
Zustand Neuware
Haben Sie eine Frage zum Produkt?
Mehr entdecken
aus dem Bereich