1 / 12

Seminarthema 4 Numerische Methoden der Eigenwertberechnung

Seminarthema 4 Numerische Methoden der Eigenwertberechnung Von: Robert Schirmer Matnr.: 41460 Betreuer: Prof.Dr Eiermann. Inhalt: . „von-Mises“ - Verfahren Inverse Iteration shifted Inverse Iteration. von-Mises Verfahren / Power-Methode Voraussetzungen: (V1) A (n x n)

Download Presentation

Seminarthema 4 Numerische Methoden der Eigenwertberechnung

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Seminarthema 4 Numerische Methoden der Eigenwertberechnung Von: Robert Schirmer Matnr.: 41460 Betreuer:Prof.Dr Eiermann

  2. Inhalt:  „von-Mises“ - Verfahren Inverse Iteration shifted Inverse Iteration

  3. von-Mises Verfahren / Power-Methode • Voraussetzungen: • (V1) • A (n x n) • A diagonalisierbar <=>es gibt eine Basis des aus Eigenvektoren von A • (V2) jeder Vektor aus als Linearkombination dieser Basisvektoren

  4. Verfahren: man wählt beliebigen Startvektor und bildet Iterationsfolge , , . . . nach (V2): da gilt

  5. Verfahren iterativ fortsetzen umstellen:

  6. Was passiert wenn ? laut (V1) folgt => man erhält also ein Vielfaches des Eigenvektors zum zugehörigen Eigenwert Folgerung: ðvon Mises Verfahren liefert betragsgrößten EW ð      falls deshalb verwendet man stets normierte da so folgt: konvergiert gegen normierten EV zum EW -> siehe späteres MATLAB Bsp.

  7. Wie erhält man Eigenwert? Durch Rayleigh-Quotienten: Beweis: Konvergenzgeschwindigkeit des Verfahrens ist sehr gering falls (da so nur langsam gegen NULL strebt) es konvergiert umso schneller, je kleiner ist

  8. Algorithmus: i=0 repeat until Konvergenz (normierter EV) (EW) Siehe „Mises.m“

  9. Inverse Iteration • Nun Suche nach dem betraglich kleinsten EW • Macht sich zunutze • wenn • so • da beim von-Mises-Verfahren der betraglich größte EW war, so ist nun der betraglich kleinste EW • es ist also zu lösen: • da man nicht die Inverse berechnen will stellt man um und erhält: • bei jedem Iterationsschritt ist also ein Gleichungssystem zu lösen

  10. 1 0.8782 0.8600 0.8534 0.8528 0.8526 0.8526 0 -0.1484 -0.2105 -0.2126 -0.2140 -0.2140 -0.2141 0 0.4205 0.4068 0.4150 0.4148 0.4149 0.4149 0 0.1732 0.2250 0.2330 0.2345 0.2348 0.2348 Beispiel: Es gilt zu beachten das nach jedem Schritt wieder normiert wurde durch: , da sonst sehr groß werden könnten. durch Rayleigh erhält man den EW beim 6. Schritt: 0.4978

  11. Shifted Inverse Iteration Diese oben genannte Verfahren kann man nun noch erweitern: Nehmen wir an wir suchen einen EW in der Umgebung von Wir bedienen uns dem Shiften : man erhält EW durch Inverse Iteration erhalten wir einen „fiktiven“ kleinsten EW-> man muss noch „zurückshiften“ und erhält wahren EW in der Umgebung von . Das Verfahren konvergiert umso schneller, je kleiner das Verhältnis: Wobeider Abstand zum nächstgelegensten EW und der Abstand zum zweitnächsten ist. Siehe „inverse_shift.m“

  12. Quellen: • Gene H. Golub and Charles F. Van Loan. Matrix Computations. The Johns Hopkins University Press, Baltimore, MA, 3rd edition, 1996 • James W. Demmel. Applied Numerical Linear Algebra. SIAM, Philadelphis, PA, 1997 • “Numerik für Eigenwertaufgaben” Dr. Norbert Herrmann

More Related