MathematicsLineare AlgebraUniversity
AQAAPOntarioNSWCBSEGCE O-LevelMoECAPS

Gram-Schmidt-Orthogonalisierung

Eine Methode zur Orthonormalisierung einer Menge von Vektoren in einem Raum mit Skalarprodukt.

Understand the formulaSee the free derivationOpen the full walkthrough

This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.

Core idea

Overview

Das Gram-Schmidt-Verfahren ist eine systematische Methode zur Erzeugung einer orthogonalen oder orthonormalen Basis aus einer Menge linear unabhängiger Vektoren in einem Raum mit Skalarprodukt. Es funktioniert, indem iterativ die Projektionen eines Vektors auf die zuvor konstruierten orthogonalen Vektoren subtrahiert werden, um sicherzustellen, dass der neue Vektor zu allen vorherigen senkrecht ist.

When to use: Wende diesen Algorithmus an, wenn du eine orthogonale Basis für einen Unterraum konstruieren musst, was wesentlich für die Vereinfachung von Vektorprojektionen und die Durchführung von QR-Zerlegungen ist. Er setzt voraus, dass die Eingangsmenge von Vektoren linear unabhängig ist und ein Skalarprodukt, etwa das Punktprodukt, definiert ist.

Why it matters: Orthogonale Basen sind rechnerisch effizient, da sie Kreuzterme in Matrixoperationen eliminieren. Dieses Verfahren ist in der Computergrafik für Koordinatentransformationen, in der Signalverarbeitung zur Rauschreduktion und in der numerischen Analysis zur Verbesserung der Stabilität von Ausgleichsrechnungen essenziell.

Symbols

Variables

= Resulting Orthogonal Magnitude, = Input Vector Magnitude, = Sum of Projections

Resulting Orthogonal Magnitude
Variable
Input Vector Magnitude
Variable
Sum of Projections
Variable

Walkthrough

Derivation

Herleitung/Verständnis der Gram-Schmidt-Orthogonalisierung

Diese Herleitung erklärt, wie man eine orthogonale Menge von Vektoren aus einer gegebenen linear unabhängigen Menge konstruiert, indem man sukzessive Projektionen subtrahiert.

  • Wir arbeiten in einem Innenproduktraum (z. B. dem euklidischen Raum ^n mit dem Skalarprodukt).
  • Die ursprüngliche Menge von Vektoren \{, , , \} ist linear unabhängig.
1

Initialisierung des ersten orthogonalen Vektors:

Um mit der Konstruktion einer orthogonalen Menge \{, , , \} aus einer gegebenen linear unabhängigen Menge \{, , , \} zu beginnen, wählen wir einfach den ersten Vektor so, dass er gleich ist.

2

Orthogonalisierung des zweiten Vektors:

Um sicherzustellen, dass orthogonal zu ist, nehmen wir und subtrahieren die Komponente, die in Richtung von liegt. Diese Komponente ist genau die Projektion von auf .

3

Generalisierung auf den k-ten Vektor:

Angenommen, wir haben bereits eine orthogonale Menge \{, , \} konstruiert. Um zu finden, gehen wir von aus und subtrahieren dessen Projektion auf jeden der zuvor orthogonalisierten Vektoren . Dieser Prozess entfernt alle Komponenten von , die im Spann von \{, , \} liegen.

4

Ausdruck mittels Summenschreibweise:

Die Summe der Projektionen kann kompakt in Summenschreibweise geschrieben werden. Diese Formel definiert so, dass es orthogonal zu allen für ist, wodurch iterativ eine orthogonale Menge aufgebaut wird.

Result

Source: Lay, D. C., Lay, S. R., & McDonald, J. J. (2016). Linear Algebra and Its Applications (5th ed.). Pearson.

Why it behaves this way

Intuition

Stellen Sie sich vor, wie Sie jeden neuen Vektor auf alle zuvor orthogonalisierten Vektoren projizieren und dann diese Projektionen subtrahieren, um den Teil des neuen Vektors zu isolieren, der perfekt senkrecht zu allen anderen steht.

Term
Der k-te Vektor in der neu konstruierten orthogonalen Menge.
Dies ist die „bereinigte“ Version von , die senkrecht zu allen vorherigen -Vektoren gemacht wurde. Notation: .
Term
Der k-te ursprüngliche Eingabevektor aus der nicht-orthogonalen Menge.
Dies ist der Vektor, der gerade verarbeitet wird, um ihn orthogonal zu den anderen zu machen.
Term
Die Komponente des Vektors v_k, die in Richtung des zuvor konstruierten orthogonalen Vektors u_j liegt.
Dies ist die „Überlappung“ oder der „Schatten“ von auf , der den nicht-orthogonalen Teil darstellt.
Term
Die Summe aller Komponenten von v_k, die nicht orthogonal zum von u_1, ..., u_{k-1} aufgespannten Unterraum sind.
Dies stellt den gesamten „nicht-orthogonalen Teil“ von in Bezug auf die bereits orthogonalisierten Vektoren dar.

Signs and relationships

  • - \sum_{j=1}^{k-1} \text{proj}_{u_j}(v_k): Die Subtraktion entfernt die Komponenten von , die parallel zu den zuvor konstruierten orthogonalen Vektoren verlaufen, wodurch sichergestellt wird, dass das resultierende senkrecht zu ihnen allen steht.

Free study cues

Insight

Canonical usage

Das Gram-Schmidt-Verfahren arbeitet auf Vektoren und behaelt deren Einheiten bei. Wenn Eingabevektoren physikalische Groessen mit Einheiten repraesentieren (z. B. Meter oder Newton), haben die resultierenden orthogonalen Vektoren dieselben Einheiten.

One free problem

Practice Problem

In einer linearen Algebraaufgabe bearbeitet ein Student den zweiten Vektor einer Menge. Wenn der Eingangsvektor vk eine Komponentenwert von 12 hat und die Summe seiner Projektionen auf den ersten orthogonalen Vektor (projSum) zu 4.5 berechnet wird, bestimme die entsprechende Komponente des resultierenden orthogonalen Vektors result.

Hint: Subtrahiere die Summe der Projektionen von der ursprünglichen Vektorkomponente.

The full worked solution stays in the interactive walkthrough.

Where it shows up

Real-World Context

Im Kontext von Gram-Schmidt-Orthogonalisierung wird Gram-Schmidt-Orthogonalisierung verwendet, um Messwerte in einen interpretierbaren Wert zu übersetzen. Das Ergebnis ist wichtig, weil es hilft, die Rechnung mit Form, Änderungsrate, Wahrscheinlichkeit oder Einschränkung im Modell zu verbinden.

Study smarter

Tips

  • Überprüfe in jedem Schritt die Orthogonalität, indem du kontrollierst, ob das Skalarprodukt des neuen Vektors mit jedem vorherigen Vektor null ist.
  • Normiere jeden resultierenden Vektor sofort, wenn eine orthonormale Basis benötigt wird.
  • Verarbeite die Vektoren in ihrer ursprünglichen Reihenfolge, um die verschachtelte Hierarchie der aufgespannten Unterräume beizubehalten.

Avoid these traps

Common Mistakes

  • Für nachfolgende Projektionen die ursprünglichen Vektoren statt der neu bestimmten orthogonalen Vektoren verwenden.
  • Rechenfehler bei den Skalarprodukten, die für die Skalarprojektionen verwendet werden.

Common questions

Frequently Asked Questions

Diese Herleitung erklärt, wie man eine orthogonale Menge von Vektoren aus einer gegebenen linear unabhängigen Menge konstruiert, indem man sukzessive Projektionen subtrahiert.

Wende diesen Algorithmus an, wenn du eine orthogonale Basis für einen Unterraum konstruieren musst, was wesentlich für die Vereinfachung von Vektorprojektionen und die Durchführung von QR-Zerlegungen ist. Er setzt voraus, dass die Eingangsmenge von Vektoren linear unabhängig ist und ein Skalarprodukt, etwa das Punktprodukt, definiert ist.

Orthogonale Basen sind rechnerisch effizient, da sie Kreuzterme in Matrixoperationen eliminieren. Dieses Verfahren ist in der Computergrafik für Koordinatentransformationen, in der Signalverarbeitung zur Rauschreduktion und in der numerischen Analysis zur Verbesserung der Stabilität von Ausgleichsrechnungen essenziell.

Für nachfolgende Projektionen die ursprünglichen Vektoren statt der neu bestimmten orthogonalen Vektoren verwenden. Rechenfehler bei den Skalarprodukten, die für die Skalarprojektionen verwendet werden.

Im Kontext von Gram-Schmidt-Orthogonalisierung wird Gram-Schmidt-Orthogonalisierung verwendet, um Messwerte in einen interpretierbaren Wert zu übersetzen. Das Ergebnis ist wichtig, weil es hilft, die Rechnung mit Form, Änderungsrate, Wahrscheinlichkeit oder Einschränkung im Modell zu verbinden.

Überprüfe in jedem Schritt die Orthogonalität, indem du kontrollierst, ob das Skalarprodukt des neuen Vektors mit jedem vorherigen Vektor null ist. Normiere jeden resultierenden Vektor sofort, wenn eine orthonormale Basis benötigt wird. Verarbeite die Vektoren in ihrer ursprünglichen Reihenfolge, um die verschachtelte Hierarchie der aufgespannten Unterräume beizubehalten.

References

Sources

  1. Linear Algebra and Its Applications (5th ed.) by David C. Lay, Steven R. Lay, and Judi J. McDonald
  2. Introduction to Linear Algebra (5th ed.) by Gilbert Strang
  3. Wikipedia: Gram-Schmidt process
  4. Linear Algebra and Its Applications by David C. Lay, 5th ed.
  5. Introduction to Linear Algebra by Gilbert Strang, 5th ed.
  6. Gram-Schmidt process (Wikipedia article title)
  7. Linear Algebra and Its Applications by David C. Lay (5th Edition)
  8. Numerical Linear Algebra by Lloyd N. Trefethen and David Bau III