MathematicsÁlgebra LinearUniversity
AQAAPOntarioNSWCBSEGCE O-LevelMoECAPS

Ortogonalização de Gram-Schmidt

Um método para ortonormalizar um conjunto de vetores em um espaço de produto interno.

Understand the formulaSee the free derivationOpen the full walkthrough

This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.

Core idea

Overview

O processo de Gram-Schmidt é um método sistemático para gerar uma base ortogonal ou ortonormal a partir de um conjunto de vetores linearmente independentes em um espaço de produto interno. Ele funciona subtraindo iterativamente as projeções de um vetor nos vetores ortogonais construídos anteriormente para garantir que o novo vetor seja perpendicular a todos os predecessores.

When to use: Aplique este algoritmo quando precisar construir uma base ortogonal para um subespaço, o que é essencial para simplificar projeções vetoriais e realizar decomposições QR. Ele assume que o conjunto de vetores de entrada é linearmente independente e que um produto interno (como o produto escalar) é definido.

Why it matters: Bases ortogonais são computacionalmente eficientes porque eliminam interações de termos cruzados em operações de matriz. Este processo é vital em computação gráfica para transformações de coordenadas, em processamento de sinal para redução de ruído e em análise numérica para melhorar a estabilidade das soluções de mínimos quadrados.

Symbols

Variables

= Resulting Orthogonal Magnitude, = Input Vector Magnitude, = Sum of Projections

Resulting Orthogonal Magnitude
Variable
Input Vector Magnitude
Variable
Sum of Projections
Variable

Walkthrough

Derivation

Derivação/Compreensão da Ortogonalização de Gram-Schmidt

Esta derivação explica como construir um conjunto ortogonal de vetores a partir de um conjunto linearmente independente dado, subtraindo sucessivamente projeções.

  • Estamos trabalhando em um espaço de produto interno (por exemplo, espaço Euclidiano ^n com o produto escalar).
  • O conjunto inicial de vetores \{, , , \} é linearmente independente.
1

Inicializar o primeiro vetor ortogonal:

Para começar a construir um conjunto ortogonal \{, , , \} a partir de um conjunto linearmente independente dado \{, , , \}, simplesmente escolhemos o primeiro vetor para ser igual a .

2

Ortogonalizar o segundo vetor:

Para garantir que seja ortogonal a , pegamos e subtraímos sua componente que reside na direção de . Esta componente é precisamente a projeção de sobre .

3

Generalizar para o k-ésimo vetor:

Assumindo que já construímos um conjunto ortogonal \{, , \}, para encontrar , começamos com e subtraímos sua projeção sobre cada um dos vetores ortogonalizados anteriormente . Este processo remove todas as componentes de que residem no espaço gerado por \{, , \}.

4

Expressar usando notação de somatório:

A soma das projeções pode ser escrita de forma compacta usando notação de somatório. Esta fórmula define de modo que ele seja ortogonal a todos os para , construindo assim um conjunto ortogonal iterativamente.

Result

Source: Lay, D. C., Lay, S. R., & McDonald, J. J. (2016). Linear Algebra and Its Applications (5th ed.). Pearson.

Why it behaves this way

Intuition

Visualize pegar cada novo vetor, projetá-lo em todos os vetores previamente ortogonalizados e, em seguida, subtrair essas projeções para isolar a parte do novo vetor que é perfeitamente perpendicular a todos os outros.

Term
O k-ésimo vetor no conjunto ortogonal recém-construído.
Esta é a versão 'limpa' de , tornada perpendicular a todos os vetores anteriores.
Term
O k-ésimo vetor de entrada original do conjunto não ortogonal.
Este é o vetor que está sendo processado atualmente para torná-lo ortogonal aos outros.
Term
A componente do vetor v_k que reside ao longo da direção do vetor ortogonal previamente construído u_j.
Esta é a 'sobreposição' ou 'sombra' de em , representando a parte não ortogonal.
Term
A soma de todas as componentes de v_k que não são ortogonais ao subespaço gerado por u_1, ..., u_{k-1}.
Isso representa a 'parte não ortogonal' total de em relação aos vetores já ortogonalizados.

Signs and relationships

  • - \sum_{j=1}^{k-1} \text{proj}_{u_j}(v_k): A subtração remove as componentes de que são paralelas aos vetores ortogonais previamente construídos , garantindo que o resultante seja perpendicular a todos eles.

Free study cues

Insight

Canonical usage

O processo de Gram-Schmidt opera em vetores preservando suas unidades. Se vetores de entrada representam grandezas físicas com unidades (por exemplo, metros, Newtons), os vetores ortogonais resultantes terão essas mesmas unidades.

One free problem

Practice Problem

Em um exercício de álgebra linear, um aluno está processando o segundo vetor em um conjunto. Se o vetor de entrada vk tem um valor de componente de 12 e a soma de suas projeções no primeiro vetor ortogonal (projSum) é calculada como 4.5, encontre o componente correspondente do vetor ortogonal resultante (result).

Hint: Subtraia a soma das projeções do componente do vetor original.

The full worked solution stays in the interactive walkthrough.

Where it shows up

Real-World Context

No caso de qR decomposition to solve linear least squares problems and in signal processing to remove correlation, Gram-Schmidt Orthogonalization é utilizado para calcular Resulting Magnitude from Input Vector Magnitude and Sum of Projections. O resultado importa porque ajuda a estimar a probabilidade e formular um julgamento de risco ou decisão em vez de tratar o número como certeza.

Study smarter

Tips

  • Sempre verifique a ortogonalidade em cada etapa, verificando se o produto escalar do novo vetor e qualquer vetor anterior é zero.
  • Normalize cada vetor resultante imediatamente se uma base ortonormal for necessária.
  • Processe os vetores em sua ordem original para manter a hierarquia aninhada de subespaços abrangidos.

Avoid these traps

Common Mistakes

  • Usar os vetores originais em vez dos vetores ortogonais recém-encontrados para projeções subsequentes.
  • Erros de cálculo nos produtos escalares usados para projeções escalares.

Common questions

Frequently Asked Questions

Esta derivação explica como construir um conjunto ortogonal de vetores a partir de um conjunto linearmente independente dado, subtraindo sucessivamente projeções.

Aplique este algoritmo quando precisar construir uma base ortogonal para um subespaço, o que é essencial para simplificar projeções vetoriais e realizar decomposições QR. Ele assume que o conjunto de vetores de entrada é linearmente independente e que um produto interno (como o produto escalar) é definido.

Bases ortogonais são computacionalmente eficientes porque eliminam interações de termos cruzados em operações de matriz. Este processo é vital em computação gráfica para transformações de coordenadas, em processamento de sinal para redução de ruído e em análise numérica para melhorar a estabilidade das soluções de mínimos quadrados.

Usar os vetores originais em vez dos vetores ortogonais recém-encontrados para projeções subsequentes. Erros de cálculo nos produtos escalares usados para projeções escalares.

No caso de qR decomposition to solve linear least squares problems and in signal processing to remove correlation, Gram-Schmidt Orthogonalization é utilizado para calcular Resulting Magnitude from Input Vector Magnitude and Sum of Projections. O resultado importa porque ajuda a estimar a probabilidade e formular um julgamento de risco ou decisão em vez de tratar o número como certeza.

Sempre verifique a ortogonalidade em cada etapa, verificando se o produto escalar do novo vetor e qualquer vetor anterior é zero. Normalize cada vetor resultante imediatamente se uma base ortonormal for necessária. Processe os vetores em sua ordem original para manter a hierarquia aninhada de subespaços abrangidos.

References

Sources

  1. Linear Algebra and Its Applications (5th ed.) by David C. Lay, Steven R. Lay, and Judi J. McDonald
  2. Introduction to Linear Algebra (5th ed.) by Gilbert Strang
  3. Wikipedia: Gram-Schmidt process
  4. Linear Algebra and Its Applications by David C. Lay, 5th ed.
  5. Introduction to Linear Algebra by Gilbert Strang, 5th ed.
  6. Gram-Schmidt process (Wikipedia article title)
  7. Linear Algebra and Its Applications by David C. Lay (5th Edition)
  8. Numerical Linear Algebra by Lloyd N. Trefethen and David Bau III