Ortogonalização de Gram-Schmidt
Um método para ortonormalizar um conjunto de vetores em um espaço de produto interno.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
O processo de Gram-Schmidt é um método sistemático para gerar uma base ortogonal ou ortonormal a partir de um conjunto de vetores linearmente independentes em um espaço de produto interno. Ele funciona subtraindo iterativamente as projeções de um vetor nos vetores ortogonais construídos anteriormente para garantir que o novo vetor seja perpendicular a todos os predecessores.
When to use: Aplique este algoritmo quando precisar construir uma base ortogonal para um subespaço, o que é essencial para simplificar projeções vetoriais e realizar decomposições QR. Ele assume que o conjunto de vetores de entrada é linearmente independente e que um produto interno (como o produto escalar) é definido.
Why it matters: Bases ortogonais são computacionalmente eficientes porque eliminam interações de termos cruzados em operações de matriz. Este processo é vital em computação gráfica para transformações de coordenadas, em processamento de sinal para redução de ruído e em análise numérica para melhorar a estabilidade das soluções de mínimos quadrados.
Symbols
Variables
= Resulting Orthogonal Magnitude, = Input Vector Magnitude, = Sum of Projections
Walkthrough
Derivation
Derivação/Compreensão da Ortogonalização de Gram-Schmidt
Esta derivação explica como construir um conjunto ortogonal de vetores a partir de um conjunto linearmente independente dado, subtraindo sucessivamente projeções.
- Estamos trabalhando em um espaço de produto interno (por exemplo, espaço Euclidiano ^n com o produto escalar).
- O conjunto inicial de vetores \{, , , \} é linearmente independente.
Inicializar o primeiro vetor ortogonal:
Para começar a construir um conjunto ortogonal \{, , , \} a partir de um conjunto linearmente independente dado \{, , , \}, simplesmente escolhemos o primeiro vetor para ser igual a .
Ortogonalizar o segundo vetor:
Para garantir que seja ortogonal a , pegamos e subtraímos sua componente que reside na direção de . Esta componente é precisamente a projeção de sobre .
Generalizar para o k-ésimo vetor:
Assumindo que já construímos um conjunto ortogonal \{, , \}, para encontrar , começamos com e subtraímos sua projeção sobre cada um dos vetores ortogonalizados anteriormente . Este processo remove todas as componentes de que residem no espaço gerado por \{, , \}.
Expressar usando notação de somatório:
A soma das projeções pode ser escrita de forma compacta usando notação de somatório. Esta fórmula define de modo que ele seja ortogonal a todos os para , construindo assim um conjunto ortogonal iterativamente.
Result
Source: Lay, D. C., Lay, S. R., & McDonald, J. J. (2016). Linear Algebra and Its Applications (5th ed.). Pearson.
Why it behaves this way
Intuition
Visualize pegar cada novo vetor, projetá-lo em todos os vetores previamente ortogonalizados e, em seguida, subtrair essas projeções para isolar a parte do novo vetor que é perfeitamente perpendicular a todos os outros.
Signs and relationships
- - \sum_{j=1}^{k-1} \text{proj}_{u_j}(v_k): A subtração remove as componentes de que são paralelas aos vetores ortogonais previamente construídos , garantindo que o resultante seja perpendicular a todos eles.
Free study cues
Insight
Canonical usage
O processo de Gram-Schmidt opera em vetores preservando suas unidades. Se vetores de entrada representam grandezas físicas com unidades (por exemplo, metros, Newtons), os vetores ortogonais resultantes terão essas mesmas unidades.
One free problem
Practice Problem
Em um exercício de álgebra linear, um aluno está processando o segundo vetor em um conjunto. Se o vetor de entrada vk tem um valor de componente de 12 e a soma de suas projeções no primeiro vetor ortogonal (projSum) é calculada como 4.5, encontre o componente correspondente do vetor ortogonal resultante (result).
Hint: Subtraia a soma das projeções do componente do vetor original.
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
No caso de qR decomposition to solve linear least squares problems and in signal processing to remove correlation, Gram-Schmidt Orthogonalization é utilizado para calcular Resulting Magnitude from Input Vector Magnitude and Sum of Projections. O resultado importa porque ajuda a estimar a probabilidade e formular um julgamento de risco ou decisão em vez de tratar o número como certeza.
Study smarter
Tips
- Sempre verifique a ortogonalidade em cada etapa, verificando se o produto escalar do novo vetor e qualquer vetor anterior é zero.
- Normalize cada vetor resultante imediatamente se uma base ortonormal for necessária.
- Processe os vetores em sua ordem original para manter a hierarquia aninhada de subespaços abrangidos.
Avoid these traps
Common Mistakes
- Usar os vetores originais em vez dos vetores ortogonais recém-encontrados para projeções subsequentes.
- Erros de cálculo nos produtos escalares usados para projeções escalares.
Common questions
Frequently Asked Questions
Esta derivação explica como construir um conjunto ortogonal de vetores a partir de um conjunto linearmente independente dado, subtraindo sucessivamente projeções.
Aplique este algoritmo quando precisar construir uma base ortogonal para um subespaço, o que é essencial para simplificar projeções vetoriais e realizar decomposições QR. Ele assume que o conjunto de vetores de entrada é linearmente independente e que um produto interno (como o produto escalar) é definido.
Bases ortogonais são computacionalmente eficientes porque eliminam interações de termos cruzados em operações de matriz. Este processo é vital em computação gráfica para transformações de coordenadas, em processamento de sinal para redução de ruído e em análise numérica para melhorar a estabilidade das soluções de mínimos quadrados.
Usar os vetores originais em vez dos vetores ortogonais recém-encontrados para projeções subsequentes. Erros de cálculo nos produtos escalares usados para projeções escalares.
No caso de qR decomposition to solve linear least squares problems and in signal processing to remove correlation, Gram-Schmidt Orthogonalization é utilizado para calcular Resulting Magnitude from Input Vector Magnitude and Sum of Projections. O resultado importa porque ajuda a estimar a probabilidade e formular um julgamento de risco ou decisão em vez de tratar o número como certeza.
Sempre verifique a ortogonalidade em cada etapa, verificando se o produto escalar do novo vetor e qualquer vetor anterior é zero. Normalize cada vetor resultante imediatamente se uma base ortonormal for necessária. Processe os vetores em sua ordem original para manter a hierarquia aninhada de subespaços abrangidos.
References
Sources
- Linear Algebra and Its Applications (5th ed.) by David C. Lay, Steven R. Lay, and Judi J. McDonald
- Introduction to Linear Algebra (5th ed.) by Gilbert Strang
- Wikipedia: Gram-Schmidt process
- Linear Algebra and Its Applications by David C. Lay, 5th ed.
- Introduction to Linear Algebra by Gilbert Strang, 5th ed.
- Gram-Schmidt process (Wikipedia article title)
- Linear Algebra and Its Applications by David C. Lay (5th Edition)
- Numerical Linear Algebra by Lloyd N. Trefethen and David Bau III