Autovalores, Autovectores y Diagonalización de Matrices: Conceptos Esenciales
Clasificado en Matemáticas
Escrito el en español con un tamaño de 8 KB
Definiciones Fundamentales en Álgebra Lineal
Autovalor y Autovector
Autovalor: Un escalar λ ∈ ℝ se dice un autovalor de una matriz A si y solo si existe al menos un vector no nulo x ∈ ℝn tal que Ax = λx. Al vector x ∈ ℝn no nulo se le llamará autovector de A asociado a λ.
Teorema 1: Criterio para Autovalores
Un λ ∈ ℝ es un autovalor de una matriz An×n si y solo si det(A - λIn) = 0.
Demostración:
λ ∈ ℝ es un autovalor de A si y solo si existe x = (x1, x2, ..., xn) ∈ ℝn, con x ≠ 0, tal que Ax = λx (1).
La ecuación matricial (1) puede escribirse como: Ax - λx = 0, lo que es equivalente a Ax - λInx = 0, y finalmente a (A - λIn)x = 0 (2).
(2) es la ecuación matricial de un sistema lineal homogéneo de n ecuaciones en las n incógnitas x1, x2, ..., xn dadas por las componentes del vector x (en la base canónica de ℝn).
Entonces, λ ∈ ℝ es un autovalor de A si y solo si existe x = (x1, x2, ..., xn) ∈ ℝn, con x ≠ 0, que es solución del sistema (2), es decir, si y solo si este sistema tiene soluciones distintas de la trivial.
Por lo tanto, λ ∈ ℝ es un autovalor de A si y solo si el determinante de la matriz de los coeficientes del sistema (2) es nulo, es decir, det(A - λIn) = 0.
Los autovalores de una matriz A son las raíces reales de la ecuación característica de A.
Subespacio Propio (Eigenspace)
Para cada autovalor λ de una matriz A, el conjunto formado por todos los autovectores de A asociados a λ se denota como Sλ = {x ∈ ℝn | x ≠ 0 y Ax = λx}.
Si λ es un autovalor de una matriz A, llamaremos subespacio propio asociado a λ al subespacio Eλ = Sλ ∪ {0}. Este subespacio también se conoce como eigenspace.
Matriz Semejante
Dadas dos matrices An×n y Bn×n, diremos que A es semejante a B si y solo si existe una matriz inversible Pn×n tal que B = P-1AP.
Matriz Diagonalizable
Se dice que una matriz A es diagonalizable si y solo si existe una matriz inversible P tal que P-1AP = D (con D diagonal).
Teoremas Clave sobre Diagonalización y Propiedades de Matrices
Teorema 2: Criterios de Diagonalización
Dada cualquier matriz An×n, estas propiedades son equivalentes:
- A es diagonalizable.
- A admite n autovectores linealmente independientes.
Teorema 3: Independencia Lineal de Autovectores
Si v1, v2, ..., vp son autovectores de una matriz A, correspondientes a p autovalores distintos λ1, λ2, ..., λp, entonces los autovectores son linealmente independientes.
Sabemos que los autovalores de una matriz A son las raíces reales de la ecuación característica, que es de grado n y tiene a lo sumo n raíces. Puede ser que A tenga n autovalores distintos o que A tenga algunos o todos los autovalores coincidentes.
Orden de Multiplicidad Algebraica
Si una matriz A tiene un autovalor λ que aparece k veces como raíz de su ecuación característica, diremos que k es el orden de multiplicidad algebraica de λ y escribiremos o.m.a.(λ) = k.
Teorema 5: Propiedades de Matrices Simétricas
Para cualquier matriz simétrica A, se verifica:
- La ecuación característica de A solo tiene raíces reales.
- Si λ es un autovalor de A, entonces dim(Eλ) = o.m.a.(λ).
Matrices Ortogonales y Diagonalización Ortogonal
Matriz Ortogonal
Una matriz P ∈ Mn(ℝ) se dice ortogonal si y solo si PPT = PTP = In.
Lema 2: Criterios de Ortogonalidad
Sea P ∈ Mn(ℝ). Las siguientes condiciones son equivalentes:
- P es ortogonal.
- Los vectores fila de P forman un conjunto ortonormal en ℝn, con el producto interno usual.
Matrices Ortogonalmente Semejantes
Dos matrices An×n y Bn×n son ortogonalmente semejantes (O.S.) si y solo si existe una matriz ortogonal P tal que B = PTAP.
Matriz Ortogonalmente Diagonalizable
Se dice que una matriz A es ortogonalmente diagonalizable (O.D.) si y solo si existe una matriz ortogonal P tal que P-1AP = D (con D diagonal).
Teorema 6: Equivalencias de Diagonalización Ortogonal
Dada una matriz An×n, las siguientes propiedades son equivalentes:
- A es simétrica.
- A es ortogonalmente diagonalizable.
- A admite un conjunto ortonormal de n autovectores.
Teorema 7: Ortogonalidad de Autovectores de Matrices Simétricas
Para cualquier matriz simétrica A, los autovectores correspondientes a autovalores distintos son ortogonales.
Demostración de Ejercicio: El Subespacio Propio es un Subespacio Vectorial
Sea Eλ = {x ∈ ℝn | Ax = λx}. Demostraremos que Eλ es un subespacio vectorial de ℝn.
Propiedades a Demostrar:
1. Eλ es un subconjunto de ℝn
Esto se sigue directamente de la definición de Eλ, ya que sus elementos son vectores en ℝn.
2. El vector nulo pertenece a Eλ
Debemos demostrar que 0 ∈ Eλ. Sabemos que A·0 = 0 y λ·0 = 0. Por lo tanto, A·0 = λ·0, lo que implica que 0 ∈ Eλ.
3. Eλ es cerrado bajo la suma de vectores
Sean x, y ∈ Eλ. Debemos demostrar que x + y ∈ Eλ, es decir, que A(x + y) = λ(x + y).
- Dado que x ∈ Eλ, se tiene Ax = λx (1).
- Dado que y ∈ Eλ, se tiene Ay = λy (2).
- Entonces, A(x + y) = Ax + Ay (por la propiedad de linealidad de la matriz A).
- Sustituyendo (1) y (2): A(x + y) = λx + λy = λ(x + y).
- Por lo tanto, x + y ∈ Eλ.
4. Eλ es cerrado bajo la multiplicación por un escalar
Sea α ∈ ℝ y x ∈ Eλ. Debemos demostrar que αx ∈ Eλ, es decir, que A(αx) = λ(αx).
- Dado que x ∈ Eλ, se tiene Ax = λx (1).
- Entonces, A(αx) = α(Ax) (por la propiedad de linealidad de la matriz A).
- Sustituyendo (1): A(αx) = α(λx) = λ(αx).
- Por lo tanto, αx ∈ Eλ.
Q.E.D.