Propiedades Fundamentales de Endomorfismos y Matrices en Álgebra Lineal
Clasificado en Matemáticas
Escrito el en español con un tamaño de 6,89 KB
Endomorfismo y Dependencia Lineal de Vectores Base
Consideremos un endomorfismo f: E → E
en un espacio vectorial de dimensión finita E
. Si tenemos una base {e₁, e₂}
tal que:
f(e₁) = λ₁e₁
f(e₂) = λ₂e₂
Supongamos que e₁
y e₂
son linealmente dependientes. Esto implica que existe un escalar α ≠ 0
tal que e₁ = αe₂
.
Aplicando el endomorfismo f
a e₁
:
f(e₁) = λ₁e₁ = λ₁(αe₂) = αλ₁e₂
f(e₁) = f(αe₂) = αf(e₂) = α(λ₂e₂) = αλ₂e₂
Igualando ambas expresiones para f(e₁)
, obtenemos:
αλ₁e₂ = αλ₂e₂
Dado que α ≠ 0
y e₂
es un vector base (por lo tanto, no nulo), podemos simplificar para obtener:
λ₁ = λ₂
Esta conclusión contradice la suposición inicial de que e₁
y e₂
son linealmente dependientes si sus valores propios asociados son distintos. Por lo tanto, si los valores propios son distintos, los vectores propios correspondientes deben ser linealmente independientes.
Matrices Semejantes y Polinomio Característico
Dos matrices A
y B
son semejantes si existe una matriz invertible P
tal que A = PBP⁻¹
.
Demostraremos que matrices semejantes comparten el mismo polinomio característico:
det(A - xI) = det(PBP⁻¹ - xI)
Podemos reescribir xI
como PxP⁻¹
:
det(PBP⁻¹ - PxP⁻¹) = det(P(B - xI)P⁻¹)
Utilizando las propiedades de los determinantes (det(XYZ) = det(X)det(Y)det(Z)
y det(P⁻¹) = 1/det(P)
):
det(P)det(B - xI)det(P⁻¹) = det(P)det(B - xI)(1/det(P)) = det(B - xI)
Por lo tanto, det(A - xI) = det(B - xI)
, lo que significa que A
y B
tienen el mismo polinomio característico.
Dimensión de la Imagen y Rango de la Matriz Asociada
Para una aplicación lineal f: E → E'
, donde E
y E'
son espacios vectoriales de dimensión finita, y A
es la matriz asociada a f
en bases dadas:
- Los vectores
f(e₁), f(e₂), ..., f(e<0xE2><0x82><0x99>)
, donde{e₁, ..., e<0xE2><0x82><0x99>}
es una base deE
, forman un conjunto de generadores para la imagen def
(Im(f)
). - Las columnas de la matriz asociada
A
son precisamente las coordenadas def(eᵢ)
en la base deE'
. - La dimensión de la imagen de
f
, denotada comodim(Im(f))
, es igual al número de columnas linealmente independientes de la matriz asociadaA
. - Este número es, por definición, el rango de la matriz
A
.
En resumen: dim(Im(f)) = rango(A)
.
Matrices Semejantes y Valores Propios
Como se demostró anteriormente, si dos matrices A
y B
son semejantes, sus polinomios característicos son idénticos. Los valores propios de una matriz son las raíces de su polinomio característico. Por lo tanto, matrices semejantes deben tener los mismos valores propios.
Prueba: Valor Propio como Raíz del Polinomio Característico
Sea λ
un valor propio de una matriz A
y u
un vector propio asociado no nulo. Por definición:
Au = λu
Reorganizando la ecuación:
Au - λu = 0
(A - λI)u = 0
Donde I
es la matriz identidad. Esta ecuación implica que el vector u
pertenece al núcleo (kernel) de la matriz (A - λI)
. Para que exista un vector propio no nulo u
, el núcleo de (A - λI)
debe ser no trivial (ker(A - λI) ≠ {0}
).
Esto significa que la matriz (A - λI)
no es invertible. Una matriz no es invertible si y solo si su determinante es cero:
det(A - λI) = 0
Esta es precisamente la definición del polinomio característico evaluado en λ
. Por lo tanto, si λ
es un valor propio, debe ser una raíz del polinomio característico.
Vectores Propios Distintos con Valores Propios Distintos
Sea f: E → E
un endomorfismo con valores propios distintos λ₁
y λ₂
(λ₁ ≠ λ₂
). Sean u
y v
vectores propios asociados a λ₁
y λ₂
respectivamente.
Demostraremos por reducción al absurdo que u
y v
son linealmente independientes.
Supongamos que u
y v
son linealmente dependientes. Entonces, existen escalares α
y β
, no ambos nulos, tales que αu + βv = 0
.
Si α ≠ 0
y β ≠ 0
, podemos escribir u = (-β/α)v
o v = (-α/β)u
. Consideremos el caso u = kv
para algún escalar k
.
Aplicamos f
a esta relación:
f(u) = f(kv) = kf(v)
- Como
u
yv
son vectores propios:λ₁u = kλ₂v
Sustituimos u = kv
en la ecuación anterior:
λ₁(kv) = kλ₂v
kλ₁v = kλ₂v
Dado que k ≠ 0
(si k=0
, entonces u=0
, lo cual no es un vector propio) y v ≠ 0
, podemos simplificar:
λ₁ = λ₂
Esto contradice nuestra suposición de que los valores propios son distintos (λ₁ ≠ λ₂
). Por lo tanto, la suposición de dependencia lineal es falsa, y u
y v
deben ser linealmente independientes.
Criterio de Cauchy para Convergencia
Una sucesión {x<0xE2><0x82><0x99>}
en ℝⁿ
tiene un límite finito si y solo si es una sucesión de Cauchy.
Una sucesión {x<0xE2><0x82><0x99>}
es de Cauchy si para todo ε > 0
, existe un entero n₀
tal que para todos los enteros m, n ≥ n₀
, se cumple que:
||x<0xE2><0x82><0x98> - x<0xE2><0x82><0x99>|| < ε
Donde || ⋅ ||
denota una norma en ℝⁿ
.