Propiedades Fundamentales de Endomorfismos y Matrices en Álgebra Lineal

Clasificado en Matemáticas

Escrito el en español con un tamaño de 6,89 KB

Endomorfismo y Dependencia Lineal de Vectores Base

Consideremos un endomorfismo f: E → E en un espacio vectorial de dimensión finita E. Si tenemos una base {e₁, e₂} tal que:

  • f(e₁) = λ₁e₁
  • f(e₂) = λ₂e₂

Supongamos que e₁ y e₂ son linealmente dependientes. Esto implica que existe un escalar α ≠ 0 tal que e₁ = αe₂.

Aplicando el endomorfismo f a e₁:

  • f(e₁) = λ₁e₁ = λ₁(αe₂) = αλ₁e₂
  • f(e₁) = f(αe₂) = αf(e₂) = α(λ₂e₂) = αλ₂e₂

Igualando ambas expresiones para f(e₁), obtenemos:

αλ₁e₂ = αλ₂e₂

Dado que α ≠ 0 y e₂ es un vector base (por lo tanto, no nulo), podemos simplificar para obtener:

λ₁ = λ₂

Esta conclusión contradice la suposición inicial de que e₁ y e₂ son linealmente dependientes si sus valores propios asociados son distintos. Por lo tanto, si los valores propios son distintos, los vectores propios correspondientes deben ser linealmente independientes.

Matrices Semejantes y Polinomio Característico

Dos matrices A y B son semejantes si existe una matriz invertible P tal que A = PBP⁻¹.

Demostraremos que matrices semejantes comparten el mismo polinomio característico:

det(A - xI) = det(PBP⁻¹ - xI)

Podemos reescribir xI como PxP⁻¹:

det(PBP⁻¹ - PxP⁻¹) = det(P(B - xI)P⁻¹)

Utilizando las propiedades de los determinantes (det(XYZ) = det(X)det(Y)det(Z) y det(P⁻¹) = 1/det(P)):

det(P)det(B - xI)det(P⁻¹) = det(P)det(B - xI)(1/det(P)) = det(B - xI)

Por lo tanto, det(A - xI) = det(B - xI), lo que significa que A y B tienen el mismo polinomio característico.

Dimensión de la Imagen y Rango de la Matriz Asociada

Para una aplicación lineal f: E → E', donde E y E' son espacios vectoriales de dimensión finita, y A es la matriz asociada a f en bases dadas:

  • Los vectores f(e₁), f(e₂), ..., f(e<0xE2><0x82><0x99>), donde {e₁, ..., e<0xE2><0x82><0x99>} es una base de E, forman un conjunto de generadores para la imagen de f (Im(f)).
  • Las columnas de la matriz asociada A son precisamente las coordenadas de f(eᵢ) en la base de E'.
  • La dimensión de la imagen de f, denotada como dim(Im(f)), es igual al número de columnas linealmente independientes de la matriz asociada A.
  • Este número es, por definición, el rango de la matriz A.

En resumen: dim(Im(f)) = rango(A).

Matrices Semejantes y Valores Propios

Como se demostró anteriormente, si dos matrices A y B son semejantes, sus polinomios característicos son idénticos. Los valores propios de una matriz son las raíces de su polinomio característico. Por lo tanto, matrices semejantes deben tener los mismos valores propios.

Prueba: Valor Propio como Raíz del Polinomio Característico

Sea λ un valor propio de una matriz A y u un vector propio asociado no nulo. Por definición:

Au = λu

Reorganizando la ecuación:

Au - λu = 0

(A - λI)u = 0

Donde I es la matriz identidad. Esta ecuación implica que el vector u pertenece al núcleo (kernel) de la matriz (A - λI). Para que exista un vector propio no nulo u, el núcleo de (A - λI) debe ser no trivial (ker(A - λI) ≠ {0}).

Esto significa que la matriz (A - λI) no es invertible. Una matriz no es invertible si y solo si su determinante es cero:

det(A - λI) = 0

Esta es precisamente la definición del polinomio característico evaluado en λ. Por lo tanto, si λ es un valor propio, debe ser una raíz del polinomio característico.

Vectores Propios Distintos con Valores Propios Distintos

Sea f: E → E un endomorfismo con valores propios distintos λ₁ y λ₂ (λ₁ ≠ λ₂). Sean u y v vectores propios asociados a λ₁ y λ₂ respectivamente.

Demostraremos por reducción al absurdo que u y v son linealmente independientes.

Supongamos que u y v son linealmente dependientes. Entonces, existen escalares α y β, no ambos nulos, tales que αu + βv = 0.

Si α ≠ 0 y β ≠ 0, podemos escribir u = (-β/α)v o v = (-α/β)u. Consideremos el caso u = kv para algún escalar k.

Aplicamos f a esta relación:

  • f(u) = f(kv) = kf(v)
  • Como u y v son vectores propios: λ₁u = kλ₂v

Sustituimos u = kv en la ecuación anterior:

λ₁(kv) = kλ₂v

kλ₁v = kλ₂v

Dado que k ≠ 0 (si k=0, entonces u=0, lo cual no es un vector propio) y v ≠ 0, podemos simplificar:

λ₁ = λ₂

Esto contradice nuestra suposición de que los valores propios son distintos (λ₁ ≠ λ₂). Por lo tanto, la suposición de dependencia lineal es falsa, y u y v deben ser linealmente independientes.

Criterio de Cauchy para Convergencia

Una sucesión {x<0xE2><0x82><0x99>} en ℝⁿ tiene un límite finito si y solo si es una sucesión de Cauchy.

Una sucesión {x<0xE2><0x82><0x99>} es de Cauchy si para todo ε > 0, existe un entero n₀ tal que para todos los enteros m, n ≥ n₀, se cumple que:

||x<0xE2><0x82><0x98> - x<0xE2><0x82><0x99>|| < ε

Donde || ⋅ || denota una norma en ℝⁿ.

Entradas relacionadas: