Métodos Esenciales de Álgebra Lineal: Procedimientos para Sistemas, Matrices y Diagonalización
Clasificado en Matemáticas
Escrito el en
español con un tamaño de 5,97 KB
Conceptos Fundamentales de Álgebra Lineal: Procedimientos Clave
Nota sobre parámetros y variables comunes: Se utilizan las letras griegas $\alpha$ (alfa), $\lambda$ (lambda, en el original $\gamma$) y $\beta$ (beta) para representar parámetros o autovalores según el contexto.
1. Resolución de Sistemas de Ecuaciones Lineales
A) Sistemas con Parámetros
- Comprobar el rango de la matriz de coeficientes ($A$).
- Determinar los valores del parámetro que hacen que el determinante de la matriz de coeficientes sea cero ($|A|=0$).
- Construir la matriz ampliada ($A^*$) utilizando los valores encontrados en el paso anterior.
- Determinar el rango de $A$ y $A^*$ para cada valor, clasificando el sistema (Compatible Determinado, Compatible Indeterminado o Incompatible).
B) Sistemas sin Parámetros (Método de Cramer o Gauss)
- Calcular el determinante de la matriz de coeficientes ($|A|$).
- Si $|A|=0$, se debe comprobar el rango de la matriz de coeficientes y la ampliada (usando el método de Gauss, por ejemplo).
- Si $|A| \neq 0$, la única solución es la solución trivial ($x=y=z=0$).
- Si al resolver por Gauss se obtiene una fila de ceros y se introduce un parámetro (ej: $z=\lambda$), el sistema es Compatible Indeterminado (SCI).
Interpretación de Filas Nulas en la Matriz Ampliada:
- $(0 \ 0 \ 0 \ 0)$: Sistema Compatible Indeterminado (SCI).
- $(0 \ 0 \ 0 \ n)$, donde $n \neq 0$: Sistema Incompatible (SI).
- $(0 \ 0 \ n \ m)$, donde $n \neq 0$: Sistema Compatible Determinado (SCD), independientemente de si $m=0$ o $m \neq 0$.
2. Cálculo de la Matriz Inversa ($A^{-1}$)
- Hallar el determinante de la matriz ($|A|$). Debe ser distinto de cero ($|A| \neq 0$) para que exista la inversa.
- Calcular la matriz traspuesta ($A^T$) (intercambiando filas por columnas).
- Calcular la matriz de adjuntos (o cofactores). Se aplica la regla de los signos (cambiar el signo a las posiciones impares $i+j$).
- Dividir cada elemento de la matriz de adjuntos entre el determinante $|A|$.
3. Diagonalización de Matrices
- Calcular la matriz característica: $A - \lambda I$ (donde $I$ es la matriz identidad y $\lambda$ es el autovalor).
- Calcular el determinante de la matriz característica: $|A - \lambda I|$.
- Igualar el polinomio característico resultante a cero para encontrar los autovalores ($\lambda$): $|A - \lambda I| = 0$.
A) Autovalores Repetidos
Si algún autovalor ($\lambda$) se repite (multiplicidad algebraica $m_a > 1$):
- Calcular el autoespacio asociado a ese autovalor y reducir la matriz por el método de Gauss.
- Se comprueba la condición de diagonalización: La multiplicidad algebraica ($m_a$, veces que se repite $\lambda$) debe ser igual a la multiplicidad geométrica ($m_g$, número de parámetros necesarios para definir el autoespacio). Si $m_a = m_g$, la matriz es diagonalizable.
B) Construcción de la Matriz Diagonal ($D$)
Si la matriz es diagonalizable (ya sea porque todos los autovalores son distintos o porque se cumple la condición $m_a = m_g$):
- Calcular los autovectores ($v_x$) para cada autovalor distinto, resolviendo el sistema $(A - \lambda I)v = 0$.
- Cada autovalor proporciona uno o más autovectores (sustituyendo los parámetros por 1 y los demás por 0).
- Construir la matriz de paso ($P$) colocando los autovectores en columnas.
- Calcular la matriz inversa de $P$ ($P^{-1}$).
- La matriz diagonal $D$ se obtiene mediante la transformación de semejanza: $D = P^{-1} A P$. La matriz $D$ estará formada por los autovalores en la diagonal principal y ceros en el resto.
4. Propiedades de Vectores y Subespacios
Vectores Cuadrados: Independencia Lineal
Para saber si un conjunto de vectores cuadrados es linealmente libre o ligado:
- Si el determinante formado por los vectores (colocados como filas o columnas) es 0, los vectores son linealmente ligados (dependientes).
- Si el determinante es distinto de 0, son linealmente libres (independientes).
Vectores No Cuadrados: Demostración de Independencia
Para demostrar la independencia lineal de vectores no cuadrados:
- Se debe cumplir que sean linealmente libres y que el número de vectores sea igual al número de coordenadas (dimensión del espacio).
- Se plantea la combinación lineal nula: $\alpha(v_1) + \beta(v_2) + \dots = (0, 0, \dots)$. Ejemplo: $\alpha(1, 2) + \beta(3, 5) = (0, 0)$.
(Si se desea verificar si un vector es combinación lineal de otros, se realiza el mismo procedimiento, pero igualando la combinación lineal al vector dado y no al vector nulo).
Cálculo de Base y Dimensión de un Subespacio Vectorial
El subespacio debe cumplir una condición:
- Poner la condición despejando una variable y expresándola como combinación lineal de las otras variables.
- La dimensión del subespacio será el número de parámetros libres necesarios para definirlo.
- La base se obtiene sustituyendo cada parámetro libre por 1 (uno a la vez) y los demás por 0.
5. Aplicaciones Lineales: Matriz Asociada
- Se proporcionan las imágenes de los vectores de la base (o las funciones de transformación), donde los coeficientes de las variables y los resultados son números.
- Los coeficientes de las variables de la transformación corresponden a la matriz que multiplicará a la matriz de coordenadas desconocida, y se colocan en columnas.
- Los valores de los resultados de la transformación se colocan a la derecha del signo igual $(=)$ en columna.
- Se despeja la matriz de coordenadas interesada y se resuelve la ecuación matricial.