Fundamentos de Control Moderno y Optimización: Conceptos Clave de Sistemas Multivariables
Clasificado en Matemáticas
Escrito el en
español con un tamaño de 3,55 KB
Conceptos Fundamentales en Teoría de Control Avanzada
A continuación, se presentan nueve conceptos clave que diferencian la teoría de control moderna (multivariable) de la convencional, abordando temas cruciales como la controlabilidad, la observabilidad y la optimización dinámica mediante el Principio del Máximo de Pontryagin.
Contraste entre Control Moderno y Convencional
La Teoría de Control Moderna (multivariable) contrasta con la Teoría de Control Convencional en que:
R: La primera se aplica a sistemas de múltiples entradas y múltiples salidas (MIMO), que pueden ser lineales o no lineales, con parámetros variables o invariables en el tiempo, mientras que la segunda solo tiene aplicación en sistemas lineales, invariantes en el tiempo, y de una sola entrada y una sola salida (SISO).
Observabilidad de Sistemas de Estado
El sistema descrito por las siguientes ecuaciones de estado: $dx_1/dt = x_1 + x_2$, $dx_2/dt = 2x_1 + u$, $y = x_1$.
R: Observable.
Condición de Desacoplamiento Multivariable
La condición de desacoplamiento del sistema multivariable de control es equivalente a pedir que:
R: La matriz del sistema en lazo abierto de control $G \times G_r$ (donde $G$ es la matriz de transferencia del objeto de control y $G_r$ es la matriz de transferencia del controlador) sea una matriz diagonal.
Controlabilidad Regular de Sistemas Lineales Estacionarios
La condición necesaria y suficiente para que un sistema continuo lineal estacionario de orden "n" descrito por las siguientes ecuaciones: $x(t) = Ax(t) + Bu(t)$ (1a) y $y(t) = Cx(t) + Dx(t)$ (2b), sea controlable de manera regular es que:
R: Se cumpla que: $rango(H_1) = rango(H_2) = \dots = rango(H_p) = n$, donde $dim(H_1) = dim(H_p) = n \times n$.
Principio del Máximo de Pontryagin en Control Óptimo Lineal
Para que exista el control óptimo de un sistema lineal, el Principio del Máximo de Pontryagin es la condición:
R: Que no se puede utilizar.
Hamiltoniano Cero en Optimización Dinámica
El valor del Hamiltoniano para el control óptimo es igual a cero, cuando el problema de optimización dinámica cumple que:
R: El estado final $x(t_f)$ es dado (fijo), el tiempo final $t_f$ es libre (desconocido), y las funciones $f_0, f_1, f_2, \dots, f_n$ no dependen directamente del tiempo (sistema autónomo).
Observador de Orden Reducido
El observador de orden reducido descrito por la ecuación siguiente:
R: Los autovalores de la submatriz $A_{22}$ son apropiados.
Reducción a Optimización Estática
¿Cuándo un problema de optimización dinámica se reduce a un problema de optimización estática?
R: Cuando los disturbios dominantes en el sistema de control son lentos en comparación con la dinámica del objeto de control.
Problema de Doble Valor en la Frontera (TPBVP)
El problema de doble valor en la frontera (Two-Point Boundary Value Problem - TPBVP) en la síntesis del control óptimo utilizando el Principio del Máximo de Pontryagin, consiste en la búsqueda:
R: De los valores iniciales de las variables conjugadas (costate) conociendo los valores finales de dichas variables, o los valores finales de las variables de estado y los valores iniciales de las variables de estado.