Conceptos Fundamentales de Cálculo Diferencial en Varias Variables
Clasificado en Matemáticas
Escrito el en español con un tamaño de 10,34 KB
Funciones Escalares y Vectoriales
- Función escalar: Es cualquier aplicación de la forma:
f: A ⊆ Rn → R | (x1,...,xn) → f(x) = y - Función vectorial: Es cualquier aplicación de la forma:
f: A ⊆ Rn → Rm | (x1,...,xn) → f(x) = y = (f1,...,fn)
El estudio de una función vectorial se reduce al estudio de cada una de sus componentes.
Curvas de Nivel
- Se denomina curva de nivel K ∈ R de una función escalar f al conjunto: Ck = {x ∈ A / f(x) = k}
- Las distintas curvas de nivel de una función están formadas por todos los puntos que tienen la misma imagen.
- Para funciones de 2 variables f(x, y), las curvas de nivel k se obtienen cortando la función por planos horizontales de ecuación z = k.
Teorema de Unicidad del Límite
- El límite de una función de varias variables en un punto, si existe, es único.
Derivabilidad y Derivada
- Derivable: Sea f: A ⊆ R → R una función, se dice que es derivable en un punto x0 ∈ A si existe y es finito el límite.
- Derivada. Interpretación geométrica:
- La derivada de una función f en un punto x0, es la pendiente de la recta tangente a f en x0.
- Ecuación de la recta tangente: y = f(x0) + f'(x0)(x - x0)
Diferencial
- Sea f: A ⊆ R → R derivable en x0 ∈ A. Llamamos diferencial de f en x0 a la aplicación lineal:
Df(x0): R → R |
h → Df(x0)(h) = f'(x0)h
Teorema de Rolle
- Sea f: [a, b] → R continua en [a, b] y derivable en (a, b) y f(a) = f(b). Entonces existe por lo menos un c ∈ (a, b) / f'(c) = 0.
Teorema del Valor Medio
- Sea f: [a, b] → R función continua en [a, b] y derivable en (a, b). Entonces existe por lo menos un c ∈ (a, b) / f'(c) = [f(b) - f(a)] / (b - a).
Derivada Direccional
- Sea f: A ⊆ Rn → R, sea e ∈ Rn un vector unitario, diremos que f es derivable en la dirección del vector e en el punto x0 si existe y es finito:
limt→0 [f(x0 + te) - f(x0)] / t = Def(x0)
Derivadas Parciales
- Sea f: A ⊆ Rn → R, sea x0 ∈ A. Se definen las derivadas parciales de f como las derivadas direccionales en x0 de f en la dirección de los vectores canónicos de Rn.
Gradiente
- Sea f: A ⊆ Rn → R y x0 ∈ A, tal que f admite derivadas parciales en x0. Se define el gradiente de f en x0 (∇f(x0)) como el vector de Rn:
∇f(x0) = (D1f(x0),...,Dnf(x0))
Diferencial en Varias Variables
- Sea f: A ⊆ Rn → R y x0 ∈ A. Se define la diferencial de f en x0 (Df(x0)) como la aplicación lineal:
Df(x0): Rn → R | h = (h1,...,hn) → Df(x0)(h) = (∇f(x0), h) - Diferenciable: Sea f: A ⊆ Rn → R y x0 ∈ A. f es diferenciable en el punto x0 si:
limh→0 [f(x0 + h) - f(x0) - Df(x0)(h)] / ||h|| = 0
siendo Df(x0) ∈ L(Rn, R) la aplicación diferencial. - Diferenciable: Sea G ⊆ Rn → Rm y x0 ∈ G. Se dice que es diferenciable en x0 si existe una aplicación lineal Df(x0) ∈ L(Rn, Rm) y Φ: G ⊆ Rn → Rm continua en x0 tal que Φ(x0) = 0 verificando que:
f(x) = f(x0) + Df(x0)(x - x0) + ||x - x0|| Φ(x)
Jacobiana
- Sea f: Rn → Rm. La matriz asociada a Df(x0) se llama jacobiana de f en x0 y se escribe:
Jf(x0) = ... (Matriz de derivadas parciales)
Continuidad de una Función en un Punto
- f: A ⊆ Rn → R y dado a ∈ A, f es continua en a ∈ A si:
limx→a f(x) = f(a) - f: A ⊆ Rn → Rm y dado a ∈ A, f es continua en a ∈ A si:
limx→a f(x) = f(a)
Diferencial (Aplicación)
- Df(x0): Rn → Rm | (h1,...,hn) → Df(x0)(h1,...,hn) = Jf(x0) (h1,...,hn)T
Función Homogénea
- Sea f: Rn → R una función. Se dice que f es homogénea de grado m si verifica:
f(tx) = tm f(x) ∀x ∈ Rn y ∀t > 0
Teorema de Euler
- Sea f: Rn → R una función diferenciable en Rn. Entonces f es homogénea de grado m si y solo si:
mf(x) = ∇f(x) · x
Teorema de Schwartz
- Si f: G ⊆ Rn → R es de clase r en G, es decir, f ∈ Cr(G), entonces todas las derivadas parciales de f de orden ≤ r respecto a los mismos índices coinciden.
Conjunto Convexo
- Sea A un conjunto de Rn. Se dice que A es un conjunto convexo si, y solo si, dados 2 puntos cualesquiera de A, el segmento que los une está contenido en A.
Envolvente Convexa
- Se denomina envolvente convexa de S ⊆ Rn y se denota por conv(S) a la intersección de todos los conjuntos convexos que contienen a S. conv(S) es el menor conjunto convexo que contiene a S.
Función Convexa
- f es convexa en M si y solo si:
f(αx + (1 - α)y) ≤ αf(x) + (1 - α)f(y) ∀α ∈ [0, 1] ∀x, y ∈ Rn - f es estrictamente convexa en M si y solo si:
f(αx + (1 - α)y) < αf(x) + (1 - α)f(y) ∀α ∈ (0, 1) ∀x, y ∈ Rn
Función Cóncava
- f es cóncava en M si y solo si:
f(αx + (1 - α)y) ≥ αf(x) + (1 - α)f(y) ∀α ∈ [0, 1] ∀x, y ∈ Rn - f es estrictamente cóncava en M si y solo si:
f(αx + (1 - α)y) > αf(x) + (1 - α)f(y) ∀α ∈ (0, 1) ∀x, y ∈ Rn
Máximo y Mínimo Local y Global
- Máximo local: Se dice que x0 ∈ X es un máximo local para el problema si:
∃ r > 0 / ∀ x ∈ B(x0, r) ∩ X se verifica que F(x) ≤ F(x0) - Máximo global: Diremos que x0 ∈ X es un máximo global para el problema si:
∀ x ∈ X se verifica que F(x) ≤ F(x0) - Mínimo local: Diremos que x0 ∈ X es un mínimo local para el problema si:
∃ r > 0 / ∀ x ∈ B(x0, r) ∩ X se verifica que F(x) ≥ F(x0) - Mínimo global: Se dice que x0 ∈ X es un mínimo global para el problema si:
∀ x ∈ X se verifica que F(x) ≥ F(x0)
Teorema de Weierstrass
- Dado el problema general: optimizar F(x) sujeto a x ∈ X.
- Si se verifica:
- X es un conjunto compacto y no vacío.
- La función objetivo F es continua.
- Entonces el problema admite un máximo y un mínimo global (es una condición suficiente, no necesaria).
Teorema Fundamental de la Programación Convexa
A. Problema Convexo
- Dado el problema: optimizar F(x) sujeto a x ∈ X.
- Diremos que es un problema convexo si se verifica:
- F es cóncava o convexa en X.
- X es un conjunto convexo.
B. Teorema de la Programación Convexa
- Para un problema de optimización convexo, si x0 ∈ X es un máximo local, entonces x0 es un máximo global.
- El conjunto de máximos de un problema de optimización convexo es un conjunto convexo.
- Por tanto, para que los máximos-mínimos locales sean máximos-mínimos globales, se tiene que cumplir:
- F cóncava o convexa en X.
- X conjunto convexo.
Punto Crítico
- Sea f: A ⊆ Rn → R.
- Todo punto x0 ∈ A / ∇f(x0) = Θ se llama punto crítico de f: máximo, mínimo o punto de silla.
- Los extremos relativos que no son extremos absolutos se llaman puntos de silla.
Multiplicadores de Lagrange
- El multiplicador de Lagrange en el óptimo nos informa de cómo se comportará el valor óptimo de la función en un entorno del punto óptimo (xc, yc) frente a cambios infinitesimales en el valor del término independiente: ΔF(c) = λ(c) · Δc.