viernes, 5 de julio de 2024

Derivadas parciales de una función compuesta, con dos variables independientes

En este artículo voy a calcular las derivadas parciales de primer orden de la función $z=f(u,v)$, donde $u=\phi(x,y)$ y $v=\Phi(x,y)$, siendo $x$ e $y$ variables independientes

El problema es bien sencillo y la solución es inmediata: $$\dfrac{\partial\,z}{\partial\,x}=\dfrac{\partial\,f}{\partial\,u}\,\dfrac{\partial\,u}{\partial\,x}+\dfrac{\partial\,f}{\partial\,v}\,\dfrac{\partial\,v}{\partial\,x} \quad (1)$$ $$\dfrac{\partial\,z}{\partial\,y}=\dfrac{\partial\,f}{\partial\,u}\,\dfrac{\partial\,u}{\partial\,y}+\dfrac{\partial\,f}{\partial\,v}\,\dfrac{\partial\,v}{\partial\,y} \quad (2)$$

-oOo-

Ejemplo: Dada la función $z=f(x,y)=\ln\,(u^2+v)$, donde $u=e^{x+y^2}$ y $v=x^2+y$, siendo $x$ e $y$ variables independientes. Voy a calcular las derivadas parciales de primer orden: $\dfrac{\partial\,z}{\partial\,x}$ y $\dfrac{\partial\,z}{\partial\,y}$

Hago los cálculos: $\dfrac{\partial\,f}{\partial\,u}=\dfrac{2u}{u^2+v}$, $\dfrac{\partial\,f}{\partial\,v}=\dfrac{1}{u^2+v}$, $\dfrac{\partial\,u}{\partial\,x}=e^{x+y^2}$, $\dfrac{\partial\,u}{\partial\,y}=2y\,e^{x+y^2}$, $\dfrac{\partial\,v}{\partial\,x}=2x$ y $\dfrac{\partial\,v}{\partial\,y}=1$

Con lo cual, sustituyendo en $(1)$ y $(2)$ se obtiene (después de operar y simplificar): $$\dfrac{\partial\,z}{\partial\,x}=2\,\dfrac{x+(e^{x+y^2})^2}{(e^{x+y^2})^2+x^2+y}$$ y $$\dfrac{\partial\,z}{\partial\,y}=\dfrac{4y\,(e^{x+y^2})^2+1}{(e^{x+y^2})^2+x^2+y}$$

$\diamond$

Derivación de una función compuesta con una única variable independiente

En este artículo voy a suponer que en la función $z=f(x;y,u,v)$ de una sola variable independiente, $x$, de modo que las tres últimas, dependan de la primera, $y=\phi(x)$, $u=\Phi(x)$ y $v=\varphi(x)$. En estas condiciones, calcularé la derivada de la función con respecto de dicha variable independiente, esto es: $\dfrac{dz}{dx}$, o lo que es lo mismo, $z'_x$.

Así, la derivada pedida puede escribirse de la forma $$\dfrac{dz}{dx}=\dfrac{\partial\,z}{\partial\,x}\,\dfrac{dx}{dx}+\dfrac{\partial\,z}{\partial\,y}\,\dfrac{\partial\,y}{\partial\,x}+\dfrac{\partial\,z}{\partial\,u}\,\dfrac{\partial\,u}{\partial\,x}+\dfrac{\partial\,z}{\partial\,v}\,\dfrac{\partial\,v}{\partial\,x}$$ pero como, en realidad, $y$ depende únicamente de $x$, y lo mismo sucede con $u$ y $v$, bien podemos escribir que $\dfrac{\partial\,y}{\partial\,x}=\dfrac{dy}{dx}$, $\dfrac{\partial\,u}{\partial\,x}=\dfrac{du}{dx}$ y $\dfrac{\partial\,v}{\partial\,x}=\dfrac{dv}{dx}$ lo anterior se traduce en

$$\dfrac{dz}{dx}=\dfrac{\partial\,z}{\partial\,x}+\dfrac{\partial\,z}{\partial\,y}\,\dfrac{dy}{dx}+\dfrac{\partial\,z}{\partial\,u}\,\dfrac{du}{dx}+\dfrac{\partial\,z}{\partial\,v}\,\dfrac{dv}{dx}$$

Ejemplo: Sea la función $z=x^2+\sqrt{y}$, donde $y=\sin(x)$. Voy a calcular $z'_x$. Entonces, según lo anterior, $z'_x\equiv \dfrac{dz}{dx}=\dfrac{\partial\,z}{\partial\,x}+\dfrac{\partial\,z}{\partial\,y}\,\dfrac{dy}{dx}=2x+\dfrac{1}{2\,\sqrt{\sin(x)}}\,\cos(x)$

$\diamond$

Derivadas parciales de orden superior de una función de varias variables independientes

Se considera una función $u=f(x,y,z)$, siendo $x,y$ y $z$ variables independientes. A modo de ejemplo, y siendo $u=z^2\,e^{x+y^2}$, voy a calcular una derivada parcial de orden $4$, por ejemplo $\dfrac{\partial^4\,u}{\partial^2\,x\,\partial\,y\,\partial\,z}$

Derivando en orden, de derecha a izquierda:
  $\dfrac{\partial\,u}{\partial\,z}=2z\,e^{x+y^2}$
    $\dfrac{\partial\,u}{\partial\,y\,\partial\,z}=\dfrac{\partial(2z\,e^{x+y^2})}{\partial\,y}=4yz\,e^{x+y^2}$
      $\dfrac{\partial\,u}{\partial\,x\partial\,y\,\partial\,z}=\dfrac{\partial\,(4yz\,e^{x+y^2})}{\partial\,x}=4yz\,e^{x+y^2}$
        $\dfrac{\partial\,u}{\partial\,x^2\,\partial\,y\,\partial\,z}=\dfrac{\partial\,u}{\partial\,x\,\partial\,x\,\partial\,y\,\partial\,z}=\dfrac{\partial\,(4yz\,e^{x+y^2})}{\partial\,x}=4yz\,e^{x+y^2}$

$\diamond$

Derivación de funciones implícitas

Consideremos que una variable $y$ sea función de otra, $x$, que, de manera implícita, venga dicha relación dada de la forma $F(x,y)=0$, ¿cuál es la derivada de $y$ con respecto a $z$, esto es, $y'_{x}$?

Hay una sola variable independiente, que es $x$. Bien, si $F(x,y)=0$, entonces $\dfrac{\partial\,F}{\partial\,x}\,dx+\dfrac{\partial\,F}{\partial\,y}\,dy=0$ y por tanto $$\dfrac{\partial\,F}{\partial\,x}+\dfrac{\partial\,F}{\partial\,y}\,\dfrac{dy}{dx}=0$$ y entendiendo que $y'_x \equiv \dfrac{dy}{dx}$, podemos escribir $$\dfrac{\partial\,F}{\partial\,x}+\dfrac{\partial\,F}{\partial\,y}\,y'_x=0$$ luego $$y'_x=-\dfrac{\dfrac{\partial\,F}{\partial\,x}}{\dfrac{\partial\,F}{\partial\,y}}$$

----

Ejemplo: Se quiere calcular $y'_x$ de la ecuación $x^2+y^2=1$

Parto pues de la función $F(x,y)=x^2+y^2-1$, escribiendo por tanto la ecuación de la forma $F(x,y)=0$, tenemos $\dfrac{\partial\,F}{\partial\,x}=2\,x$ y $\dfrac{\partial\,F}{\partial\,y}=2\,y$, luego $$y'_x=-\dfrac{2\,x}{2\,y}=-\dfrac{x}{y}$$

-oOo-

Desde luego, podemos encontrarnos con más de dos variables, de las cuales más de una de ellas sean variable independiente. Sea, por ejemplo, $F(x,y,z)=0$; aparecen aquí tres variables, una de las cuales, $z$ depende de las otras dos, $z=f(x,y)$, siendos éstas últimas independientes. Voy a calcular pues $z'_x$ y $z'_y$

Para calcular $z'_x$, supondremos que la variable $y$ sea constante, luego el diferencial de dicha variable es nulo. Por supuesto, se cumplirá que $\dfrac{\partial\,F}{\partial\,x}\,dx+\dfrac{\partial\,F}{\partial\,y}\,dy+\dfrac{\partial\,F}{\partial\,z}\,dz=0$ y teniendo en cuenta que $dy=0$, se tiene que $\dfrac{\partial\,F}{\partial\,x}\,dx+\dfrac{\partial\,F}{\partial\,y}\cdot 0 +\dfrac{\partial\,F}{\partial\,z}\,dz=0$, esto es, $\dfrac{\partial\,F}{\partial\,x}\,dx+\dfrac{\partial\,F}{\partial\,z}\,dz=0$. En consecuencia, $\dfrac{\partial\,F}{\partial\,x}+\dfrac{\partial\,F}{\partial\,z}\,\dfrac{dz}{dx}=0$, que es lo mismo que $\dfrac{\partial\,F}{\partial\,x}+\dfrac{\partial\,F}{\partial\,z}\,z'_x=0$, luego $$z'_x=-\dfrac{\dfrac{\partial\,F}{\partial\,x}}{\dfrac{\partial\,F}{\partial\,z}}$$

De manera análoga, para calcular $z'_y$, supondremos que la variable $x$ sea constante, luego el diferencial de esta variable es nulo. Por supuesto, se cumplirá que $\dfrac{\partial\,F}{\partial\,y}\,dy+\dfrac{\partial\,F}{\partial\,y}\,dy+\dfrac{\partial\,F}{\partial\,z}\,dz=0$ y teniendo en cuenta que $dx=0$, se tiene que $\dfrac{\partial\,F}{\partial\,y}\,dy+\dfrac{\partial\,F}{\partial\,x}\cdot 0 +\dfrac{\partial\,F}{\partial\,z}\,dz=0$, esto es, $\dfrac{\partial\,F}{\partial\,y}\,dy+\dfrac{\partial\,F}{\partial\,z}\,dz=0$. En consecuencia, $\dfrac{\partial\,F}{\partial\,y}+\dfrac{\partial\,F}{\partial\,z}\,\dfrac{dz}{dy}=0$, que es lo mismo que $\dfrac{\partial\,F}{\partial\,y}+\dfrac{\partial\,F}{\partial\,z}\,z'_y=0$, luego $$z'_x=-\dfrac{\dfrac{\partial\,F}{\partial\,y}}{\dfrac{\partial\,F}{\partial\,z}}$$

Ejemplo: Se quiere ahora calcular $z'_x$ y $z'_y$, dada la ecuación $e^z+x^2\,y+z+5=0$

Parto pues de la función $F(x,y,z)=e^z+x^2\,y+z+5$, escribiendo por tanto la ecuación de la forma $F(x,y,z)=0$, procedo a calcular las derivadas parciales: $\dfrac{\partial\,F}{\partial\,x}=2\,x\,y$, $\dfrac{\partial\,F}{\partial\,y}=x^2$ y $\dfrac{\partial\,F}{\partial\,z}=e^z+1$, luego $z'_x=-\dfrac{2\,x\,y}{e^z+1}$ y $z'_y=-\dfrac{x^2}{e^z+1}$

-oOo-

Referencias

  [1] R. Piskunov, Cálculo diferencial e integral, Montaner y Simón S.A., Barcelona, 1978.

$\diamond$

jueves, 4 de julio de 2024

Los operadores diferenciales lineales en el cálculo vectorial

Un aplicación lineal actúa de un espacio vectorial en otro, los dos definidos sobre un mismo cuerpo; en particular, un operador diferencial es una aplicación lineal que actúa sobre campos vectoriales definidos sobre una variedad diferenciable. En este contexto, recordaré aquí la definición del el operador nabla, a partir del cual se definen, a su vez, los operadores gradiente, rotacional, divergencia y laplaciano. En lo que sigue, me centraré en el espacio euclídeo $\mathbb{R}^3$.

El operador nabla se define como $\nabla:=\hat{i}\,\dfrac{\partial}{\partial\,x}+\hat{j}\,\dfrac{\partial}{\partial\,y}+\hat{k}\,\dfrac{\partial}{\partial\,z}$

El vector gradiente de un campo (función) escalar $f$, se define como $$\nabla\,f:=\left( \hat{i}\,\dfrac{\partial}{\partial\,x}+\hat{j}\,\dfrac{\partial}{\partial\,y}+\hat{k}\,\dfrac{\partial}{\partial\,z} \right)\,f=\hat{i}\,\dfrac{\partial\,f}{\partial\,x}+\hat{j}\,\dfrac{\partial\,f}{\partial\,y}+\hat{k}\,\dfrac{\partial\,f}{\partial\,z}$$

Dado un campo vectorial $\vec{F}=F_1\,\hat{i}+F_2\,\hat{j}+F_3\,\hat{k}$, se define la divergencia de dicho campo vectorial como el campo escalar $$\text{div}(\vec{F}):=\langle \nabla\,, \,\vec{F} \rangle = \dfrac{\partial\,F_1}{\partial\,x}+\dfrac{\partial\,F_2}{\partial\,y}+\dfrac{\partial\,F_3}{\partial\,z}$$

Por otra parte, el rotacional de un campo vectorial $\vec{F}=F_1\,\hat{i}+F_2\,\hat{j}+F_3\,\hat{k}$ proporciona otro campo vectorial, dado por $\text{rot}(\vec{F}):=\nabla \times \vec{F}=\begin{vmatrix}\hat{i} & \hat{j} & \hat{k} \\ \dfrac{\partial}{\partial\,x} & \dfrac{\partial}{\partial\,y} & \dfrac{\partial}{\partial\,z}\\ F_1 & F_2 & F_3\end{vmatrix}$

Cabe recordar también la definición del operador de Laplace, $\nabla^2$, que actúa sobre una función (campo) escalar $f$ para dar otra función (campo) escalar: es la divergencia del gradiente, esto es $$\nabla^2\,f:=\langle \nabla\,,\,\nabla\,f\rangle=\dfrac{\partial^2\,f}{\partial\,x^2}+\dfrac{\partial^2\,f}{\partial\,y^2}+\dfrac{\partial^2\,f}{\partial\,z^2}$$

-oOo-
Propiedades importantes:
  1. $\nabla(f+g)=\nabla\,f+\nabla\,g$
  2. $\nabla(k\,f)=k\,\nabla\,f$, siendo $k\,\in\mathbb{R}$
  3. $\nabla(f\,g)=f\,\nabla\,g+g\,\nabla\,f$
  4. $\nabla(f/g)=\dfrac{g\,\nabla\,f-f\,\nabla\,g}{g^2}$, para los puntos $\vec{x}\in \mathbb{R}^3$ en los que $g(\vec{x})\neq 0$
  5. $\text{div}(\vec{F}+\vec{G})=\text{div}(\vec{F})+\text{div}(\vec{G})$
  6. $\text{rot}(\vec{F}+\vec{G})=\text{rot}(\vec{F})+\text{rot}(\vec{G})$
  7. $\text{div}(f\,\vec{F})=f\,\text{div}(\vec{F})+\nabla\,f$
  8. $\text{div}\,(\vec{F} \times \vec{G})=\langle \vec{G}\,,\,\text{rot}(\vec{F} \rangle-\langle \vec{F}\,,\,\text{rot}(\vec{G} \rangle$
  9. $\text{rot}(f\,\vec{F})=f\,\text{rot}(\vec{F})+\nabla\,f \times \vec{F}$
  10. $\nabla^2\,(f\,g)=f\,\nabla^2\,g+g\,\nabla^2\,f+2\,(\langle \nabla\,f\,,\,\nabla\,g\rangle)$
  11. $\text{div}(\nabla\,f \times \nabla\,g)=0$
  12. $\text{div}(f\,\nabla\,g-g\,\nabla\,f)=f\,\nabla^2\,g-g\,\nabla^2\,f$
Propiedades muy importantes:
  • El rotacional de un vector gradiente es el vector nulo: $\nabla \times \nabla\,f = \vec{0}$ (los campos gradientes son irrotacionales)
  • La divergencia del rotacional (de una función vectorial) es el escalar cero: $\text{div}(\text{rot}(\vec{F}))=0$

-oOo-

Referencias:

  [1] J.E. Marsden; E.J. Tromba, Cálculo vectorial, Pearson Educación S.A., Madrid, 2004.
  [2] H. Goldstein, Mecánica clásica, Reverté, Barcelona, 1990.

$\diamond$

miércoles, 3 de julio de 2024

Ejemplo de análisis de los extremos relativos de una forma cúbica

En este artículo voy a encontrar los extremos relativos de la siguiente forma cúbica $$z\equiv f(x,y)=x^3+y^3-9xy+27$$

Impongo las condiciones necesarias para la existencia de extremos relativos: $$\left\{ \begin{matrix} \dfrac{\partial,z}{\partial\,x}=0 \\ \dfrac{\partial,z}{\partial\,y}=0 \end{matrix}\right. $$

con lo cual obtenemos el siguiente sistema de ecuaciones: $$\left\{ \begin{matrix} x^2-3\,y=0 \\ -3x+y^2=0 \end{matrix}\right. $$

De la primera ecuación, podemos escribir $x=\sqrt{3\,y}$, y sustituyendo esta expresión en la segunda, llegamos a $y^2=3\,\sqrt{3\,y}$; elevando al cuadrado sendos miembros: $y^4=27\,y$, esto es, $y^4-27\,y=0$, que puede expresarse de la forma $y\,(y^3-27)=0\Leftrightarrow y=\left\{\begin{matrix}0 \Rightarrow x=0\\ 3\Rightarrow x=\pm\,3\end{matrix}\right.$

Acabamos de obtener pues los siguientes tres extremos: $A(0,0)$, $B(3,3)$ y $C(-3,3)$

Para averiguar la naturaleza de dichos extremos, calculo ahora el determinante de la matriz hessiana: $\text{det}(H)=\begin{vmatrix}\dfrac{\partial^2\,z}{\partial\,x^2} & \dfrac{\partial^2\,z}{\partial\,x\,\partial\,y} \\ \dfrac{\partial^2\,z}{\partial\,y\,\partial\,x} & \dfrac{\partial^2\,z}{\partial\,y^2} \end{vmatrix}=\begin{vmatrix}6x & -9 \\ -9 & 6y\end{vmatrix}$

Recordemos ahora el teorema de clasificación:

  1. $f(x,y)$ presenta un máximo relativo en $P$ si $\text{det}(H)_P\gt0$ y $ \left(\dfrac{\partial^2\,z}{\partial\,x^2}\right)_P \lt0$
  2. $f(x,y)$ presenta un mínimo relativo en $P$ si $\text{det}(H)_P\gt0$ y $ \left(\dfrac{\partial^2\,z}{\partial\,x^2}\right)_P \gt0$
  3. $f(x,y)$ no presenta máximo ni mínimo en $P$ si $\text{det}(H)_P\lt 0$
  4. Con sólo el teorema no es posible decidir en caso de que $\text{det}(H)_P=0$, por lo que habría que complementar el análisis con otros elementos

    Entonces, sustituyendo las coordenadas de los extremos relativos, procedo a calcular el valor correspondiente del determinante hessiano en cada punto encontrado:

    • $\text{det}(H)_A \lt 0 \therefore A$ no corresponde ni a un máximo ni a un mínimo; se trata de un punto de silla
    • $\text{det}(H)_B\gt 0$ y $\left(\dfrac{\partial^2\,z}{\partial\,x^2}\right)_B \gt 0 \therefore B$ corresponde a un mínimo local
    • $\text{det}(H)_c=\lt 0$ y $\left(\dfrac{\partial^2\,z}{\partial\,x^2}\right)_C \gt 0 \therefore C$ corresponde a un máximo local

    $\diamond$

El método de los multiplicadores de Lagrange para encontrar máximos y mínimos de una función de varias variables, sujeta a un sistema de ligaduras

Veamos, primero, el caso de una función de $2$ variables con una ecuación de ligadura, para, finalmente, extenderlo al caso general de una función de $n$ variables y $m$ ligaduras

Consideremos la función $u\equiv f(x,y)=0$, con una ecuación de ligadura $\varphi(x,y)=0$. Impongamos la conción necesaria de extremo: $\dfrac{du}{dx}=0$

Teniendo en cuenta que la variable $y$ depende de la variable $x$, podemos escribir $\dfrac{du}{dx}=\dfrac{\partial\,f}{\partial\,x}+\dfrac{\partial\,f}{\partial\,y}\,\dfrac{dy}{dx}$, con lo cual: $\dfrac{\partial\,f}{\partial\,x}+\dfrac{\partial\,f}{\partial\,y}\,\dfrac{dy}{dx}=0 \quad (1)$

Por otra parte, en cuanto a la ligadura, es claro que $\dfrac{d\,\varphi}{dx}=0$, por lo tanto: $$\dfrac{\partial\,\varphi}{\partial\,x}+\dfrac{\partial\,\varphi}{\partial\,y}\,\dfrac{dy}{dx}=0 \quad (2)$$

Multipliquemos ahora $(2)$ por un escalar, $\lambda$ (al que denominamos multiplicador de Lagrange) y sumemos, miembro a miembro, con $(1)$: $$\dfrac{\partial\,f}{\partial\,x}+\dfrac{\partial\,f}{\partial\,y}\,\dfrac{dy}{dx} + \lambda\,\left( \dfrac{\partial\,\varphi}{\partial\,x}+\dfrac{\partial\,\varphi}{\partial\,y}\,\dfrac{dy}{dx} \right)=0 \quad (3)$$

Esta igualdad $(3)$ se cumple pues en todos los puntos donde haya un extremo. Si elegimos el parámetro $\lambda$ de tal manera que, para los valores de $x$ e $y$ del supuestro extremo de la función $u$, $\dfrac{\partial\,\varphi}{\partial\,x}+\dfrac{\partial\,\varphi}{\partial\,y}\,\dfrac{dy}{dx} $ se anule, entonces, para que se cumpla $(3)$ deberá suceder que $\dfrac{\partial\,f}{\partial\,x}+\dfrac{\partial\,f}{\partial\,y}\,\dfrac{dy}{dx}$ sea también igual a $0$

Todo ello constituye un sistema de $3$ ecuaciones con $3$ incóngitas ($x,y,\lambda$): $$\left\{\begin{matrix}\dfrac{\partial\,\varphi}{\partial\,x}+\dfrac{\partial\,\varphi}{\partial\,y}\,\dfrac{dy}{dx} =0 \\ \dfrac{\partial\,f}{\partial\,x}+\dfrac{\partial\,f}{\partial\,y}\,\dfrac{dy}{dx}=0 \\ \varphi(x,y)=0 \end{matrix}\right.$$

-oOo-

En general, si $u=f(x_1,x_2,\ldots,x_n)$ es un función de $n$-variables, interviniendo $m$ ecuaciones de ligadura: $\varphi_1(x_1,x_2,\ldots,x_n)=0$, $\varphi_2(x_1,x_2,\ldots,x_n)=0$,$\ldots$,$\varphi_m(x_1,x_2,\ldots,x_n)=0$, para encontrar los extremos relativos de $f$ por el método de los multiplicadores de Lagrange (necesitaremos $m$ multiplicadores, tantos como ecuaciones de ligadura tengamos: $\lambda_1,\lambda_2\,\ldots,\lambda_m$), deberemos formar en primer lugar la función auxiliar $$\displaystyle F(x_1,x_2,\ldots,x_n;\lambda_1\,\ldots,\lambda_m)=f(x_1,x_2,\ldots,x_n)+\sum_{i=1}^{n}\,\lambda_i\,\varphi_i(x_1,x_2,\ldots,x_m)$$ e imponer las condiciones necesarias, componiendo así un sistema de $n+m$ ecuaciones con $n+m$ incógnitas ($\{x_{1}^{*},\ldots,x_{n}^{*};\lambda_{1}^{*},\ldots,\lambda_{m}^{*} \}$ $$\left\{ \begin{matrix} \dfrac{\partial\,F}{\partial\,x_1}=0\\ \dfrac{\partial\,F}{\partial\,x_2}=0\\\vdots \\ \dfrac{\partial\,F}{\partial\,x_n}=0\\ \varphi_1=0\\ \varphi_2=0\\ \vdots \\ \varphi_m=0 \end{matrix}\right.$$ es decir $$\left\{ \begin{matrix} \dfrac{\partial\,f}{\partial\,x_1}+\lambda_1\,\dfrac{\partial\,\varphi_1}{\partial\,x_1}+\lambda_2\,\dfrac{\partial\,\varphi_2}{\partial\,x_1}+\ldots+\lambda_m\,\dfrac{\partial\,\varphi_m}{\partial\,x_1}=0 \\ \dfrac{\partial\,f}{\partial\,x_2}+\lambda_1\,\dfrac{\partial\,\varphi_1}{\partial\,x_2}+\lambda_2\,\dfrac{\partial\,\varphi_2}{\partial\,x_2}+\ldots+\lambda_m\,\dfrac{\partial\,\varphi_m}{\partial\,x_2}=0 \\ \vdots \{ n \\ \dfrac{\partial\,f}{\partial\,x_n}+\lambda_1\,\dfrac{\partial\,\varphi_1}{\partial\,x_n}+\lambda_2\,\dfrac{\partial\,\varphi_2}{\partial\,x_n}+\ldots+\lambda_m\,\dfrac{\partial\,\varphi_m}{\partial\,x_n}=0 \\ \varphi_1(x_1,\ldots,x_n)=0 \\ \varphi_2(x_1,\ldots,x_n)=0 \\ \vdots \{ m \\ \varphi_m(x_1,\ldots,x_n)=0 \end{matrix}\right. $$

Una vez resuelto este sistema, habrá que estudiar cada uno de los puntos obtenidos, para dilucidar qué tipo de extremos son.

---

Ejemplo: Se quiere adornar en sus bordes un espejo rectangular de área $A$ (expresada en centímetros cuadrados). Los adornos en los lados horizontals cuestan $p$ céntimos de euro por centímetro cuadrado, y los adornos en los lados verticales cuestan $q$ céntimos por centímetro cuadrado, ¿cuáles son las dimensiones del espejo que minimizan el gasto de los adornos?

Denotemos por $x$ e $y$ las dimensiones del marco (horizontal y vertical, respectivamente), y por $u$ la función de coste. Esta función vendrá dada por $u=f(x,y)=2\,p\,x+2\,q\,y$; y como $A=x\,y$, la función de la (única) ligadura $\varphi(x,y)=0$ es $xy-A=0$. Al haber una sola ecuación de ligadura, necesitamos un sólo multiplicador de Lagrange.

La función auxiliar es, por tanto, $F(x,y;\lambda)=f(x,y)+\lambda\,\varphi(x,y)$. Imponiendo las condiciones necesarias para obtener los extremos relativos, escribiremos: $$\left\{\begin{matrix}\dfrac{\partial\,F}{\partial\,x}=0 \\ \dfrac{\partial\,F}{\partial\,y}=0 \\ \varphi(x,y)=0\end{matrix} \right. $$ es decir $$\left\{ \begin{matrix} \dfrac{\partial\,f}{\partial\,x}+\lambda\,\dfrac{\partial\,\varphi}{\partial\,x}=0 \\ \dfrac{\partial\,f}{\partial\,y}+\lambda\,\dfrac{\partial\,\varphi}{\partial\,y}=0 \\ \varphi(x,y)=0\end{matrix} \right. $$ donde $\dfrac{\partial\,f}{\partial\,x}=2\,p$, $\dfrac{\partial\,f}{\partial\,y}=2\,q$, $\dfrac{\partial\,\varphi}{\partial\,x}=y$, $\dfrac{\partial\,\varphi}{\partial\,y}=x$ en consecuencia, el sistema a resolver es $$\left\{ \begin{matrix} 2\,p+\lambda\,y=0 \\ 2\,q+\lambda\,x=0 \\ xy-A=0\end{matrix} \right.$$

Obtenemos como solución un punto extremo, de coordenadas: $x^*=\sqrt{\dfrac{q}{p}\,A}$ e $y^*=\sqrt{\dfrac{p}{q}\,A}$. Para dicho punto, el valor de la función de coste es $$u^*=2\,(p\,x^*+q\,y^*)=4\,\sqrt{p\,q\,A}$$

Naturalmente, tenemos que estudiar el tipo de extremo que hemos encontrado: La ecuación de la ligadura puede escribirse en función de una sola variable, por ejemplo, de $x$, ya que si $x\,y=A$, se tiene que $y=\dfrac{A}{x}$, por lo que la función de coste $u(x,y)$ es $2\,p\,x+2\,q\,y=2\,p\,x+2\,q\,\dfrac{A}{x}=:\widetilde{u}(x)$.

Veamos qué ocurre pues con la función de coste $\widetilde{u}(x)$ en el extremo relativo que hemos calculado, $x^*=\sqrt{\dfrac{q}{p}\,A}$; lo haremos empleando el criterio de la segunda derivada (de la función $\widetilde{u}(x)$): Como la primera derivada es $\widetilde{u}'(x)=2\,p-2\,q\,\dfrac{A}{x^2}$, la segunda derivada es $\widetilde{u}''(x)=4\,q\,\dfrac{A}{x^3}$, luego $\widetilde{u}''(x^*)=4\,q\,\dfrac{A}{(\sqrt{\dfrac{q}{p}\,A})^3}\gt 0 \therefore$ el extremo relativo encontrado corresponde a un mínimo local. Además, por la gráfica de la función $\widetilde{u}(x)$, se ve claramente que dicho mínimo local es el mínimo absoluto.

-oOo-

Referencias:

  [1] J.E. Marsden; E.J. Tromba, Cálculo vectorial, Pearson Educación S.A., Madrid, 2004.
  [2] vv.aa., Multiplicadors de Lagrange               [https://ca.wikipedia.org/wiki/Multiplicadors_de_Lagrange], Wikipedia, 2022.
  [3] H. Goldstein, Mecánica clásica, Reverté, Barcelona, 1990.

$\diamond$

martes, 2 de julio de 2024

Un ejemplo de desarrollo de Taylor de una función de varias variables alrededor de un cierto punto del espacio afín euclídeo

En este ejercicio voy a desarrollar por Taylor, hasta el segundo orden, la función de varias variables $f(x,y)=\sin(x+2y)$ (definida en $U\subset \mathbb{R}^2$ sobre $\mathbb{R}$) en el entorno de $\vec{x_0}$, siendo éste $\vec{0}=(0,0)$

Por el teorema de Taylor se sabe que el desarrollo en el entorno de $\vec{x_0}$ hasta el segundo orden se escribe de la forma $\displaystyle f(\vec{x_0}+\vec{h})=f(\vec{x_0})+\sum_{i=1}^{2}\,h_i\,\dfrac{\partial\,f}{\partial\,x_i}(\vec{x_0})+\dfrac{1}{2}\,\sum_{i,j=1}^{2}\,h_i\,h_j\,\dfrac{\partial^2\,f}{\partial\,x_i\,\partial\,x_j}(\vec{x_0})+R_2\,(\vec{0}\,,\,\vec{h})$, donde $\vec{h}=(h_1,h_2)$ y siendo $R_2(\vec{x_0}\,\vec{h})$ el término de error

En el caso concreto que nos ocupa,
$\displaystyle f(\vec{0}+\vec{h})=f(\vec{0})+\sum_{i=1}^{2}\,h_i\,\dfrac{\partial\,f}{\partial\,x_i}(\vec{0})+\dfrac{1}{2}\,\sum_{i,j=1}^{2}\,h_i\,h_j\,\dfrac{\partial^2\,f}{\partial\,x_i\,\partial\,x_j}(\vec{0})+R_2\,(\vec{0}\,,\,\vec{h})$

El valor de la función en $\vec{0}$ es $f(0,0)=\sin(0+2\cdot 0)=\sin(0)=0$. Recordemos también que las derivadas cruzadas son iguales: $\dfrac{\partial^2\,f}{\partial\,x\,\partial\,y}(\vec{x_0})=\dfrac{\partial^2\,f}{\partial\,y\,\partial\,x}(\vec{x_0})$, es decir $\dfrac{\partial^2\,f}{\partial\,x\,\partial\,y}(\vec{0})=\dfrac{\partial^2\,f}{\partial\,y\,\partial\,x}(\vec{0})$, con lo cual, en el sumatorio de las derivadas cruzadas del desarrollo se tiene que $\dfrac{1}{2}\,h_1\,h_2\,\dfrac{\partial^2\,f}{\partial\,x\,\partial\,y}(\vec{x_0})+\dfrac{1}{2}\,h_1\,h_2\,\dfrac{\partial^2\,f}{\partial\,y\,\partial\,x}(\vec{x_0})=2\cdot \dfrac{1}{2}\,h_1\,h_2\,\dfrac{\partial^2\,f}{\partial\,x\,\partial\,y}(\vec{x_0})=h_1\,h_2\,\dfrac{\partial^2\,f}{\partial\,x\,\partial\,y}(\vec{x_0})$

Calculando las derivadas paricales,

  •   $\dfrac{\partial\,f}{\partial\,x}=\cos(x+2y)$, luego $\dfrac{\partial\,f}{\partial\,x}(\vec{0})=\cos(0+2\cdot 0)=\cos(0)=1$
  •   $\dfrac{\partial\,f}{\partial\,y}=2\,\cos(x+2y)$, luego $\dfrac{\partial\,f}{\partial\,y}(\vec{0})=2\,\cos(0+2\cdot 0)=2\,\cos(0)=2$
  •   $\dfrac{\partial^2\,f}{\partial^2\,x}=\dfrac{\partial\,\cos(x+2y)}{\partial\,x}=-\sin(x+2y)$, luego $\dfrac{\partial^2\,f}{\partial^2\,x}(\vec{0})=-\sin(0+2\cdot 0)=-\sin(0)=0$
  •   $\dfrac{\partial^2\,f}{\partial^2\,y}=\dfrac{\partial\,(2\,\cos(x+2y))}{\partial\,y}=-2\cdot 2\sin(x+2y)=-4\,\sin(x+2y)$, luego $\dfrac{\partial^2\,f}{\partial^2\,y}(\vec{0})=-4\,\sin(0+2\cdot 0)=-4\,\sin(0)=-4\,\cdot 0=0$
  •   $\dfrac{\partial^2\,f}{\partial\,x\,\partial\,y}=\dfrac{\partial^2\,f}{\partial\,y\,\partial\,x}=\dfrac{\partial}{\partial\,y}\,\left(\dfrac{\partial\,f}{\partial\,x}\right)=\dfrac{\partial}{\partial\,y}\,\left( \cos(x+2y) \right)=-2\,\sin(x+2y)$, luego $\dfrac{\partial^2\,f}{\partial\,x\,\partial\,y}(\vec{0})=\dfrac{\partial^2\,f}{\partial\,y\,\partial\,x}(\vec{0})=-2\,\sin(0+2\cdot 0)=-\sin(0)=0$

El desarrollo pedido queda pues de la forma $f(\vec{0}+\vec{h})=f(\vec{h})=0+h_1+2\,h_2+0+0+0+R_2\,(\vec{0},\vec{h})=h_1+2\,h_2+R_2\,(\vec{0},\vec{h})=0$ cuando $\vec{h}=(h_1\,h_2) \rightarrow (0,0)$, donde $\dfrac{R_2\,(\vec{0},\vec{h})}{\left\|\vec{h}\right\|^2}\rightarrow \,0$ (cuando $\vec{h} \rightarrow \vec{0}$)
$\diamond$

Un ejemplo de cálculo y análisis de los puntos críticos de una forma cuádrica

En este ejercicio me propongo determinar los puntos críticos de la siguiente función de varias variables, que corresponde a una forma cuádrica $$f(x,y)\equiv z=x^2-xy+y^2+3x-2y+1$$ clasificándolos según su naturaleza (máximos o mínimos)

Los puntos críticos se obtienen resolviendo el sistema de ecuaciones (condición necesaria) $$\left\{\begin{matrix}\dfrac{\partial z}{\partial x}=0\\\dfrac{\partial z}{\partial y}=0\end{matrix}\right.$$ esto es $$\left\{\begin{matrix}2x-y+3=0\\-x+2y-2=0\end{matrix}\right.$$ del cual se obtiene un único punto crítico, $P(-\frac{4}{3},\frac{1}{3})$

Para saber qué tipo de punto crítico es, recurrimos al teorema de clasificación: Calculando el determinante de la matriz Hessiana en el punto crítico $$ \text{det}(H)_P:=\begin{vmatrix}\left(\dfrac{\partial^2\,z}{\partial\,x^2} \right)_P & \left(\dfrac{\partial^2\,z}{\partial\,x\,\partial\,y} \right)_P\\ \left(\dfrac{\partial^2\,z}{\partial\,y\,\partial\,x} \right)_P & \left(\dfrac{\partial^2\,z}{\partial\,y^2} \right)_P \end{vmatrix} $$ y, por comodidad, denotando: $a:=\left(\dfrac{\partial^2\,z}{\partial\,x^2} \right)_P$, $b:=\left(\dfrac{\partial^2\,z}{\partial\,x\,\partial\,y}\right)_P=\left(\dfrac{\partial^2\,z}{\partial\,y\,\partial\,x}\right)_P$ y $c:=\left(\dfrac{\partial^2\,z}{\partial\,y^2} \right)_P$, se tiene que dicho determinante en el punto $P$ viene dado por $ac-b^2$. Entonces:

  1. $f(x,y)$ presenta un máximo relativo en $P$ si $\text{det}(H)_P\gt0$ y $a\lt0$
  2. $f(x,y)$ presenta un mínimo relativo en $P$ si $\text{det}(H)_P\gt0$ y $a\gt0$
  3. $f(x,y)$ no presenta máximo ni mínimo en $P$ si $\text{det}(H)_P\lt 0$
  4. Con tan sólo el teorema no es posible decidir en caso de que $\text{det}(H)_P=0$, por lo que habría que complementar el análisis con otros elementos

En el caso que nos ocupa, vemos que $a=2$, $b=-1$ y $c=2$, por lo que $\text{det}(H)_P=3\gt 0$ y al ser $a\gt 0$, con lo cual deducimos, por $(2)$, que la función tiene un mínimo relativo en el punto $P(-\frac{4}{3},\frac{1}{3})$. Y sustituyendo las coordenadas de dicho punto en la función, vemos que el valor de dicho mínimo relativo es igual a $-\dfrac{4}{3}$

$\diamond$

lunes, 1 de julio de 2024

Un ejemplo de aplicación de la función $W$ de Lambert para resolver ecuaciones del tipo $x^{x^a}=b$

Me he encontrado, en concreto, con la siguiente ecuación: $x^{\sqrt[3]{x}}=2$. Teniendo en cuenta la propiedad que define la función $W$ de Lmabert: $W(e^{f(x)}\,f(x))=f(x)$, voy a resolverla en el conjunto de los números reales, empleando esta técnica

Me he encontrado, en concreto, con la siguiente ecuación:
  $x^{\sqrt[3]{x}}=2$
    $x^{x^{\frac{1}{3}}}=2$
      $\left( \left(x^{\frac{1}{3}}\right)^3 \right)^{x^{\frac{1}{3}}}=2$
        $\left( x^{\frac{1}{3}}\right)^{3\,x^{\frac{1}{3}}}=2$
          $3\,x^{\frac{1}{3}}\,\ln(x^{\frac{1}{3}})=\ln(2)$
            $x^{\frac{1}{3}}\,\ln(x^{\frac{1}{3}})=\ln(2^\frac{1}{3})$
              $e^{\ln\,(x^{\frac{1}{3}})}\,\ln(x^{\frac{1}{3}})=\ln(2^\frac{1}{3})$
                $W\left(e^{\ln\,(x^{\frac{1}{3}})}\,\ln(x^{\frac{1}{3}})\right)=W(\ln(2^\frac{1}{3}))$
                  $\ln\,(x^{\frac{1}{3}})=W(\ln(2^\frac{1}{3}))$
                    $\frac{1}{3}\,\ln(x)=W(\ln(2^\frac{1}{3}))$
                      $\ln(x)=3\,W(\ln(2^\frac{1}{3}))$
                        $\displaystyle x=e^{3\,W(\ln(2^\frac{1}{3}))}$
                          $\displaystyle x=e^{3\,W(\ln(\sqrt[3]{2})}\approx 1.7730$
$\diamond$