martes, 7 de octubre de 2025

Distancia euclídea entre dos puntos de un espacio euclídeo $\mathbb{R}^n$

La distancia entre dos puntos cualesquiera, $P$ y $Q$, de un espacio euclídeo se define de la siguiente manera: $$\text{distancia}(P,Q)=\text{distancia}(Q,P)=\left\| \overset{\rightarrow}{PQ} \right\|=\sqrt{\langle \overset{\rightarrow}{PQ}\,,\,\overset{\rightarrow}{PQ} \rangle}=\sqrt{\langle \overset{\rightarrow}{QP}\,,\,\overset{\rightarrow}{QP} \rangle}$$ donde $\langle\,,.,\,\rangle$ designa un producto escalar euclídeo. $\diamond$

lunes, 6 de octubre de 2025

Distancia euclídea entre dos rectas que se cruzan

Consideremos dos rectas, $r_1:(P,\vec{u})$ y $r_2:(Q,\vec{v})$ en $\mathbb{R}^3$, y, por tanto, sus ecuaciones en forma continua son: $$r_1:\dfrac{x-x_P}{u_1}=\dfrac{y-y_P}{u_2}=\dfrac{z-z_P}{u_3}$$ $$r_2:\dfrac{x-x_Q}{v_1}=\dfrac{y-y_Q}{v_2}=\dfrac{z-z_Q}{v_3}$$ de tal manera que se crucen (no se cortan), esto es, $\Leftrightarrow \text{rango}(\vec{u},\vec{v},\overset{\rightarrow}{PQ})=3$. En estas condiciones, queremos calcular la distancia entre las dos rectas, $\text{distancia}(r_1,r_2)$. Entonces, podemos empezar encontrando un plano $\pi$ que contenga a los vectores $\vec{u}$ y $\vec{v}$, para, a continuación, obtener el vector normal unitario al mismo, $\vec{n}_1$. Finalmente, encontraremos dicha distancia con ayuda del producto escalar euclídeo: $$\text{distancia}(r_1,r_2)=\langle \vec{n}_1\,,\,\overset{\rightarrow}{PQ} \rangle$$

---

Veamos ahora los pormenores del procedimiento. Para calcular un vector normal a $\pi$, podemos hacerlo de dos maneras:

  1. Mediante el producto vectorial: $\vec{n}=\begin{vmatrix}\hat{i}&\hat{j}&\hat{k}\\u_1&u_2&u_3\\v_1&v_2&v_3\end{vmatrix}$, donde $\mathcal{C}=\{\hat{i}=(1,0,0),\hat{j}=(0,1,0),\hat{k}=(0,0,1) \}$ es la base canónica del espacio $\mathbb{R}^3$
  2. Obteniendo la ecuación del plano $\sigma=(Q,\vec{u},\vec{v})$ -o, también, si se prefiere, del plano $\sigma'=((P,\vec{u},\vec{v})$-, uno u otro nos vale. Así, como ya sabemos, $$\sigma:\begin{vmatrix}u_1&v_1&x-x_P\\u_2&v_2&y-y_P\\ u_3&v_3&z-z_P\end{vmatrix}=0$$ con lo cual, desarrollando el determinante, llegaremos a la ecuación implícita del plano $$\sigma:\,Ax+By+Cz+D=0$$ por lo que sabremos que un vector normal a $\sigma$ es $\vec{n}=(A,B,C)$
Luego, toda vez hayamos obtenido un vector $\vec{n}$ normal al plano $\sigma$, el correspondiente vector normal unitario será $\vec{n}_1=\dfrac{\vec{n}}{\left\|\vec{n}\right\|}$

$\diamond$

domingo, 5 de octubre de 2025

Incidencias de una recta y un plano en $\mathbb{R}^3$

Sean los planos $\pi:Ax+By+Cz+D=0$ y $\pi':A'x+B'y+C'z+D'=0$ que intersecan, determinando una recta $r$. Consideremos también otro plano distinto de $\pi$ y de $\pi'$: $\pi'':A''x+B''y+C''z+D''=0$ El estudio de la incidencia de dichos planos lo podemos hacer a partir del análisis de rangos del sistema de ecuaciones lineales $$\left\{\begin{matrix}Ax+By+Cz+D=0 \\ A'x+B'y+C'z+D'=0 \\ A''x+B''y+C''z+D''=0\end{matrix}\right.$$ que en forma matricial podemos expresar como $$\begin{pmatrix}A&B&C\\A'&B'&C'\\A''&B''&C''\end{pmatrix}\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}D\\D'\\D''\end{pmatrix}$$ Entonces, denotando por $M=\begin{pmatrix}A&B&C\\A'&B'&C'\\ A''&B''&C''\end{pmatrix}$ a la matriz de los coeficientes y por $\tilde{M}=\left(\begin{array}{ccc|c}A&B&C&D\\A'&B'&C'&D'\\ A''&B''&C''&D''\end{array}\right)$ a la matriz ampliada de los coeficientes se tiene que:

  • Si $\text{rango}(M)=\text{rango}(\tilde{M})=3$, la recta $r$ corta a $\pi''$; la solución del sistema es el punto de intersección.
  • Si $\text{rango}(M)=2$ y $\text{rango}(\tilde{M})=3$, el sistema es incompatible, luego $r$ y $\pi''$ no tienen puntos en común; esto es, la recta $r$ y el plano $\pi''$ son paralelos
  • Si $\text{rango}(M)=\text{rango}(\tilde{M})=2$, el vector normal a $\pi''$: $\vec{n}_{\pi''}=(A'',B'',C'')$ es combinación lineal de los respectivos vectores normales a $\pi$ y $\pi'$: $(A,B,C)$ y $(A',B',C')$, esto es, $(A'',B'',C'')=\alpha\,(A,B,C)+\beta\,(A',B',C')$;$\,\alpha,\beta\in \mathbb{R}$, luego en esta situación tenemos un haz de planos cuya arista es la recta $r$
$\diamond$

Incidencia de rectas en $\mathbb{R}^3$

Sean dos rectas, $r:(P,\vec{u})$ y $s:(Q,\vec{v})$ en $\mathbb{R}^3$. Entonces:

  • $r= s \Leftrightarrow \text{rango}(\vec{u},\vec{v},\overset{\rightarrow}{PQ})=1$
  • $r \parallel s\, (\text{siendo}, r\neq s) \Leftrightarrow \text{rango}(\vec{u},\vec{v})=1$ y $\text{rango}(\vec{u},\overset{\rightarrow}{PQ})=2=\text{rango}(\vec{v},\overset{\rightarrow}{PQ})$
  • $r$ y $s$ se cortan $\Leftrightarrow \text{rango}(\vec{u},\vec{v})=\text{rango}(\vec{u},\vec{v},\overset{\rightarrow}{PQ})=2$
  • $r$ y $s$ se cruzan pero no se cortan $\Leftrightarrow \text{rango}(\vec{u},\vec{v},\overset{\rightarrow}{PQ})=3$
$\diamond$

viernes, 3 de octubre de 2025

Incidencias de dos planos en $\mathbb{R}^3$

Sean los planos $\pi:Ax+By+Cz+D=0$ y $\pi':A'x+B'y+C'z+D'=0$. El estudio de la incidencia de dichos planos lo podemos hacer a partir del análisis de rangos del sistema de ecuaciones lineales $$\left\{\begin{matrix}Ax+By+Cz+D=0 \\ A'x+B'y+C'z+D'=0\end{matrix}\right.$$ que en forma matricial podemos expresar como $$\begin{pmatrix}A&B&C\\A'&B'&C'\end{pmatrix}\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}D\\D'\end{pmatrix}$$ Entonces, denotando por $M=\begin{pmatrix}A&B&C\\A'&B'&C'\end{pmatrix}$ a la matriz de los coeficientes y por $\tilde{M}=\left(\begin{array}{ccc|c}A&B&C&D\\A'&B'&C'&D'\end{array}\right)$ a la matriz ampliada de los coeficientes se tiene que:

  • Si $\text{rango}(M)=\text{rango}(\tilde{M})=2$, la solución del sistema es una variedad lineal que tiene dimensión igual a $3-2=1$, luego corresponde a una recta; esto es, los dos planos se intersecan en una recta.
    • Nota: En el caso que tengamos infinitos planos intersecándose en una misma recta, hablamos de un haz de planos concurrentes. Pongamos que dos planos cualesquiera de dicho haz sean $\pi_1:\,A_1\,x+B_1\,y+C_1\,z+D_1=0$ y $\pi_2:\,A_2\,x+B_2\,y+C_2\,z+D_2=0$, entonces la ecuación de dicho haz viene dada por $\alpha\,(A_1\,x+B_1\,y+C_1\,z+D_1)+\beta\,(A_2\,x+B_2\,y+C_2\,z+D_2)=0\;\forall\,\alpha\,,\,\beta \in \mathbb{R}$
  • Si $\text{rango}(M)=\text{rango}(\tilde{M})=1$, la solución del sistema es una variedad lineal que tiene dimensión igual a $3-1=2$, luego corresponde a un plano, al mismo plano que uno y otro; esto es, los dos planos son coincidentes
    • Nota: Veámoslo desde otro punto de vista: Consideremos dos planos cuyas determinaciones -dadas por un punto y dos vectores coplanarios independientes- respectivas sean $\sigma_1:(P_1,\vec{u}_1,\vec{v}_1)$ y $\sigma_2:(P_2,\vec{u}_2,\vec{v}_2)$, entonces $\sigma_1=\sigma_2$ si y sólo si existen escalares $a,b,c,d,e,f\in \mathbb{R}$ tales que $$\left\{\begin{matrix}\vec{u}_1=a\,\vec{u}_2+b\,\vec{v}_2 \\ \vec{v}_1=c\,\vec{u}_2+d\,\vec{v}_2\\ \overset{\rightarrow}{P_1\,P_2}=e\,\vec{u}_2+f\,\vec{v}_2\end{matrix}\right. $$
  • Si $\text{rango}(M)=1$ y $\text{rango}(\tilde{M})=2$, el sistema es incompatible (teorea de Rouché-Fröbenius), esto es, no tiene solución; luego esta situación corresponde a dos planos paralelos no coincidentes
    • Nota: En el caso que tengamos infinitos planos paralelos, hablamos de un haz de planos paralelos. Pongamos que uno esos planos sea, por ejemplo, $\pi:\,A\,x+B\,y+C\,z+D_1=0$, entonces la ecuación de dicho haz de planos paralelos viene dada por $A\,x+B\,y+C\,z+\lambda=0\;\forall\,\lambda\,\in \mathbb{R}$
$\diamond$

sábado, 27 de septiembre de 2025

Ecuación implícita de un plano

Sea $\pi$ un plano del espacio afín $\mathbb{R}^3$ que viene determinado por un punto $P(x_P,y_P,z_P)$ y dos vectores contenidos independientes en el plano $\pi$: $\vec{u}=(u_1,u_2,u_3)$ y $\vec{v}=(v_1,v_2,v_3)$. Veamos cómo deducir las ecución vectorial, las ecuaciones cartesianas, y la ecuación implícita de dicho plano.

Consideremos un punto $X(x,y,t)$ genérico de $\pi$, entonces podemos encontrar dos escalares $\alpha,\beta\in \mathbb{R}$ tales que $\overset{\rightarrow}{PX}=\alpha\,\vec{u}+\beta\,\vec{v}$ y por tanto $\overset{\rightarrow}{OX}-\overset{\rightarrow}{OP}=\alpha\,\vec{u}+\beta\,\vec{v}$, que es la ecuación vectorial del plano, siendo $O$ el origen del sistema de referencia afín. Esto es, $\overset{\rightarrow}{OX}=\overset{\rightarrow}{OP}+\alpha\,\vec{u}+\beta\,\vec{v}$; y, de ahí, podemos escribir las ecuaciones paramétricas de $\pi$: $$\left\{\begin{matrix}x=x_P+\alpha\,u_1+\beta\,v_1 \\ y=y_P+\alpha\,u_2+\beta\,v_2 \\ z=z_P+\alpha\,u_3+\beta\,v_3\end{matrix}\right.$$

A partir de aquí, deduciremos la ecuación del plano en forma implícita: Teniendo en cuenta que el sistema de ecuaciones lineales $$\left\{\begin{matrix}\alpha\,u_1+\beta\,v_1 = x-x_P\\ \alpha\,u_2+\beta\,v_2 =y-y_P\\ \alpha\,u_3+\beta\,v_3=z-z_P\end{matrix}\right.$$ con incógnitas, $\alpha$ y $\beta$, es compatible y determinado deberá cumplirse (teorema de Rouché-Fröbenius) la igualdad de rangos entre la matriz de los coeficientes y la matriz ampliada: $$\text{rango}\begin{pmatrix}u_1 & v_1\\ u_2 & v_2\\u_3 & v_3\end{pmatrix}=\text{rango}\left(\begin{array}{cc|c}u_1 & v_1 & x-x_P\\u_2 & v_2 & y-y_P\\u_3 & v_3 & z-z_P\end{array}\right)=2 \Leftrightarrow \begin{vmatrix}u_1 & v_1 & x-x_P \\ u_2 & v_2 & y-y_P \\u_3 & v_3 & z-z_P\end{vmatrix}=0$$ y, desarrollando el determinante por los elementos de la tercera columna, se obtiene: $$\begin{vmatrix}u_2&v_2\\u_3&v_3\end{vmatrix}\,(x-x_P)+(-1)\cdot \begin{vmatrix}u_1&v_1\\u_3&v_3\end{vmatrix}\,(y-y_P)+\begin{vmatrix}u_1&v_1\\u_2&v_2\end{vmatrix}\,(z-z_P)=0$$ Denotando (por comodidad) $A=\begin{vmatrix}u_2&v_2\\u_3&v_3\end{vmatrix}$, $B=-\begin{vmatrix}u_1&v_1\\u_3&v_3\end{vmatrix}$ y $C=\begin{vmatrix}u_1&v_1\\u_2&v_2\end{vmatrix}$,
$$A\,(x-x_P)+B\,(y-y_P)+C\,(z-z_P)=0$$ o lo que es lo mismo: $$A\,x+B\,y+C\,z+\left(-A\,x_P-B\,y_P-C\,z_P \right)=0$$ y denotando $D=-(A\,x_P+B\,y_P+C\,z_P)$, llegamos a la ecuación del plano en forma implícita:
$$\pi:\,A\,x+B\,y+C\,z+D=0 \quad (1)$$

-oOo-

Sea ahora $\pi$ un plano del espacio afín $\mathbb{R}^3$ que viene determinado por tres puntos del mismo $P(x_P,y_P,z_P)$, $Q(x_Q,y_Q,z_Q)$ y $R(x_R,y_R,z_R)$ :

Consideremos, como en el caso anterior, un punto $X(x,y,t)$ genérico de $\pi$, entonces podemos encontrar dos escalares $\alpha,\beta\in \mathbb{R}$ tales que $\overset{\rightarrow}{PX}=\alpha\,\overset{\rightarrow}{PQ}+\beta\,\overset{\rightarrow}{PR}$ y por tanto $\overset{\rightarrow}{OX}-\overset{\rightarrow}{OP}=\alpha\,\overset{\rightarrow}{PQ}+\beta\,\overset{\rightarrow}{PR}$, que es la ecuación vectorial del plano, siendo $O$ el origen del sistema de referencia afín. De ahí, podemos escribir las ecuaciones paramétricas de $\pi$: $$\left\{\begin{matrix}x-x_P=\alpha\,(x_Q-x_P)+\beta\,(x_R-x_P) \\ y-y_P=\alpha\,(y_Q-y_P)+\beta\,(y_Q-y_P) \\ z-z_P=\alpha\,(z_Q-z_P)+\beta\,(z_R-z_P)\end{matrix}\right.$$

Entendiendo lo anterior como un sistema de ecuaciones lineales cuyas incógnitas son $\alpha$ y $\beta$: $$\left\{\begin{matrix}\alpha\,(x_Q-x_P)+\beta\,(x_R-x_P)=x-x_P \\ \alpha\,(y_Q-y_P)+\beta\,(y_Q-y_P)=y-y_P \\ \alpha\,(z_Q-z_P)+\beta\,(z_R-z_P)=z-z_P\end{matrix}\right.$$

A partir de aquí, deduciremos la ecuación del plano en forma implícita, teniendo en cuenta que el sistema de ecuaciones lineales, con incógnitas, $\alpha$ y $\beta$, es compatible y determinado deberá cumplirse (teorema de Rouché-Fröbenius) la igualdad de rangos entre la matriz de los coeficientes y la matriz ampliada:
$\text{rango}\begin{pmatrix}x_Q-x_P & x_R-x_P\\ y_Q-y_P & y_R-y_P\\z_Q-z_P & z_R-z_P\end{pmatrix}=\text{rango}\left(\begin{array}{cc|c}x_Q-x_P & x_R-x_P & x-x_P\\y_Q-y_P & y_R-y_P & y-y_P\\z_Q-z_P & z_R-z_P & z-z_P\end{array}\right)=2 \Leftrightarrow$ $$\begin{vmatrix}x_Q-x_P & x_R-x_P & x-x_P\\y_Q-y_P & y_R-y_P & y-y_P\\z_Q-z_P & z_R-z_P & z-z_P\end{vmatrix}=0 \quad (2)$$ que nos lleva a la misma ecuación que la descrita en (1): $$Ax+By+Cz+D=0$$ En algunos libros, podemos ver la ecuación (2), que como se acaba de notar es lo mismo que (1), escrita de manera equivalente como el determinante de orden $4$:
$\begin{vmatrix}1&0&0&0\\x_P&x_Q-x_P & x_R-x_P & x-x_P\\y_P& y_Q-y_P & y_R-y_P & y-y_P\\ z_P & z_Q-z_P & z_R-z_P & z-z_P \end{vmatrix}\overset{c_1+c_2\rightarrow\,c_2\\c_1+c_3\rightarrow\,c_3\\c_1+c_4\rightarrow\,c_4 }{=}$
$$\pi:\,\begin{vmatrix}1&1&1&1\\x_P&x_Q&x_R&x \\y_P&y_Q&y_R&y\\z_P&z_Q&z_R&z \end{vmatrix}=0$$

-***-

Observación:
Acabamos de ver el procedimiento para obtener la ecuación implícita (y también la vectorial) de un plano determinado por un punto del mismo, $P$, y dos vectores independientes del mismo, $\vec{u}$ y $\vec{v}$, determinación que podemos notar de la forma $\pi:(P,\vec{u},\vec{v})$. Sin embargo, en algunas ocasiones, quizá tengamos como datos una información equivalente, como, por ejemplo, un vector del plano: i) tres puntos del mismo, ii) un vector y dos puntos, iii) una recta del plano -determinada por un punto de la misma y un vector director de la misma- y un punto, también del plano, exterior a la recta. En cualquiera de los casos, podemos reducirlo a lo expuesto en este artículo (un punto y dos vectores). Veamos cómo hacerlo, pongamos que en el caso (iii):

Consideremos una recta de dicho plano $\pi$ determinada por un vector director y un punto $R$ de la misma $r_{\pi}:(\vec{w}_r,R)$; y, además, un punto $S$ de $\pi$ exterior a $r_{\pi}$. Pues bien, entonces, una determinación de con dos vectores y un punto del mismo es $\pi:(R,\vec{w},\overset{\rightarrow}{RS})$, y, a partir de ella, ya podemos proceder tal como se ha explicado.

$\diamond$

jueves, 25 de septiembre de 2025

Ecuación de una recta del espacio afín $\mathbb{R}^3$ en forma continua

Sea $r$ una recta del espacio afín $\mathbb{R}^3$ determinada por un punto $P(x_P,y_P,z_P)$ y un vector $\vec{v}=(v_1,v_2,v_3)$. Vamos a deducir la ecuación de dicha recta en forma continua

Consideremos un punto $X(x,y,t)$ genérico de $r$, entonces $$\text{rango}\,\begin{pmatrix}v_1\\ v_2\\ v_3\end{pmatrix}=\text{rango}\,\begin{pmatrix}v_1 &x-x_P \\ v_2 &y-y_P \\ v_3 &z-z_P \end{pmatrix}=1 \Leftrightarrow \left\{\begin{matrix}\begin{vmatrix}v_1 & x-x_P \\ v_2 & y -y_P\end{vmatrix}=0 \Rightarrow \dfrac{x-x_P}{v_1} = \dfrac{y-y_P}{v_2} \\ \\ \begin{vmatrix}v_2 & y-y_P \\ v_3 & z -z_P\end{vmatrix}=0 \Rightarrow \dfrac{y-y_P}{v_1} = \dfrac{z-z_P}{v_3} \end{matrix}\right.$$ pudiendo escribir por tanto la ecuación (en forma continua) de la recta como $$r:\,\dfrac{x-x_P}{v_1} = \dfrac{y-y_P}{v_2}=\dfrac{z-z_P}{v_3}$$ $\diamond$

La estructura de A-módulo

Mediante el concepto de estructura de A-módulo se extiende el de espacio vectorial (e.v.). Recordemos que un e.v. se define sobre un cuerpo. Pues bien, un A-módulo es muy parecido (se cumplen las mismas propiedades), con la salvedad de que en vez de definirse sobre un cuerpo se define sobre un anillo. El concepto de A-módulo permite así desarrollar, por ejemplo, el álgebra de tensores.

$\diamond$

lunes, 22 de septiembre de 2025

Solución genérica al problema de valor inicial de una EDO lineal de primer orden

Consideremos la ecuación diferencial lineal de primer orden no homogénea $$y'+P(x)\,y=Q(x)$$ siendo $P$ y $Q$ funciones continuas en un intervalo abierto $I$ de $\mathbb{R}$. Consideremos ahora un punto $a\in I$ y un número real cualquiera $b$. Entonces (teorema) existe una única función $y=f(x)$ que satisface la condición inicial $f(a)=b$, y es la siguiente: $$f(x)=b\,e^{-A(x)}+e^{-A(x)}\,\int_{a}^{x}\,Q(t)\,e^{A(t)}\,dt,\quad \text{donde}\; A(x)=\int_{a}^{x}\,P(t)\,dt$$ Nota. Véase la siguiente referencia en la que hay una demostración de este teorema: Tom M. Apostol, Calculus I (p. 377-382), Reverté, Barcelona, 2009.

Veamos un ejemplo muy sencillo, en el que encontraremos todas las soluciones de la EDO lineal de primer orden, tomando por ejemplo $a=1$ en la condición inicial $f(a)=b$, esto es $f(1)=b$: $$y'+y=x$$ En este caso, $P(x)=1$ y $Q(x)=x$. Entonces, $A(x)=\int_{1}^{x}\,1\cdot dt = x-1$, con lo cual $e^{-A(x)}=e^{-(x-1)}$ y $e^{A(t)}=e^{t-1}$; y, de acuerdo con el resultado expuesto, se tiene que $$f(x)=b\,e^{-(x-1)}+e^{-(x-1)}\,\int_{1}^{x}\,t\,e^{t-1}\,dt$$ esto es, $$f(x)=b\,e^{-(x-1)}+e^{-(x-1)}\,\left[ e^{t-1}\,(t-1) \right]_{1}^{x}=b\,e^{-(x-1)}+e^{-(x-1)}\,\left(e^{x-1}\,(x-1) \right)=b\,e^{-(x-1)}+x-1$$ dicho de otro modo, $y=b\,e^{-(x-1)}+x-1$ es la solución general de la ecuación diferencial lineal de primer orden no homogénea propuesta, que puede escribirse de la forma $y=b\,e^{-x}\,e^1+x-1$, es decir, $y=b\cdot e\,e^{-x}+x-1$, donde $b\cdot e$ puede entenderse como la correspondiente constante de integración, a la que denominaremos $C$. Esto es, la solución general es $$y=C\,e^{-x}+x-1$$

Observación: Puede comprobarse que, sustituyendo este resultado en la ecuación diferencial, $y'+y=x$, el primer miembro de la misma resulta igual al segundo, como debe ser. $\diamond$

-oOo-

Comentario: Otra manera de llegar a la solución consiste en tener en cuenta que la solución general es la suma de la solución de la ecuación homogénea, $y'+y=0$, y de una solución particular (que denotaremos por $\tilde{y}$), y que, como el el segundo miembro de la EDO no homogénea es $x$ (un término polinómico de grado $1$), postulamos que la solución particular tiene también la forma de un polinomio de grado uno, $\tilde{y}=\alpha\,x+\beta \quad (2)$, con lo cual $\tilde{y}'=\alpha$. Entonces, como dicha solución ha de verificar la ecuación diferencial $(1)$, vemos que $\alpha + (\alpha\,x+\beta)=x \Leftrightarrow \alpha=1 \quad y \quad \beta=-1$, con lo cual $\hat{y}=x-1$. Por otra parte, fácilmente se ve que la solución de la ecuación homogénea $y'+y=0$ es $y=C\,e^{-x}$, donde $C$ es la constante de integración. Entonces, para acabar, sabemos que la solución general viene dada por la suma de la solución de la e. homogénea y y de la solución particular, de ahí que encontremos también así el resultado ya visto antes a partir del teorema al que nos referíamos: $$y=Ce^{-x}+(x-1)$$ $\diamond$

jueves, 18 de septiembre de 2025

Expresión de una ecuación diferenciales ordinaria de orden superior a uno mediante un sistema de ecuaciones diferenciales ordinarias de orden uno

Dada una EDO lineal de orden superior a uno, ésta puede reducirse a un sistema de EDOs lineales de orden uno. De esta manera, es posible abordar el problema de la existencia y unicidad de solución (dadas las correspondientes condicions iniciales) partiendo del problema ya resueldo de la existencia y unicidad para EDOs lineales de orden superior de primer orden.

Ejemplo de introducción:
Consideremos la EDO de orden 2 $$y''+y'+y=x+1 \quad (1)$$ donde $y$ depende de $x$

Pues bien, denotemos $y$ por $y_1$, con lo cual $y_1'=y'$; y, $y_1'$ por $y_2$, por lo que $y_2'=y''$, entonces (1) puede expresarse mediante el siguiente sistem de EDOs de primer orden: $$\left\{\begin{matrix}y_1'&=&y_2 \\ y_2'+y_2+y_1&=&x+1\end{matrix}\right.$$ esto es $$\left\{\begin{matrix}y_1'&=&y_2 \\ y_2'&=&-y_1-y_2+x+1\end{matrix}\right.$$ que podemos expresar también en forma matricial: $$\begin{pmatrix}y_1'\\y_2'\end{pmatrix}=\begin{pmatrix}0&1\\ -1&-1\end{pmatrix}\begin{pmatrix}y_1\\y_2\end{pmatrix}+\begin{pmatrix}0\\x+1\end{pmatrix}$$ y al que podemos referirnos de una manera más cómoda escribiendo $$Y'=P\,Y+Q\quad (2)$$ El problema de resolver el sistema de ecuaciones se traduce en encontrar una función vectorial $Y$ que satisfaga la ecuación matricial $(2)$ con la condición inicial $Y(a)=B$, donde $a\in J\subset \mathbb{R}$ y $B$ es un vector $(b_1,b_2)^\top$ que nos viene dado.

En el caso de que el sistema de ecuaciones constase de una sola ecuación diferencial, sabemos que, siendo ésta del tipo lineal y (en general) no homogénea, , $y'+P(x)\,y=Q(x)$, la solución viene dada por $$y(x)=e^{-A(x)}\,Y(a)+e^{-A(x)}\,\int_{a}^{x}\,e^{A(t)}\,Q(t)\,dt$$ donde $A(x)=\int_{a}^{t}\,P(t)\,dt$ y $a$ es un punto cualquiera del intervalo $J$ de continuidad de las funciones del problema. Pues bien, resulta que este resultado se generaliza (teoremas) para una ecuación diferencial con matrices como las que aparecen en el sistema de ecuaciones que hemos planteado, siendo dicha solución de la forma $(2)$.

Entramos así en el interesante problema de tener que calcular integrales con matrices, el cual, poco a poco, iremos desarrollando.

$\diamond$

miércoles, 17 de septiembre de 2025

Raíz n-ésima de un número complejo

Recordemos que los $n$ números complejos que son solución de $\sqrt[n]{z}$, donde $z=s\,e^{i\,\beta}$, tienen la forma $w_k =\sqrt[n]{s}\,e^{i\,\dfrac{\beta+2\,\pi\cdot k}{n}}\;,k=0,1,\ldots,n-1$

Ejemplo: ¿$\sqrt[4]{16\,i}$? El argumento de la raíz cuaddrada es $z=16\,i=2^4\,e^{i\,\frac{\pi}{2}}$, entonces $s=2^4$ y $\beta=\dfrac{\pi}{2}$, con lo cual la solución está formada por cuatro valores (complejos), puesto que el índice del radical es $4$ $$w_k=\sqrt[4]{2^4}\;e^{i\,\dfrac{\frac{\pi}{2}+2\,\pi \cdot k}{4}}\;; k=0,1,2,3$$ esto es, $$\displaystyle \left\{ \begin{matrix} w_0=2\,e^{i\,\frac{1}{8}\,\pi}\\ w_1=2\,e^{i\,\frac{5}{8}\,\pi} \\ w_2=2\,e^{i\,\frac{9}{8}\,\pi} \\ w_3=2\,e^{i\,\frac{13}{8}\,\pi} \end{matrix} \right.$$ $\diamond$

jueves, 11 de septiembre de 2025

Algunos cálculos rutinarios de raíces de números complejos

  1. ¿$\sqrt{1-i}$? El argumento de la raíz cuaddrada es $1-i=\sqrt{2}\,e^{-i\,\frac{\pi}{4}}$, entonces $s=\sqrt{2}$ y $\beta=\dfrac{\pi}{4}$, con lo cual la solución viene dada por dos valores (el índice del radical es $2$) $$w_k=\sqrt{s}\;e^{i\,\dfrac{\beta+2\,\pi \cdot k}{2}}\;; k=0,1$$ esto es, $\displaystyle \left\{\begin{matrix} w_0=\sqrt{\sqrt{2}}\,e^{\frac{i\,(-\frac{\pi}{4}+2\,\pi \cdot 0)}{2}}=2^{1/4}\,e^{-i\,\pi/8}\\ w_1=\sqrt{\sqrt{2}}\,e^{\frac{i\,(-\frac{\pi}{4}+2\,\pi \cdot 1)}{2}}=2^{1/4}\,e^{i\,\frac{7}{8}\,\pi}\end{matrix}\right.$
  2. ¿$\sqrt[3]{-8}$? El argumento de la raíz cúbica es $-8=8\,e^{i\,\pi}$, luego $s=8$ y $\beta=\pi$, por lo tanto la solución consta de tres valores (el índice del radical es $3$): $$w_k=\sqrt[3]{s}\;e^{i\,\dfrac{\beta+2\,\pi \cdot k}{3}}\;; k=0,1,2$$ es decir, $\displaystyle \left\{\begin{matrix} w_0=\sqrt[3]{8}\,e^{\frac{i\,(-\frac{\pi}{3}+2\,\pi \cdot 0)}{2}}=2\,e^{i\,\frac{\pi}{3}}\\ w_1=\sqrt[3]{8}\,e^{\frac{i\,(-\frac{\pi}{3}+2\,\pi \cdot 1)}{2}}=2\,e^{i\,\pi}\\ w_2=\sqrt[3]{8}\,e^{\frac{i\,(-\frac{\pi}{3}+2\,\pi \cdot 2)}{2}}=2\,e^{i\,\frac{5}{3}\,\pi}\end{matrix}\right.$

$\diamond$

miércoles, 10 de septiembre de 2025

Obtención de una base ortogonal de $\mathbb{R}^3$ a partir de una base cualquiera de dicho espacio mediante el procedimiento de Gram-Schmidt

Consideremos una base no ortogonal de $\mathbb{R}^3$: $\mathcal{B}=\{\vec{v}_1,\vec{v}_2,\vec{v}_3\}$. Para obtener una base ortogonal, $\mathcal{O}=\{\vec{e}_1,\vec{e}_2,\vec{e}_3\}$ a partir de los vectores de $\mathcal{B}$ recurrimos a la siguiente propiedad: dados dos vectores cualesquiera, pongmamos que $\vec{v}_1$ y $\vec{v}_2$ la diferencia entre el vector $\vec{v}_2$ y el vector proyección de $\vec{v}_1$ sobre $\vec{v}_1$ es un vector perpendicular a $\vec{v}_1$. Por otra parte, para encontrar el tercer vector de la base ortogonal que buscamos, éste tendrá que ser perpendicular al plano al que pertenecen los dos primeros vectores de la base ortogonal que hayamos encontrado, por lo tanto aplicaremos la propiedad referida al tercer vector en relación al primero y también al segundo. Es proceso se conoce como ortogonalización de Gram-Schmidt.

Nota: Otra manera de obtener el tercer vector de la base ortogonal a partir de los dos primeros es a partir del producto vectorial de los dos primeros, pues este vector, como es sabido, es perpendicular al plano al que pertenecen los dos primeros, y por tanto es perpendicular a uno y otro.

Discribámoslo paso a paso:

  1. El primer $\mathcal{B}$ lo consideraremos el primer vector de $\mathcal{O}$ (si bien podemos tomar cualquiera de los otros dos): $\vec{e}_1:=\vec{v}_1$
  2. El segundo vector de $\mathcal{O}$ vendrá dado entonces por $$\vec{e}_2=\vec{v}_2-\overset{\rightarrow}{\text{proy}}_{\vec{e}_1}\,(\vec{v}_2)$$ luego
    $\vec{e}_2=\vec{v}_2- \langle\vec{v_2}\,,\,\dfrac{\vec{e}_1}{\left\| \vec{e}_1\right\|}\rangle\,\dfrac{\vec{e}_1}{\left\|\vec{e}_1\right\|}$
      $=\vec{v}_2- \langle\vec{v_2}\,,\,\vec{e}_1 \rangle\,\dfrac{\vec{e}_1}{\left\|\vec{e}_1\right\|^2}$
        $=\vec{v}_2- \langle\vec{v_2}\,,\,\vec{e}_1 \rangle\,\dfrac{\vec{e}_1}{\langle\vec{e}_1\,,\,\vec{e}_1\rangle}$
          $=\vec{v}_2- \dfrac{\langle\vec{v_2}\,,\,\vec{e}_1 \rangle}{\langle\vec{e_1}\,,\,\vec{e}_1 \rangle} \,\vec{e}_1$
  3. El tercer vector de $\mathcal{O}$ vendrá dado por $$\vec{e}_3=\vec{v}_3-\overset{\rightarrow}{\text{proy}}_{\vec{e}_1}\,(\vec{v}_3)-\overset{\rightarrow}{\text{proy}}_{\vec{e}_2}\,(\vec{v}_3)$$ luego
    $$\vec{e}_3=\vec{v}_3- \dfrac{\langle\vec{v_3}\,,\,\vec{e}_1 \rangle}{\langle\vec{e_1}\,,\,\vec{e}_1 \rangle} \,\vec{e}_1-\dfrac{\langle\vec{v_3}\,,\,\vec{e}_2 \rangle}{\langle\vec{e_2}\,,\,\vec{e}_2 \rangle} \,\vec{e}_2$$

Ejemplo:
Consideremos la base no ortogonal formada por los vectores $\vec{v}_1=(1,1,1)$, $\vec{v}_2=(1,-1,1)$ y $\vec{v}_3=(-1,1,1)$. Entonces,

  1. $\vec{e}_1:=\vec{v}_1=(1,1,1)$
  2. $\vec{e}_2=(1,-1,1)-\dfrac{\langle (1,-1,1)\,,\,(1,1,1) \rangle}{\langle (1,1,1)\,,\,(1,1,1)\rangle}\,(1,1,1)=(1,-1,1)-\dfrac{1}{3}\,(1,1,1)=(\frac{2}{3},-\frac{4}{3},\frac{2}{3})$
  3. $\vec{e}_3=(-1,1,1)-\dfrac{\langle (-1,1,1)\,,\,(1,1,1) \rangle}{\langle (1,1,1)\,,\,(1,1,1)\rangle}\,(1,1,1)-\dfrac{\langle (-1,1,1)\,,\, (\frac{2}{3},-\frac{4}{3},\frac{2}{3}) \rangle}{\langle (\frac{2}{3},-\frac{4}{3},\frac{2}{3})\,,\,(\frac{2}{3},-\frac{4}{3},\frac{2}{3})\rangle}\,(\frac{2}{3},-\frac{4}{3},\frac{2}{3})$
      $=(-1,0,1)$
Así pues, un base ortogonal a partir de la base dada es $$\mathcal{O}=\{(1,1,1)\,,\,(\frac{2}{3},-\frac{4}{3},\frac{2}{3})\,,\,(-1,0,1)\}$$
Puede comprobarse que estos tres vectores son perpendiculares entre sí, verificando que los productos escalares de cada uno de ellos con los otros dos son nulos: $\langle (1,1,1)\,,\,(\frac{2}{3},-\frac{4}{3},\frac{2}{3})\rangle =0$,$\langle (1,1,1)\,,\,(-1,0,1)\rangle =0$ y $\langle (\frac{2}{3},-\frac{4}{3},\frac{2}{3})\,,\,(-1,0,1)\rangle =0$

Observación:
Para obtener una base ortonormal a partir de la base ortogonal que hemos encontrado, basta dividir cada uno de dichos vectores por el correspondiente módulo: $$\mathcal{E}=\{\dfrac{\vec{e}_1}{\sqrt{\langle \vec{e}_1\,,\,\vec{e}_1\rangle}}\,,\, \dfrac{\vec{e}_2}{\sqrt{\langle \vec{e}_2\,,\,\vec{e}_e\rangle}}\,,\,\dfrac{\vec{e}_3}{\sqrt{\langle \vec{e}_3\,,\,\vec{e}_3\rangle}}\}$$ Así, para el ejemplo expuesto, $$\mathcal{E}=\{(\frac{1}{\sqrt{3}},\frac{1}{\sqrt{3}},\frac{1}{\sqrt{3}})\,,\,(\frac{4\,\sqrt{6}}{9},-\frac{8\,\sqrt{6}}{9},\frac{4\,\sqrt{6}}{9}) \,,\,(-\frac{1}{\sqrt{2}},0,\frac{1}{\sqrt{2}})\}$$

$\diamond$

lunes, 1 de septiembre de 2025

Càlcul del nombre de rutes de $k$ trams entre dos nodes determinats d'una xarxa (graf valorat)

El càlcul del nombre de rutes de $k$ trams ($k=1,2,\ldots$) per anar d'un node a un altre d'un graf ve donat per la matriu potència $k$-ésima de la matriu del graf. El valor dels elements de la matriu resultant és igual al nombre de rutes de $k$ trams entre un node i un altre. Vegem dos exemples senzills, ambdós per a grafs ponderats (xarxes); l'un per a un graf orientat (arestes d'un sol sentit), el qual ve indicat, en cada aresta, per una fletxa) i l'altre per a un graf no orientat (totes les arestes són de doble sentit):

$\diamond$

Contraste de hipótesis con la distribución $\chi^2$. Test de la distribución normal

En este caso, por hipótesis fundamental entendemos que una distribución dada se ajusta a la distribución normal, lo cual suele denominarse también test de normalidad, si bien para esta finalidad existen también otros constrastes como, por ejemplo, el test de Kolmogorov.

Debemos seguir los siguientes pasos:

  1. Recogemos $n\ge 5$ datos de una muestra de la población. De haber muchos datos, los agruparemos por clases (intervalos) tomando alrededor de $5$ intervalos
  2. Decidimos el nivel de significación $\alpha$ del test -suele ser $0,05$, $0,01$ o $0,1$- el cual representa el error de tipo I, esto es, el de rechazar la hipótesis fundamental $H_0$ (la distribución en cuestión se ajusta a la distribución normal) siendo ésta, sin embargo, cierta.
  3. Registramos las frecuencias observadas de los datos de la muestra $O_i$ para $i=1,\ldots,n$
  4. Se calculan las frecuencias esperadas $E_i$ /$i=1,\ldots,n$), suponiendo cierta $H_0$
  5. Calculamos el valor de $\displaystyle \chi^2_{\text{calculada}}:=\sum_{i=1}^{n}\,\dfrac{(O_i-E_i)^2}{E_i}$
  6. Obtenemos el número de grados de libertad $\ell$ según la fórmula $\ell=c-1-p$, donde $c$ es el número de clases (intervalos) y $p$ es el número de parámetros característicos de la distribución del modelo poblacional de contraste, que, en el caso de la distribución normal son dos (la media $\mu$ y la disviación típica $\sigma$)
  7. Consultamos finalmente las tablas de la distribución $\chi^2$, que muestran el área de la cola derecha de la función de distribución de la misma y que representa la probabilidad $P(\chi^2_{\text{calculada}}\gt \chi^2_{\alpha\,,\ell})$ buscando la abscisa (crítica) que corresponde al nivel de significación $\alpha$ que hemos decidido de antemano
  8. Finalmente, si el valor de $\chi^2_{\text{calculada}}$ es menor que $\chi^2_{\alpha\,,\ell}$, éste cae fuera de la región crítica (a la izquierda del valor crítico) y por consiguiente, en tal caso, aceptaremos la hipótesis fundamentel $H_0$; en caso contrario, deberemos rechazarla

Referencias:
[1] Cuadras, C.M., Problemas de Probabilidad y Estadística. Inferencia Estadística (vol. 2), p. 237. PPU, 1991

$\diamond$

jueves, 28 de agosto de 2025

Cálculo de la potencia n-ésima de una matriz cuadrada diagonalizable

Se pide que calculemos $A^{20}$, siendo $A=\begin{pmatrix}1&0&0\\0&1&1\\0&1&1\end{pmatrix}$

Método I:
Si calculamos las primeras potencias encontramos:

  1. $A^1$ puede expresarse de la forma $A^1=\begin{pmatrix}1&0&0\\0&2^0&2^0\\0&2^0&2^0\end{pmatrix}$
  2. $A^2=A\cdot A=\begin{pmatrix}1&0&0\\0&2^1&2^1\\0&2^1&2^1\end{pmatrix}$
  3. $A^3=A^2\cdot A=\begin{pmatrix}1&0&0\\0&2^2&2^2\\0&2^2&2^2\end{pmatrix}$
  4. $A^4=A^3\cdot A=\begin{pmatrix}1&0&0\\0&2^3&2^3\\0&2^3&2^3\end{pmatrix}$
  5. $A^5=A^4\cdot A=\begin{pmatrix}1&0&0\\0&2^4&2^4\\0&2^4&2^4\end{pmatrix}$
  6. $\ldots$
Luego, se induce claramente el siguiente resultado: $$A^n=\begin{pmatrix}1&0&0\\0&2^{n-1}&2^{n-1}\\0&2^{n-1}&2^{n-1}\end{pmatrix}$$ y, en consecuencia: $$A^{20}=\begin{pmatrix}1&0&0\\0&2^{19}&2^{19}\\0&2^{19}&2^{19}\end{pmatrix}=\begin{pmatrix}1&0&0\\0&524\,288&524\,288\\0&524\,288&524\,288 \end{pmatrix}$$

Método II:
Si, calculando la matriz canónica de $A$, ocurre que dicha matriz es diagonal, $D$, entonces sabemos que $A^n=P\,D^n\,P^{-1} \quad \quad (1)$, donde $P$ es la matriz del cambio de base y $$D^n=\begin{pmatrix}\lambda_{1}^{n}&0&0 \\ 0& \lambda_{2}^{n}&0\\ 0&0&\lambda_{3}^{n}\end{pmatrix}$$

Veamos pues si la matriz dada puede diagonalizarse:
Empecemos calculando los valores propios de $A$ y sus multiplicidades, $$\begin{vmatrix}1-\lambda&0&0\\0&1-\lambda &1\\0&1&1-\lambda\end{vmatrix}=0 $$ de donde nos encontramos con tres valores propios distintos (y por tanto con multiplicada igual a uno para cada uno de ellos): $\lambda_1=0$, $\lambda_2=1$ y $\lambda_3=2$, con lo cual la matriz sí es diagonalizable, siendo ésta $$D=\begin{pmatrix}0&0&0 \\ 0& 1&0\\ 0&0&2\end{pmatrix}$$ y por tanto $$D^{20}=\begin{pmatrix}0^{19}&0&0 \\ 0& 1^{19}&0\\ 0&0&2^{19}\end{pmatrix}=\begin{pmatrix}0&0&0 \\ 0& 1&0\\ 0&0&524\,288\end{pmatrix}\quad \quad (2)$$

Vamos a calcular ahora la matriz de paso de la base canónica (con respecto de la cual viene referida la matriz $A$) a la nueva base, con respecto de la cual la matriz del endomorfismo, $f:E\rightarrow E$, se expresa como la matriz diagonal que acabamos de encontrar.

Para ello debemos encontrar una base para cada uno de los subespacios propios, $E(0):=\text{ker}(f-0\,I)$, $E(1):=\text{ker}(f-1\,I)$ y $E(2):=\text{ker}(f-2\,I)$, cuya suma directa es el espacio total, $E=E_1(0)\bigoplus E_2(1) \bigoplus E_3(2)$

Entonces,para $E_1(0)$:
$$\left( \begin{pmatrix}1&0&0\\0&1&1\\0&1&1\end{pmatrix} - 0\,\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix} \right)\,\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\0\\0\end{pmatrix}$$ es decir $$\begin{pmatrix}1&0&0\\0&1&1\\0&1&1\end{pmatrix} \,\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\0\\0\end{pmatrix}\Rightarrow \left\{\begin{matrix}x_1=0\\ x_3=-x_2\end{matrix}\right.$$ por lo que,$E_1(0)=\{(0,x_2,-x_2)\,\forall x_2\in \mathbb{R}\}$ y, tomando (por ejemplo) $x_2=1$, una base válida para este subespacio es $\{(0,1,-1)\}$, luego $E_1(0)=\langle (0,1,-1)\rangle$

Para $E_2(1)$:
$$\left( \begin{pmatrix}1&0&0\\0&1&1\\0&1&1\end{pmatrix} - 1\,\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix} \right)\,\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\0\\0\end{pmatrix}$$ es decir, $$\begin{pmatrix}0&0&0\\0&0&1\\0&1&0\end{pmatrix} \,\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\0\\0\end{pmatrix}\Rightarrow \left\{\begin{matrix}x_3=x_2=0\end{matrix}\right.$$ por lo que,$E_2(1)=\{(x_1,0,0)\,\forall x_1\in \mathbb{R}\}$ y, tomando (por ejemplo) $x_1=1$, una base válida para este subespacio es $\{(1,0,0)\}$, luego $E_2(1)=\langle (1,0,0)\rangle$

Y para $E_2(2)$:
$$\left( \begin{pmatrix}1&0&0\\0&1&1\\0&1&1\end{pmatrix} -2\, \begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix} \right)\,\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\0\\0\end{pmatrix}$$ es decir, $$\begin{pmatrix}-1&0&0\\0&-1&1\\0&1&-1\end{pmatrix} \,\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\0\\0\end{pmatrix}\Rightarrow \left\{\begin{matrix}x_1=0\\ x_3=x_2\end{matrix}\right.$$ por lo que,$E_2(2)=\{(0,x_2,x_2)\,\forall x_2\in \mathbb{R}\}$ y, tomando (por ejemplo) $x_2=1$, una base válida para este subespacio es $\{(0,1,1)\}$, luego $E_2(2)=\langle (0,1,1)\rangle$

Así pues, disponiendo las coordenadas de los vectores propios por columnas y por orden, la matriz del cambio de base es $$P=\begin{pmatrix}0&1&0\\ 1&0&1\\ -1&0&1\end{pmatrix}$$ y calculando su matriz inversa, encontramos $$P^{-1}=\begin{pmatrix}1&1/2&-1/2\\ 1&0&0\\ 0&1/2&1/2\end{pmatrix}$$

Luego, de acuerdo con $(1)$ y con el resultado $(2)$
$A^{20}=P\,D^{20}\,P^{-1}=\begin{pmatrix}0&1&0\\ 1&0&1\\ -1&0&1\end{pmatrix}\,\begin{pmatrix}0&0&0 \\ 0& 1&0\\ 0&0&524\,288\end{pmatrix}\,\begin{pmatrix}1&1/2&-1/2\\ 1&0&0\\ 0&1/2&1/2\end{pmatrix}=\begin{pmatrix}1&0&0\\0&524\,288&524\,288\\0&524\,288&524\,288 \end{pmatrix}$ (como era de esperar, según hemos visto empleando el método I). $\diamond$

miércoles, 27 de agosto de 2025

Geometría de una curva en el espacio. Ecuaciones de Frenet-Serret

Hemos dicho ya que en una curva en un plano de $\mathbb{R}^3$, en todo punto de la misma podemos hablar de un vector tangente $\vec{\sigma}$ (unitario) y de un vector ortogonal al mismo, $\vec{n}$, también unitario.

Estos dos vectores se encuentran ambos en el llamado plano osculador, y por tanto, $\vec{\sigma}\times \vec{n}=:\vec{b}$ es un vector ortogonal a ambos (y unitario) que determina la dirección de dicho plano, $\pi_{\text{osculador}}$. Este plano osculador es, por tanto, perpendicular (ortogonal) al plano que contiene a $\vec{\sigma}$ pero no a $\vec{n}$ y al que se le donomina plano normal, $\pi_{\text{normal}}$, y al plano que contiene a $\vec{n}$ pero no a $\vec{\sigma}$ al cual se le denomina plano binormal, $\pi_{\text{binormal}}$.

Así pues, en cada punto de la curva podemos situar un tres ejes formando un triedro trirectangulo de tal manera que si imaginamos un punto que recorra la curva, dicho triedro se va moviendo con él. La derivada vectoril de $\vec{b}$ con respecto al parámetro natural longitud de arco es por tanto, $$\dfrac{d\,\vec{b}}{ds}=\dfrac{d\,(\vec{\sigma} \times \vec{n})}{ds}=\vec{\sigma} \times \dfrac{d\,\vec{n}}{ds}+ \dfrac{d\,\vec{\sigma}}{ds} \times \vec{n} \quad (1)$$

Se ha visto ya que $\dfrac{d\,\vec{\sigma}}{ds}=\dfrac{1}{R(s)}\,\vec{n}$ (recordemos que $R(s)$ es el radio de curvatura y $\mathcal{K}(s)=\dfrac{1}{R(s)}$ la curvatura en cada punto, y como $\dfrac{d\,\vec{\sigma}}{ds} \times \vec{n}=\dfrac{1}{R(s)}\,\vec{n} \times \vec{n}=\vec{0}$, lo escrito en $(1)$ nos queda, $$\dfrac{d\,\vec{b}}{ds}=\vec{\sigma} \times \dfrac{d\,\vec{n}}{ds}+\vec{0}=\vec{\sigma} \times \dfrac{d\,\vec{n}}{ds}$$ donde, en cada punto, la cantidad escalar $\dfrac{1}{\mathcal{\tau}(s)}$, que representa el factor de proporcionalidad de un vector con respecto al otro, definimos $\mathcal{\tau}(s)$ como la torsión de la curva

Por otra parte, $\dfrac{d\,\vec{b}}{ds} \perp \vec{b}$ y $\dfrac{d\,\vec{b}}{ds} \perp \vec{\sigma}$, luego $\dfrac{d\,\vec{b}}{ds} \propto \vec{n}$, y por tanto podemos escribir que $$\dfrac{d\,\vec{b}}{ds}= \dfrac{1}{\tau(s)}\,\vec{n}$$ Entonces, $$\dfrac{1}{\tau(s)}\,\vec{n}=\sigma \times \dfrac{d\,\vec{n}}{ds}$$ por consiguiente $$\dfrac{1}{\tau(s)}\,\langle \vec{n}\,,\,\vec{n} \rangle=\langle \sigma \times \dfrac{d\,\vec{n}}{ds}\,,\,\vec{n} \rangle$$ y teniendo en cuenta que $\langle \vec{n}\,,\,\vec{n}\rangle=1$, se tiene que $$\dfrac{1}{\tau(s)}=\langle \vec{\sigma} \times \dfrac{d\,\vec{n}}{ds}\,,\,\vec{n} \rangle=\langle \vec{\sigma}\,,\, \dfrac{d\,\vec{n}}{ds}\times \vec{n} \rangle \rangle $$ Ahora bien, $\vec{n}=R(s)\,\dfrac{d^2\,\vec{r}}{ds^2}$, luego $\dfrac{d\vec{n}}{ds}=R(s)\,\dfrac{d^3\,\vec{r}}{ds^3}$ y $\vec{\sigma}=\dfrac{\vec{dr}}{ds}$ por lo que lo anterior puede escribirse de la forma $$\dfrac{1}{\tau(s)}=\langle \dfrac{\vec{dr}}{ds}\,,\, \dfrac{d\vec{n}}{ds}\rangle=\langle \dfrac{\vec{dr}}{ds}\,,\,R(s)\,\dfrac{d^3\,\vec{r}}{ds^3}\times R(s)\,\dfrac{d^2\,\vec{r}}{ds^2} \rangle=-R^2(s)\, \langle \dfrac{\vec{dr}}{ds}\,,\, \dfrac{d^2\,\vec{r}}{ds^2} \times \dfrac{d^3\vec{r}}{ds^3} \rangle$$ Y, recordando, por otra parte que $$\dfrac{1}{R(s)}=\left\|\dfrac{d^2\vec{r}}{ds^2}\right\| = \langle \dfrac{d^2\vec{r}}{ds^2}\,,\,\dfrac{ d^2\vec{r}}{ds^2} \rangle $$ y por tanto $$R(s)=\dfrac{1}{\left\|\dfrac{d^2\vec{r}}{ds^2}\right\|} = \dfrac{1}{\langle \dfrac{d^2\vec{r}}{ds^2}\,,\,\dfrac{ d^2\vec{r}}{ds^2} \rangle} $$ podemos escribir $$\dfrac{1}{\tau(s)}=-\dfrac{ \langle \dfrac{\vec{dr}}{ds}\,,\, \dfrac{d^2\,\vec{r}}{ds^2} \times \dfrac{d^3\vec{r}}{ds^3} \rangle}{\left(\langle \dfrac{d^2\vec{r}}{ds^2}\,,\,\dfrac{ d^2\vec{r}}{ds^2} \rangle\right)^2} \quad (2)$$

Para ir zanjando esta exposición, podemos decir que ya casi estamos en condiciones de escribir las fórmulas de Serret-Frenet que sintentizan lo que se ha descrito (la tercera es necesario acabar de justificarla):

  • $\dfrac{d\vec{\sigma}(s)}{ds}=\mathcal{K}(s)\,\vec{n}(s)$
  • $\dfrac{d\vec{b}(s)}{ds}=-\tau(s)\,\vec{n}(s)$
  • $\dfrac{d\vec{n}(s)}{ds}=-\mathcal{K}(s)\,\vec{\sigma}(s)+\tau(s)\,\vec{b}(s)$

-oOo-

Observación de interés físico:
Como ya he comentado que en otro artículo, en física, el parámetro usual es el tiempo, por lo que a menudo nos vemos en la necesidad de calcular la curvatura y el radio de curvatura a partir de la expresión de la curva en función del parámetro $t$ en lugar de $s$. Para ello, tengamos en cuenta que $$\dfrac{d\vec{r(s)}}{ds}=\dfrac{d\vec{r(s)}}{dt}\cdot \dfrac{dt}{ds}=\dfrac{d\vec{r(s)}}{dt}\cdot \dfrac{1}{\dfrac{ds}{dt}}$$ Por consiguiente, $$\dfrac{d^2\vec{r(s)}}{ds^2}=\dfrac{d}{ds}\,\left(\dfrac{d\vec{r(s)}}{dt}\right)\cdot \dfrac{1}{\dfrac{ds}{dt}}+\dfrac{d}{ds}\left( \dfrac{1}{\dfrac{ds}{dt}} \right) \cdot \dfrac{d\vec{r(s)}}{dt}$$ luego $$\dfrac{d^2\vec{r(s)}}{ds^2}=\dfrac{d}{ds}\,\left(\dfrac{d\vec{r(s)}}{dt}\right)\cdot \dfrac{1}{\dfrac{ds}{dt}}+(-1)\,\dfrac{\dfrac{d^2s}{dt^2}}{\left(\dfrac{ds}{dt}\right)^3}\cdot \dfrac{d\vec{r(s)}}{dt}$$ esto es $$\dfrac{d^2\vec{r(s)}}{ds^2}=\dfrac{\dfrac{d}{dt}\,\left(\dfrac{d\vec{r(s)}}{dt}\right)}{\dfrac{ds}{dt}} \cdot \dfrac{1}{\dfrac{ds}{dt}}+(-1)\,\dfrac{\dfrac{d^2s}{dt^2}}{\left(\dfrac{ds}{dt}\right)^3}\cdot \dfrac{d\vec{r(s)}}{dt}$$ con lo cual $$\dfrac{d^2\vec{r(s)}}{ds^2}=\dfrac{d^2\vec{r(s)}}{dt^2}\cdot \dfrac{1}{\left(\dfrac{ds}{dt}\right)^2}+(-1)\,\dfrac{\dfrac{d^2s}{dt^2}}{\left(\dfrac{ds}{dt}\right)^3}\cdot \dfrac{d\vec{r(s)}}{dt}$$

Recordemos también que $\vec{r(t)}=(x(t),y(t),y(t))$, por tanto $\dfrac{d\vec{r(t)}}{dt}=(\dot{x}(t),\dot{y}(t),\dot{z}(t))$ y $\dfrac{d^2\vec{r(t)}}{dt^2}=(\ddot{x}(t),\ddot{y}(t),\ddot{z}(t))$ con lo cual podemos escribir el resultado de la forma, $$\dfrac{d^2\vec{r(s)}}{ds^2}=(\ddot{x}(t),\ddot{y}(t),\ddot{z}(t))\cdot \dfrac{1}{\left(\dfrac{ds}{dt}\right)^2}+(-1)\,\dfrac{\dfrac{d^2s}{dt^2}}{\left(\dfrac{ds}{dt}\right)^3}\cdot (\dot{x}(t),\dot{y}(t),\dot{z}(t))$$

Recordemos también que $\mathcal{K}(t)=\dfrac{1}{R(t)}=\dfrac{\left\| \dfrac{d\vec{r}(t)}{dt}\times \dfrac{d^2\vec{r}(t)}{dt}\right\|}{\left( \left\| \dfrac{d\vec{r}(t)}{dt}\right\|\right)^3}$

Así pues, la expresión $(2)$ (torsión de la curva en cada punto de la misma) podemos escribirla en términos del parámetro de evolución temporal $t$ de un punto que siga el recorrido de la curva como: $$\dfrac{1}{\tau(t)}=-\dfrac{ \langle \dfrac{d\vec{r}(t)}{dt}\,,\, \dfrac{d^2\,\vec{r}(t)}{dt^2} \times \dfrac{d^3\vec{r}(t)}{dt^3} \rangle}{\left(\left\|\dfrac{d\vec{r}(t)}{dt} \times \,\dfrac{ d^2\vec{r}(t)}{dt^2} \right\|\right)^2} \quad (2')$$

-oOo-

Fórmulas de Serret-Frenet:

  • $\dfrac{d\vec{\sigma}(s)}{ds}=\mathcal{K}(s)\,\vec{n}(s)$
  • $\dfrac{d\vec{b}(s)}{ds}=-\tau(s)\,\vec{n}(s)$
  • $\dfrac{d\vec{n}(s)}{ds}=-\mathcal{K}(s)\,\vec{\sigma}(s)+\tau(s)\,\vec{b}(s)$

$\diamond$

jueves, 21 de agosto de 2025

Acerca del movimiento circular no uniforme en un plano

Consideremos un movimiento circular no uniforme en el plano $Oxy$, de radio $R$, $\vec{r}(t)=R\,\cos(t)\,\hat{i}+R\,\sin(t)\,\hat{j}$, en cada punto de la trayectoria el vector velocidad viende dado por $\dfrac{d\vec{r}(t)}{dt}=\dfrac{d\vec{r}}{ds}\cdot \dfrac{ds}{dt}=\vec{\sigma}\, c_\sigma$, donde $s$ es el parámetro natural longitud de arco y, por tanto, $c_\sigma=\dfrac{ds}{dt}$ es la celeridad a lo largo de la trayectoria circular (módulo del vector velocidad); por otra parte, recordemos que $\vec{\sigma}$ -véase el artículo en el que hablaba de ello- es el vector unitario en la dirección de la recta tangente a la circunferencia en cada punto de la misma.

Entonces, es bien sabido que el vector aceleración en cada punto de la trayectoria viene dada por la derivada del vector velocidad, esto es $\dfrac{d}{dt}\,(c_\sigma\,\vec{\sigma})=\dfrac{dc_\sigma}{dt}\,\vec{\sigma}+c_\sigma\dfrac{d\vec{\sigma}}{dt}=a_\sigma\,\vec{\sigma}+c\,\dfrac{d\vec{\sigma}}{ds}\,\dfrac{ds}{dt}=a_\sigma\,\vec{\sigma}+\dfrac{c^2}{R}\,\vec{n}$, ya que $\dfrac{d{\vec{\sigma}}}{ds}=\dfrac{1}{R}\,\vec{n}$ donde $\vec{n}$ recordemos que es el vector normal unitario (en la dirección perpendicular al vector tangente). Así pues, el vector aceleración se descompone en como suma ortogonal de un vector aceleración tangente a la trayectoria (cuyo módulo es $a_\sigma$) y un vector aceleración normal a la trayectoria (cuyo módulo es $\dfrac{c^2}{R}$). La curvatura, $\mathcal{K}=\dfrac{1}{R}$ es en este caso también constante, pues, de alguna manera, la partícula en movimiento no puede salirse del camino circular. $\diamond$

Curvatura, radio de curvatura y aceleración (normal) en el caso de un movimiento circular uniforme en el plano $Oxy$

En un movimiento circular de radio $R$, $\vec{r}(t)=R\,\cos(t)\,\hat{i}+R\,\sin(t)\,\hat{j}$, a velocidad tangencial constante, en cada punto de la trayectoria el vector velocidad viende dado por $\dfrac{d\vec{r}(t)}{dt}=\dfrac{d\vec{r}}{ds}\cdot \dfrac{ds}{dt}=\vec{\sigma}\, c$, donde $s$ es el parámetro natural longitud de arco y, por tanto, $c=\dfrac{ds}{dt}$ es la celeridad a lo largo de la trayectoria circular (módulo del vector velocidad), que, de acuerdo con el planteamiento, es constante; por otra parte, recordemos que $\vec{\sigma}$ -véase el artículo anterior- es el vector unitario en la dirección de la recta tangente a la circunferencia en cada punto de la misma.

Entonces, es bien sabido que la aceleración en cada punto de la trayectoria viene dada por la derivada del vector velocidad, esto es $\dfrac{d}{dt}\,(c\,\vec{\sigma})=\dfrac{dc}{dt}\,\vec{\sigma}+c\dfrac{d\vec{\sigma}}{dt}=0+c\,\dfrac{d\vec{\sigma}}{ds}\,\dfrac{ds}{dt}=\dfrac{c^2}{R}\,\vec{n}$, ya que $\dfrac{d{\vec{\sigma}}}{ds}=\dfrac{1}{R}\,\vec{n}$ donde $\vec{n}$ recordemos que es el vector normal unitario (en la dirección perpendicular al vector tangente). Así pues, el vector aceleración es normal a la trayectoria y su módulo es $\dfrac{c^2}{R}$. Es claro que en esta situación que, en cuanto a la curvatura, $\mathcal{K}=\dfrac{1}{R}$ es constante, por ser el constante el radio de curvatura. $\diamond$

miércoles, 20 de agosto de 2025

Curvatura y radio de curvatura en cada punto de una curva de $\mathbb{R}^3$

Consideremos una curva $\mathcal{C}$ en $\mathbb{R}^3$ en la que expresamos la posición de los puntos de la misma en función de un parámetro natural como es la longitud de arco $s$ -en física, el parámetro natural suele ser el tiempo-; $\vec{r(s)}=x(s)\,\hat{i}+y(s)\,\hat{j}+z(s)\,\hat{k}$ apunta pues a un punto genérico de la curva. Vamos a ver cómo expresar la curvatura y la torsión en un punto dado de dicha curva.

Manejaremos para ello las derivadas vectoriales $\dfrac{d\vec{r(s)}}{ds}=:\vec{\sigma}$ (vector tangente a la curva en el punto dado) y $\dfrac{d(\vec{\sigma(s)})}{ds}=\dfrac{d^2(\vec{r(s))}}{ds^2}$, y la necesidad de ello se verá enseguida.

Es claro que el vector $\dfrac{d(\vec{\sigma(s)})}{ds} \perp \vec{\sigma(s)}$ (vector tangente a la curva en el punto a considerar), por lo que esta segunda derivada de $\vec{r(s)}$, la entendemos como un vector proporcional al vector unitario normal a la curva en el punto dado, $\vec{n}$, y por tanto podemos escribir, $$\dfrac{d\vec{\sigma(s)}}{ds}=\mathcal{K(s)}\,\vec{n}$$ siendo por tanto $\mathcal{K(s)}=\left\|\dfrac{d\vec{\sigma(s)}}{ds}\right\|=\left\|\dfrac{d^2\vec{r(s)}}{ds^2}\right\| \quad (1)$

Es evidente que el ángulo formado entre los vectores de posición de dos puntos próximos $P$ y $P'$, $\Delta\,\varphi:=\measuredangle(\vec{r(s)}\,,\,\vec{r(s+\Delta\,s)})$ tiene que ver con lo que acabamos de escribir, y entenderemos por tanto como curvatura de la curva en el punto $P$ a la cantidad $$\displaystyle \mathcal{K}(s):=\lim_{\Delta\,s}\,\left| \dfrac{\Delta\,\varphi}{ds} \right|$$ y definimos el radio de curvatura como $$R(s):=\dfrac{1}{\mathcal{K}(s)}=\dfrac{1}{\left\|\dfrac{d^2\vec{r(s)}}{ds^2}\right\|}$$

Pues bien, de acuerdo con $(1)$, $$\mathcal{K}(s)=\sqrt{\left(\dfrac{d^2(x(s)) }{ds^2}\right)^2+\left(\dfrac{d^2(y(s)) }{ds^2}\right)^2+\left(\dfrac{d^2(z(s)) }{ds^2}\right)^2}$$ y por tanto $$R(s)=\dfrac{1}{\sqrt{\left(\dfrac{d^2(x(s)) }{ds^2}\right)^2+\left(\dfrac{d^2(y(s)) }{ds^2}\right)^2+\left(\dfrac{d^2(z(s)) }{ds^2}\right)^2}}$$ Nota:
En muchos cálculos suele aparecer también el cuadrado de la curvatura y el cuadrado del radio de curvatura, $$(\mathcal{K(s)})^2=\dfrac{1}{(R(s))^2}=\left(\dfrac{d^2(x(s)) }{ds^2}\right)^2+\left(\dfrac{d^2(y(s)) }{ds^2}\right)^2+\left(\dfrac{d^2(z(s)) }{ds^2}\right)^2$$ y $$ (R(s))^2=\dfrac{1}{\left(\dfrac{d^2(x(s)) }{ds^2}\right)^2+\left(\dfrac{d^2(y(s)) }{ds^2}\right)^2+\left(\dfrac{d^2(z(s)) }{ds^2}\right)^2}$$

-oOo-

Ya se ha comentado que en física, el parámetro usual es el tiempo, por lo que a menudo nos vemos en la necesidad de calcular la curvatura y el radio de curvatura a partir de la expresión de la curva en función del parámetro $t$ en lugar de $s$. Para ello, tengamos en cuenta que $$\dfrac{d\vec{r(s)}}{ds}=\dfrac{d\vec{r(s)}}{dt}\cdot \dfrac{dt}{ds}=\dfrac{d\vec{r(s)}}{dt}\cdot \dfrac{1}{\dfrac{ds}{dt}}$$ Por consiguiente, $$\dfrac{d^2\vec{r(s)}}{ds^2}=\dfrac{d}{ds}\,\left(\dfrac{d\vec{r(s)}}{dt}\right)\cdot \dfrac{1}{\dfrac{ds}{dt}}+\dfrac{d}{ds}\left( \dfrac{1}{\dfrac{ds}{dt}} \right) \cdot \dfrac{d\vec{r(s)}}{dt}$$ luego $$\dfrac{d^2\vec{r(s)}}{ds^2}=\dfrac{d}{ds}\,\left(\dfrac{d\vec{r(s)}}{dt}\right)\cdot \dfrac{1}{\dfrac{ds}{dt}}+(-1)\,\dfrac{\dfrac{d^2s}{dt^2}}{\left(\dfrac{ds}{dt}\right)^3}\cdot \dfrac{d\vec{r(s)}}{dt}$$ esto es $$\dfrac{d^2\vec{r(s)}}{ds^2}=\dfrac{\dfrac{d}{dt}\,\left(\dfrac{d\vec{r(s)}}{dt}\right)}{\dfrac{ds}{dt}} \cdot \dfrac{1}{\dfrac{ds}{dt}}+(-1)\,\dfrac{\dfrac{d^2s}{dt^2}}{\left(\dfrac{ds}{dt}\right)^3}\cdot \dfrac{d\vec{r(s)}}{dt}$$ con lo cual $$\dfrac{d^2\vec{r(s)}}{ds^2}=\dfrac{d^2\vec{r(s)}}{dt^2}\cdot \dfrac{1}{\left(\dfrac{ds}{dt}\right)^2}+(-1)\,\dfrac{\dfrac{d^2s}{dt^2}}{\left(\dfrac{ds}{dt}\right)^3}\cdot \dfrac{d\vec{r(s)}}{dt}$$

Recordemos que $\vec{r(t)}=(x(t),y(t),y(t))$, por tanto $\dfrac{d\vec{r(t)}}{dt}=(\dot{x}(t),\dot{y}(t),\dot{z}(t))$ y $\dfrac{d^2\vec{r(t)}}{dt^2}=(\ddot{x}(t),\ddot{y}(t),\ddot{z}(t))$ con lo cual podemos escribir el resultado de la forma, $$\dfrac{d^2\vec{r(s)}}{ds^2}=(\ddot{x}(t),\ddot{y}(t),\ddot{z}(t))\cdot \dfrac{1}{\left(\dfrac{ds}{dt}\right)^2}+(-1)\,\dfrac{\dfrac{d^2s}{dt^2}}{\left(\dfrac{ds}{dt}\right)^3}\cdot (\dot{x}(t),\dot{y}(t),\dot{z}(t))$$

De todo ello se acaba de deducir que $\mathcal{K}(t)=\dfrac{1}{R(t)}=\dfrac{\left\| \dfrac{d\vec{r}}{dt}\times \dfrac{d^2\vec{r}}{dt}\right\|}{\left( \left\| \dfrac{d\vec{r}}{dt}\right\|\right)^3}$ o si se prefiere utilizar la notación punto para la derivada vectorial, por comodidad: $\mathcal{K}(t)=\dfrac{1}{R(t)}=\dfrac{\left\| \dot{\vec{r}}(t) \times \ddot{\vec{r}}(t) \right\|}{\left( \left\| \dot{\vec{r}}(t) \right\| \right)^3}$

En particular, para curvas planas (en el plano $Oxy$) se tiene que $$\mathcal{K}=\dfrac{1}{R}=\dfrac{\left( (\dot{x})^2+(\dot{y})^2 \right)^\frac{3}{2}}{|\dot{x}\,\ddot{y}-\dot{y}\,\ddot{x}|}$$ y en el caso de que la curva venga expresada en forma explícita, $y=f(x)$, es fácil ver que $$\mathcal{K}=\dfrac{1}{R}=\dfrac{\left( 1+\left(\dfrac{f(x)}{dx}\right)^2\right)^\frac{3}{2}}{\left|\dfrac{d^2\,f(x)}{dx^2}\right|}$$ Nota: Recordemos que $\mathcal{K}$ se denomina curvatura y $R(t)$ radio de curvatura

$\diamond$

Ecuaciones de la recta tangente a una curva de $\mathbb{R}^3$ en un punto $P$ y del plano perpendicular a la misma, dada dicha curva como la intersección de dos superficies

Consideremos una curva $\mathcal{C}$ en $\mathbb{R}^3$ que viene dada por la intersección de dos superficies $F_1(x,y,z)=0$ y $F_2(x,y,z)=0$. A partir de estas ecuaciones, que se suponen dadas, voy a determinar la ecuación de la rectan tangente a dicha curva y también la el plano perpendicular (normal) a la misma en un punto $P$ de dicha curva.

Escribiendo la diferencial de $(1)$ y de $(2)$, $$\left\{\begin{matrix} \dfrac{\partial\,F_1}{\partial\,x}\cdot \dot{x}(t)+\dfrac{\partial\,F_1}{\partial\,y}\cdot \dot{y}(t)+\dfrac{\partial\,F_1}{\partial\,z}\cdot \dot{z}(t)=0 \\ \dfrac{\partial\,F_2}{\partial\,x}\cdot \dot{x}(t)+\dfrac{\partial\,F_2}{\partial\,y}\cdot \dot{y}(t)+\dfrac{\partial\,F_2}{\partial\,z}\cdot \dot{z}(t)=0 \end{matrix}\right.$$ que podemos escribir de la forma, $$\left\{\begin{matrix} \dfrac{\partial\,F_1}{\partial\,x}\cdot \dot{x}(t)=-\dfrac{\partial\,F_1}{\partial\,y}\cdot \dot{y}(t)-\dfrac{\partial\,F_1}{\partial\,z}\cdot \dot{z}(t) \\ \dfrac{\partial\,F_2}{\partial\,x}\cdot \dot{x}(t)=-\dfrac{\partial\,F_2}{\partial\,y}\cdot \dot{y}(t)-\dfrac{\partial\,F_2}{\partial\,z}\cdot \dot{z}(t) \end{matrix}\right.$$ y expresado en forma matricial se puede escribir de la forma $$\begin{pmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z} \end{pmatrix}\,\begin{pmatrix}\dot{y}(t)\\\dot{z}(t)\end{pmatrix}=-\dot{x}(t)\,\begin{pmatrix}\dfrac{\partial\,F_1}{\partial\,x} \\ \dfrac{\partial\,F_2}{\partial\,x}\end{pmatrix}$$ Entonces, $$\dot{y}(t)=-\dot{x}(t)\cdot\dfrac{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,x} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,x} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}}{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}}$$ y $$\dot{z}(t)=-\dot{x}(t)\cdot\dfrac{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,x} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,x}\end{vmatrix}}{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}}$$ y siendo un vector tangente a un punto genérico de la recta, $$\vec{v(t)}:=(\dot{x}(t),\dot{y}(t),\dot{z(t)})$$ lo podemos escribir como $$\vec{v(t)}=\left(\dot{x}(t)\,,\,-\dot{x}(t)\cdot \dfrac{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,x} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,x} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}}{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}} \,,\, -\dot{x}(t)\cdot\dfrac{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,x} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,x}\end{vmatrix}}{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}} \right)$$ es decir, $$\vec{v(t)}=\dot{x}(t) \left(1\,,\, -\dfrac{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,x} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,x} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}}{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}} \,,\, -\dfrac{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,x} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,x}\end{vmatrix}}{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}} \right)$$ y que es proporcional a $$\dot{x}(t) \cdot \left( \begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix} \,,\, -\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,x} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,x} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix} \,,\, -\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,x} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,x}\end{vmatrix} \right)$$ y por tanto, también a $$ \left( \begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix} \,,\, -\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,x} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,x} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix} \,,\, -\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,x} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,x}\end{vmatrix} \right)$$

Así pues, la ecuación de la recta tangente en forma continua en un punto $P$ de la curva $\mathcal{C}$ queda de la forma: $$\dfrac{x-x_P}{\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}} = \dfrac{y-y_P}{ -\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,x} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,x} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix} } = \dfrac{z-z_P}{-\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,x} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,x}\end{vmatrix}} $$

Por consiguiente, la ecuación del plano perpendicular (normal) a la recta tangente en el punto $P$ de la curva $\mathcal{C}$ tendrá por ecuación, $$\pi_\perp:\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}\cdot (x-x_P) -\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,x} & \dfrac{\partial\,F_1}{\partial\,z} \\ \dfrac{\partial\,F_2}{\partial\,x} & \dfrac{\partial\,F_2}{\partial\,z}\end{vmatrix}\cdot (y-y_P) -\begin{vmatrix}\dfrac{\partial\,F_1}{\partial\,y} & \dfrac{\partial\,F_1}{\partial\,x} \\ \dfrac{\partial\,F_2}{\partial\,y} & \dfrac{\partial\,F_2}{\partial\,x}\end{vmatrix}\cdot (z-z_P)=0 $$ $\diamond$

Recta tangente y plano perpendicular a dicha recta en un punto de una curva en $\mathbb{R}^3$, dada ésta en forma vectorial y en función del parámetro de evolución de un punto sobre la misma

La ecuación de una curva en el espacio $\mathbb{R}^3$ puede escribirse de manera vectorial, mediante el vector de posición en cada punto de la curva. Las coordenadas de dicho vector se expresan en función del parámetro de evolución de un punto sobre la curva; en física, éste suele ser el tiempo $t$. Así, se tiene que $$\mathcal{C}:\vec{r(t)}=x(t)\,\hat{i}+y(t)\,\hat{j}+z(t)\,\hat{k}$$ La derivada vectorial de dicho vector de posición respresenta el vector tangente en cada punto de la curva $P$: $$\text{v.t.}:\vec{v(t_P)}:=\left(\dfrac{d\vec{r(t)}}{dt}\right)_P=\dot{x}(t)|_{t=t_P}\hat{i}+\dot{y}(t)|_{t=t_P}\hat{j}+\dot{z}(t)|_{t=t_P}\hat{k}$$ y, en particular, representando el parámetro $t$ el tiempo, dicho vector tangente no es otro que el vector velocidad en cada punto de la curva.

La ecuación de la recta tangente en cada punto de la curva es por tanto $$\text{r.t. en P}:\dfrac{x-x_P}{ \dot{x}(t)|_{t=t_P} }=\dfrac{y-y_P}{ \dot{y}(t)|_{t=t_P} }=\dfrac{z-z_P}{ \dot{z}(t)|_{t=t_P} }$$ Dicha recta tangente tiene que ser perpendicular -en cada punto $P$ de la curva- a un plano (plano normal al vector tangente) cuya ecuación vendra dada por $$\pi_\perp:\dot{x}(t)|_{t=t_P}\cdot(x-x_P)+\dot{y}(t)|_{t=t_P}\cdot(y-y_P)+\dot{z}(t)|_{t=t_P}\cdot(z-z_P)=0$$

Ejemplo:
Consideremos la circunferencia de radio unidad contenida en el plano $Oxy$, $\mathcal{C}:\vec{r(t)}=\cos(t)\,\hat{i}+\sin(t)\,\hat{j}+0\,\hat{k}$. Entonces el vector velocidad (vector tangente) en cada punto de dicha circunferencia es $\mathcal{C}:\vec{v(t)}=-\sin(t)\,\hat{i}+\cos(t)\,\hat{j}+0\,\hat{k}$, luego la ecuación de la recta tangente, pongamos que en el $P(1,0,0)$ que corresponda al valor $t=0$ vendrá dada por $\text{r.t.}:\dfrac{x-1}{-\sin(0)}=\dfrac{y-0}{\cos(0)}=\dfrac{z-0}{0}$, ecuación que expresada en forma cartesiana es $\text{r.t}:x=1$. Y, por otra parte, la ecuación del plano perpendicular a la misma es $\pi_\perp:-\sin(0)\cdot (x-1)+\cos(0)\cdot (y-0)+0=0$, esto es, $\pi_\perp:y=0$, y que, dicho de otra manera, es el plano $Oxz$. $\diamond$

lunes, 18 de agosto de 2025

Plano tangente a una superficie en un punto dado

La euación del plano tangente a una superficie $F(x,y,z)=0$ en un punto de la misma $P(x_P,y_P,z_P)$ viene dada por $$\left(\dfrac{\partial\,F}{\partial\,x}\right)_P\,(x-x_P)+\left(\dfrac{\partial\,F}{\partial\,y}\right)_P\,(y-y_P)+\left(\dfrac{\partial\,F}{\partial\,z}\right)_P\,(z-z_P)=0$$

Ejemplo:
Consideremos la superficie de la esfera $\mathcal{E}:x^2+y^2+z^2=1$, entonces la ecuación del plano tangente en el punto $\pi_t:P(0,0,1)$ es $$(2x)_P\cdot (x-x_p)+(2y)_P\cdot (y-y_P)+(2z)_P\cdot (z-z_P)=0$$ que, con las coordenadas del punto $P$ queda $$\pi_t:(2\cdot 0)\cdot (x-0)+(2\cdot 0)\cdot (y-0)+(2\cdot 1)\cdot (z-1)=0$$ $$\pi_t:2\cdot (z-1)=0$$ esto es, $$\pi_t:z=1$$ que representa el plano paralelo al plano $Oxy$ en el polo norte de la esfera de radio unidad $\diamond$

viernes, 15 de agosto de 2025

Análisis del rango de una matriz cuyos elementos dependen de un parámetro, por el método de reducción

Me propongo analizar el rango de la siguiente matriz según los valores que tome el parámetro $a \in \mathbb{R}$ $$A=\begin{pmatrix}1&a&-1\\2&-1&a\\1&10&-6\end{pmatrix}$$

Reduciendo de manera escalonada la matriz llegamos a la siguiente matriz equivalente en rango: $$\begin{pmatrix}1&a&-1\\0&-2a-1&2+a\\0&0&\dfrac{(a+5)(a-3)}{2a+1}\end{pmatrix} \underset{\sim}{(2a+1)\cdot f_3\rightarrow f_3} \begin{pmatrix}1&a&-1\\0&-2a-1&2+a\\0&0&(a+5)(a-3)\end{pmatrix}$$

---

Operaciones que he realizado entre filas:

  • Primera etapa:
    • $-2f_1+f_2\rightarrow f_2$
    • $f_1-f_3\rightarrow f_3$
  • Segunda y última etapa:
    • $f_2\cdot \dfrac{a-10}{2a+1}+f_3\rightarrow f_3$; $(2a+1)\,f_3\rightarrow f_3$
---

Puede suceder que:

  1. Atendiendo a los posibles valores del numerador del elemento de la tercera fila y de la tercera columna, vemos que éste se anula si $a$ es $-5$ o bien es $3$, por lo que la tercera fila sería identicamente nula para dichos valores del parámetro; y, para esos mismos valores, sin embargo, no serían nulos los elementos de la segunda fila, luego el número de filas no indenticamente nulas sería $2$ en este supuesto, con lo cual el rango de la matriz sería $2$.
  2. En cualquier otro caso, ninguno de los elementos que dependen del parámetro $a$ se anulará (tanto el de la tercera fila, como los de la segunda), con lo cual el número de filas no identicamente nulas sería $3$, luego el rango de la matriz sería $3$

$\diamond$

Análisis y resolución de un sistema de ecuaciones lineales con coeficientes complejos mediante reducción

Vamos a analizar, y -si procede- resolver el siguiente sistema de ecuaciones lineales con coeficientes en el cuerpo de los números complejos: $$\left\{\begin{matrix}x-i\,y&=&2 \\ y+i\,z&=&1+2\,i\\x+y&=&1+i\end{matrix}\right.$$

La matriz de los ecoeficientes es $$A=\begin{pmatrix}1&-i&0\\0&1&i\\1&1&0\end{pmatrix}$$ y la matriz ampliada $$\tilde{A}=\begin{pmatrix}1&-i&0&2\\0&1&i&1+2\,i\\1&1&0&1+i\end{pmatrix}$$ Reduciendo la matriz $\tilde{A}$, restándole a la primera fila la tercera y sustituyendo dicho resultado en la tercera fila; y, a continuación, multiplicando la segunda fila por $1+i$, sumandole los elementos de la tercerca fila, y sustituyendo el resultado en la tercera fila, se comprueba que es equivalente en rango a $\begin{pmatrix}1&-i&0&2\\0&1&i&1+2\,i\\0&0&-1+i&-1\end{pmatrix}$

Teniendo ya escalonada la matriz, es claro que el rango de las matrices $A$ y $\tilde{A}$ coinciden y es igual a $3$ (número de filas no identicamenate nulas), luego el sistema es compatible; además, como dicho rango es igual al númro de incóngitas, la solución es única (sistema compatible determinado). Veamos ahora cuál es dicha solución.

Toda vez que ya tenemos escalonada la matriz ampliada, podemos afirmar que el sistem de ecuaciones equivalente en solución es: $$\left\{\begin{matrix}x&-i\,y&&&=&2 \\ & y&+&i\,z&=&1+2\,i\\&&&(-1+i)\,z&=&-1\end{matrix}\right.$$ De la tercera ecuación, tenemos que $$z=\dfrac{1}{1-i}=\dfrac{1}{1-i}\cdot \dfrac{1+i}{1+i}=\dfrac{1+i}{1-i^2}=\dfrac{1+i}{1-(-1)}=\dfrac{1}{2}\,(1+i)$$ Sustituyendo este resultado en la segunda ecuación y despejando $y$ llegamos a $$y=\dfrac{3}{2}\,(1+i)$$ y sustituyendo a su vez los valores encontrados para $y$ y $z$ en la primera ecuación, al despejar $x$ obtenemos $$x=\dfrac{1}{2}\,(1+3\,i)$$

Nota:
Se puede comprobar que sustituyendo estos valores en cualesquiera de la ecuaciones originales satisfacen las igualdades, como debe ser.

$\diamond$

jueves, 14 de agosto de 2025

Cálculo de la matriz inversa de una matriz regular mediante el método de reducción

A modo de ejercicio, voy a calcular la matriz inversa de $A=\begin{pmatrix}i&1\\1&i\end{pmatrix}$, cuyos elementos pertenecen al cuerpo de los números complejos

Voy a utilizar el método de reducción:
$$\left(\begin{array}{cc|cc}
i & 1 & 1 & 0 \\
1 & i & 0 & 1 \\
\end{array}\right) $$ Multiplicando por $i$ los elementos de la primera fila y sumando la fila resultante a los elementos de la segunda obtenemos: $$\left(\begin{array}{cc|cc}
i & 1 & 1 & 0 \\
0 & 2i & i & 1 \\
\end{array}\right) $$ Ahora, multipliquemos por $\dfrac{1}{2}\,i$ los elementos de la segunda fila y sumemos a los de la primera: $$\left(\begin{array}{cc|cc}
i & 0 & \frac{1}{2} & \frac{1}{2}\,i \\
0 & 2i & i & 1 \\
\end{array}\right) $$ Multiplicando lo0s elementos de la primera fila por $-i$: $$\left(\begin{array}{cc|cc}
1 & 0 & -\frac{1}{2}\,i & \frac{1}{2} \\
0 & 2i & i & 1 \\
\end{array}\right) $$ Y, finalmente, multipliquemos los elementos de la segunda fila por $-\frac{1}{2}\,i$: $$\left(\begin{array}{cc|cc}
1 & 0 & -\frac{1}{2}\,i & \frac{1}{2} \\
0 & 1 & \frac{1}{2} & -\frac{1}{2}\,i \\
\end{array}\right) $$ Así pues, $$A^{-1}=\begin{pmatrix}-\frac{1}{2}\,i & \frac{1}{2} \\ \frac{1}{2} & -\frac{1}{2}\,i \end{pmatrix}=\dfrac{1}{2}\, \begin{pmatrix}-i & 1 \\ 1 & -i \end{pmatrix}$$

-oOo-

Nota:
Un método alternativo es el de la matriz de los cofactores: $A^{-1}=\dfrac{C^t}{\text{det}(A)}$ donde $C=[c_{ij}]_{n\times n}:=[(-1)^{i+j}\,\mathcal{A}_{ij}]_{n \times n}$ siendo $\mathcal{A}$ la matriz de los adjuntos asociada a $A$

Así, en el caso que nos ocupa, $C=\begin{pmatrix}(-1)^{1+1}\,\text{det}(a_{22})&(-1)^{1+2}\,\text{det}(a_{21}) \\ (-1)^{2+1}\,\text{det}(a_{12})&(-1)^{2+2}\,\text{det}(a_{11}) \end{pmatrix}=\begin{pmatrix}i&-1\\-1&i\end{pmatrix}$, con lo cual $C^t=\begin{pmatrix}i&-1\\-1&i\end{pmatrix}$; por otra parte, $\det{A}=\begin{vmatrix}i&1\\1&i\end{vmatrix}=i^2-1^2=-1-1=-2$, luego $A^{-1}=\dfrac{1}{-2}\,\begin{pmatrix}i&-1\\-1&i\end{pmatrix}=\dfrac{1}{2}\,\begin{pmatrix}-i&1\\1&-i\end{pmatrix}$, tal y como ya hemos calculado antes por el método de reducción.

$\diamond$

miércoles, 6 de agosto de 2025

Un ejercicio en el que se aplica la sobre un parámetro para que un conjunto de tres vectores dados, y que dependen de dicho parámetro, forme una base de $\mathbb{R}^3$

¿Para qué valores del parámetro real $a$, el conjunto de vectores $\{(\alpha,0,1),(0,1,1),(2,-1,\alpha)\}$ es una base de $\mathbb{R}^3$?

Como la dimensión del espacio vectorial es $3$ se necesitan exactamente tres vectores linealmente independientes para formar una base. Veamos si estos tres candidatos cumplen esta condición, lo cual es equivalente a decir que la combinación lineal para describir el vector nulo, $a\,(\alpha,0,1)+b\,(0,1,1)+c\,(2,-1,\alpha)=(0,0,0) \quad (1)$, ha de ser tal que los coeficientes $a,b$ y $c$ sean los tres igual a cero.

De $(1)$ puede escribirse el siguiente sistema homogéneo: $$\left\{\begin{matrix}\alpha \, a+2\,c=0\\b-c=0\\a+b+\alpha\,c=0\end{matrix}\right.$$

La matriz de los coeficientes es $\begin{pmatrix}\alpha&0&2\\0&1&-1\\1&1&\alpha\end{pmatrix}$ y la matriz ampliada es $\begin{pmatrix} \alpha & 0 & 2 & 0\\ 0 &1&-1&0 \\ 1&1&\alpha&0 \end{pmatrix}$

Para que $a=b=c=0$ (solución única), el sistema homogéneo tendrá que ser compatible determinado, y siendo el número de incógnitas igual a $3$, el rango de la matriz de los coeficientes ha de ser igual a $3$ (éste será también el rango de la matriz amplicada, por ser la última columna nula); y, para ello, el determinante de la matriz ampliada tendrá que ser distinto de cero: $$\begin{vmatrix}\alpha&0&2\\0&1&-1\\1&1&\alpha\end{vmatrix}\neq 0 \Leftrightarrow \alpha^2+\alpha-2 \neq 0 \, \Leftrightarrow \alpha \not \in \{1\,,-2\}$$

$\diamond$

martes, 5 de agosto de 2025

La derivación de polinomios como aplicación lineal

Acerca de la aplicación lineal derivación de polinomios de grado $3$ $$\mathcal{D}:P_{\mathbb{R}}^{(3)}[x] \rightarrow P_{\mathbb{R}}^{(2)}[x]$$, ¿cuál es la matriz asociada a dicha aplicación lineal con respecto a las bases canónicas respectivas de los espacios de partida y de llegada?

Con respecto a las bases canónicas $\{1,x,x^2,x^3\}$ del espacio vectorial $P_{\mathbb{R}}^{(3)}[x]$ (de dimensión igual a $4$), y $\{1,x,x^2\}$ del espacio vectorial $P_{\mathbb{R}}^{(2)}[x]$ (de dimensión igual a $3$), se tiene que $$\left\{\begin{matrix}\mathcal{D}(1)=0\,\cdot 1+0\cdot x+0\cdot x^2\\ \mathcal{D}(x)=1\,\cdot 1+0\cdot x+0\cdot x^2\\ \mathcal{D}(x^2)=0\,\cdot 1+2\cdot x+0\cdot x^2\\ \mathcal{D}(x^3)=0\,\cdot 1+0\cdot x+3\cdot x^2 \end{matrix}\right.$$ es decir, $$\begin{pmatrix}1&0&0&0 \\ 0&2&0&0 \\ 0&0&3&0 \end{pmatrix}\,\begin{pmatrix}1\\x\\x^2\\x^3\end{pmatrix}=\begin{pmatrix}1\\2x\\3x^2\\\end{pmatrix} $$ luego la matriz asociada a la aplicación lineal es $D=\begin{pmatrix}1&0&0&0 \\ 0&2&0&0 \\ 0&0&3&0\end{pmatrix} \in \mathcal{M}_{3\times 4}(\mathbb{R})$

-oOo-

Redefinamos un poco esta aplicación lineal. Consideremos ahora la operación derivación de polinomios como el endomorfismo $$\mathcal{D}:P_{\mathbb{R}}^{(3)}[x] \rightarrow P_{\mathbb{R}}^{(3)}[x]$$ Me propongo demostrar que el conjunto de polinomios de grado $0$ constituye el núcleo de dicho endomorfismo

Con respecto a las base canónica $\{1,x,x^2,x^3\}$ del espacio vectorial de partida y de llegada $P_{\mathbb{R}}^{(3)}[x]$ (de dimensión igual a $4$) se tiene que $$\left\{\begin{matrix}\mathcal{D}(1)=0\,\cdot 1+0\cdot x+0\cdot x^2+0\cdot x^3\\ \mathcal{D}(x)=1\,\cdot 1+0\cdot x+0\cdot x^2+0\cdot x^3\\ \mathcal{D}(x^2)=0\,\cdot 1+2\cdot x+0\cdot x^2+0\cdot x^3\\ \mathcal{D}(x^3)=0\,\cdot 1+0\cdot x+3\cdot x^2+0\cdot x^3 \end{matrix}\right.$$ es decir, $$\begin{pmatrix}0&0&0&0\\ 1&0&0&0 \\ 0&2&0&0 \\ 0&0&3&0 \end{pmatrix}\,\begin{pmatrix}1\\x\\x^2\\x^3\end{pmatrix}=\begin{pmatrix}0\\1\\2x\\3x^2\\\end{pmatrix} $$ luego, así las cosas, la matriz asociada a la aplicación lineal es $$D=\begin{pmatrix}0&0&0&0 \\ 1&0&0&0 \\ 0&2&0&0 \\ 0&0&3&0\end{pmatrix} \in \mathcal{M}_{4\times 4}(\mathbb{R})$$

Veamos quien es el núcleo del endomorfismo, que, como es sabido, representa el conjunto de elementos del espacio vectorial que son enviados cuya imagen es el elemento cero: $$\begin{pmatrix}0&0&0&0 \\ 1&0&0&0 \\ 0&2&0&0 \\ 0&0&3&0\end{pmatrix}\,\begin{pmatrix}x_1\\x_2\\x_3\\x_4\end{pmatrix}=\begin{pmatrix}0\\0\\0\\0\end{pmatrix}$$

El rango de la matriz de los coeficientes es $3$, luego $\text{dim}(\text{Ker}(\mathcal{D}))=\text{dim}(P_{\mathbb{R}}^{(3)}[x])-\text{rango}(D)=4-3=1$. Resolviendo el sistema de ecuaciones encontramos fácilmente $x_1=x_2=x_3=0$, quedando $\lambda:=x_4$ como el correspondiente parámetro libre; por consiguiente, las bases del núcleo del endomorfismo (subespacio vectorial del espacio vectorial $P_{\mathbb{R}}^{(3)}[x]$) son del tipo $ (0,0,0,\alpha) \,\forall \alpha \in \mathbb{R}$, con las cuales es evidente que con ellas sólo pueden describirse los polinomios de grado cero. Es decir, el conjunto de polinomios de grado cero (los números reales) constituyen el núcleo del endomorfismo derivación de polinomios (de $P_{\mathbb{R}}^{(3)}[x]$ en si mismo). Por supuesto, y generalizando, podemos decir lo mismo para la derivación en el espacio de polinomios de grado arbitrario $n$.

-oOo-

Observación:
Observemos que la matriz de este endomorfismo, $\begin{pmatrix}0&0&0&0 \\ 1&0&0&0 \\ 0&2&0&0 \\ 0&0&3&0\end{pmatrix}$, no es diagonalizable al no cumplirse la condición necesaria y suficiente; en efecto, si calculamos los valores propios, solamente encontramos uno: $\lambda=0$ $$P(\lambda):=\begin{vmatrix}0-\lambda&0&0&0 \\ 1&0-\lambda&0&0 \\ 0&2&0-\lambda&0 \\ 0&0&3&-\lambda\end{vmatrix}=0 \Leftrightarrow \lambda=0$$ con lo cual, el polinomio característico se escribe de la forma $P(\lambda)=\lambda^4$, siendo por tanto su multiplicidad igual a $m=4\neq \text{dim}(\text{Ker}(\mathcal{D}))=1$

$\diamond$

Una base del espacio vectorial $\mathcal{M}_{2\times 2}(\mathbb{R})$

Se considera el espacio vectorial $\mathcal{M}_{2\times 2}$ sobre el cuerpo $\mathbb{R}$. ¿Es el siguiente conjunto de matrices una base de dicho espacio vectorial? $$\left\{ \begin{pmatrix}1&0\\1&1\end{pmatrix},\begin{pmatrix}0&1\\1&1\end{pmatrix},\begin{pmatrix}1&1\\0&1\end{pmatrix},\begin{pmatrix}1&1\\1&0\end{pmatrix}\right\}$$

La dimensión del espacio vectorial $\mathcal{M}_{2\times 2}$ es $2\cdot 2=4$, luego todo sistema de generadores ha de tener al menos $4$ vectores linealmente independientes; y, como toda base es un sistema de generadores mínimo, el conjunto propuesto es candidato a ser una base. Veamos si los elementos dados son linealmente independientes. Para ello, sabemos que una combinación lineal de los mismos que exprese el elemento nulo. $\begin{pmatrix}0&0\\0&0\end{pmatrix}$, debe ser tal que los coeficientes de dicha combinación lineal, $a,b,c,d\in \mathbb{R}$ sean todos nulos. Planteemoslo:

$$a\,\begin{pmatrix}1&0\\1&1\end{pmatrix}+b\,\begin{pmatrix}0&1\\1&1\end{pmatrix}+c\,\begin{pmatrix}1&1\\0&1\end{pmatrix}+d\,\begin{pmatrix}1&1\\1&0\end{pmatrix}=\begin{pmatrix}0&0\\0&0\end{pmatrix} $$ luego el sistema de ecuaciones lineales asociado es un sistema homogéneo, $$\left\{\begin{matrix}a+c+d=0\\b+c+d=0\\a+b+d=0\\a+b+c=0\end{matrix}\right.$$ La matriz de los coeficientes es $$A=\begin{pmatrix}
1 & 0 & 1 & 1 \\ 0 & 1 & 1 & 1 \\ 1 & 1 & 0 & 1 \\ 1 & 1 & 1 & 0 \\ \end{pmatrix} $$ y la matriz ampliada, $$\tilde{A}=\left(\begin{array}{cccc|c}
1 & 0 & 1 & 1 & 0 \\
0 & 1 & 1 & 1 & 0 \\
1 & 1 & 0 & 1 & 0 \\
1 & 1 & 1 & 0 & 0 \\
\end{array}\right) $$ Al ser nulos los elementos de la quinta columna, es claro que $\text{rango}(\tilde{A})=\text{rango}{A}\le 4$; y, por otra parte, se puede comprobar que $\text{det}(A)\neq 0$, luego $\text{rango}(\tilde{A})=\text{rango}{A} = 4$, que es igual al número de incógnitas ($n=4$), por consiguiente, según el teorema de Rouché-Fröbenius, el sistema es compatible determinado (solución única), y, siendo homogéneo, ésta es $a=b=c=d=0$. En consecuencia, los cuatro elementos propuestos del sistema de generadores son linealmente independientes, y siendo éste mínimo (el número de los mismos es igual a la dimensión del espacio vectorial), constituyen una base del mismo.

$\diamond$

lunes, 4 de agosto de 2025

Un ejercicio para determinar una base del núcleo de una aplicación lineal dada

Se considera el endomorfismo $f:V_3(\mathbb{R})\rightarrow V_2(\mathbb{R});\,(x_1,x_2,x_3)^\top \mapsto (x_1+x_2+x_3,x_1+x_2)^\top$. Me propongo encontrar una base del núcleo de la aplicación lineal, $\text{Ker}(f)$

Veamos cuál es la matriz asociada $A$ a $f$: Como $\left\{\begin{matrix}f(x_1)&=&x_1+x_2+x_3\\f(x_2)&=&x_1+x_2\end{matrix}\right.$, se tiene que $A_{2\times 3}=\begin{pmatrix}1 & 1 & 1\\ 1 & 1 & 0\end{pmatrix}$. Es claro que $\text{rango}(A)=2$, pues podemos encontrar menores complementarios de orden $2$ distintos de cero, luego como $\text{dim}(V_3)=\text{rango}(A)+\text{dim}(\text{Ker}(f))$, vemos que $3=2+\text{dim}(\text{Ker}(f))$ y por tanto, $\text{dim}(\text{Ker}(f))=3-2=1$; así que una base de $\text{Ker}(f)$ estará formada por un sólo vector.

Encontremos uno, teniendo en cuenta que todo vector del núcleo tiene el vector $\vec{0}_{V_2}$: $$\begin{pmatrix}1 & 1 & 1\\ 1 & 1 & 0\end{pmatrix}\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\0\end{pmatrix}$$ esto es $$\left\{\begin{matrix}0&=&x_1+x_2+x_3\\0&=&x_1+x_2\end{matrix}\right. \sim \left\{\begin{matrix}0&=&x_1+x_2+x_3\\0&=&x_3=0\end{matrix}\right. \Rightarrow \lambda:=x_1=-x_2$$ en consecuencia, tomando (pongamos que) $\lambda=1$, un vector válido es $(1,-1,0)$, luego podemos escribir que $\text{Ker}(f)=\langle (1,-1,0)\rangle$

$\diamond$

miércoles, 30 de julio de 2025

EDO asociada a la familia de rectas del plano cuya distancia al origen de coordenadas es igual a la unidad

¿Cuál es la EDO asociada a la familia de rectas del plano tal que para cada una de ellas la distancia al origen de coordenadas $O$ sea igual a la unidad?

Sea una de dichas rectas, cuya ecuación en forma implícita puede escribirse de la forma $r:ax+by+c=0\quad (1)$. Entonces, $\text{distancia}(r,O(0,0)):=\dfrac{a\cdot 0+b\cdot 0+c}{\sqrt{a^2+b^2}}=\dfrac{c}{\sqrt{a^2+b^2}}=-\dfrac{ax+by}{\sqrt{a^2+b^2}}=1 \quad (2)$

Ahora bien, $a$ y $b$ están relacionados con la pendiente de la recta, $m$; en efecto, si escribimos la ecuación de $r$ en forma explícita, tenemos que $r:y=m\,x+k$, pero de $(1)$, $\dfrac{a}{b}\,x+y=-\dfrac{c}{a}$, luego $y=-\dfrac{a}{b}\,x-\dfrac{c}{a}$, y por tanto se tiene que $m=-\dfrac{a}{b}$, con lo cual $a=-m\,b$; por consiguiente, $(2)$ puede escribir de la forma: $$\dfrac{(-mb)\,x+b\,y}{\sqrt{(-mb)^2+b^2}}=1$$ o lo que es lo mismo (simplificando), $$y-m\,x-\sqrt{1+m^2}=0 \quad (3)$$ Con lo cual, la solución general depende de un sólo parámetro (como era de esperar), $m$, y por tanto la EDO que buscamos ha de ser de primer orden.

Derivando $(3)$ con respecto de $x$ podremos despejar dicho parámetro y sustituirlo después para encontrar la ecuación diferencial pedida:
$$y'-m=0 \Rightarrow m=y'$$ con lo cual $(3)$ se reescribe de la forma $$y-x\,y'-\sqrt{1+(y')^2}=0$$ es decir $$y-x\,y'=\sqrt{1+(y')^2}$$ elevando al cuadrado en ambos miembros, $$(y-x\,y')^2=1+(y')^2$$ y, desarrollando el binomio al cuadrado del segundo miembro, y agrupando términos: $$(1-x)^2\,(y')^2+2xy\,y'-y^2+1=0$$

$\diamond$

EDO asociada a la familia de circunferencias de radio $2$, centradas en la bisectriz del primer y tercer cuadrantes

Consideremos la familia de circunferencia de radio igual a $2$ cuyos centros se encuentran sobre la bisectriz del primer y tercer cuadrantes del plano. ¿Cuál es la EDO asociada?

La ecuación de una de estas circunferencias, de centro $A(x_\alpha,y_\alpha)$, es $(x-x_\alpha)^2+(y-y_\alpha)^2=2^2$. Ahora bien, al estar $C$ en la bisectriz del primer y tercer cuadrantes, $\alpha_x=\alpha_y$, con lo cual se tiene que esta familia de circunferencias (solución general de la EDO) es $(x-x_\alpha)^2+(y-x_\alpha)^2=2^2$, esto es $x^2+y^2-2\,\alpha_x\,x-2\,\alpha_x\,y=4 \quad (1)$, donde $\alpha_x$ juega ahora el papel de constante arbitraria (de integración). Para obtener una expresión de la misma, derivo, despejo, simplifico y sustituyo:
Al derivar obtengo, $x+y-\alpha_x-\alpha_x\,y'=0$, es decir, $x+y=(y'+1)\,\alpha_x$ y por tanto, $\alpha_x=\dfrac{x+y}{1+y'}$, y sustituyendo en $(1)$ -que es lo mismo que $x^2+y^2-2\,\alpha_x\,(x+y)=4$- llegamos a $x^2+y^2-2\,\dfrac{(x+y)^2}{1+y'}=4$, es decir, $(x^2+y^2-4)(1+y')-2\,(x+y)^2=0$ $\diamond$

Alguns exemples de demostració pel mètode d'inducció, aplicats a les sèries

Exemple 1:
Demostreu, per inducció, la següent propietat:
    $1^2+2^2+3^2+\ldots+n^2=\dfrac{1}{6}\,n\,(n+1)\,(2\,n+1) \quad \quad \text{on} \quad n \in \mathbb{N}$

Solució:
Seguint els tres passos del mètode de demostració per inducció tenim. Aquests passos són els següents:

  i) És evident que la propietat és certa per a $n=1$, és a dir, es compleix $\mathcal{P}_1$

  ii) Suposem, ara, que la propietat $\mathcal{P}_n$ és certa ( suposem que és certa la proposició donada, és a dir, la igualtat donada a l'enunciat )

  iii) Provarem, a continuació, que la propietat també és certa per a $n+1$, és a dir, provarem que es verifica $\mathcal{P}_{n+1}$. Fet això, d'acord amb el principi dit d'inducció, quedarà demostrada la proposició $\mathcal{P}$ per a qualsevol valor de $n$. Partint, doncs, de l'expressió del primer membre de la igualtat donada (   $\mathcal{P}_n$   ) , sumem el terme $(n+1)^2$ al primer membre (sumem el quadrat del nombre consecutiu al darrer terme), obtenint
    $\big(1^2+2^2+3^2+\ldots+n^2\big)+(n+1)^2$
que, segons $\mathcal{P}_n$, és igual a
    $\dfrac{1}{6}\,n\,(n+1)\,(2\,n+1)+(n+1)^2$
expressió que és igual a
    $\dfrac{1}{6}\,(n+1)\,\big(2\,n^2+7\,n+6\big)$
i que, factoritzada, queda
    $\dfrac{1}{6}\,(n+1)\,(n+2)(2\,n+3)$
per tant es reprodueix la mateixa estructura de l'expressió del 2n membre per a $n+1$; en efecte, per veure-ho ben clar, tan sols cal substituir $n$ per $n+1$ a l'expressió del segon membre, verificant la reproducció de l'estructura de l'expressió:
    $\dfrac{1}{6}\,(n+1)\,\big((n+1)+1\big)\,\big(2\,(n+1)+1\big)$
Llavors, queda provada $\mathcal{P}$.
$\diamond$

-oOo-

Exemple 2:
Demostreu, per inducció, la següent propietat:
    $2+4+6+\ldots+2n=n\,(n+1)$     ( $n \in \mathbb{N}$ ).

Solució:
Seguint els tres passos del mètode de demostració per inducció tenim. Aquests passos són els següents:

  i) És evident que la propietat és certa per a $n=1$, és a dir, es compleix $\mathcal{P}_1$

  ii) Suposem, ara, que la propietat $\mathcal{P}_n$ és certa ( suposem que és certa la proposició donada, és a dir, la igualtat donada a l'enunciat )

  iii) Provarem, a continuació, que la propietat també és certa per a $n+1$, és a dir, provarem que es compleix $\mathcal{P}_{n+1}$. Fet això, d'acord amb el principi dit d'inducció, quedarà demostrada la proposició $\mathcal{P}$ per a qualsevol valor de $n$. Partint, doncs, de l'expressió del primer membre de la igualtat donada (   $\mathcal{P}_n$   ) , sumem el terme $2\,(n+1)$ al primer membre (sumem el nombre parell consecutiu al darrer terme), obtenint
  $\big(2+4+6+\ldots+2n\big)+2\,(n+1)$
que, segons $\mathcal{P}_n$, és igual a $n\,(n+1)+2\,(n+1)$
expressió que és igual a $n^2+3\,n+2$
i, factoritzada, queda
$(n+1)\,(n+2)$
per tant es reprodueix la mateixa estructura de l'expressió del 2n membre per a $n+1$; en efecte, per veure-ho ben clar, tan sols cal substituir $n$ per $n+1$ a l'expressió del segon membre, verificant la reproducció de l'estructura de l'expressió. Llavors, queda provada $\mathcal{P}$.
$\diamond$

-oOo-

Exemple 3:
Demostreu, per inducció, la següent propietat:
    $1+4+7+\ldots+(3\,n-2)=\dfrac{1}{2}\,n\,(3\,n-1) \quad \quad \text{on} \quad n \in \mathbb{N}$

Solució:
Seguint els tres passos del mètode de demostració per inducció tenim. Aquests passos són els següents:

  i) És evident que la propietat és certa per a $n=1$, és a dir, es compleix $\mathcal{P}_1$

  ii) Suposem, ara, que la propietat $\mathcal{P}_n$ és certa ( suposem que és certa la proposició donada, és a dir, la igualtat donada a l'enunciat )

  iii) Provarem, a continuació, que la propietat també és certa per a $n+1$, és a dir, provarem que es compleix $\mathcal{P}_{n+1}$. Fet això, d'acord amb el principi dit d'inducció, quedarà demostrada la proposició $\mathcal{P}$ per a qualsevol valor de $n$. Partint, doncs, de l'expressió del primer membre de la igualtat donada (   $\mathcal{P}_n$   ) , sumem el terme $3\,(n+1)-2$ al primer membre (sumem el valor del terme consecutiu de la successió aritmètica de diferència igual a $3$), obtenint
  $\bigg(1+4+7+\ldots+\big(3\,n-2\big)\bigg)+\big((3\,(n+1)-2\big)$
i, segons $\mathcal{P}_n$, és igual a
$\dfrac{1}{2}\,\bigg(\,n\,(3\,n-1)+2\,\big((3\,(n+1)-2\big)\bigg)$
expressió que és igual a
$\dfrac{1}{2}\,\big(3\,n^2+5\,n+2\big)$
i, factoritzada, queda
$\dfrac{1}{2}\,(n+1)\,(3\,n+2)$
on reconeixem la reproducció de l'estructura de la propietat $\mathcal{P}$ per a $n+1$
$\dfrac{1}{2}\,(n+1)\,(3\,(n+1)-1)$
i, doncs, queda provada $\mathcal{P}$.
$\diamond$

-oOo-

Exemple 4:
Demostreu, per inducció, la següent propietat:
    $1+5+9+\ldots+(4\,n-3)=n\,(2\,n-1) \quad \quad \text{on} \quad n \in \mathbb{N}$

Solució:
Seguint els tres passos del mètode de demostració per inducció tenim. Aquests passos són els següents:

  i) És evident que la propietat és certa per a $n=1$, és a dir, es compleix $\mathcal{P}_1$

  ii) Suposem, ara, que la propietat $\mathcal{P}_n$ és certa ( suposem que és certa la proposició donada, és a dir, la igualtat donada a l'enunciat )

  iii) Provarem, a continuació, que la propietat també és certa per a $n+1$, és a dir, provarem que es compleix $\mathcal{P}_{n+1}$. Fet això, d'acord amb el principi dit d'inducció, quedarà demostrada la proposició $\mathcal{P}$ per a qualsevol valor de $n$. Partint, doncs, de l'expressió del primer membre de la igualtat donada (   $\mathcal{P}_n$   ) , sumem el terme $4\,(n-3)+4$ al primer membre (sumem el valor del terme consecutiu de la successió aritmètica de diferència igual a $4$), obtenint
  $\bigg(1+5+9+\ldots+\big(4\,n-3\big)\bigg)+\big((4\,n-3)+4\big)$
i, segons $\mathcal{P}_n$, és igual a
    $n\,(2\,n-1)+\big((4\,n-3)+4\big)$
expressió que és igual a
    $2\,n^2+3\,n+1$
i, factoritzada (nota), queda
    $(n+1)\,(2\,n+1)$
on reconeixem la reproducció de l'estructura de la propietat $\mathcal{P}$ per a $n+1$
    $(n+1)\,\big(2\,(n+1)-1\big)$
i, doncs, queda provada $\mathcal{P}$. Hem acabat.
---------------

Nota:  
Per factoritzar el polinomi $2\,n^2+3\,n+1$ en calculem, primer de tot, les arrels o zeros del polinomi (que són els nombres que l'anul·len) i, per acabar, aplicarem el teorema de factorització.

Resolem, doncs, l'equació $2\,n^2+3\,n+1=0$ per determinar les seves arrels. L'equació és polinòmica de 2n grau, i ja ve expressada en forma completa (o general) $a\,x^2+b\,x+c=0$, amb coeficients: $a=2$, $b=3$ i $c=1$
veiem que el discriminant $\Delta=b^2-4\,a\,c$ que és igual a $3^2-4 \cdot 2 \cdot 1 = 1$, que és un nombre positiu, i, per tant, veiem que hi ha dos nombres reals (diferents) com a solució, que són els següents:
      $\dfrac{-3\pm \sqrt{\Delta}}{2 \cdot 2}=\dfrac{-3\pm 1}{4}$
Obtenim, doncs, les següents arrels del polinomi
    $n_1=-\dfrac{1}{2} \quad \text{i} \quad n_2=-1$
llavors, pel teorema de factorització podem escriure
    $2\,n^2+3\,n+1=2\,\big(n-n_1\big)\,\big(n-n_2\big)$
és a dir
    $2\,n^2+3\,n+1=2\,\big(n-(-\dfrac{1}{2}\big)\,\big(n-(-1)\big)$
        $=2\,\bigg(n+\dfrac{1}{2}\bigg)\,\big(n+1)\big)$
        $=(n+1)\,\big(2\,(n+1)-1\big)$
        $=(n+1)\,\big(2\,n+1\big)$
$\diamond$

-oOo-

Exemple 5:
Demostreu, per inducció, la següent propietat:
    $1^3+2^3+\ldots+n^3=(1+2+\ldots+n)^2 \quad \quad \text{on} \quad n \in \mathbb{N}$

Solució:
Seguint els tres passos del mètode de demostració per inducció tenim. Aquests passos són els següents:

  i) És evident que la propietat és certa per a $n=1$, és a dir, es compleix $\mathcal{P}_1$

  ii) Suposem, ara, que la propietat $\mathcal{P}_n$ és certa (suposem que és certa la proposició donada, és a dir, la igualtat donada a l'enunciat, i que ja sabem que es igual a $\left( \dfrac{n\,(n+1)}{2}\right)^2$ suma dels $n$ termes consecutius de la succesió aritmética elevada al quadrat

  iii) Provarem, a continuació, que la propietat també és certa per a $n+1$, és a dir, provarem que es compleix $\mathcal{P}_{n+1}$. Fet això, d'acord amb el principi dit d'inducció, quedarà demostrada la proposició $\mathcal{P}$ per a qualsevol valor de $n$. Partint, doncs, de l'expressió del primer membre de la igualtat donada (   $\mathcal{P}_n$   ), sumem el terme $(n+1)^3$ als dos membres de la igualtat,
  $(1^3+2^3+\ldots+n^3)+(n+1)^3=\left( \dfrac{n\,(n+1)}{2}\right)^2+(n+1)^3$
i, si desenvolupem el segon membre, veurem que es igual a
    $(n+1)^2\,\left( (n/2)^2 + (n+1)\right)=(n+1)^2\left( n^2+4n+4\right)/2^2=(n+1)^2\,((n+2)/2)^2=((n+1)(n+2)/2)^2$

i, doncs, es compleix $\mathcal{P}_{n+1}$. Per tant, hem acabat.
$\diamond$

La constante de Euler-Mascheroni, $\gamma=0,5772156649...\ldots$

La constante de Euler-Mascheroni, que se suele denotar por $\gamma$ -no se debe confundir con el número irracional $e=2,71828182845904523536\ldots$ (la base de los logaritmos naturales o neperianos)-, se define como $$\gamma:=\displaystyle \lim_{n\rightarrow \infty}\,\sum_{i=1}^{n}\,\dfrac{1}{i}-\ln\,(n)$$ y se sabe que su valor es $0,5772156649...\ldots$ (véase esta otra entrada en mi blog), donde el sumatorio expresa la suma de los $n$ primeros términos de la serie armónica. Al parecer, no se sabe aún si se trata de un número algebraico o bien de un número trascendente; tampoco se sabe si se trata de un número racional.

$\diamond$

Longitud de un arco de cicloide entre dos valores dados del parámetro de evolución de la curva

Como es bien sabido, cuando un disco circular rueda sin deslizar a lo largo de una recta, un punto de su contorno describe una curva cicloide. El radio del disco es la unidad, y el disco rueda a lo largo del eje Ox, siendo las ecuaciones paramétricas de la curva cicloide: $\mathcal{C}:\vec{r(t)}=\left\{\begin{matrix}x(t)=t-\sin(t)\\y(t)=1-\cos(t)\end{matrix}\right.$ . Pues bien, en este ejercicio voy a calcular la longitud de la curva cicloide que corresponde a un giro completo del disco.

La longitud pedida (longitd de arco), $s(t)$, es $$\displaystyle s(t)=\int_{t_i}^{t_f}\,\|\dfrac{d}{dt}\,(\vec{r(t)})\|\,dt \quad (1)$$ Al derivar las ecuaciones paramétricas (con respecto del parámetro $t$) se obtiene $$\displaystyle \dfrac{d}{dt}\,(\vec{r(t)})=\left(\dot{(t-\sin(t))}\,,\,\dot{(1-\cos(t))}\right)=(1-\cos(t)\,,\,\sin(t))$$ por tanto $$\displaystyle \|\dfrac{d}{dt}\,(\vec{r(t)})\|=\sqrt{(1-\cos(t))^2+\sin^2(t)}=2\,(1-\cos(t))$$

Así pues, de $(1)$, en un giro completo $t_i=0$ y $t_f=2\,pi$, luego
  $\displaystyle s_{\text{primera vuelta}}=\int_{0}^{2\pi}\,\sqrt{2\,(1-\cos(t))}\,dt=\sqrt{2}\,\int_{0}^{2\pi}\,\sqrt{1-\cos(t)}\,dt=2\,I$ donde $\displaystyle I=\int_{0}^{2\pi}\,\sqrt{1-\cos(t)}\,dt$

Para calcular $I$, podemos ensayar el cambio de variable $t=2\,u$, por lo que $dt=2\,du$; y, si $t=0$, $u=0$, y para $t=2\pi$, se tiene que $u=\pi$. Así, $I=\displaystyle \sqrt{2}\,\int_{0}^{\pi}\,\sqrt{1-\cos(2u)}\,du=\sqrt{2}\,J$, donde $J=\displaystyle \int_{0}^{\pi}\,\sqrt{1-\cos(2u)}\,du$. Para calcular $J$, tengamos en cuenta la identidad $\sin^2\,(u)=\dfrac{1-\cos(2u)}{2}$, con lo cual $1-\cos(2u)=2\,\sin^2\,(u)$ por tanto,
  $J=\displaystyle \int_{0}^{\pi}\,\sqrt{2}\,\sqrt{\sin^2\,(u)}\,du=\int_{0}^{\pi}\,\sqrt{2}\,\sin\,(u)\,du$
    $\displaystyle=\sqrt{2}\,\int_{0}^{\pi}\,\sin\,(u)\,du=\sqrt{2}\,(-\cos(\pi)-(-\cos(0)))=\sqrt{2}\,\left(-(-1)-(-1)\right)=2\,\sqrt{2}$
luego $I=\sqrt{2}\cdot 2\,\sqrt{2}=4$ y por tanto $$s_{\text{primera vuelta}}=4\,\sqrt{2}\,\text{unidades de longitud}$$

$\diamond$

Ecuación de un plano perpendicular a una recta dada

Se quiere determinar la ecuación del plano, en $\mathbb{R}^3$, que contiene al punto $A(1,-1,0)$ y es perpendicular a la recta $r:\left\{\begin{matrix}x=1+(-1)\cdot\lambda\\y=1+1\cdot \lambda\\z=3+0\cdot \lambda\end{matrix}\right.\;\forall \lambda \in \mathbb{R} (\quad (1)$

La ecuación de la recta $r$ escrita en forma vectorial es $r:(x,y,z)=(\alpha_1,\alpha_2,\alpha_3)+\lambda\,(u_x,u_y,u_z)$, siendo $(\alpha_1,\alpha_2,\alpha_3)$ las coordenadas de un punto $P\in r$ y $(u_1,u_2,u_3)$ son las coordenadas de un vector director de $r$, por lo que podemos escribir las ecuaciones cartesianas de $r$ de la forma $$r:\left\{\begin{matrix}x=\alpha_1+\lambda\,u_1\\y=\alpha_2+\lambda\,u_2\\z=\alpha_3+\lambda\,u_3\end{matrix}\right.\;\forall \lambda \in \mathbb{R}\quad (2)$$ De la comparación de $(1)$ y $(2)$ se deduce que $u_1=-1$, $u_2=1$ y $u_3=0$, luego un $\vec{u}=(-1,1,0)$; y, $\alpha_1=1$, $\alpha_2=1$ y $\alpha_3=3$

Sea $X(x,y,z)$ un punto genérico del plano $\pi$; entonces, como $A$ también está en el plano, un vector en el plano $\pi$ es $\vec{AX}=(x-\alpha_1,y-\alpha_2,z-\alpha_3)$ y por tanto $$\vec{AX}=(x-1,y-1,z-3)$$

Teniendo en cuenta que $r$ ha de ser perpendicular a $\pi$, $\vec{u} \perp \pi$ y por tanto $$\vec{u} \perp \vec{AX} \Leftrightarrow \langle \vec{u}\,,\,\vec{AX}\rangle=\langle (-1,1,0)\,,\,(x-1,y-1,z-3)\rangle=-1\cdot (x-1)+1\cdot (y-1)+0\cdot (z-3)=0$$ En consecuencia, $-x+1+y-1+0=0$, esto es, $x-y=0$ y por tanto $$\pi:x-y=0$$

$\diamond$

Vectores constantes (en $t$, parámetro de evolución)

Se considera el vector $\vec{u(t)}\neq \vec{0}$ en $\mathbb{R}^3$, donde $t$ representa el parámetro de evolución. Se quiere demostrar que $\vec{u} \times \dot{\vec{u}}=\vec{0}$ si y sólo si la dirección de $\vec{u}$ es constante (no depende de $t$)

Se cumple la condición suficiente:
Si la dirección de $\vec{u}$ es constante (no depende de $t$), entonces $\dot{\vec{u}}=\vec{0}$, con lo cual, $\vec{u} \times \dot{\vec{u}}=\vec{u} \times \vec{0}=\vec{0}\quad \diamond$

Se cumple la condición necesaria:
Si $\vec{u} \times \dot{\vec{u}}=\vec{0}$, se tiene que, como $\dfrac{d}{dt}\,\left( \vec{u} \times \vec{u}\right)=\vec{u}\times \dot{\vec{u}}+\dot{\vec{u}}\times \vec{u}=\vec{u}\times \dot{\vec{u}}+(-\vec{u}\times \dot{\vec{u}})=\vec{u}\times \dot{\vec{u}}-\vec{u}\times \dot{\vec{u}}=\vec{0}$
  $\Leftrightarrow \vec{u} \times \vec{u}=\text{no depende de}\,t\, \Leftrightarrow \vec{u}=\text{no depende de}\,t$
$\diamond$

martes, 29 de julio de 2025

EDO asociada a una cierta familia de cardiodes

¿Cuál es la EDO asociada a la siguiente familia de cardiodes (dada en coordenadas polares)? $$\rho=\lambda\,(1-\cos\,(\theta))$$

---

La figura muestra la gráfica de una cardiode de la familia (con $\lambda=1$) representada con Geogebra

---

Al haber una sola constante de integración, que es $\lambda$, el orden de la ecuación diferencial es $1$. Derivando con respecto a $\theta$ la solución general, se obtiene $$\rho'=\lambda\,\sin\,(\theta)$$ de donde despejando $\lambda$, se obtiene $$\lambda=\dfrac{\rho'}{\sin\,(\theta)}$$ y substituida la solución general encontramos $$\rho=\dfrac{\rho'}{\sin\,(\theta)}\,(1-\cos\,(\theta))$$ esto es, $$\rho'-\dfrac{\sin\,(\theta)}{1-\cos\,(\theta)}\,\rho=0$$ $\diamond$

lunes, 28 de julio de 2025

Determinación de la ecuación diferencial a partir de su solución general

En este ejercicio me propongo determinar la ecuación diferencial ordinaria cuya solución general es $y=\sin\,(x+A)$, siendo $A$ la constante indeterminada (o de integración).

Al haber una sola constante de integración es claro que el orden de la ecuación diferencial es $1$. Bien, derivando con respecto a $x$ la solución general, se obtiene $$y'=\cos\,(x+A)$$ y, por tanto, $$(y')^2=\cos^2\,(x+A) \quad (1)$$ Por otra parte, de la solución general, puede escribirse que $$y^2=\sin^2\,(x+A) \quad (2)$$ Sumando miembro a miembro $(1)$ y $(2)$, $$(y')^2+y^2=\cos^2\,(x+A) +\sin^2\,(x+A)$$ y, teniendo en cuenta la identidad fundamental de la trigonometría (en el segundo miembro), $$(y')^2+y^2-1=0$$ $\diamond$

Obtención de la ecuación diferencial asociada a su solución general

En este ejercicio me propongo determinar la ecuación diferencial ordinaria cuya solución general es $\ln\,(y)=A\,x^2+B$, siendo $A$ y $B$ las constantes indeterminadas.

Al haber dos constantes arbitrarias es claro que el orden de la ecuación diferencial es $2$. Bien, derivando con respecto a $x$ la solución general, se obtiene $$\dfrac{1}{y}\,y'=2\,A\,x+0$$ de donde se deduce que $$A=\dfrac{y'}{2\,y\,x}$$Susbstituyendo en la solución general, $$\ln\,(y)=\dfrac{x}{2\,y}\,y'+B$$ y derivando otra vez con respecto a $x$, $$\dfrac{1}{y}\,y'=\dfrac{1}{2}\,\left(\dfrac{(y'+x\,y\,y'')\,y-x\,(y')^2}{y^2}\right)$$ y simplificando, $$x\,y\,y''-y\,y'-x\,(y')^2=0$$ $\diamond$

miércoles, 23 de julio de 2025

Un ejercicio de cálculo de la matriz canónica de un endomorfismo

Me propongo encontrar la forma canónica de Jordan asociada a la matriz $A=\begin{pmatrix}3&-1&-1\\ 1& 1 & -1\\1&-1&1\end{pmatrix}$ así com el cambio de base correspondiente

Calculo los valores propios:
$P(\lambda)=\begin{vmatrix}3-\lambda&-1&-1\\ 1& 1-\lambda & -1\\1&-1&1-\lambda\end{vmatrix}$
  $P(\lambda)=0$
    $(\lambda-1)(\lambda-2)=0 \Rightarrow \left\{\begin{matrix}\lambda_1=1\,,\,k_1=1\\\lambda_2=2\,,\,k_2=2\end{matrix}\right.$
Subespacions propios:
  $E_1(1)=\text{ker}(A-1\cdot I)$
  $E_2(2)=\text{ker}(A-2\cdot I)$

Dimensión de los espacios propios:
Teniendo en cuenta que $(A-1\cdot I)=\begin{pmatrix}2&-1&-1\\ 1& 0 & -1\\1&-1&0\end{pmatrix}$, vemos que, como $\text{det}(A-1\cdot I)=0$, $\text{rango}(A-1\cdot I)\lt 3$, y, como existen menores de orden $2$ no nulos, como por ejemplo, $\begin{vmatrix}2&-1\\1&0\end{vmatrix}=1\neq 0$, se tiene que $\text{rango}(A-1\cdot I)=2$, con lo cual $$\text{dim}(E_1(1))=\text{dim}(V)-\text{rango}(A-1\cdot I)=3-2=1$$
Por otra parte, $(A-2\cdot I)=\begin{pmatrix}2&-1&-1\\ 1& -1 & -1\\1&-1&-1\end{pmatrix}$. Como las filas/columnas segunda y tercera son las mismas que la primera es claro que $\text{rango}(A-1\cdot I)= 1$, luego $$\text{dim}(E_2(2))=\text{dim}(V)-\text{rango}(A-2\cdot I)=3-1=2$$ Démonos cuenta de que al coincidir la multiplicidad de cada valor propio con la dimensión del correspondiente subespacio propio, $k_1=1$ y $\text{dim}(E_1(1))=1$; $k_2=2$ y $\text{dim}(E_2(2))=2$, la matrix de la forma canónica de Jordan ha de ser una matriz diagonal: $$D=\begin{pmatrix}1&0&0\\0&2&0\\0&0&2\end{pmatrix}$$

Calculo, ahora, una base para cada subespacio propio. Para $E_1(1)$, deberá cumplirse que $$\begin{pmatrix}2&-1&-1\\ 1& 0 & -1\\1&-1&0\end{pmatrix}\begin{pmatrix}x_1\\ x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\ 0\\0\end{pmatrix}$$ Al ser la dimensión de $E_1(1)=1$, el número de parámetros libres del sistema de ecuaciones lineales asociados, con dos ecuaciones linealmente independientes, es $1$. La última fila de la matriz es combinación lineal de las dos primeras, luego podemos escribir el sistema de ecuacines lineales de la forma
$\left\{\begin{matrix}2\,x_1-x_2=x_3\\x_1=x_3\end{matrix}\right.\Rightarrow E_1(1)=\{a\,(1,1,1), a\in \mathbb{K}\}$ luego, para (por ejemplo) $a=1$, el vector $(1,1,1)=:\vec{u}_1$ constituye una base de $E_1(1)$, que notamos de la forma $E_1(1)=\langle(1,1,1)\rangle$. El vector $\vec{u}_1$ es pues el primer vector de la nueva base con respecto a la cual escribiremos la matriz de la forma canónica de Jordan -en el caso que nos ocupa es una matriz diagonal-, siendo sus coordenadas las de la primera columna de la matriz del cambio de base (de la b. canónica a la nueva base).

Para $E_2(2)$, deberá cumplirse que $$\begin{pmatrix}1&-1&-1\\ 1& -1 & -1\\1&-1&-1\end{pmatrix}\begin{pmatrix}x_1\\ x_2\\x_3\end{pmatrix}=\begin{pmatrix}0\\ 0\\0\end{pmatrix}$$ El número de ecuaciones linealmente independientes es por tanto $1$, y al ser la dimensión de $E_2(2)=2$, el número de parámetros libres del sistema de ecuaciones lineales asociados, con dos ecuaciones linealmente independientes, es $2$. El sistema de ecuaciones lineales asociado puede escribirse por tanto con una única ecuación:
$\left\{\begin{matrix}x_2+x_3=x_1\end{matrix}\right.\Rightarrow E_2(2)=\{a\,(1,0,1)+b\,(1,1,0);\, a\,b\in \mathbb{K}\}$ luego, para (por ejemplo) $a=1$ y $b=1$, los vectores $(1,0,1)=:\vec{u}_2$ y $(1,1,0)=:\vec{u}_3$ constituyen una base de $E_2(2)$, que notamos de la forma $E_2(2)=\langle(1,0,1),((1,1,0)\rangle$. Los vectores vector $\vec{u}_2$ y $\vec{u}_3$ son, respectivamente, el segundo y el tercer vector de la nueva base del espacio vectorial $V$ con respecto a la cual escribiremos la matriz de la forma canónica de Jordan, siendo sus coordenadas las de la segunda y tercera columnas de la matriz, $P$, del cambio de base (de la b. canónica a la nueva base): $$P=\begin{pmatrix}1&1&1\\1&0&1\\1&1&0\end{pmatrix}$$

Observación:
La matriz dada, $\begin{pmatrix}3&-1&-1\\ 1& 1 & -1\\1&-1&1\end{pmatrix}$ es la matriz del endomorfismo con respecto a la base canónica , $\{(1,0,0),(0,1,0),(0,0,1)\}$ y la matriz de Jordan (en nuestro caso, diagonal) que hemos encontrado $\begin{pmatrix}1&0&0\\0&2&0\\0&0&2\end{pmatrix}$ es la matriz del endomorfismo con respecto a la nueva base $\{(1,1,1),(1,0,0),(1,1,0)\}$. Puede comprobarse que, efectivamente, se cumple $$D=P^{-1}\,A\,P$$ $\diamond$