Ir al contenido

Diferencia entre revisiones de «Ecuación diferencial lineal»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Correcciones menores, eliminación de contenido erróneo. Próximamente se subirá el contenido de forma correcta y ampliada con ejemplos.
Etiquetas: Revertido posible problema Edición visual
Isurus88 (discusión · contribs.)
Función de sugerencias de enlaces: 3 enlaces añadidos.
Etiquetas: Edición visual Edición desde móvil Edición vía web móvil Tarea para novatos Sugerencia: añadir enlaces
 
(No se muestran 15 ediciones intermedias de 10 usuarios)
Línea 1: Línea 1:
En matemáticas, se dice que una [[ecuación diferencial]] es lineal si lo es respecto a la función incógnita y sus derivadas. Puede ser lineal tanto una ecuación diferencial [[Ecuación diferencial ordinaria|ordinaria]] (una sola variable independiente), como una [[ecuación en derivadas parciales]] (dos o más variables independientes). Se caracterizan por tener soluciones que se pueden obtener mediante combinaciones lineales de otras soluciones, formando así un [[espacio vectorial]] (en el caso homogéneo) o [[Espacio afín|afín]] (no homogéneo), propiedad que no cumplen las ecuaciones diferenciales no lineales.
[[Archivo:De template.svg|miniaturadeimagen|Un ejemplo de ello.]]
En [[matemáticas]], una '''ecuación diferencial lineal''' es aquella [[ecuación diferencial]] cuyas soluciones pueden obtenerse mediante [[combinación lineal|combinaciones lineales]] de otras soluciones. Estas últimas pueden ser [[ecuación diferencial ordinaria|ordinarias]] (EDOs) o en [[ecuación diferencial en derivadas parciales|derivadas parciales]] (EDPs).


==Definición==
== Definición ==
Una ecuación diferencial lineal tiene forma de:
La ecuación diferencial {{ecuacion|<math>\phi (x^{(n)},..., x',x,t) = 0</math>}} se llama ''lineal'' cuando la función <math> \phi</math> es lineal a las variables <math> x^{(k)}</math>, es decir, si la función incógnita <math> x</math> o sus derivadas no están multiplicadas entre sí o si tampoco aparecen en forma de funciones compuestas.
{{ecuación|<math>F(x,y,y',...,y^{(n)})=0,</math>}}
con <math>F</math> lineal respecto a la función incógnita <math>y</math> y sus derivadas <math>y',...,y^{(n)}</math>. Escrito de otra forma, se puede expresar como:
{{ecuación|<math>a_0(x)y+a_1(x)y'+...+a_n(x)y^{(n)}=b(x),</math>}}
donde los coeficientes <math>a_0(x),...,a_n(x)</math> y <math>b(x)</math> son funciones diferenciales arbitrarias no necesariamente lineales, y <math>y',...,y^{(n)}</math> son las derivadas de la función incógnita <math>y</math> en la variable <math>x</math>. El orden de la ecuación diferencial viene dado por el mayor entero no negativo <math>k\leq n</math> tal que la función <math>a_k(x)</math> no sea idénticamente nula. Si <math> b(x) \equiv 0</math>, entonces la ecuación diferencial lineal se llama homogénea y en caso contrario no homogénea.


== Introducción ==
== Introducción ==
Un operador lineal diferencial L se define como una aplicación que actúa sobre [[función diferenciable|funciones diferenciables]] tal que <math>L:C^n([a,b])\longrightarrow C([a,b])</math>, con <math>[a,b]\subset \mathbb{R}</math>, siendo
Una [[ecuación diferencial]] lineal tiene la forma:
{{ecuación|<math>L[y]=a_{0}y+a_{1}y'+...+a_{n}y^{(n)},</math>}}
o bien
{{ecuación|<math>L[y]=\sum_{k=0}^{n}a_{k}y^{(k)},</math>}}
donde <math>a_0,...,a_n\in{C([a,b])}</math> y <math>y',...,y^{(n)}</math> son las derivadas sucesivas de <math>y</math>.


Se llama lineal debido a que verifica que, para todo <math>\lambda_1,...,\lambda_n\in\mathbb{R}</math>
: <math> Lx = f</math>


<math>\begin{align}
donde el [[operador diferencial]] <math> L</math> es un [[operador lineal]], <math> x</math> es la función incógnita o desconocida (que podría ser dependiente del tiempo <math> t</math>), y <math> f</math> es una función conocida de la misma naturaleza que <math> x</math> (denominada '''término de excitación'''). Para una función dependiente del tiempo se puede escribir la ecuación más detalladamente como:
L[\lambda_1y_1+...+\lambda_ny_n]&=a_n(\lambda_1y_1+...+\lambda_ny_n)^{(n)}+...+a_1(\lambda_1y_1+...+\lambda_ny_n)'+a_0(\lambda_1y_1+...+\lambda_ny_n)\\
&=(a_n\lambda_1y_1^{(n)}+...+a_n\lambda_ny_n^{(n)})+...+(a_1\lambda_1y_1'+...+a_1\lambda_ny_n')+(a_0\lambda_1y_1+...+a_0\lambda_ny_n)\\
&= \lambda_1(a_0y_1+a_1y_1'+...+a_ny_1^{(n)})+...+\lambda_n(a_0y_n+a_1y_n'...+a_ny_n^{(n)})\\
&= \lambda_1L[y_1]+...+\lambda_nL[y_n].
\end{align}</math>


: <math> L x(t) = f(t)</math>


=== Estructura del espacio de soluciones ===
y también se puede usar la notación con corchetes:
Si <math> f(t) </math> es idénticamente nula la ecuación se denomina [[Ecuación diferencial homogénea|homogénea]]. La solución general de la ecuación homogénea viene dada por todas las combinaciones lineales de tantas soluciones linealmente independientes como el orden de dicha ecuación; es decir, que sus soluciones forman un [[espacio vectorial]] de dimensión <math> n </math>. Para comprobar la independencia lineal de un conjunto de <math>n</math> soluciones podemos calcular su [[wronskiano]]. Si el wronskiano no se anula en el intervalo de definición de las soluciones, estas son linealmente independientes.
: <math> L [x(t)] = f(t)</math>


Si <math> f(t)\neq 0</math> la ecuación se denomina [[Ecuación no homogénea|no homogénea]]. La solución general de la ecuación no homogénea viene dada por
El operador lineal ''L'' puede ser de la siguiente forma:
{{Ecuación|<math>\, x_g(t)=x_{p}(t)+x_{gh}(t)</math>,}}
donde <math>x_{gh}(t)</math> es la solución general de la ecuación homogénea asociada e <math>x_p(t)</math> es una solución particular a la ecuación no homogénea. Es decir, que sus soluciones forman un [[espacio afín]] de dimensión <math> n </math>.


En el caso de la solución particular, existen varios métodos para encontrarla, entre ellos, el método de [[Variación de parámetros|variación de los parámetros]].
: <math>L_n(x(t)) \equiv a_n(t)\frac{d^n x}{dt^n} + a_{n-1}(t)\frac{d^{n-1}x}{dt^{n-1}} + \cdots + a_1(t)\frac{dx}{dt} + a_0(t)x </math>


Si fijamos ciertas [[Problema de Cauchy|condiciones iniciales]], tenemos garantizada la existencia y unicidad de solución local por el [[Teorema de Picard-Lindelöf]] siempre que las funciones <math> a_k </math> y <math> f(t) </math> sean continuas y acotadas en un entorno de los valores iniciales. Si, además, tenemos que <math> a_k </math> y <math>f</math> son continuas y acotadas en todo el espacio, tendriamos garantizada la existencia y unicidad global de las soluciones en todo el espacio.
o sino:


==Ecuación lineal de primer orden==
: <math>L_n(x) \equiv\sum_{k=0}^n a_k(t)D^k(x)</math>
Las [[Ecuación diferencial de primer orden|Ecuaciones diferenciales de primer orden]] se caracterizan por ser de la forma:


{{ecuación|<math>y'(x)+ f(x)y(x)=g(x),
La condición de linealidad sobre <math> L</math> se da mientras no aparezcan productos de la función desconocida consigo misma, ni con ninguna de sus derivadas. Es conveninente reescribir esta ecuación en donde la forma del operador es:
</math>}}


donde <math>g</math> y <math>f</math> son [[Continuidad (matemáticas)|funciones continuas]] en un intervalo cerrado <math>[a,b] \subseteq \mathbb{R}</math>.
: <math> L_n(x(t)) \equiv \left[\,a_n(t)D^n + a_{n-1}(t)D^{n-1} + \cdots + a_1(t) D + a_0(t)\right]x</math>


La solución de esta ecuación con [[problema de valor inicial|dato inicial]] <math>y(x_0) = y_0</math> viene dada por:
donde <math> D</math> es el operador diferencial {{sfrac|''d''|''dt''}} (es decir,<math> Dx = x^'; D^2x = x^{''};</math>''... ''), y <math> a_k</math> son funciones conocidas. Se dice que la ecuación tiene un '''orden''' <math> n</math>, si es el índice más alto de la derivada de <math> x</math>.
{{ecuación|<math>y(x) =e^{ - \int_{x_0}^x f(t) dt } \left[y(x_0) + \int_{x_0}^x g(s) e^{ \int_{x_0}^s f(t) dt } ds \right].</math>||left}}


=== Estructura del espacio de soluciones ===
Si <math> f(t) </math> es idénticamente nula la ecuación se denomina [[Ecuación diferencial homogénea|homogénea]]. La solución general de la ecuación homogénea viene dada por todas las combinaciones lineales de tantas soluciones linealmente independientes como el orden de dicha ecuación; es decir, que sus soluciones forman un [[espacio vectorial]] de dimensión <math> n </math>. Para comprobar la independencia lineal de un conjunto de <math>n</math> soluciones podemos calcular su [[wronskiano]]. Si el wronskiano no se anula en el intervalo de definición de las soluciones, estas son linealmente independientes.


{{Plegable|título=Resolución detallada |contenido=
Si <math> f(t)\neq 0</math> la ecuación se denomina [[Ecuación no homogénea|no homogénea]]. La solución general de la ecuación no homogénea viene dada por
<div align="left">
{{Ecuación|<math>\, x_g(t)=x_{p}(t)+x_{gh}(t)</math>,}}
donde <math>x_{gh}(t)</math> es la solución general de la ecuación homogénea asociada e <math>x_p(t)</math> es una solución particular a la ecuación no homogénea. Es decir, que sus soluciones forman un [[espacio afín]] de dimensión <math> n </math>.


La idea consiste en encontrar una función <math>w(x)</math> que nos permita transformar
En el caso de la solución particular, existen varios métodos para encontrala, entre ellos, el método de [[Variación de parámetros|variación de los parámetros]].


{{ecuación|<math>y'(x)w(x)+y(x)f(x)w(x)</math>}}
Si fijamos ciertas [[Problema de Cauchy|condiciones iniciales]], tenemos garantizada la existencia y unicidad de solución local por el [[Teorema de Picard-Lindelöf]] siempre que las funciones <math> a_k </math> y <math> f(t) </math> sean continuas y acotadas en un entorno de los valores iniciales. Si, además, tenemos que <math> a_k </math> y <math>f</math> son continuas y acotadas en todo el espacio, tendriamos garantizada la existencia y unicidad global de las soluciones en todo el espacio.


en la [[Regla del producto (cálculo)|derivada de un producto]].
==Ecuación lineal de primer orden==
Las [[Ecuación diferencial de primer orden|ecuaciones diferenciales de primer orden]] se caracterizan por ser de la forma:


Para ello se necesita que <math>w'(x) = f(x)w(x)</math>. Sea <math>w(x):= e^{ \int_{x_0}^x f(t) dt },</math> entonces <math>w'(x)= f(x)e^{ \int_{x_0}^x f(t) dt }.</math>
{{ecuación|<math>\begin{cases} x'(t)+p(t)x(t) = q(t)\\
x(t_0) = x_0 \end{cases}</math>}}


Se multiplica la [[ecuación diferencial]] por <math>w(x)</math>:
Donde <math>p(t)</math> y <math>q(t)</math> son [[Continuidad (matemáticas)|funciones continuas]] en un intervalo abierto <math>(a,b) \subseteq \mathbb{R}</math>, y el [[problema de valor inicial|valor inicial]] es <math>x(t_0) = x_0</math>.
{{ecuación|<math>y'(x)e^{ \int_{x_0}^x f(t) dt } + f(x)y(x)e^{ \int_{x_0}^x f(t) dt } = g(x)e^{ \int_{x_0}^x f(t) dt }.</math>}}


La solución de esta ecuación viene dada por:
Además, la derivada de <math>(y(x)e^{ \int_{x_0}^x f(t) dt })'</math> viene dada por:
{{ecuación|<math>x(t) =e^{ - \int_{t_0}^t p(s) ds } \left[ x_0 + \int_{t_0}^t q(s) e^{ \int_{t_0}^s \! p(r) dr } ds \right]</math>||left}}
{{ecuación|<math>{({y(x)e^{ \int_{x_0}^x f(t) dt }})'}=y'(x)e^{ \int_{x_0}^x f(t) dt } + y(x)f(x)e^{ \int_{x_0}^x f(t) dt }. </math>}}

Las dos últimas ecuaciones equivalen a:
{{ecuación|<math>{({y(x)e^{ \int_{x_0}^x f(t) dt }})'}=g(x)e^{ \int_{x_0}^x f(t) dt }</math>}}

{{ecuación|<math>\Leftrightarrow {\int_{x_0}^x {({y(s)e^{ \int_{x_0}^s f(t) dt }})'} ds } = {\int_{x_0}^x {{g(s)e^{ \int_{x_0}^s f(t) dt }}} ds }</math>}}

{{ecuación|<math>\Leftrightarrow {{y(x)e^{ \int_{x_0}^x f(t) dt }-y(x_0)}} = {\int_{x_0}^x {{g(s)e^{ \int_{x_0}^s f(t) dt }}} ds }.</math>}}

Finalmente,
{{ecuación|<math>y(x) = e^{- \int_{x_0}^x f(t) dt }\left[y(x_0)+{\int_{x_0}^x {{g(s)e^{ \int_{x_0}^s f(t) dt }}} ds }\right]. </math>}}

</div>
}}

{{Plegable|título=Ejemplo |contenido=
<div align="left">

Dada la siguiente ecuación:
{{ecuación|<math>\begin{cases} y'(x)+ \frac{1}{x}y(x)=3x,\\
y(2) = 3, \end{cases}</math>}}
donde <math>x>0</math>.
Se define <math>g(x)=3x</math> y <math> f(x)=\frac{1}{x}</math> que son funciones continuas para <math>x>0</math>.

Sustituyendo f y g en la ecuación de la parte anterior se obtiene (nótese que <math>x>0</math>):
:<math>\begin{align}
y(x) &= e^{- \int_{2}^x \frac{1}{t} dt }({\int_{2}^x {{3se^{ \int_{2}^s \frac{1}{t} dt }}} ds } +3)\\
&= e^{-\ln(x) + \ln(2) }({\int_{2}^x {{3se^{ \ln(s)-\ln(2) }}} ds } +3) \\
&= \frac{2}{x}({\int_{2}^x 3s^2 \frac{1}{2} ds } +3) \\
&= \frac{2}{x}(\frac{1}{2} (x^3-2^3) +3) \\
&= x^2 - \frac{2}{x}.
\end{align}</math>


</div>
}}
== Existencia y unicidad de soluciones de PVI lineales de orden n ==
Podemos escribir toda ecuación diferencial de orden <math>n</math> como un sistema de orden <math>1</math> y dimensión <math>n</math>. Definimos <math>x_i=x^{(i-1)} </math> para <math>i= 1, \dots ,n</math> de tal manera que queda la relación <math> x_i=x'_{i-1}</math>. [[File:Gif edo.gif|thumb |320x320px|Soluciones de la EDO x'-x+t=0]]

Además, <math>x_{n}=x^{(n-1)}\Longrightarrow x'_{n}=x^{(n)}=r(t)-\sum_{i=1}^{n} a_{i-1}(t)x_{i}(t).</math>



Escrito en forma matricial:

<math>
\begin{pmatrix}
x'_1 \\
x'_2 \\
\vdots \\
x'_{n-1}\\
x'_ n \\
\end{pmatrix}
=A(t)\begin{pmatrix}
x_1 \\
x_ 2 \\
\vdots \\
x_{n-1}\\
x_ n \\
\end{pmatrix}+b
</math> ,




donde <math>A(t)=
\begin{pmatrix}
0 & 1 & 0 & 0 & \dots & 0 \\
0 & 0 & 1 & 0 & \dots & 0 \\
\vdots & \vdots & \vdots & \vdots & \ddots & \vdots \\
0 & 0 & 0 & \dots & 0 & 1 \\
-a_0(t) & -a_ 1(t) & -a_2(t) & \dots & -a_{n-2}(t) & -a_{n-1}(t) \\
\end{pmatrix}</math> es una matriz de dimensiones <math>n\times n</math>, y
<math>b=
\begin{pmatrix}
0\\
\vdots \\
0\\
r(t) \\
\end{pmatrix}</math> es el [[vector columna]] cuyo única componente no nula es <math>r(t)</math>.

Si expresamos <math>f(t,\textbf{x})=A(t)\textbf{x}+b</math> con <math>\textbf{x}=\begin{pmatrix}
x_1 \\
\vdots \\
x_ n \\
\end{pmatrix}</math>, el sistema se puede escribir como <math>x'=f(t,\textbf{x})</math>. La función <math>f</math> es continua respecto a las dos variables.

Puesto que <math>f</math> es una función continua en sus dos variables, para poder llegar a aplicar el [[Teorema de Picard-Lindelöf]], faltaría comprobar que es [[Función lipschitziana|Lipschitz]] respecto a <math>x</math> (uniformemente en <math>t</math>). En lo que sigue, usaremos la [[Norma vectorial|norma euclídea]] de un vector, denotada como <math>\|\textbf{v} \|=\sqrt{\sum_{j=1}^{n} v_j^2}</math>, donde <math>v_j </math>, para <math> j=1,...,n</math>, son las componentes del vector <math>\textbf{v}</math>. Sean <math>\textbf{x},\hat{\textbf{x}}\in \mathbb{R}^n</math>,

<math>\|f(t,\hat{\textbf{x}})-f(t,\textbf{x})\| = \|A(t)\hat{\textbf{x}}-A(t)\textbf{x}\| =\begin{Vmatrix} \begin{pmatrix}
\hat{x}_2\\
\vdots \\
\hat{x}_n\\
\sum_{j=1}^{n} -a_{j-1}\hat{x}_{j} \\
\end{pmatrix}-
\begin{pmatrix}
x_2\\
\vdots \\
x_n\\
\sum_{j=1}^{n} -a_{j-1}x_{j} \\
\end{pmatrix} \end{Vmatrix}=
\begin{Vmatrix} \begin{pmatrix}
\hat{x}_2-x_2\\
\vdots \\
\hat{x}_n-x_n\\
\sum_{j=1}^{n} -a_{j-1}(\hat{x}_{j}-x_j) \\
\end{pmatrix}
\end{Vmatrix}
</math>.

Sea <math>M=\max_{i\in [0,{n-1}], t\in[a,b]} \left\vert a_i(t) \right\vert</math>,

<math>\begin{align} \begin{Vmatrix} \begin{pmatrix}
\hat{x}_2-x_2\\
\vdots \\
\hat{x}_n-x_n\\
\sum_{j=1}^{n} -a_{j-1}(\hat{x}_{j}-x_j) \\
\end{pmatrix}
\end{Vmatrix} &\leq \begin{Vmatrix} \begin{pmatrix}
\hat{x}_2-x_2\\
\vdots \\
\hat{x}_n-x_n\\
0 \\
\end{pmatrix}
\end{Vmatrix} + \begin{Vmatrix} \begin{pmatrix}
0\\
\vdots \\
0\\
\sum_{j=1}^{n} -a_{j-1}(\hat{x}_{j}-x_j) \\
\end{pmatrix}
\end{Vmatrix} \le \begin{Vmatrix} \begin{pmatrix}
\hat{x}_2-x_2\\
\vdots \\
\hat{x}_n-x_n\\
0 \\
\end{pmatrix}
\end{Vmatrix} + \sum_{j=1}^{n} \begin{Vmatrix} \begin{pmatrix}
0\\
\vdots \\
0\\
-a_{j-1}(\hat{x}_{j}-x_j) \\
\end{pmatrix}
\end{Vmatrix} \\
&\leq \|\hat{\textbf{x}}-\textbf{x}\| + \sum_{j=1}^{n} |a_{j-1}||\hat{x}_j-x_j| \leq \|\hat{\textbf{x}}-\textbf{x}\| + \sum_{j=1}^{n} M|\hat{x}_j-x_j| \leq (1+nM)\|\hat{\textbf{x}}-\textbf{x}\| .
\end{align}</math>


Obtenemos <math>\|f(t,\hat{\textbf{x}})-f(t,\textbf{x})\| \leq (1+nM)\|\hat{\textbf{x}}-\textbf{x}\| </math>,

por lo que <math>f</math> tiene [[Función lipschitziana|constante de Lipschitz]] <math>K=(1+nM)</math> <math>\forall t\in[a,b] \subset \mathbb{R}</math>.

Puesto que se cumplen las hipótesis del [[Teorema de Picard-Lindelöf]], queda demostrado que hay una única solución <math>\textbf{x}</math> del sistema con datos iniciales <math>x_i(t_0) = \xi_i</math>, <math>i = 1,\dots,n</math>, dados en un punto <math>t_0\in[a,b]</math>.

Si <math>\textbf{x} \in C^1([a,b];\mathbb{R}^n)</math>, entonces:

<math>
\begin{align}
x_{n-1}'&=x_n\in C^1([a,b];\mathbb{R}), &&\text{ y por tanto }x_{n-1}\in C^2([a,b];\mathbb{R}),\\
x_{n-2}'&=x_{n-1}\in C^2([a,b];\mathbb{R}), &&\text{ y por tanto }x_{n-2}\in C^2([a,b];\mathbb{R}),\\
& \;\;\vdots&&\\
x_1'&=x_2\in C^{n-1}([a,b];\mathbb{R}), &&\text{ y por tanto }x_1\in C^n([a,b];\mathbb{R}).\end{align}</math>

Por otra parte,

<math>
x_1^{(n)}(t)=x_2^{(n-1)}(t)=\cdots=x_n'(t)=r(t)-\sum_{i=1}^{n}a_{i-1}(t)x_i(t)=r(t)-\sum_{i=1}^{n}a_{i-1}(t)x_1^{(i-1)}(t);
</math>
es decir
<math>
x_1^{(n)}(t)+\sum_{i=1}^{n}a_{i-1}(t)x_1^{(i-1)}(t)=r(t),
</math>
luego <math>x_1</math> es solución de la ecuación. Además, <math>x_1^{i}(t_0)=\xi_{i+1}</math>, <math>i=0,\dots,n-1</math>, y por tanto <math>x_1</math> es la solución (única) del problema de valor inicial con datos
<math>x^{i}(t_0)=\xi_{i+1}</math>, <math>i=0,\dots,n-1</math> para la ecuación diferencial lineal.

=== Ejemplo ===
Sea el problema de valores iniciales:

<math>\begin{cases} x^{(4)}+3x''-\sin(t)x'+8x=t^2, \\ x(0)=0, x'(0)=2, x''(0)=3, x'''(0)=4.\end{cases}</math>

Vamos a transformarlo en un sistema de ecuaciones:

<math>
\begin{cases} x_1=x\, \Longrightarrow \ x'_1=x'=x_2, \\x_2=x'\Longrightarrow x'_2=x''=x_3, \\x_3=x'' \Longrightarrow x'_3=x'''=x_4, \\x_4=x''' \Longrightarrow x'_4=x^{(4)}=-8x+\sin(t)x'-3x''+t^2=-8x_1+\sin(t)x_2-3x_3+t^2,\end{cases}</math>

con condiciones iniciales: <math>x_1(0)=1, \ x_2(0)=2, \ x_3(0)=3 \, x_4(0)=4.</math>

Sea <math>\textbf{x}=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4\end{pmatrix},</math> podemos escribir el sistema como:

<math> \textbf{x}' =A \textbf{x} + b</math> , donde A es la matriz <math>A=\begin{pmatrix} 0 & 1 &0&0 \\ 0&0 & 1&0 \\ 0&0&0&1 \\-8&\sin(t)&-3&0 \end{pmatrix}</math>, b es el vector vector <math>b=\begin{pmatrix} 0 \\ 0\\0\\t^2 \end{pmatrix}</math> y las condiciones iniciales son <math> \textbf{x}(0)=\begin{pmatrix} 1 \\ 2 \\ 3 \\ 4 \end{pmatrix}</math>.

Ahora, aplicando el método anteriormente descrito:

Sea <math>M=\max_{i \in [0,{n-1}]t\in[a,b]} \left\vert a_i(t) \right\vert=8</math>.

En este caso:

<math>\|f(t,\hat{\textbf{x}})-f(t,\textbf{x})\| = \|A(t)\hat{\textbf{x}}-A(t)\textbf{x}\|\; \le 33 \|\hat{\textbf{x}}- \textbf{x}\| </math> por lo que hay unicidad y existencia de soluciones para dicho PVI.


== Ecuaciones con coeficientes constantes ==
== Ecuaciones con coeficientes constantes ==
La resolución de ecuaciones y sistemas de ecuaciones diferenciales se simplifica mucho si las ecuaciones son de coeficientes constantes.
La [[resolución de ecuaciones]] y sistemas de ecuaciones diferenciales se simplifica mucho si las ecuaciones son de coeficientes constantes.


En el caso de una ecuación de primer orden la búsqueda de un factor integrante nos lleva en la mayoría de los casos a una ecuación en derivadas parciales.
En el caso de una ecuación de primer orden la búsqueda de un factor integrante nos lleva en la mayoría de los casos a una ecuación en derivadas parciales.


Si la ecuación es de orden superior, a no ser que sea una ecuación de Euler o similar, tendremos que proponer una solución que no viene dada, en general, por funciones elementales. En estos casos los métodos preferidos (sin contar el cálculo numérico) son los que emplean series de potencias o series de Fourier.
Si la ecuación es de orden superior, a no ser que sea una ecuación de Euler o similar, tendremos que proponer una solución que no viene dada, en general, por funciones elementales. En estos casos los métodos preferidos (sin contar el cálculo numérico) son los que emplean [[Serie de potencias|series de potencias]] o [[Serie de Fourier|series de Fourier]].


En el caso de los sistemas, si la matriz del sistema es de coeficientes constantes podemos resolver el sistema usando el método de los [[valor propio|valores propios]] ya que en ese caso la matriz resultante de la reducción de la ecuación a un sistema de primer orden es constante. Otro método consiste en calcular la [[Exponencial de matrices|exponencial de la matriz]] del sistema.
== Resolución de ecuaciones lineales de orden n con coeficientes constantes ==
Para estudiar otros métodos de encontrar la solución consideraremos una ecuación del tipo (obsérvese que en las siguientes líneas <math> y</math> actúa como <math> x</math>, <math> x</math> actúa como <math> t</math>):


Para calcular la solución de una ecuación diferencial '''primero resolvemos el problema homogéneo y después el no homogéneo''' ya sea mediante el método de variación de las constantes o el método de los coeficientes indeterminados.
{{ecuación|<math> y^{(n)}+ a_{n-1} y^{(n-1)}+ \dots + a_0 y+ b = 0</math>}}


=== Resolución mediante exponenciales ===
Donde <math>a_k (k=0,1,\dots,n)\in\R</math> son coeficientes constantes conocidos. Observemos que la derivada ''n''-ésima va acompañada por el coeficiente unidad. Definimos el polinomio característico de la ecuación como
Una ecuación lineal homogénea con coeficientes constantes es de la forma:{{ecuación|<math>x^{(n)}(t)+ a_{n-1}x^{(n-1)}(t) + \dots + a_0x(t) = 0</math>}}Como la ecuación solo depende constantes y de ella misma es intuitivo pensar que una buena solución sería de la forma exponencial con un parámetro, es decir proponemos que la solución sea de la forma <math>x(t)=e^{\lambda t}</math>.


Derivando y sustituyendo en la ecuación general llegamos a <math>\lambda^n e^{\lambda t}+ a_{n-1} \lambda^{n-1} e^{\lambda t} + + a_0 \ e^{\lambda t}= 0</math>, que sacando factor común resulta <math>(\lambda^n + a_{n-1} \lambda^{n-1} + \dots + a_0) e^{\lambda t} =0</math>.
{{ecuación|<math>r^n+a_{n-1}r^{n-1}+\dots+a_0=0</math>}}


Por las propiedades de la exponencial lo anterior se anula si y solo el polinomio anterior se anula.
que es una ecuación algebraica de orden ''n''. Se demuestra que si hallamos las ''n'' raíces <math>\lambda_n</math> del polinomio característico la solución de la '''ecuación homogénea''':


Luego para cada valor de <math>\lambda</math> tendremos información para crear una solución asociada a dicho valor.
{{ecuación|<math> y(x)= y_1(x)+\dots+y_n(x)</math>}}


Al calcular las raíces <math>\lambda_n</math> del [[polinomio característico]] pueden darse los siguientes casos:
Dependiendo de la naturaleza de <math>\lambda</math> y su multiplicidad distinguimos los siguientes casos:


'''Raíces reales distintas''': En este caso la solución viene dada directamente por <math>y(x) = y_1(x) + \dots + y_n(x)</math>, donde <math>y_k(x)=C_ke^{\lambda_k x}</math>, siendo <math>C_k</math> constantes de integración.
'''Raíz real única''': En este caso la solución para un valor <math>\lambda</math> concreto viene dada directamente por <math>x_\lambda(t)=e^{\lambda t}</math>.


'''Raíz real de multiplicidad''' <math>j</math>: En este caso no podemos expresar la solución como antes, ya que si lo hacemos tendríamos información redundante.
'''Raíces reales repetidas''': Ilustraremos este caso con un ejemplo; sea una ecuación de segundo orden con coeficientes constantes cuyo polinomio característico tiene la raíz <math>\lambda_i</math> doble. En este caso no podemos expresar la solución como <math>y(x)=2Ce^{\lambda x}</math>, ya que si lo hacemos de este modo tenemos una información redundante. En este caso particular la solución de la ecuación es <math>y(x)=C_1e^{\lambda x}+C_2 xe^{\lambda x}</math>. En general, en una ecuación de orden ''n'', si una raíz <math>\lambda_0</math> aparece repetida ''q'' veces la solución parcial asociada a ella es:{{ecuación|<math>y(x)=\sum_{j=1}^q C_j x^{j-1} e^{\lambda_0 x}</math>}}'''Raíces complejas''': Si las raíces son del tipo <math>\lambda_k = a_k+b_ki</math> debemos expresar la solución como combinación lineal de senos, cosenos y exponenciales en la forma{{ecuación|<math>y_k(x) = e^{a_kx}[\cos(b_kx)+ \sin (b_kx)]</math>}}


En este caso las soluciones para un valor de <math>\lambda</math> se construyen multiplicando la [[función exponencial]] por <math>t</math> como sigue: <math>x_{\lambda,1}(t)=e^{\lambda t},\ x_{\lambda,2}(t)=t e^{\lambda t}, \ \dots\ , \ x_{\lambda,j}(t)=t^{j-1} e^{\lambda t}</math>
Si las raíces complejas conjugadas están repetidas ''q'' veces, la ecuación es del tipo


La solución es la combinación lineal de las anteriores: <math>x_\lambda(t)=\sum_{i=1}^j \tilde{c}_i x_{\lambda,i}(t)</math>
{{ecuación|<math>y_k(x) = e^{a_kx}\left[\sum_{j=1}^q C_j x^{j-1} \cos(b_kx)+ \sum_{j=1}^q C_j x^{j-1} \sin (b_kx)\right]</math>}}


'''Raíces complejas''': Hay que tener en cuenta que siempre vienen en parejas de números conjugados.
Una vez resuelto el problema homogéneo podemos atacar el '''problema completo'''. Para tener la solución del problema completo debemos sumar una solución particular a la solución homogénea ya obtenida:


En este caso usamos distinguimos la parte real y la imaginaria de la raíz y posteriormente usamos la [[fórmula de Euler]] y añadiendo constantes.
{{ecuación|<math>y(x)= y_p(x) + y_h(x) = y_p(x) + \sum_{k=1}^n C_ke^{\lambda_kx}</math>}}


<math>x_\lambda(t)=e^{\lambda t}=e^{[Re(\lambda)+iIm(\lambda)]t}=e^{Re(\lambda)t} e^{iIm(\lambda)t} =e^{Re(\lambda)t}\ [c_1\cos(Im(\lambda))+c_2i\sen(Im(\lambda))]</math>
Para hallar <math>y_p(x)</math> empleamos el método de la conjetura razonable, consistente en analizar el término inhomogéneo de la ecuación y proponer funciones del mismo tipo como solución. Nótese que no es necesario que <math>b</math> sea un coeficiente constante.


'''Raíces complejas con multiplicidad:''' Se trata de manera similar al caso real con multiplicidad.
En el caso de los sistemas, si la matriz del sistema es de coeficientes constantes podemos resolver el sistema usando el método de los [[valor propio|valores propios]] ya que en ese caso la matriz resultante de la reducción de la ecuación a un sistema de primer orden es constante y puede encontrarse fácilmente su solución calculando la [[Exponencial de matrices|exponencial de la matriz]] del sistema. Para más información véase [[sistema de ecuaciones diferenciales]].

La solución homogénea vendrá dada por una combinación lineal de las soluciones desarrolladas anteriormente. Es decir, <math>x(t)=\sum_{i=1}c_i x_{\lambda_i}(t)</math>

=== Resolución mediante paso al sistema equivalente ===

Una ecuación diferencial lineal de orden <math>n</math> puede resolverse convirtiéndola en un sistema de <math>n</math> ecuaciones diferenciales de primer orden. Para hacer esto se definen las <math>n</math> funciones incógnita auxiliares dadas por:
<math>x_k^*(t):= x^{(k)}(t)\ \text{con} \ 0\le k\le n-1</math>. Puesto que <math>{x_{k}^*}'=x_{k+1}^*\ \text{con}\ 0 \le k\le n-2</math>, si tenemos en cuenta que <math>{x_{n-1}^*}'(t)=x^{(n)}(t)</math>, entonces podemos reescribir la ecuación como <math>{x_{n-1}^*}'(t):= -a_{n-1}(t)x_{n-1}^*(t) -\dots -a_0(t)x_0^*(t) + f(t).</math>El sistema de ecuaciones diferenciales puede escribirse en forma matricial como:

<math>\begin{bmatrix} {x_0^*}'(t)\\ {x_1^*}'(t)\\ \dots\\ {x_{n-1}^*}'(t) \end{bmatrix} =
\begin{bmatrix}
0 & 1 & 0 &\dots & 0 \\
0 & 0 & 1 & \dots & 0 \\
\dots & & & \dots \\
-a_0(t) & -a_1(t) & -a_2(t) &\dots & -a_{n-1}(t) \end{bmatrix}
\begin{bmatrix} {x_0^*}(t)\\ {x_1^*}(t)\\ \dots\\ {x_{n-1}^*}(t)\end{bmatrix}+\begin{bmatrix}{0}\\{0}\\ \dots\\{f(t)}\end{bmatrix}</math>.

De nuevo, debemos resolver primero el sistema homogéneo y después el no homogéneo. Véase como se resuelven en la página de [[sistema de ecuaciones diferenciales|sistemas de ecuaciones diferenciales]].

En el caso de que la ecuación sea de coeficientes constantes el sistema tendrá la forma:

<math>\begin{bmatrix} {x_0^*}'(t)\\ {x_1^*}'(t)\\ \dots\\ {x_{n-1}^*}'(t) \end{bmatrix} =
\begin{bmatrix}
0 & 1 & 0 &\dots & 0 \\
0 & 0 & 1 & \dots & 0 \\
\dots & & & \dots \\
-a_0 & -a_1 & -a_2 &\dots & -a_{n-1}\end{bmatrix}
\begin{bmatrix} {x_0^*}(t)\\ {x_1^*}(t)\\ \dots\\ {x_{n-1}^*}(t)\end{bmatrix}</math>,

que escribimos como <math>X^'(t)=A X(t)</math>. La utilidad de este método consiste en que la primera coordenada del vector solución será la solución de la ecuación.

=== Relación entre ambos métodos de resolución y observaciones ===
Dada la ecuación lineal de orden <math>n</math> homogénea de coeficientes constantes: <math>x^{(n)}(t)+ a_{n-1}x^{(n-1)}(t) + \dots + a_0x(t) = 0</math> es fácil ver que su sistema equivalente tiene como [[polinomio característico]] asociado <math> (\lambda^n + a_{n-1}\lambda^{n-1} + \cdots + a_0) =0 </math>. Usando el método de los autovalores y autovectores para resolver sistemas de ecuaciones con coeficientes constantes, obtenemos que la solución es de la forma: <math> \sum_{j=1} c_j x_{\lambda_k}(t) \overrightarrow{v_k} </math>, donde <math> x_{\lambda_k} </math> es la solución generada a partir del autovalor <math> \lambda_k </math> de la manera antes explicada, y <math> \overrightarrow{v_k} </math> los autovectores asociados a los autovalores anteriores.

Por otro lado, volviendo a la ecuación lineal, si empleamos el método de proponer soluciones exponenciales, obtendremos <math> (\lambda^n + a_{n-1}\lambda^{n-1} + \cdots + a_0)e^{\lambda t} =0 </math>. Como <math> e^{\lambda t} </math> no se anula nunca, necesariamente <math> (\lambda^n + a_{n-1}\lambda^{n-1} + \cdots + a_0) =0 </math>. Observamos que nos queda la misma expresión que el polinomio característico asociado al sistema, luego los autovalores obtenidos anteriormente serán las soluciones de esta misma ecuación. Luego si tenemos una solución <math> X(t)=(x(t),x'(t),x''(t),...,x^{(n-1)}(t)) </math> del sistema, entonces <math> x(t) </math> es la misma solución esencialmente que la obtenida proponiendo como soluciones funciones exponenciales.

Obsérvese que la solución al sistema matricial se obtiene como combinación lineal de soluciones:<math>X(t)=\sum_{k=1} c_k X_k</math>.

Cada una de dichas soluciones <math>X_k</math> es un vector que se construye como el producto de cierta función <math>f_k</math> (asociada a cierto autovalor <math>\lambda_k</math>) con el autovector asociado <math> \overrightarrow{v_k} </math>. Es decir, <math>X_k=f_k \overrightarrow{v_k}</math>. Si la primera coordenada de <math> \overrightarrow{v_k} </math> es nula también lo será la de <math>X_k</math>, pero recordemos que si la primera coordenada de <math>X_k</math> es nula, también lo serán las demás puesto que la coordenada <math>i</math>-ésima es la derivada de la coordenada anterior. Luego <math>X_k</math> será el [[vector nulo]], y por tanto linealmente dependiente del resto de soluciones <math>X_j</math>. Si los autovectores son linealmente dependientes las funciones asociadas también lo serán. Luego es importante que los autovectores formen una base.

=== Ejemplos ===

==== Ejemplo de resolución mediante exponenciales ====
Para este ejemplo usaremos el [[oscilador armónico]] sin entrar en la interpretación física.

Nuestra primera ecuación será: <math>x''+\frac{k}{m}x=0;\quad w^2=\frac{k}{m}</math>.

Con <math>k, m, w </math> constantes. Intentaremos soluciones de la forma <math> x(t)= e^{\alpha t}</math> que al introducirlo en la EDO nos queda <math> \alpha ^2 +w^2=0 \Rightarrow \alpha=\pm i w </math>. La solución queda de la forma <math> x(t)=c_1 e^{\pm i w} </math> que escribiéndolo en su [[Fórmula de Euler|desarrollo en senos y cosenos]] y ajustando las constantes obtenemos:<math>x(t)=c_1 cos(wt)+ c_2 sen(wt) </math>.

Nuestra siguiente ecuación en este ejemplo es:
{{ecuación|<math>x''+ \frac{v}{m}x+\frac{k}{m}x=0;\quad v=cte>0; \quad 2p=\frac{v}{m}</math>}}

La solución será de la forma <math> x(t)=e^{\lambda t} </math> que al sustituirla en la EDO nos da la ecuación de segundo grado <math> \lambda^2+2p\lambda+w^2</math>. El resultado de la ecuación dependerá de <math> \lambda_{\pm }= -p \pm \sqrt{p^2-w^2} </math> permitiéndonos separar en distintos casos:

* '''Dos raíces reales''': <math> (p^2>w^2)</math>
La solución será de la forma: <math> x(t)= c_1e^{(-p+\sqrt{p^2-w^2})t}+c_2e^{(-p-\sqrt{p^2-w^2})t} </math>

* '''Una raíz real doble''': <math> (p^2=w^2)</math>
La solución será de la forma: <math> x(t)= c_1e^{-pt}+c_2 te^{-pt} </math>

* '''Dos raíces complejas''': <math> (p^2<w^2)</math>
La solución será de la forma: <math> x(t)= c_1e^{(-p\pm i \sqrt{w^2-p^2} )t}</math> que haciendo el mismo desarrollo en senos y cosenos de antes os queda <math>x(t)=e^{-pt} (c_1 cos((\sqrt{w^2-p^2})t) + c_2 sen((\sqrt{w^2-p^2})t) )</math>

Finalmente atenderemos a la ecuación no homogénea con unos términos concretos, los trigonométricos:

{{ecuación|<math>x''+ \frac{v}{m}x+\frac{k}{m}x=F_0 cos(\beta t)</math>}}

Dividiremos esta resolución en distintos apartados según el valor que le demos a las constantes:
*'''<math> v=0, \beta\ne w </math>''': Como solución al problema homogéneo tendremos <math> x_h(t)=c_1 cos(wt)+c_2 sen(wt) </math> obtenida anteriormente. hora debemos encontrar una particular empleando el método de variación de parámetros haciendo que <math> x_p(t)=Acos(\beta t)+Bsen(\beta t)</math> y que cumpla la ecuación <math> F_0 cos(\beta t)= x_p ''+ w^2x_p </math>. Obtenemos los parámetros <math> A=\frac{F_0}{w^2-\beta^2}; \quad B=0 </math> que nos darán como solución al problema completo (el no homogéneo) <math> x_g(t)= x_h(t)+x_p(t)=c_1 cos(wt)+c_2 sen(wt) + \frac{F_0}{w^2-\beta^2} cos(\beta t) </math>.<br />

*'''<math> v=0, \beta= w </math>''': La resolución es de forma muy similar a la anterior, tendremos la misma solución al problema no homogéneo y usaremos el método de los parámetros para hallar la solución particular. Así obtendremos <math> A=0; \quad B= \frac{F_0}{2w} </math> y la solución general por tanto: <math>x_g(t)= c_1 cos(wt) + c_2 sen(wt) + \frac{F_0}{2w} t sen(wt) </math>.<br />

*'''<math> v \ne 0</math>''': Mismo procedimiento que en los casos anteriores. En esta ocasión los parámetros son más complicados: <math> A=\frac{F_0(w^2-\beta^2 )}{\sqrt{(w^2-\beta^2)^2+4\beta^2p^2}} ; \quad B=\frac{2F_0 \beta p}{(w^2-\beta^2)+4\beta p^2} </math>. En este caso para la solución general deberemos tener en cuneta que tipo de solución tenemos al problema homogéneo. Pongamos que estamos en el caso de dos raíces reales dobles, entonces la solución general será: <math>x_g(t)= c_1e^{-pt}+c_2 te^{-pt} + \frac{F_0(w^2-\beta^2 )}{\sqrt{(w^2-\beta^2)^2+4\beta^2p^2}} cos(\beta t) + \frac{2F_0 \beta p}{(w^2-\beta^2)+4\beta p^2} sen(\beta t) </math>.

==== Ejemplo de resolución mediante paso al sistema equivalente ====
* '''Ejemplo donde el polinomio característico tiene dos raíces reales distintas'''

Dada la ecuación de segundo orden: <math> \frac{d^2 x}{dt^2}+ \frac{d x}{dt}-2x=0</math>, tenemos que la matriz asociada es <math>A=
\begin{bmatrix}
0 & 1 \\
2 & -1 \\
\end{bmatrix}
</math>. El polinomio característico es <math>|A-\lambda I|=\lambda^{2}+\lambda-2</math>. Las raíces de este polinomio son <math> \lambda_1=-2,\ \lambda_2=1 </math> y sus autovectores son, respectivamente, <math> \overrightarrow{v_1}=\begin{bmatrix} 1/2\\ -1 \end{bmatrix},\ \overrightarrow{v_2}=\begin{bmatrix} 1\\ 1 \end{bmatrix} .</math> Por tanto la solución del sistema será <math> \begin{bmatrix} x(t)\\ x'(t) \end{bmatrix}=c_1 \ e^{-2t} \begin{bmatrix} 1/2\\ -1 \end{bmatrix}+c_2 \ e^{t} \begin{bmatrix} 1\\ 1 \end{bmatrix} </math>, y la solución buscada sería <math> x(t)=\frac{1}{2} c_1 e^{-2t}+c_2 e^t </math>. Además, <math> x'(t)=- c_1 e^{-2t}+c_2 e^t </math>.

* '''Ejemplo donde el polinomio característico tiene una raíz real doble'''

Dada la ecuación de segundo orden: <math> \frac{d^2 x}{dt^2}+ -2\frac{d x}{dt}+x=0 </math>, tenemos que la matriz asociada es <math>A=
\begin{bmatrix}
0 & 1 \\
-1 & 2 \\
\end{bmatrix}
</math>. El polinomio característico es <math> |A-\lambda I|=\lambda^{2}-2\lambda+1 </math>. La raíz de este polinomio es una raíz real doble <math> \lambda=1 </math>. El autovector asociado es <math> \overrightarrow{v}=\begin{bmatrix} 1\\ 1 \end{bmatrix} </math>. La solución del sistema será <math> \begin{bmatrix} x(t)\\ x'(t) \end{bmatrix}=c_1 \ e^{t} \begin{bmatrix} 1\\ 1 \end{bmatrix}+c_2 (\ te^{t} \begin{bmatrix} 1\\ 1 \end{bmatrix}+ \ e^{t} \begin{bmatrix} -1\\ 0 \end{bmatrix}) </math>, y la solución buscada sería <math> x(t)=c_1e^{t}+c_2 (te^{t}-e^{t}) </math>.
* '''Ejemplo donde el polinomio característico tiene dos raíces complejas conjugadas'''
Dada la ecuación de segundo orden: <math> \frac{d^2 x}{dt^2}+x=0 </math>, tenemos que la matriz asociada es <math>A=
\begin{bmatrix}
0 & 1 \\
-1 & 0 \\
\end{bmatrix}
</math>. El polinomio característico es <math> |A-\lambda I|=\lambda^{2}+1 </math>. Las raíces de este polinomio son dos raíces complejas conjugadas <math> \lambda_\pm=\pm i </math>. Los autovectores asociados son <math> \overrightarrow{v_+}=\begin{bmatrix} i \\ -1 \end{bmatrix},\ \overrightarrow{v_-}=\begin{bmatrix} i\\ 1 \end{bmatrix} </math>. Por lo que la solución del sistema sería <math> \begin{bmatrix} x(t)\\ x'(t) \end{bmatrix}=c_1 \ e^{it} \begin{bmatrix} i\\ -1 \end{bmatrix}+c_2 \ e^{-it} \begin{bmatrix} i\\ 1 \end{bmatrix} </math>. La solución buscada sería <math> x(t)=i c_1 e^{it} + i c_2 e^{-it}=i(c_1 e^{it}+c_2 e^{-it})=i[(c_1+c_2)\cos(t)+(c_1-c_2)\sen(t)] </math>.

Tomando <math> c_1=c_2=\frac{-i}{2} </math> se obtiene la solución <math> x_1(t)=\cos(t) </math>, y tomando <math> c_1=-c_2=\frac{-i}{2} </math> la solución, linealmente independiente de la anterior, <math> x_2(t)=\sen(t) </math>. Cualquier combinación lineal de estas, <math> x(t)=k_1\sen(t)+k_2\cos(t), </math>será también solución.


== Referencias ==
== Referencias ==

=== Bibliografía ===
=== Bibliografía ===
* {{cita libro| apellido = Zill |nombre = Dennis G. |año =2006 | título= Ecuaciones diferenciales con aplicaciones | edición = 2ª| editorial = Grupo Editorial Iberoamérica}}
* {{cita libro| apellido = Zill |nombre = Dennis G. |año =2006 | título= Ecuaciones diferenciales con aplicaciones | edición = 2ª| editorial = Grupo Editorial Iberoamérica}}
* {{cita libro|nombre=José Ignacio|apellido=Aranda Iriarte|año=2008|url=http://jacobi.fis.ucm.es/pparanda/EDNpdf/edi-pp.pdf|título=Apuntes de ecuaciones diferenciales I|editorial=[[Universidad Complutense de Madrid]]}}
* {{cita libro|nombre=José Ignacio|apellido=Aranda Iriarte|año=2008|url=http://jacobi.fis.ucm.es/pparanda/EDNpdf/edi-pp.pdf|título=Apuntes de ecuaciones diferenciales I|editorial=[[Universidad Complutense de Madrid]]|fechaacceso=4 de abril de 2016|fechaarchivo=15 de febrero de 2017|urlarchivo=https://web.archive.org/web/20170215091319/http://jacobi.fis.ucm.es/pparanda/EDNpdf/edi-pp.pdf|deadurl=yes}}
*{{cita libro
*{{cita libro
| apellido1 = Birkhoff | nombre1 = Garrett | apellido2 = Rota | nombre2 = Gian-Carlo
| apellido1 = Birkhoff | nombre1 = Garrett | apellido2 = Rota | nombre2 = Gian-Carlo
Línea 101: Línea 411:
| isbn = 0-471-07411-X
| isbn = 0-471-07411-X
| publisher = John Wiley and Sons, Inc.
| publisher = John Wiley and Sons, Inc.
}}
*{{cita libro
| apellido1 = Blanchard | nombre1 = P. | apellido2 = Devaney | nombre2 = R.L.
| year = 2012
| title = Differential equations
| publisher = Cengage Learning
}}
}}
*{{cita libro
*{{cita libro
Línea 106: Línea 422:
| year = 1999
| year = 1999
| title =The Nature of Mathematical Modeling
| title =The Nature of Mathematical Modeling
| isbn = 978-0-521-57095-4
| url = https://archive.org/details/natureofmathemat0000gers | isbn = 978-0-521-57095-4
| publisher = [[Cambridge University Press]]
| publisher = [[Cambridge University Press]]
}}
}}
Línea 113: Línea 429:
| year = 2004
| year = 2004
| title = An Introduction to Ordinary Differential Equations
| title = An Introduction to Ordinary Differential Equations
| isbn = 0-521-82650-0
| url = https://archive.org/details/introductiontoor0000robi | isbn = 0-521-82650-0
| publisher = Cambridge University Press
| publisher = Cambridge University Press
}}
}}
Línea 126: Línea 442:
| apellido = Teschl | nombre = G.
| apellido = Teschl | nombre = G.
| year = 2012
| year = 2012
| title = Ordinary equations and dynamical systems
| title = [https://www.mat.univie.ac.at/~gerald/ftp/book-ode/ode.pdf Ordinary equations and dynamical systems]
| isbn = 978-0-8218-8328-0
| publisher = American Mathematical Society
| publisher = American Mathematical Society
}}
}}
Línea 135: Línea 452:
| publisher = Springer
| publisher = Springer
}}
}}

*{{cita libro
| apellido1 = Blanchard | nombre1 = P. | apellido2 = Devaney | nombre2 = R.L.
| year = 2012
| title = Differential equations
| publisher = Cengage Learning
}}
*{{cita libro
*{{cita libro
| apellido1 = Gil | nombre1 = O.
| apellido1 = Gil | nombre1 = O.

Revisión actual - 15:35 29 abr 2024

En matemáticas, se dice que una ecuación diferencial es lineal si lo es respecto a la función incógnita y sus derivadas. Puede ser lineal tanto una ecuación diferencial ordinaria (una sola variable independiente), como una ecuación en derivadas parciales (dos o más variables independientes). Se caracterizan por tener soluciones que se pueden obtener mediante combinaciones lineales de otras soluciones, formando así un espacio vectorial (en el caso homogéneo) o afín (no homogéneo), propiedad que no cumplen las ecuaciones diferenciales no lineales.

Definición

[editar]

Una ecuación diferencial lineal tiene forma de:

con lineal respecto a la función incógnita y sus derivadas . Escrito de otra forma, se puede expresar como:

donde los coeficientes y son funciones diferenciales arbitrarias no necesariamente lineales, y son las derivadas de la función incógnita en la variable . El orden de la ecuación diferencial viene dado por el mayor entero no negativo tal que la función no sea idénticamente nula. Si , entonces la ecuación diferencial lineal se llama homogénea y en caso contrario no homogénea.

Introducción

[editar]

Un operador lineal diferencial L se define como una aplicación que actúa sobre funciones diferenciables tal que , con , siendo

o bien

donde y son las derivadas sucesivas de .

Se llama lineal debido a que verifica que, para todo


Estructura del espacio de soluciones

[editar]

Si es idénticamente nula la ecuación se denomina homogénea. La solución general de la ecuación homogénea viene dada por todas las combinaciones lineales de tantas soluciones linealmente independientes como el orden de dicha ecuación; es decir, que sus soluciones forman un espacio vectorial de dimensión . Para comprobar la independencia lineal de un conjunto de soluciones podemos calcular su wronskiano. Si el wronskiano no se anula en el intervalo de definición de las soluciones, estas son linealmente independientes.

Si la ecuación se denomina no homogénea. La solución general de la ecuación no homogénea viene dada por

,

donde es la solución general de la ecuación homogénea asociada e es una solución particular a la ecuación no homogénea. Es decir, que sus soluciones forman un espacio afín de dimensión .

En el caso de la solución particular, existen varios métodos para encontrarla, entre ellos, el método de variación de los parámetros.

Si fijamos ciertas condiciones iniciales, tenemos garantizada la existencia y unicidad de solución local por el Teorema de Picard-Lindelöf siempre que las funciones y sean continuas y acotadas en un entorno de los valores iniciales. Si, además, tenemos que y son continuas y acotadas en todo el espacio, tendriamos garantizada la existencia y unicidad global de las soluciones en todo el espacio.

Ecuación lineal de primer orden

[editar]

Las Ecuaciones diferenciales de primer orden se caracterizan por ser de la forma:

donde y son funciones continuas en un intervalo cerrado .

La solución de esta ecuación con dato inicial viene dada por:


Existencia y unicidad de soluciones de PVI lineales de orden n

[editar]

Podemos escribir toda ecuación diferencial de orden como un sistema de orden y dimensión . Definimos para de tal manera que queda la relación .

Soluciones de la EDO x'-x+t=0

Además,


Escrito en forma matricial:

,



donde es una matriz de dimensiones , y es el vector columna cuyo única componente no nula es .

Si expresamos con , el sistema se puede escribir como . La función es continua respecto a las dos variables.

Puesto que es una función continua en sus dos variables, para poder llegar a aplicar el Teorema de Picard-Lindelöf, faltaría comprobar que es Lipschitz respecto a (uniformemente en ). En lo que sigue, usaremos la norma euclídea de un vector, denotada como , donde , para , son las componentes del vector . Sean ,

.

Sea ,


Obtenemos ,

por lo que tiene constante de Lipschitz .

Puesto que se cumplen las hipótesis del Teorema de Picard-Lindelöf, queda demostrado que hay una única solución del sistema con datos iniciales , , dados en un punto .

Si , entonces:

Por otra parte,

es decir luego es solución de la ecuación. Además, , , y por tanto es la solución (única) del problema de valor inicial con datos , para la ecuación diferencial lineal.

Ejemplo

[editar]

Sea el problema de valores iniciales:

Vamos a transformarlo en un sistema de ecuaciones:

con condiciones iniciales:

Sea podemos escribir el sistema como:

, donde A es la matriz , b es el vector vector y las condiciones iniciales son .

Ahora, aplicando el método anteriormente descrito:

Sea .

En este caso:

por lo que hay unicidad y existencia de soluciones para dicho PVI.

Ecuaciones con coeficientes constantes

[editar]

La resolución de ecuaciones y sistemas de ecuaciones diferenciales se simplifica mucho si las ecuaciones son de coeficientes constantes.

En el caso de una ecuación de primer orden la búsqueda de un factor integrante nos lleva en la mayoría de los casos a una ecuación en derivadas parciales.

Si la ecuación es de orden superior, a no ser que sea una ecuación de Euler o similar, tendremos que proponer una solución que no viene dada, en general, por funciones elementales. En estos casos los métodos preferidos (sin contar el cálculo numérico) son los que emplean series de potencias o series de Fourier.

En el caso de los sistemas, si la matriz del sistema es de coeficientes constantes podemos resolver el sistema usando el método de los valores propios ya que en ese caso la matriz resultante de la reducción de la ecuación a un sistema de primer orden es constante. Otro método consiste en calcular la exponencial de la matriz del sistema.

Para calcular la solución de una ecuación diferencial primero resolvemos el problema homogéneo y después el no homogéneo ya sea mediante el método de variación de las constantes o el método de los coeficientes indeterminados.

Resolución mediante exponenciales

[editar]

Una ecuación lineal homogénea con coeficientes constantes es de la forma:

Como la ecuación solo depende constantes y de ella misma es intuitivo pensar que una buena solución sería de la forma exponencial con un parámetro, es decir proponemos que la solución sea de la forma .

Derivando y sustituyendo en la ecuación general llegamos a , que sacando factor común resulta .

Por las propiedades de la exponencial lo anterior se anula si y solo el polinomio anterior se anula.

Luego para cada valor de tendremos información para crear una solución asociada a dicho valor.

Dependiendo de la naturaleza de y su multiplicidad distinguimos los siguientes casos:

Raíz real única: En este caso la solución para un valor concreto viene dada directamente por .

Raíz real de multiplicidad : En este caso no podemos expresar la solución como antes, ya que si lo hacemos tendríamos información redundante.

En este caso las soluciones para un valor de se construyen multiplicando la función exponencial por como sigue:

La solución es la combinación lineal de las anteriores:

Raíces complejas: Hay que tener en cuenta que siempre vienen en parejas de números conjugados.

En este caso usamos distinguimos la parte real y la imaginaria de la raíz y posteriormente usamos la fórmula de Euler y añadiendo constantes.

Raíces complejas con multiplicidad: Se trata de manera similar al caso real con multiplicidad.

La solución homogénea vendrá dada por una combinación lineal de las soluciones desarrolladas anteriormente. Es decir,

Resolución mediante paso al sistema equivalente

[editar]

Una ecuación diferencial lineal de orden puede resolverse convirtiéndola en un sistema de ecuaciones diferenciales de primer orden. Para hacer esto se definen las funciones incógnita auxiliares dadas por: . Puesto que , si tenemos en cuenta que , entonces podemos reescribir la ecuación como El sistema de ecuaciones diferenciales puede escribirse en forma matricial como:

.

De nuevo, debemos resolver primero el sistema homogéneo y después el no homogéneo. Véase como se resuelven en la página de sistemas de ecuaciones diferenciales.

En el caso de que la ecuación sea de coeficientes constantes el sistema tendrá la forma:

,

que escribimos como . La utilidad de este método consiste en que la primera coordenada del vector solución será la solución de la ecuación.

Relación entre ambos métodos de resolución y observaciones

[editar]

Dada la ecuación lineal de orden homogénea de coeficientes constantes: es fácil ver que su sistema equivalente tiene como polinomio característico asociado . Usando el método de los autovalores y autovectores para resolver sistemas de ecuaciones con coeficientes constantes, obtenemos que la solución es de la forma: , donde es la solución generada a partir del autovalor de la manera antes explicada, y los autovectores asociados a los autovalores anteriores.

Por otro lado, volviendo a la ecuación lineal, si empleamos el método de proponer soluciones exponenciales, obtendremos . Como no se anula nunca, necesariamente . Observamos que nos queda la misma expresión que el polinomio característico asociado al sistema, luego los autovalores obtenidos anteriormente serán las soluciones de esta misma ecuación. Luego si tenemos una solución del sistema, entonces es la misma solución esencialmente que la obtenida proponiendo como soluciones funciones exponenciales.

Obsérvese que la solución al sistema matricial se obtiene como combinación lineal de soluciones:.

Cada una de dichas soluciones es un vector que se construye como el producto de cierta función (asociada a cierto autovalor ) con el autovector asociado . Es decir, . Si la primera coordenada de es nula también lo será la de , pero recordemos que si la primera coordenada de es nula, también lo serán las demás puesto que la coordenada -ésima es la derivada de la coordenada anterior. Luego será el vector nulo, y por tanto linealmente dependiente del resto de soluciones . Si los autovectores son linealmente dependientes las funciones asociadas también lo serán. Luego es importante que los autovectores formen una base.

Ejemplos

[editar]

Ejemplo de resolución mediante exponenciales

[editar]

Para este ejemplo usaremos el oscilador armónico sin entrar en la interpretación física.

Nuestra primera ecuación será: .

Con constantes. Intentaremos soluciones de la forma que al introducirlo en la EDO nos queda . La solución queda de la forma que escribiéndolo en su desarrollo en senos y cosenos y ajustando las constantes obtenemos:.

Nuestra siguiente ecuación en este ejemplo es:

La solución será de la forma que al sustituirla en la EDO nos da la ecuación de segundo grado . El resultado de la ecuación dependerá de permitiéndonos separar en distintos casos:

  • Dos raíces reales:

La solución será de la forma:

  • Una raíz real doble:

La solución será de la forma:

  • Dos raíces complejas:

La solución será de la forma: que haciendo el mismo desarrollo en senos y cosenos de antes os queda

Finalmente atenderemos a la ecuación no homogénea con unos términos concretos, los trigonométricos:

Dividiremos esta resolución en distintos apartados según el valor que le demos a las constantes:

  • : Como solución al problema homogéneo tendremos obtenida anteriormente. hora debemos encontrar una particular empleando el método de variación de parámetros haciendo que y que cumpla la ecuación . Obtenemos los parámetros que nos darán como solución al problema completo (el no homogéneo) .
  • : La resolución es de forma muy similar a la anterior, tendremos la misma solución al problema no homogéneo y usaremos el método de los parámetros para hallar la solución particular. Así obtendremos y la solución general por tanto: .
  • : Mismo procedimiento que en los casos anteriores. En esta ocasión los parámetros son más complicados: . En este caso para la solución general deberemos tener en cuneta que tipo de solución tenemos al problema homogéneo. Pongamos que estamos en el caso de dos raíces reales dobles, entonces la solución general será: .

Ejemplo de resolución mediante paso al sistema equivalente

[editar]
  • Ejemplo donde el polinomio característico tiene dos raíces reales distintas

Dada la ecuación de segundo orden: , tenemos que la matriz asociada es . El polinomio característico es . Las raíces de este polinomio son y sus autovectores son, respectivamente, Por tanto la solución del sistema será , y la solución buscada sería . Además, .

  • Ejemplo donde el polinomio característico tiene una raíz real doble

Dada la ecuación de segundo orden: , tenemos que la matriz asociada es . El polinomio característico es . La raíz de este polinomio es una raíz real doble . El autovector asociado es . La solución del sistema será , y la solución buscada sería .

  • Ejemplo donde el polinomio característico tiene dos raíces complejas conjugadas

Dada la ecuación de segundo orden: , tenemos que la matriz asociada es . El polinomio característico es . Las raíces de este polinomio son dos raíces complejas conjugadas . Los autovectores asociados son . Por lo que la solución del sistema sería . La solución buscada sería .

Tomando se obtiene la solución , y tomando la solución, linealmente independiente de la anterior, . Cualquier combinación lineal de estas, será también solución.

Referencias

[editar]

Bibliografía

[editar]
  • Gil, O. (1999). Curso introductorio a las ecuaciones diferenciales. Facultad de ingeniería de la Universidad de la República de Uruguay. 

Véase también

[editar]

Enlaces externos

[editar]