jueves, 21 de mayo de 2020

Solución de ecuaciones diferenciales

6.1 Métodos de un paso.

Métodos de un paso
Los métodos de un paso tienen por objetivo obtener una aproximación de la solución de un problema bien planteado de valor inicial en cada punto de la malla, basándose en el resultado obtenido para el punto anterior.
Se desarrollan aquí los métodos Taylor (incluyendo Euler), y de Runge Kutta. Para ver el detalle de cada uno de los métodos, hacer click en cada uno de los siguientes vínculos. Para volver a esta página, hacer click en la solapa "métodos de un paso".
¿Cómo decidir qué método aplicar?
Hay dos cuestiones importantes que deben tenerse en cuenta al evaluar un algoritmo:
  • El esfuerzo computacional requerido para ejecutarlo.
  • La precisión que este esfuerzo produce.
Para los algoritmos vistos, el mayor esfuerzo se presenta en la evaluación de f. El algoritmo de Euler hace una evaluación de f por paso y el de RK4 hace cuatro, mientras que los de Taylor, tienen la complicación de evaluar las derivadas de f en cada paso. Por esta razón, y dado que un método de Runge-Kutta de orden m tiene la misma precisión que el método de Taylor de igual orden, es que los métodos de Taylor no se utilizan con fines prácticos.
Por lo dicho anteriormente, el método RK4 requiere cuatro veces más esfuerzo por paso. Este hecho puede resultar engañoso ya que suele obtenerse con pocos pasos de RK4 la misma precisión que con cientos del método de Euler.

Consistencia, estabilidad y convergencia
 
Hay algunas propiedades importantes de las ecuaciones en diferencias para problemas de valor inicial de EDOs de primer orden que deben considerarse antes de que se pongan en práctica los métodos numéricos. Ellas son consistencia, estabilidad y convergencia.
 
Se dice que una ecuación en diferencias es consistente con una EDO si la diferencia entre ambas (el error de truncamiento) se acerca a cero a medida que el paso h tiende a cero.

6.2 Método de pasos múltiples. 

  • Se considera el problema de valores iniciales (P.V.I.) 8<: y0(x) = f(x; y(x)); x 2 [a; b]; y(a) = y0 dado, el que supondremos tiene solución única, y : [a; b]
Dada una partición del intervalo [a; b]: a = x0 < x1 <    < xN = b; los métodos que hemos visto hasta aquí sólo usan la información del valor yi de la solución calculada en xi para obtener yi+1. Por eso se denominan métodos de paso simple.
Parece razonable pensar que también podrían utilizarse los valores yi.
Para ello, si integramos y0(x) = f(x; y(x)) en el intervalo [xi; xi+1], se tiene: Z xi+1 xi y0(x) dx = Z xi+1 xi f(x; y(x)).

  • Los métodos de un paso descritos en las secciones anteriores utilizan información en un solo punto xi para 
predecir un valor de la variable dependiente yi+1 en un punto futuro xi+1. Procedimientos alternativos, 
llamados métodos multipaso, se basan en el conocimiento de que una vez empezado el cálculo, se tiene 
información valiosa de los puntos anteriores y esta a nuestra disposición. La curvatura de las líneas que 
conectan esos valores previos proporciona información con respecto a la trayectoria de la solución. Los 
métodos multipaso que exploraremos aprovechan esta información para resolver las EDO. Antes de describir 
las versiones de orden superior, presentaremos un método simple de segundo orden que sirve para 
demostrar las características generales de los procedimientos multipaso.

6.3 Sistemas de ecuaciones diferenciales

Un sistema de ecuaciones diferenciales es un conjunto de varias ecuaciones diferenciales con varias funciones incógnitas y un conjunto de condiciones de contorno. Una solución del mismo es un conjunto de funciones diferenciables que satisfacen todas y cada una de las ecuaciones del sistema. Según el tipo de ecuaciones diferenciales puede tenerse un sistema de ecuaciones diferenciales ordinarias o un sistema de ecuaciones en derivadas parciales.
En un sistema de ecuaciones diferenciales ordinarias de cualquier orden, puede ser reducido a un sistema equivalente de primer orden, si se introducen nuevas variables y ecuaciones. Por esa razón en este artículo sólo se consideran sistemas de ecuaciones de primer orden. Un sistema de ecuaciones diferenciales ordinarias de primer orden escrito en forma explícita es un sistema de ecuaciones de la forma:

Reducción a un sistema de primer orden[editar]

Dado un sistema de ecuaciones diferenciales de orden n con m ecuaciones:
Existe un sistema equivalente de primer orden con a lo sumo (n+1) x m ecuaciones. Para ver esto consideremos un sistema en que intervienen m funciones incógnitas xi y sus n derivadas, e introduzcamos un nuevo conjunto de variables yi,k definidos de la siguiente manera:
El sistema de primer orden equivalente en las variables yi,k resulta ser:
Como ejemplo de reducción de un sistema de ecuaciones diferenciales podemos considerar las ecuaciones de movimiento de la mecánica newtoniana de una partícula que es un sistema de segundo orden con tres ecuaciones:
Si se introducen tres funciones incógnita nuevas que representan la velocidad, el sistema anterior se puede reducir a un sistema de primer orden y seis ecuaciones:

6.4 Aplicaciones  

Consiste de un resorte o muelle en espiral suspendido de un soporte rígido con una masa sujeta 

al extremo. Para analizar este fenómeno usamos la ley de hooke y la segunda ley de newton. 

La ley de hooke establece que el resorte ejerce una fuerza de restitución  opuesta a la dirección 

de alargamiento  del resorte peso=kl donde k es la constante de restitución y l es el 

alargamiento hasta la posición de equilibrio. Para aplicar la ley de newton, hay q tener en cuenta 

q sobre la mas m actúa la fuerza de gravedad  (m.g), la fuerza de restitución (-kx-mg donde x 

es el alargamiento) , la fuerza de amortiguación que es proporcional a la velocidad de la masa )-

b(dx/dt) con b la constante de amortiguación ) y las fuerzas externas (F(t)). Así q la ecuación 

diferencial q resulta es:
 
M  d^2x/dt^2+b dx/dt+kx=f(t)


Aplicaciones a la física:
Movimiento Armónico Simple:
La Ley de Hooke:
Supongamos que un cuerpo de masa M esta sujeto al extremo de un resorte flexible suspendido de un soporte rígido (por ejemplo un techo), como se muestra en la figura 5.1b. Cuando M se reemplaza por un cuerpo diferente Mi, el alargamiento del resorte será, por supuesto, distinto.
Por la Ley de Hooke, el resorte mismo ejerce una fuerza de restitución F opuesta a la dirección del alargamiento y proporcional a su magnitud s. Dicho en términos simples, F = ks, en donde k es una constante de proporcionalidad. Aunque cuerpos de distinto peso producen distintos alargamientos del resorte, tal elemento elástico esta esencialmente caracterizado por él numero k. Por ejemplo, si un cuerpo que pesa 10lb. alarga el resorte en 1/2 pie, entonces,
10 = k (1/2) implica que = 20 lb./pie.
Luego, necesariamente una masa que pesa 8 lb. alarga el mismo resorte en 2/5 pie.

VIDEO


Interpolación y ajuste de funciones

5.1 Polinomio de interpolación de Newton

Es un método de interpolación polinómica. Aunque sólo existe un único polinomio que interpola una serie de puntos, existen diferentes formas de calcularlo. Este método es útil para situaciones que requieran un número bajo de puntos para interpolar, ya que a medida que crece el número de puntos, también lo hace el grado del polinomio.
Existen ciertas ventajas en el uso de este polinomio respecto al polinomio interpolador de Lagrange. Por ejemplo, si fuese necesario añadir algún nuevo punto o nodo a la función, tan sólo habría que calcular este último punto, dada la relación de recurrencia existente y demostrada anteriormente.
El primer paso para hallar la fórmula de la interpolación es definir la pendiente de orden  de manera recursiva:
  • : término i-ésimo de la secuencia

En general:
,
donde  representa la distancia entre dos elementos (por ejemplo, se puede tener el elemento en  y  pero desconocer el valor de la secuencia en ).

Puede apreciarse cómo en la definición general se usa la pendiente del paso anterior, , a la cual se le resta la pendiente previa de mismo orden, es decir, el subíndice de los términos se decrementa en , como si se desplazara, para obtener .

Nótese también que aunque el término inicial siempre es , este puede ser en realidad cualquier otro, por ejemplo, se puede definir  de manera análoga al caso mostrado arriba.

5.2 Polinomio de interpolación de Lagrange. 
En análisis numérico, el polinomio de Lagrange, llamado así en honor a Joseph-Louis de Lagrange, es una forma de presentar el polinomio que interpola un conjunto de puntos dado. Lagrange publicó este resultado en 1795, pero lo descubrió Edward Waring en 1779 y fue redescubierto más tarde por Leonhard Euler en 1783.1​ Dado que existe un único polinomio interpolador para un determinado conjunto de puntos, resulta algo engañoso llamar a este polinomio el polinomio interpolador de Lagrange. Un nombre más apropiado es interpolación polinómica en la forma de Lagrange.

Dado un conjunto de k + 1 puntos
donde todos los xj se asumen distintos, el polinomio interpolador en la forma de Lagrange es la combinación lineal
de bases polinómicas de Lagrange
La función que estamos buscando es una función polinómica L(x) de grado k con el problema de interpolación puede tener tan solo una solución, pues la diferencia entre dos tales soluciones, sería otro polinomio de grado k a lo sumo, con k+1 ceros.

Por lo tanto, L(x) es el único polinomio interpolador
Si se aumenta el número de puntos a interpolar (o nodos) con la intención de mejorar la aproximación a una función, también lo hace el grado del polinomio interpolador así obtenido, por norma general. De este modo, aumenta la dificultad en el cálculo, haciéndolo poco operativo manualmente a partir del grado 4, dado que no existen métodos directos de resolución de ecuaciones de grado 4, salvo que se puedan tratar como ecuaciones bicuadradas, situación extremadamente rara.
La tecnología actual permite manejar polinomios de grados superiores sin grandes problemas, a costa de un elevado consumo de tiempo de computación. Pero, a medida que crece el grado, mayores son las oscilaciones entre puntos consecutivos o nodos. Se podría decir que a partir del grado 6 las oscilaciones son tal que el método deja de ser válido, aunque no para todos los casos.
Sin embargo, pocos estudios requieren la interpolación de tan solo 6 puntos. Se suelen contar por decenas e incluso centenas. En estos casos, el grado de este polinomio sería tan alto que resultaría inoperable. Por lo tanto, en estos casos, se recurre a otra técnica de interpolación, como por ejemplo a la Interpolación polinómica de Hermite o a los splines cúbicos
Otra gran desventaja, respecto a otros métodos de interpolación, es la necesidad de recalcular todo el polinomio si se varía el número de nodos.

5.3 Interpolación segmentada.


 5.4 Regresión y correlación

El análisis de regresión es una técnica estadística para investigar la relación funcional entre dos o más variables, ajustando algún modelo matemático.
La regresión lineal es una técnica que permite cuantificar la relación que puede ser observada cuando se grafica un diagrama de puntos dispersos correspondientes a dos variables, cuya tendencia general es rectilínea ; mediante una ecuación “del mejor ajuste” de la forma:
Y= mX+b
Regresión lineal simple es un modelo óptimo para patrones de demanda con tendencia (creciente o decreciente), es decir, patrones que presenten una relación de linealidad entre la demanda y el tiempo
 5.5 Mínimos cuadrados
Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados —variable independiente, variable dependiente— y una familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los correspondientes valores en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger.
Desde un punto de vista estadístico, un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución normal. También es importante que los datos a procesar estén bien escogidos, para que permitan visibilidad en las variables que han de ser resueltas (para dar más peso a un dato en particular, véase mínimos cuadrados ponderados).
La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos otros problemas de optimización pueden expresarse también en forma de mínimos cuadrados, minimizando la energía o maximizando la entropía.

5.6 Problemas de aplicación.

topografía y hasta en diseño de las estructuras, no en todos los casos pero principalmente cuando hay mala toma de datos o haya datos faltantes.

En el subcampo matemático del análisis numérico, un spline es una curva diferenciable definida en porciones mediante polinomios.

En los problemas de interpolación, se utiliza a menudo la interpolación mediante splines porque da lugar a resultados similares requiriendo solamente el uso de polinomios de bajo grado, evitando así las oscilaciones, indeseables en la mayoría de las aplicaciones, encontradas al interpolar mediante polinomios de grado elevado.

Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas. La simplicidad de la representación y la facilidad de cómputo de los splines los hacen populares para la representación de curvas en informática, particularmente en el terreno de los gráficos por ordenado. Tenemos los siguientes 3:

·         Interpolación Segmentaria Lineal

·         Interpolación Segmentaria Cuadrática

·         Interpolación Segmentaria Cúbica


VIDEO: