jueves, 21 de mayo de 2020

Solución de ecuaciones diferenciales

6.1 Métodos de un paso.

Métodos de un paso
Los métodos de un paso tienen por objetivo obtener una aproximación de la solución de un problema bien planteado de valor inicial en cada punto de la malla, basándose en el resultado obtenido para el punto anterior.
Se desarrollan aquí los métodos Taylor (incluyendo Euler), y de Runge Kutta. Para ver el detalle de cada uno de los métodos, hacer click en cada uno de los siguientes vínculos. Para volver a esta página, hacer click en la solapa "métodos de un paso".
¿Cómo decidir qué método aplicar?
Hay dos cuestiones importantes que deben tenerse en cuenta al evaluar un algoritmo:
  • El esfuerzo computacional requerido para ejecutarlo.
  • La precisión que este esfuerzo produce.
Para los algoritmos vistos, el mayor esfuerzo se presenta en la evaluación de f. El algoritmo de Euler hace una evaluación de f por paso y el de RK4 hace cuatro, mientras que los de Taylor, tienen la complicación de evaluar las derivadas de f en cada paso. Por esta razón, y dado que un método de Runge-Kutta de orden m tiene la misma precisión que el método de Taylor de igual orden, es que los métodos de Taylor no se utilizan con fines prácticos.
Por lo dicho anteriormente, el método RK4 requiere cuatro veces más esfuerzo por paso. Este hecho puede resultar engañoso ya que suele obtenerse con pocos pasos de RK4 la misma precisión que con cientos del método de Euler.

Consistencia, estabilidad y convergencia
 
Hay algunas propiedades importantes de las ecuaciones en diferencias para problemas de valor inicial de EDOs de primer orden que deben considerarse antes de que se pongan en práctica los métodos numéricos. Ellas son consistencia, estabilidad y convergencia.
 
Se dice que una ecuación en diferencias es consistente con una EDO si la diferencia entre ambas (el error de truncamiento) se acerca a cero a medida que el paso h tiende a cero.

6.2 Método de pasos múltiples. 

  • Se considera el problema de valores iniciales (P.V.I.) 8<: y0(x) = f(x; y(x)); x 2 [a; b]; y(a) = y0 dado, el que supondremos tiene solución única, y : [a; b]
Dada una partición del intervalo [a; b]: a = x0 < x1 <    < xN = b; los métodos que hemos visto hasta aquí sólo usan la información del valor yi de la solución calculada en xi para obtener yi+1. Por eso se denominan métodos de paso simple.
Parece razonable pensar que también podrían utilizarse los valores yi.
Para ello, si integramos y0(x) = f(x; y(x)) en el intervalo [xi; xi+1], se tiene: Z xi+1 xi y0(x) dx = Z xi+1 xi f(x; y(x)).

  • Los métodos de un paso descritos en las secciones anteriores utilizan información en un solo punto xi para 
predecir un valor de la variable dependiente yi+1 en un punto futuro xi+1. Procedimientos alternativos, 
llamados métodos multipaso, se basan en el conocimiento de que una vez empezado el cálculo, se tiene 
información valiosa de los puntos anteriores y esta a nuestra disposición. La curvatura de las líneas que 
conectan esos valores previos proporciona información con respecto a la trayectoria de la solución. Los 
métodos multipaso que exploraremos aprovechan esta información para resolver las EDO. Antes de describir 
las versiones de orden superior, presentaremos un método simple de segundo orden que sirve para 
demostrar las características generales de los procedimientos multipaso.

6.3 Sistemas de ecuaciones diferenciales

Un sistema de ecuaciones diferenciales es un conjunto de varias ecuaciones diferenciales con varias funciones incógnitas y un conjunto de condiciones de contorno. Una solución del mismo es un conjunto de funciones diferenciables que satisfacen todas y cada una de las ecuaciones del sistema. Según el tipo de ecuaciones diferenciales puede tenerse un sistema de ecuaciones diferenciales ordinarias o un sistema de ecuaciones en derivadas parciales.
En un sistema de ecuaciones diferenciales ordinarias de cualquier orden, puede ser reducido a un sistema equivalente de primer orden, si se introducen nuevas variables y ecuaciones. Por esa razón en este artículo sólo se consideran sistemas de ecuaciones de primer orden. Un sistema de ecuaciones diferenciales ordinarias de primer orden escrito en forma explícita es un sistema de ecuaciones de la forma:

Reducción a un sistema de primer orden[editar]

Dado un sistema de ecuaciones diferenciales de orden n con m ecuaciones:
Existe un sistema equivalente de primer orden con a lo sumo (n+1) x m ecuaciones. Para ver esto consideremos un sistema en que intervienen m funciones incógnitas xi y sus n derivadas, e introduzcamos un nuevo conjunto de variables yi,k definidos de la siguiente manera:
El sistema de primer orden equivalente en las variables yi,k resulta ser:
Como ejemplo de reducción de un sistema de ecuaciones diferenciales podemos considerar las ecuaciones de movimiento de la mecánica newtoniana de una partícula que es un sistema de segundo orden con tres ecuaciones:
Si se introducen tres funciones incógnita nuevas que representan la velocidad, el sistema anterior se puede reducir a un sistema de primer orden y seis ecuaciones:

6.4 Aplicaciones  

Consiste de un resorte o muelle en espiral suspendido de un soporte rígido con una masa sujeta 

al extremo. Para analizar este fenómeno usamos la ley de hooke y la segunda ley de newton. 

La ley de hooke establece que el resorte ejerce una fuerza de restitución  opuesta a la dirección 

de alargamiento  del resorte peso=kl donde k es la constante de restitución y l es el 

alargamiento hasta la posición de equilibrio. Para aplicar la ley de newton, hay q tener en cuenta 

q sobre la mas m actúa la fuerza de gravedad  (m.g), la fuerza de restitución (-kx-mg donde x 

es el alargamiento) , la fuerza de amortiguación que es proporcional a la velocidad de la masa )-

b(dx/dt) con b la constante de amortiguación ) y las fuerzas externas (F(t)). Así q la ecuación 

diferencial q resulta es:
 
M  d^2x/dt^2+b dx/dt+kx=f(t)


Aplicaciones a la física:
Movimiento Armónico Simple:
La Ley de Hooke:
Supongamos que un cuerpo de masa M esta sujeto al extremo de un resorte flexible suspendido de un soporte rígido (por ejemplo un techo), como se muestra en la figura 5.1b. Cuando M se reemplaza por un cuerpo diferente Mi, el alargamiento del resorte será, por supuesto, distinto.
Por la Ley de Hooke, el resorte mismo ejerce una fuerza de restitución F opuesta a la dirección del alargamiento y proporcional a su magnitud s. Dicho en términos simples, F = ks, en donde k es una constante de proporcionalidad. Aunque cuerpos de distinto peso producen distintos alargamientos del resorte, tal elemento elástico esta esencialmente caracterizado por él numero k. Por ejemplo, si un cuerpo que pesa 10lb. alarga el resorte en 1/2 pie, entonces,
10 = k (1/2) implica que = 20 lb./pie.
Luego, necesariamente una masa que pesa 8 lb. alarga el mismo resorte en 2/5 pie.

VIDEO


Interpolación y ajuste de funciones

5.1 Polinomio de interpolación de Newton

Es un método de interpolación polinómica. Aunque sólo existe un único polinomio que interpola una serie de puntos, existen diferentes formas de calcularlo. Este método es útil para situaciones que requieran un número bajo de puntos para interpolar, ya que a medida que crece el número de puntos, también lo hace el grado del polinomio.
Existen ciertas ventajas en el uso de este polinomio respecto al polinomio interpolador de Lagrange. Por ejemplo, si fuese necesario añadir algún nuevo punto o nodo a la función, tan sólo habría que calcular este último punto, dada la relación de recurrencia existente y demostrada anteriormente.
El primer paso para hallar la fórmula de la interpolación es definir la pendiente de orden  de manera recursiva:
  • : término i-ésimo de la secuencia

En general:
,
donde  representa la distancia entre dos elementos (por ejemplo, se puede tener el elemento en  y  pero desconocer el valor de la secuencia en ).

Puede apreciarse cómo en la definición general se usa la pendiente del paso anterior, , a la cual se le resta la pendiente previa de mismo orden, es decir, el subíndice de los términos se decrementa en , como si se desplazara, para obtener .

Nótese también que aunque el término inicial siempre es , este puede ser en realidad cualquier otro, por ejemplo, se puede definir  de manera análoga al caso mostrado arriba.

5.2 Polinomio de interpolación de Lagrange. 
En análisis numérico, el polinomio de Lagrange, llamado así en honor a Joseph-Louis de Lagrange, es una forma de presentar el polinomio que interpola un conjunto de puntos dado. Lagrange publicó este resultado en 1795, pero lo descubrió Edward Waring en 1779 y fue redescubierto más tarde por Leonhard Euler en 1783.1​ Dado que existe un único polinomio interpolador para un determinado conjunto de puntos, resulta algo engañoso llamar a este polinomio el polinomio interpolador de Lagrange. Un nombre más apropiado es interpolación polinómica en la forma de Lagrange.

Dado un conjunto de k + 1 puntos
donde todos los xj se asumen distintos, el polinomio interpolador en la forma de Lagrange es la combinación lineal
de bases polinómicas de Lagrange
La función que estamos buscando es una función polinómica L(x) de grado k con el problema de interpolación puede tener tan solo una solución, pues la diferencia entre dos tales soluciones, sería otro polinomio de grado k a lo sumo, con k+1 ceros.

Por lo tanto, L(x) es el único polinomio interpolador
Si se aumenta el número de puntos a interpolar (o nodos) con la intención de mejorar la aproximación a una función, también lo hace el grado del polinomio interpolador así obtenido, por norma general. De este modo, aumenta la dificultad en el cálculo, haciéndolo poco operativo manualmente a partir del grado 4, dado que no existen métodos directos de resolución de ecuaciones de grado 4, salvo que se puedan tratar como ecuaciones bicuadradas, situación extremadamente rara.
La tecnología actual permite manejar polinomios de grados superiores sin grandes problemas, a costa de un elevado consumo de tiempo de computación. Pero, a medida que crece el grado, mayores son las oscilaciones entre puntos consecutivos o nodos. Se podría decir que a partir del grado 6 las oscilaciones son tal que el método deja de ser válido, aunque no para todos los casos.
Sin embargo, pocos estudios requieren la interpolación de tan solo 6 puntos. Se suelen contar por decenas e incluso centenas. En estos casos, el grado de este polinomio sería tan alto que resultaría inoperable. Por lo tanto, en estos casos, se recurre a otra técnica de interpolación, como por ejemplo a la Interpolación polinómica de Hermite o a los splines cúbicos
Otra gran desventaja, respecto a otros métodos de interpolación, es la necesidad de recalcular todo el polinomio si se varía el número de nodos.

5.3 Interpolación segmentada.


 5.4 Regresión y correlación

El análisis de regresión es una técnica estadística para investigar la relación funcional entre dos o más variables, ajustando algún modelo matemático.
La regresión lineal es una técnica que permite cuantificar la relación que puede ser observada cuando se grafica un diagrama de puntos dispersos correspondientes a dos variables, cuya tendencia general es rectilínea ; mediante una ecuación “del mejor ajuste” de la forma:
Y= mX+b
Regresión lineal simple es un modelo óptimo para patrones de demanda con tendencia (creciente o decreciente), es decir, patrones que presenten una relación de linealidad entre la demanda y el tiempo
 5.5 Mínimos cuadrados
Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados —variable independiente, variable dependiente— y una familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los correspondientes valores en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger.
Desde un punto de vista estadístico, un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución normal. También es importante que los datos a procesar estén bien escogidos, para que permitan visibilidad en las variables que han de ser resueltas (para dar más peso a un dato en particular, véase mínimos cuadrados ponderados).
La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos otros problemas de optimización pueden expresarse también en forma de mínimos cuadrados, minimizando la energía o maximizando la entropía.

5.6 Problemas de aplicación.

topografía y hasta en diseño de las estructuras, no en todos los casos pero principalmente cuando hay mala toma de datos o haya datos faltantes.

En el subcampo matemático del análisis numérico, un spline es una curva diferenciable definida en porciones mediante polinomios.

En los problemas de interpolación, se utiliza a menudo la interpolación mediante splines porque da lugar a resultados similares requiriendo solamente el uso de polinomios de bajo grado, evitando así las oscilaciones, indeseables en la mayoría de las aplicaciones, encontradas al interpolar mediante polinomios de grado elevado.

Para el ajuste de curvas, los splines se utilizan para aproximar formas complicadas. La simplicidad de la representación y la facilidad de cómputo de los splines los hacen populares para la representación de curvas en informática, particularmente en el terreno de los gráficos por ordenado. Tenemos los siguientes 3:

·         Interpolación Segmentaria Lineal

·         Interpolación Segmentaria Cuadrática

·         Interpolación Segmentaria Cúbica


VIDEO:


viernes, 24 de abril de 2020

Diferenciación e integración numérica

4.1 DERIVACIÓN NUMÉRICA

Consideramos una función f(x) de la cual se conoce un conjunto discreto de valores (x0, f0), (x1,f1),…,(xn,fn). Donde calcularemos la derivada de la función en un punto “x” que en principio no tiene coincidencia con alguno de los que figuran en los datos.
Estimamos la derivada utilizando formulas obtenidas mediante la aproximación de Taylor, denominadas “Formulas de diferencias finitas”.
La derivación numérica es una técnica de análisis numérico para calcular una aproximación a la derivada de una función en un punto utilizando los valores y propiedades de la misma.
Por definición la derivada de una función f(x) es:

Las aproximaciones numéricas que podamos hacer (para h>0) serán:
Diferencias hacia adelante

La aproximación de la derivada por este método entrega resultados aceptables con un determinado error. Para minimizar los errores se estima que el promedio de ambas entregas la mejor aproximación numérica al problema dado
Diferencias centrales.


4.2 INTEGRACIÓN NUMÉRICA

Método del trapecio, método de Simpson 1/3 y 3/8
La regla del trapecio es un método de integración numérica, es decir, un método para calcular aproximadamente el valor de la integral definida.

La funcion f(x) aproximada por la funcion lineal ∫_a^bf(x)dx
La regla se basa en aproximar el valor de la integral de f(x) por el de la funcion lineal que pasa a traves de los puntos (a,f(a))y (b,j(b)). La integral de esta es igual a ∫_a^b〖f(x)dx=(b-a)(f(a)+f(b))/2〗 y donde el termino error corresponde a -((b-a)^3)/12 f^2 (ε) Siendo ε un numero perteneciente al intervalo [a,b]

La regla del trapecio Compuesta o regla de los trapecios es una forma de aproximar una integral definida utilizando n trapecios. En la formulacion de este metodo se supone que f es continua y el eje x, desde x=a hasta x=b. primero se divide el intervalo [a,b] en nsubintervalos,cada uno de ancho ∆x=(b-a)/n.

Despues de realizar todo el proceso matematico se llega ala siguiente formula:
Reglas de Simpson

Además de aplicar la regla trapezoidal con segmentos cada vez más finos, otra manera de obtener una estimación más exacta de una integral es la de usar polinomios de orden superior para conectar los puntos a las formulas resultantes de calcular la integral bajo estos polinomios se les llama reglas de Simpson. 

Regla de Simpson de 1/3

La regla de Simpson de 1/3 resulta cuando se sustituye un polinomio de segundo orden en la ecuación.
Si a y b se denominan como x0 y x2 y f2(x) Se representa mediante un polinomio de LaGrange de segundo orden, entonces la integral es:
 
Después de integrar y reordenar términos, resulta la siguiente ecuación:
Regla de Simpson 1/3 de segmentos múltiples

Así como la regla trapezoidal, la regla de Simpson se mejora dividiendo el intervalo de integración en segmentos de igual anchura.
la integral total se representa como
 Sustituyendo la regla de Simpson en cada una de las integrales individuales se obtiene
Regla de Simpson de 3/8 

De manera similar a la derivación de la regla trapezoidal y a la regla de Simpson de 1/3 , se ajustan polinomios de LaGrange de tercer orden a cuatro puntos e integrar.
I=∫_a^b〖f(x)dx=∫_a^b〖f3.(x)dx〗〗

Para obtener I=(b-a).  (f(x0)+3f(x1)+3f(x2)+f(x3))/8

En donde h=((b-a))/3
A esta ecuación se le llama regla de Simpson de 3/8 porque h es un múltiplo de 3/8. Esta es la tercera regla cerrada de integración de Newton-Cotes.

Regla de Simpson 3/8 múltiples

La regla de 1/3  es en general, el método de preferencia ya que alcanza exactitud de tercer orden con tres puntos en vez de los cuatro puntos necesarios para la versión de 3/8. No obstante, la regla de 3/8 tiene utilidad en aplicaciones de segmentos múltiples cuando el número de segmentos es impar.  
Para una estimación de cinco segmentos una alternativa es la de aplicar la regla de Simpson de 1/3 a los primeros segmentos y la regla de 3/8 tiene utilidad en aplicaciones de segmentos múltiples cuando el número de segmentos es impar.
De esta manera. Se obtiene una estimación con exactitud de tercer orden a través del intervalo completo.

Integración con intervalos desiguales

Cuando la longitud de los subintervalos no es igual, se usa una combinación de la regla trapezoidal y las reglas de Simpson, procurando el siguiente orden jerárquico:
1.- Simpson 3/8
Este se aplica, si contamos con 4 puntos igualmente espaciados.
2. Simpson 1/3
Esta se aplica si falla 81) y contamos con 3 puntos igualmente espaciados.
3. Regla trapezoidal
Solo se aplica si no se cumple (1) y (2)
 
Ejemplo

Evaluar, usando la siguiente tabla
Solución
Vemos que el intervalo [0,0.1] podemos aplicar la regla del trapecio, en el intervalo [0.1,0.7] la regla de Simpson de 3/8 y en el intervalo [0.7,1.2] la regla de Simpson de 1/3, así tenemos las siguientes integrales.
Finalmente, la integral buscada es la suma de las tres integrales anteriores

 4.3 INTEGRACIÓN MÚLTIPLE

A continuación se define el centro de masa para un sólido tridimensional como un punto p(x,y,z), donde las coordenadas de este punto se obtienen de las ecuaciones:
 Sea B un recinto del espacio, tal que su densidad viene dada por la función p:R3→R, la cual es continua ∀(x,y,z)εB, entonces el centro de masa es un punto p(x,y,z), donde sus coordenadas son:

Ejemplo

1.- Encuentre el centro de masa de un sólido de densidad constante que esta acostado por el cilindro parabólico x=y^2 y los planos x=z,z=0 y x=1
ϵ={(x,y,z)-1≤y≤1,y^2≤x≤1,0≤z≤x}┤
Entonces, si la densidad es p(x,y,z)=p, la masa es:

Debido a la simetría de E y p respecto al plano xz, se puede decir de inmediato que Mxy=0 y por lo tanto, y=0, los otros momentos son:
Por lo tanto, el centro de masa es:
2.-Área de una figura plana

Calcule el área de la región D, acotada por las graficas x=y^2-2y y x=4-y^2, empleando las integrales dobles.
Por lo tanto el área se obtiene:
 4.4 APLICACIONES

Método numéricos para diferenciación e integración.