FANDOM


Distancia dentro de dos funciones

Calcular la distancia mínima dentro de las curvas de las funciones $ y=2+x^{2}, y= sin(x) $

a)Definir una función $ g: R^{2}\rightarrow R $ que mide el cuadrado de la distancia.

b) Formular como se realizaría un paso de la iteración según método de Newton-Raphson; dado cierto punto $ (x_{i}, y_{i}) $ arbitrario, como se calcularía un punto $ (x_{i+1}, y_{i+1}) $ más cerca de la solución exacta.


$ f_{1}(x)= 2+ x^2, f_{2}(x) = sin(x) $

$ f_{1}(x)= f_{2} (x) $

$ g(x)=f_{1}(x)- f_{2} (x)=0 $

$ g(x)= 2+ x^2 - ( sin(x)) $

$ g(x)= 2+ x^2 - sin(x))= 0 $


$ \Rightarrow y_{1} = f1(x) = 2+x_{1}^2 $

$ \Rightarrow y_{2}(x)= f_{2} = sin(x)) $

$ d(x_{1},x_{2})= \sqrt[2]{ (x_{1}-x_{2})^2 + (2+x_{1}^2 - (sin(x_{2})))^2 } $

$ d^2= (x_{1}-x_{2})^2 + (2+x_{1}^2 - (sin(x_{2})))^2 $

$ \frac{ \delta Fd^2 }{ \delta x_{1} } = \frac{ \delta (x_{1}-x_{2})^2}{\delta x_{1}} + \frac{ \delta (2 +x_{1}^2 - ( sin(x_{2})))^2}{ \delta x_{1}} $

$ 0 = 2(x_{1}-x_{2})+ 2(2+ x_{1}^2 - sin(x_{2}))2x_{1} $

Dado $ F(x_{1},x_{2}) \in R $ criterio para extremos

$ \frac{\delta F(x_{1},x_{2})}{\delta x_{1}}=0 $

$ \frac{\delta F(x_{1},x_{2})}{\delta x_{2}}=0 $

entonces

$ 0 = 2(x_{1}-x_{2})+ 2(2+ x_{1}^2 - sin(x_{2}))2x_{1} $

$ \frac{\delta F}{\delta x_{2}}= -2(x_{1}-x_{2})+ 4x_{1}(2+ x_{1}^2 - sin(x_{2})) = 0 $


$ \frac{\delta Fd}{\delta x_{2}} = \frac{\delta (x_{2}-x_{2})^2}{\delta x_{2}} + \frac{\delta (-x_{1}^2 - (3 + sin(x_{2})))^2}{\delta x_{2}} $


$ (x_{1}-x_{2}) -2x_{1}(2+x_{1}^2 - sin(x_{2})) = 0 \rightarrow u(x_{1},x_{2}) $

$ (x_{1}-x_{2}) - cos(x_{2})(2+ x_{1}^2- sin(x_{2})) = 0 \rightarrow v(x_{1},x_{2}) $

con $ (x_{0} ,x_{0}) = (0,1) $

Matriz Jacobiana


$ \begin{pmatrix} \frac{\delta u_{i}}{\delta x_{1}} & \frac{\delta u_{i}}{\delta x_{2}}\\ \frac{\delta v_{i}}{\delta x_{1}} & \frac{\delta v_{i}}{\delta x_{2}}\end{pmatrix} \begin{pmatrix} \Delta x_{1} \\ \Delta x_{2} \end{pmatrix} = - \begin{pmatrix} u_{1} \\ v_{2} \end{pmatrix} $

$ \begin{pmatrix} -2(2+x_{1}^2-sin(x_{2})+ (2x_{1})^2 & -1+2(x_{1})(-sin(x_{2}) \\ (2+x_{1}^2-sin(x_{2})+ cos(x_{2})(2x_{1}+1) & -1 + sen(x_{2})(2+x_{1}^2 - sin(x_{2})+cos(x_{2})-cos(1) \end{pmatrix} \begin{pmatrix} \Delta x_{1} \\ \Delta x_{2} \end{pmatrix} = - \begin{pmatrix} u_{1} \\ v_{2} \end{pmatrix} $



Sistema no-lineal sobredeterminado

Resolver el sistema no-lineal sobredeterminado $ f(x,y)=ye^{x}=0, g(x,y)=e^{2x}=0, h(x,y)=2e^{2xy}=0. $

a)Linealizar el sistema cerca de un punto $ (x_{0},y_{0},z_{0}) $

b)En base de la linealización, deducir el método de Gauss-Newton. Se pide el uso de las ecuaciones normales para resolver el sistema de ecuaciones lineales, resultante de la linealización.

$ f(x,y) = ye^x = 0 $

$ g(x,y)= e^{2x} = 0 $

$ h(x,y)= 2e^{2xy} = 0 $

Serie de Taylor para función de dos variables.

$ f(x,y)\approx f(x_{0},y_{0})+ \frac{\delta f(x_{0},y_{0}) }{\delta x}(x-x_{0})+ \frac{\delta f(x_{0},y_{0}) }{\delta y}(y - y_{0}) $

$ ye^{x} = f(y_{0}e^x_{0})+ e^x_{0}(x-x_{0})+ ye^{x_{0}}(y-y_{0})= K(x,y) $

$ e^{2x} = f(e^{2x})+ 2e^{2x_{0}}(x-x_{0})=\ell(x,y) $

$ 2e^{2xy}= f(2e^{2x_{0}y_{0}})+ 4ye^{2x_{0}y_{0}}(x-x_{0})+ 4xe^{2x_{0}y_{0}}(y-y_{0})= M(x,y) $


Buscamos valores que minimizan la sumatoria.

$ K^{2}(x_{1},y_{1})+\ell^{2}(x_{1},y_{1})+M^{2}(x_{1},y_{1}) $

o sea

$ K(x_{1},y_{1})\approx 0, \ell(x_{1},y_{1})\approx 0, M(x_{1},y_{1})\approx 0 $

Escribir el sistema linealizado

$ K(x_{1},y_{1})= 0 $

$ \ell(x_{1},y_{1})= 0 $

$ M(x_{1},y_{1})= 0 $

$ \begin{pmatrix} e^{x_{0}} & y_{0}e^{x_{0}} \\ 2e^{2x_{0}} & 0 \\ 4y_{0}e^{2x_{0}y_{0}} & 4x_{0}e^{2x_{0}y_{0}}\end{pmatrix} $ $ \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} = $ $ - \begin{pmatrix} f(x_{0},y_{0}) \\ g(x_{0},y_{0})\\ h(x_{0},y_{0}) \end{pmatrix} $


$ \begin{pmatrix} y_{0}e^{x_{0}} & 2e^{2x_{0}} & 4y_{0}e^{2x_{0}y_{0}}\\ e^{x_{0}} & 0 & 4x_{0}e^{2x_{0}y_{0}}\end{pmatrix} $ $ \begin{pmatrix} e^{x_{0}} & y_{0}e^{x_{0}} \\ 2e^{2x_{0}} & 0 \\ 4y_{0}e^{2x_{0}y_{0}} & 4x_{0}e^{2x_{0}y_{0}}\end{pmatrix} $ $ \begin{pmatrix} \Delta x \\ \Delta y \end{pmatrix} = $$ \begin{pmatrix} y_{0}e^{x_{0}} & 2e^{2x_{0}} & 4y_{0}e^{2x_{0}y_{0}}\\ e^{x_{0}} & 0 & 4x_{0}e^{2x_{0}y_{0}}\end{pmatrix} $ $ \begin{pmatrix} f(x_{0},y_{0}) \\ g(x_{0},y_{0})\\ h(x_{0},y_{0}) \end{pmatrix} $


Nodos no equidistante

Dado los nodos $ x_{0}=0, x_{1}= 2, x_{2}=3, $ determinar ponderaciones $ p_{0},p_{1},p_{2} $ tal que

$ \int_{x_{0}}^{x_{2}} f(x)\, dx = (x_{2}-x_{0}) = \sum_{i=0}^2 p_{i}f(x_{i})=p_{0}f(x_{0})+ p_{1}f(x_{1})+ p_{2}f(x_{2}) $

sea válida para cualquier función cuadrática

$ f(x) = a + bx + cx^2. $

Paso 1: Calcular(Lado Izquierdo) $ \int_{0}^{3} f(x)\, dx =\begin{align} \int_{0}^{3}(a + bx + cx^2) \, dx. \end{align} $

$ = \int_{0}^{3} a \, dx +\int_{0}^{3} bx \, dx + \int_{0}^{3} cx^2 \, dx $

$ = 3a+ \frac{9}{2}b+ 9c. $


Paso 2: Calcular(Lado Derecho)

$ p_{0} f(0)+ p_{1} f(2) + p_{2} f(3) $

$ p_{0} (a + b0 + c(0)^2) + p_{1} (a + b2 + c(2)^2) + p_{2} (a + b3 + c(3)^2) $

$ p_{0}a + p_{1}a + p_{1}2b + p_{1}4c + p_{2}a + p_{2}3b + p_{2}9c $

$ a (p_{0} + p_{1} + p_{2}) + b (2p_{1} + 3p_{2}) + c (4p_{1} + 9p_{2}) $


Paso 3: Comparar ambos lados

$ 3a + \frac{9}{2}b + 9c = a (p_{0} + p_{1} + p_{2}) + b (2p_{1} + 3p_{2}) + c (4p_{1} + 9p_{2}) $

Esta ecuación debe ser válida para cualquiera selección del triple de parámetros $ (a, b, c) $, en particular para $ (a, b, c) = (1, 0, 0),(0,1,0) , (0,0,1). $ entonces tenemos tres ecuaciones con tres variables:

$ p_{0}, p_{1}, p_{2}. $

Formular el sistema de tres ecuaciones, $ (1,0,0) \Rightarrow 3(1) + 0 + 0 = 1p_{0} + 1p_{1} + 1p_{2} $

        A)$  3 = p_{0} + p_{1} + p_{2} $

$ (0,1,0) \Rightarrow 0+ \frac{9}{2}(1) + 0 = 0 + (1)2p_{1} + (1)3p_{2} + 0 $

        B) $ p_{1} = \frac{\frac{9}{2} - 3p_{2}}{2} $

$ (0,0,1) \Rightarrow 0+ 0 +9 (1) = 0 + 0+ (1)(4p_{1} + 9p_{2}) $

        C) $  p_{1} = \frac {9 - 9p_{2}}{4} $


Por lo tanto, al igualar B) con C) obtenemos la siguiente ecuación:

$ p_{1} = \frac{9}{4} $

Reemplazando $ p_{1} $ tenemos el valor de $ p_{2} = 0 $ Y finalmente $ p_{0} = \frac{3}{4} --~~~~ [[Categoría:Entradas]] $