FANDOM



Regresion LinealEditar

Ejemplo $ y= a_0 [ 1-exp(-a_1x)] + e $


En el caso de un modelo no lineal la ssolucion debe realizarse en una forma iterativa


El metodo de Gauss-Newton es un algoritmo para minimizar la suma de los cuadrados de los residuos entre los datos y las ecuaciones no lineales.


Relacion entre datos $ (x_1, y_1), i= 1,.....,n $ y la ecuacion no lineal:


$ y_1 = f(x_1; a_0,a_1,....,a_n) + e \otimes $

Por conveniencia podemos omitir los parametros $ y_1= f(x_1) + e1 $


El modelo no lineal puede expandirse en una serie de Taylor alrededor de los parametros y cortare despues de las primeras derivadas. Por ejemplo, para el caso con dos parametros:


$ f(x_i)j + 1 = f(x_i)j + \frac{\partial f(x_i)}{\partial a_0} \Delta a_0 \frac{\partial f(x_i)j}{\partial a_1} \Delta a_1 \circledast $


donde $ j $: el valor inicial

$ j+1 $ la prediccion

$ \Delta a_0 = a_0, j+1 - a_0,j $

$ \Delta a_1 = a_a,j+1 - a_1+j $


Objetivo: Mejorar la aproximacion de los parametros

En un paso de iteracion partimos con $ a_0,J , a_1,J $ de intante de iteracion $ j $


Despues de calcular las correcciones de $ \Delta a_0, a_1 $ contamos con los parametros mejorados

$ a_0,j+1 = a_0,j + \Delta a_0 , a_1,j+1 = a_1,j + \Delta a_1 $


La ecuacion $ \circledast $ se sustituye en la ecuacion $ \otimes $ para dar:

$ y_i - (f(x_i))j = \frac{\partial f(x_i)j}{\partial a_0} \Delta a_0 + \frac{\partial f(x_i+1)j}{\partial a_1} \Delta a_1 + e_1 $

o en forma matricial

$ i= 1,....,n $(ecuaciones)

$ D =Z_j \delta A +E $

Donde $ Z_j; $ es la matriz de las derivadas parciales de $ F $ en el valor inicial $ j $

$            Z_j  $ (evaluar los f en los parametros)   $ a_{0,j} , a_{1,0}  $ =
   $        \left (           \begin{matrix}              \frac{\partial f_1}{\partial a_0} & \frac{\partial f_1}{\partial a_1} \\\\             \frac{\partial f_2}{\partial a_0} & \frac{\partial f_2}{\partial a_1} \\             ... & ... & \\             ... & ...& \\            \frac{\partial f_1n}{\partial a_0} & \frac{\partial f_n}{\partial a_1}          \end{matrix}       \right )     $

donde

$ \frac{\partial f_i}{\partial a_k}  $  es  $ f_i = f(x_i)  $

es la derivada parcial de $ f $ con respecto $ a_k $, evaluado en el dato $ x $

El vector $ D $ contiene las diferencias entre las mediciones y los valores de la funcion


$ D $ = $ \left ( \begin{matrix} y_1 - f(x_1) \\ y_2 - f(x_2) \\ ... \\ ... \\ y_n - f(x_n) \end{matrix} \right ) $

El vector \Delta A contiene los cambios en los valores de los parametros