FANDOM



Regresion LinealEditar

Ejemplo y= a_0 [ 1-exp(-a_1x)] + e


En el caso de un modelo no lineal la ssolucion debe realizarse en una forma iterativa


El metodo de Gauss-Newton es un algoritmo para minimizar la suma de los cuadrados de los residuos entre los datos y las ecuaciones no lineales.


Relacion entre datos (x_1, y_1), i= 1,.....,n y la ecuacion no lineal:


y_1 = f(x_1; a_0,a_1,....,a_n) + e \otimes

Por conveniencia podemos omitir los parametros y_1= f(x_1) + e1


El modelo no lineal puede expandirse en una serie de Taylor alrededor de los parametros y cortare despues de las primeras derivadas. Por ejemplo, para el caso con dos parametros:


f(x_i)j + 1 = f(x_i)j + \frac{\partial f(x_i)}{\partial a_0} \Delta a_0 \frac{\partial f(x_i)j}{\partial a_1} \Delta a_1 \circledast


donde j: el valor inicial

j+1 la prediccion

\Delta a_0 = a_0, j+1 - a_0,j

\Delta a_1 = a_a,j+1 - a_1+j


Objetivo: Mejorar la aproximacion de los parametros

En un paso de iteracion partimos con a_0,J , a_1,J de intante de iteracion j


Despues de calcular las correcciones de \Delta a_0, a_1 contamos con los parametros mejorados

a_0,j+1 = a_0,j + \Delta a_0 , a_1,j+1 = a_1,j + \Delta a_1


La ecuacion \circledast se sustituye en la ecuacion \otimes para dar:

y_i - (f(x_i))j = \frac{\partial f(x_i)j}{\partial a_0} \Delta a_0 + \frac{\partial f(x_i+1)j}{\partial a_1} \Delta a_1 + e_1

o en forma matricial

i= 1,....,n (ecuaciones)

D =Z_j \delta A +E

Donde Z_j; es la matriz de las derivadas parciales de F en el valor inicial j

 
         Z_j  (evaluar los f en los parametros)   a_{0,j} , a_{1,0}  =
   
      \left ( 
         \begin{matrix} 
            \frac{\partial f_1}{\partial a_0} & \frac{\partial f_1}{\partial a_1} \\\\
            \frac{\partial f_2}{\partial a_0} & \frac{\partial f_2}{\partial a_1} \\
            ... & ... & \\
            ... & ...& \\
           \frac{\partial f_1n}{\partial a_0} & \frac{\partial f_n}{\partial a_1}
         \end{matrix}
      \right )
   

donde

\frac{\partial f_i}{\partial a_k}   es  f_i = f(x_i) 

es la derivada parcial de f con respecto a_k , evaluado en el dato x

El vector D contiene las diferencias entre las mediciones y los valores de la funcion


D = 
     \left ( 
        \begin{matrix} 
           y_1 - f(x_1) \\
           y_2 - f(x_2) \\
           ...  \\
           ... \\
          y_n - f(x_n) 
        \end{matrix}
     \right )

El vector \Delta A contiene los cambios en los valores de los parametros

¡Interferencia de bloqueo de anuncios detectada!


Wikia es un sitio libre de uso que hace dinero de la publicidad. Contamos con una experiencia modificada para los visitantes que utilizan el bloqueo de anuncios

Wikia no es accesible si se han hecho aún más modificaciones. Si se quita el bloqueador de anuncios personalizado, la página cargará como se esperaba.

También en FANDOM

Wiki al azar