Saltar al contenido principal
LibreTexts Español

7: Retropropagación

  • Page ID
    51026
  • Idea intuitiva de la retropropagación
    El algoritmo de retropropagación es un método muy utilizado en redes neuronales para minimizar la conocida como función de pérdida o de error de la red. Esta función proporciona, durante el entrenamiento de la red neuronal, una medida de cuánto se desvían los valores proporcionados por la red de los valores reales o deseados. Los parámetros desconocidos de la red, que son las incógnitas del problema y suelen denominarse pesos, se modifican de tal forma que los valores de salida de la red se ajusten lo más posible a los deseados. Para ello, se utiliza el método del gradiente descendente, que permite minimizar el error en función de los pesos. Puesto que el error se calcula al final de la red (en la capa de salida) es más fácil calcular el efecto de las variaciones de los pesos (y, por tanto, ajustarlos) comenzando desde el final, esto es, cambiando los pesos que llegan a la capa de salida. Sucesivamente, se modifican los de cada capa intermedia en dirección hacia la capa inicial. En este proceso será de utilidad la regla de la cadena.

    Ejemplo \(\PageIndex{15}\)

    Vamos a considerar las funciones escalares \(f(x)=x^2\), \(g(y)=\sin y\) y \(h(z)=\exp(-z)\). La composición de las tres funciones \((h\circ g \circ f)(x)\) da lugar a \(J(x)=\exp \left(-\sin x^2 \right)\). Vamos a calcular \(\dfrac{{\rm d}J}{{\rm d}x}\) utilizando el algoritmo de retropropagación.
    Aunque la composición de funciones se realiza hacia delante: \[x \rightarrow y=f(x)=x^2 \rightarrow z=g(y)=\sin y \rightarrow J(x)=h(z) =\exp(-z)\] el cálculo de la derivada lo realizamos hacia atrás, utilizando la regla de la cadena:

    1. Empezamos por \(h(z)=\exp(-z)\): \[\dfrac{{\rm d} J}{{\rm d} z} \rightarrow -\exp(-z)\]
    2. Después por \(z=g(y)=\sin(y)\): \[\dfrac{{\rm d} J}{{\rm d} y} \rightarrow \dfrac{{\rm d} J}{{\rm d} z} \dfrac{{\rm d} z}{{\rm d} y}, \quad \dfrac{{\rm d} z}{{\rm d} y}=\cos(y)\]
    3. Por último por \(y=f(x)=x^2\): \[\dfrac{{\rm d} J}{{\rm d} x} \rightarrow \dfrac{{\rm d} J}{{\rm d} y} \dfrac{{\rm d} y}{{\rm d} x}, \quad \dfrac{{\rm d} y}{{\rm d} x}=2x\]
    4. Así, resulta \[\dfrac{{\rm d} J}{{\rm d} x}(x)=-2x\cos(x^2)\exp(-\sin(x^2))\]

    Ejemplo \(\PageIndex{16}\)

    Sean \(\textbf{x}=(x_1,x_2)\) y las funciones: \(f(x_1,x_2)=a_1x_1 +a_2x_2\) con \(a_1\) y \(a_2\) constantes, \(g(y)=1+e^{-y}\) y \(h(z)=\dfrac{1}{z}\). La composición de las tres funciones \((h\circ g \circ f)(x)\) da lugar a \(J(x_1,x_2)=\dfrac{1}{1+e^{-(a_1x_1+a_2x_2)}}\). Esto es: \[(x_1,x_2) \rightarrow y=f(x_1,x_2)=a_1x_1 +a_2x_2 \rightarrow z=g(y)=1+e^{-y} \rightarrow J(\textbf{x})=h(z)=\dfrac{1}{z}\] El objetivo en este caso es el cálculo del gradiente de la función \(J\), \(\nabla J(\textbf{x})\), que tiene por coordenadas \(\dfrac{\partial}{\partial x_i}J(\textbf{x})\), para \(i=1,2\).

    1. Empezamos por \(h(z)=\dfrac{1}{z}\): \[\dfrac{\partial J}{\partial z} \rightarrow -\dfrac{1}{z^2}\]
    2. Después tomamos \(z=g(y)=1+e^{-y}\): \[\dfrac{\partial J}{\partial y} \rightarrow \dfrac{\partial J}{\partial z} \dfrac{\partial z}{\partial y}, \quad \dfrac{\partial z}{\partial y}=-e^{-y}\]
    3. Por último, para \(y=f(x_1,x_2)=a_1x_1+a_2x_2\):
      • \(\dfrac{\partial J}{\partial x_1} \rightarrow \dfrac{\partial J}{\partial y} \dfrac{\partial y}{\partial x_1}, \quad \dfrac{\partial y}{\partial x_1}=a_{1}\)
      • \(\dfrac{\partial J}{\partial x_2} \rightarrow \dfrac{\partial J}{\partial y} \dfrac{\partial y}{\partial x_2}, \quad \dfrac{\partial y}{\partial x_2}=a_{2}\)