Saltar al contenido principal
LibreTexts Español

4.1: Introducción

  • Page ID
    122874
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    ¿Cómo aprendemos a leer, a hacer matemáticas y a practicar deportes? El aprendizaje en una red neuronal equivale a la modificación de pesos sinápticos, en respuesta a los patrones de actividad local de las neuronas que envían y reciben. Como se enfatizó en capítulos anteriores, estos pesos sinápticos son los que determinan lo que detecta una neurona individual, y por lo tanto son los parámetros críticos para determinar el comportamiento de la neurona y la red.

    En otras palabras, todo lo que sabes está codificado en los patrones de tus pesos sinápticos, y estos han sido moldeados por cada experiencia que has tenido (siempre y cuando esas experiencias tengan tus neuronas suficientemente activas). Muchas de esas experiencias no dejan una huella muy fuerte, y en gran parte del cerebro, las huellas de las experiencias individuales se mezclan todas juntas, por lo que es difícil recordarlas claramente (veremos en el Capítulo de la Memoria que esta mezcla puede ser bastante beneficiosa para la inteligencia general, en realidad ). Pero cada experiencia, sin embargo, impulsa cierto nivel de aprendizaje, y nuestro gran desafío en este capítulo es descubrir cómo las meras influencias de los patrones de actividad entre neuronas individuales pueden sumar para permitirnos aprender grandes cosas.

    Biológicamente, la plasticidad sináptica (la modificación de los pesos sinápticos a través del aprendizaje) ha sido ampliamente estudiada, y ahora conocemos una cantidad tremenda sobre los procesos químicos detallados que tienen lugar como resultado de la actividad neuronal. Proporcionaremos múltiples niveles de detalle aquí (incluida una discusión sobre la plasticidad dependiente del tiempo pico (STDP), que ha capturado la imaginación de muchos investigadores en esta área), pero la historia de alto nivel es bastante sencilla: el nivel general de actividad neuronal en ambos extremos de la sinapsis (envío y recepción de disparo neural) impulsa la afluencia de iones de calcio (Ca++) a través de canales NMDA, y los cambios de peso sinápticos son impulsados por el nivel de Ca++ postsináptico en la columna dendrítica asociado a una sinapsis dada. Los niveles bajos de Ca++ hacen que las sinapsis se debiliten, y los niveles más altos hacen que se vuelvan más fuertes.

    Computacionalmente, se han desarrollado muchos conjuntos diferentes de ecuaciones que pueden impulsar cambios de peso sinápticos para lograr muchos objetivos computacionales diferentes. ¿Cuál de estos corresponde a lo que realmente está haciendo la biología? Esa es la gran pregunta. Si bien una respuesta definitiva sigue siendo esquiva, sin embargo tenemos un candidato razonable que se alinea bien con los datos biológicos, y también realiza formas de aprendizaje computacionalmente muy útiles, que pueden resolver las tareas cognitivas más desafiantes (por ejemplo, aprender a leer o reconocer objetos).

    Hay dos tipos principales de aprendizaje:

    • Aprendizaje autoorganizado, que extrae estadísticas de mayor escala de tiempo sobre el medio ambiente y, por lo tanto, puede ser útil para desarrollar un modelo interno efectivo del mundo exterior (es decir, qué tipo de cosas tienden a suceder de manera confiable en el mundo, las llamamos estadísticas regularidades).
    • Aprendizaje impulsado por errores, que utiliza contrastes más rápidos entre expectativas y resultados para corregir estas expectativas, y así formar un conocimiento más detallado y específico sobre las contingencias en el mundo. Por ejemplo, los niños pequeños parecen infinitamente fascinados al enterarse de lo que sucede cuando empujan cosas de sus bandejas para sillas altas: ¿seguirá cayendo al suelo y hará un gran desastre esta vez? Una vez que desarrollan una expectativa suficientemente precisa sobre exactamente lo que sucederá, comienza a ponerse un poco menos interesante, y otras cosas más impredecibles comienzan a captar su interés. Como podemos ver en este ejemplo, el aprendizaje impulsado por errores probablemente esté íntimamente ligado a la curiosidad, la sorpresa y otros factores motivacionales similares. Por esta razón, planteamos la hipótesis de que los neuromoduladores como la dopamina, la norepinefrina y la acetilcolina probablemente juegan un papel importante en la modulación de esta forma de aprendizaje, ya que han sido implicados en diferentes versiones de sorpresa, es decir, cuando hay una discrepancia entre expectativas y resultados.

    Curiosamente, la principal diferencia computacional entre estas dos formas de aprendizaje tiene que ver con la escala de tiempo sobre la cual se actualiza una de las variables críticas: el aprendizaje autoorganizado implica promediar en una escala de tiempo largo, mientras que el aprendizaje impulsado por errores es mucho más rápido. Esta diferencia también se enfatiza en las descripciones anteriores, y proporciona una fuente importante de intuición sobre las diferencias entre estos tipos de aprendizaje. El aprendizaje autoorganizado es lo que sucede cuando difuminas tus ojos y simplemente tomas cosas durante un período de tiempo, mientras que el aprendizaje impulsado por errores requiere formas mucho más alertas y rápidas de actividad neuronal. En el marco que usaremos en el resto del libro, combinamos este tipo de aprendizaje en un solo conjunto de ecuaciones de aprendizaje, para explorar cómo llegamos a percibir, recordar, leer y planificar.


    This page titled 4.1: Introducción is shared under a CC BY-SA license and was authored, remixed, and/or curated by O'Reilly, Munakata, Hazy & Frank.