Saltar al contenido principal
LibreTexts Español

4.2: La crianza versus la naturaleza

  • Page ID
    143840
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    El segundo capítulo de John Locke (1977) An Essay concerning Human Understanding, publicado originalmente en 1706, comienza de la siguiente manera:

    Es una opinión establecida entre algunos hombres que hay en el entendimiento ciertos principios innatos; algunas nociones primarias, personajes, por así decirlo, estampados en la mente del hombre, que el alma recibe en su primer ser, y trae al mundo con él. (Locke, 1977, p. 17)

    La obra más famosa de Locke fue una reacción contra esta visión; de los “algunos hombres” a los que se hace referencia, el más destacado fue el propio Descartes (Thilly, 1900).

    Locke's Essay cr itizó la filosofía cartesiana, cuestionando sus enseñanzas fundamentales, sus principios básicos y sus implicaciones necesarias, y sus argumentos a favor de ideas innatas, sin mencionar a todos los estudiosos que mantuvieron la existencia de ideas innatas (Thilly, 1900). El objetivo de Locke era sustituir el racionalismo cartesiano por el empirismo, la visión de que la fuente de las ideas era la experiencia. Locke (1977) tenía como objetivo mostrar “cómo los hombres, apenas por el uso de sus facultades naturales, pueden alcanzar todos los conocimientos que tienen sin la ayuda de impresiones innatas” (p. 17). Locke abogó por la experiencia sobre la innatez, por la crianza sobre la naturaleza.

    El empirismo de Locke y sus descendientes proporcionó una alternativa viable y popular a la filosofía cartesiana (Aune, 1970). También fue una influencia primaria en algunas de las teorías psicológicas que aparecieron a finales del siglo XIX y principios del XX (Warren, 1921). Por lo tanto, no debería sorprender que el empirismo se refleje en una forma diferente de ciencia cognitiva, el conexionismo. Además, así como el empirismo desafió la mayoría de las ideas clave del racionalismo, la ciencia cognitiva coneccionista puede verse como un desafío para muchos de los elementos de la ciencia cognitiva clásica.

    Sorprendentemente, la preocupación principal de la ciencia cognitiva coneccionista no es el nativismo de la ciencia cognitiva clásica. En cambio, es el excesivo funcionalismo del enfoque clásico, debido en gran parte a su aceptación del argumento de la realización múltiple. Las puertas lógicas, el elemento central de las computadoras digitales, son independientes del hardware porque podrían usarse diferentes mecanismos físicos para crear la lógica de dos valores (Hillis, 1998). La noción de máquina universal es abstracta, lógica (Newell, 1980), razón por la cual los sistemas de símbolos físicos, computadoras o máquinas universales pueden realizarse físicamente usando LEGO (Agulló et al., 2003), conjuntos de trenes eléctricos (Stewart, 1994), engranajes (Swade, 1993), válvulas hidráulicas (Hillis, 1998) o silicio chips (Reid, 2001). Las restricciones físicas en la computación no parecen jugar un papel importante en la ciencia cognitiva clásica.

    Para la ciencia cognitiva conexionista, el argumento de la realización múltiple es defectuoso porque los coneccionistas creen que el procesamiento de la información responsable de la cognición humana depende críticamente de las propiedades del hardware particular, el cerebro. Las características del cerebro imponen limitaciones en los tipos de cálculos que puede realizar y en la manera en que se realizan (Bechtel & Abrahamsen, 2002; Churchland, Koch, & Sejnowski, 1990; Churchland & Sejnowski, 1992; Clark, 1989, 1993; Feldman & Ballard, 1982).

    Los cerebros han sido vistos desde hace mucho tiempo como diferentes tipos de procesadores de información que las computadoras electrónicas debido a las diferencias en los componentes (von Neumann, 1958). Si bien las computadoras electrónicas utilizan una pequeña cantidad de componentes rápidos, el cerebro consiste en una gran cantidad de componentes muy lentos, es decir, neuronas. En consecuencia, el cerebro debe ser un dispositivo de procesamiento paralelo que “tenderá a recoger tantos elementos lógicos (o informativos) como sea posible simultáneamente, y procesarlos simultáneamente” (von Neumann, 1958, p. 51).

    Von Neumann (1958) argumentó que el procesamiento neuronal de la información sería mucho menos preciso, en términos de precisión de punto decimal, que el procesamiento electrónico de información. Sin embargo, este bajo nivel de precisión neuronal se complementaría con un nivel comparativamente alto de confiabilidad, donde el ruido o la falta de información tendrían mucho menos efecto que para las computadoras electrónicas. Dado que la arquitectura básica del cerebro implica muchas conexiones entre muchos componentes elementales, y que estas conexiones sirven como memoria, la capacidad de memoria del cerebro también debería superar con creces la de las computadoras digitales.

    Las diferencias entre el procesamiento electrónico y el procesamiento de información cerebral están en la raíz de la reacción de la ciencia cognitiva coneccionista contra la ciencia cognitiva clásica. El enfoque clásico tiene una larga historia de grandes predicciones futuristas que no logran materializarse (Dreyfus, 1992, p. 85): “A pesar de las predicciones, comunicados de prensa, películas y advertencias, la inteligencia artificial es una promesa y no un hecho consumado”. La ciencia cognitiva conexionista sostiene que este patrón de fracaso se debe a los supuestos fundamentales del enfoque clásico que no logran captar los principios básicos de la cognición humana.

    Los conexionistas proponen una teoría muy diferente del procesamiento de la información —un potencial cambio de paradigma (Schneider, 1987) —para remediar esta situación. Incluso los críticos acérrimos de la investigación en inteligencia artificial han indicado cierta simpatía con la visión coneccionista del procesamiento de la información (Dreyfus & Dreyfus, 1988; Searle, 1992). “El club de fans incluye la colección más improbable de personas... Casi todos los que están descontentos con la psicología cognitiva contemporánea y los modelos actuales de 'procesamiento de información' de la mente se han apresurado a abrazar la 'alternativa conexionista'” (Fodor y Pylyshyn, 1988, p. 4).

    ¿Cuáles son los problemas clave que ven los conexionistas en los modelos clásicos? Los modelos clásicos invocan procesos seriales, que los hacen demasiado lentos para ejecutarse en componentes lentos (Feldman & Ballard, 1982). Implican representaciones explícitas, locales y digitales tanto de reglas como de símbolos, lo que hace que estos modelos sean demasiado frágiles. “Si en un sistema digital de notaciones falta un solo pulso, puede resultar una perversión absoluta del significado, es decir, tonterías” (von Neumann, 1958, p. 78). Debido a esta fragilidad, el comportamiento de los modelos clásicos no se degrada con gracia cuando se presentan con entradas ruidosas, y dichos modelos no son resistentes a daños. Todas estas cuestiones surgen de un tema subyacente: los algoritmos clásicos reflejan el tipo de procesamiento de información que llevan a cabo las computadoras electrónicas, no el tipo que caracteriza al cerebro. En definitiva, las teorías clásicas no son biológicamente plausibles.

    La ciencia cognitiva conexionista “ofrece una concepción radicalmente diferente del sistema básico de procesamiento de la mente-cerebro, inspirada en nuestro conocimiento del sistema nervioso” (Bechtel & Abrahamsen, 2002, p. 2). El medio básico del conexionismo es un tipo de modelo llamado red neuronal artificial, o una red de procesamiento distribuido paralelo (PDP) (McClelland & Rumelhart, 1986; Rumelhart & McClelland, 1986c). Las redes neuronales artificiales consisten en una serie de procesadores simples que realizan cálculos básicos y comunican los resultados a otros procesadores mediante el envío de señales a través de conexiones ponderadas. Los procesadores operan en paralelo, lo que permite una computación rápida incluso cuando se trata de componentes lentos. Ellos explotan representaciones implícitas, distribuidas y redundantes, haciendo que estas redes no sean quebradizas. Debido a que las redes no son quebradizas, su comportamiento se degrada con gracia cuando se presentan con entradas ruidosas, y dichos modelos son resistentes a daños. Estas ventajas se devengan porque las redes neuronales artificiales son intencionadamente biológicamente plausibles o inspiradas neuronalmente.

    La ciencia cognitiva clásica desarrolla modelos que son puramente simbólicos y que pueden describirse como afirmar proposiciones o realizar lógica. En contraste, la ciencia cognitiva coneccionista desarrolla modelos que son subsimbólicos (Smolensky, 1988) y que pueden describirse como reconocedores de patrones estadísticos. Las redes utilizan representaciones (Dawson, 2004; Horgan & Tienson, 1996), pero estas representaciones no tienen la estructura sintáctica de las que se encuentran en los modelos clásicos (Waskan & Bechtel, 1997). Tomemos un momento para describir con un poco más de detalle las propiedades básicas de las redes neuronales artificiales.

    Una red neuronal artificial es una simulación por computadora de un sistema “parecido al cerebro” de unidades de procesamiento interconectadas (véanse las Figuras 4-1 y 4-5 más adelante en este capítulo). En general, dicha red puede verse como un sistema de múltiples capas que genera una respuesta deseada a un estímulo de entrada. Es decir, al igual que los dispositivos descritos por la cibernética (Ashby, 1956, 1960), una red neuronal artificial es una máquina que calcula un mapeo entre entradas y salidas.

    El estímulo o patrón de entrada de una red es proporcionado por el entorno y se codifica como un patrón de actividad (es decir, un vector de números) en un conjunto de unidades de entrada. La respuesta del sistema, su patrón de salida, se representa como un patrón de actividad en las unidades de salida de la red. En el conexionismo moderno, a veces llamado Nuevo conexionismo, habrá una o más capas intermedias de procesadores en la red, llamadas unidades ocultas. Las unidades ocultas detectan entidades de orden superior en el patrón de entrada, lo que permite que la red realice una respuesta correcta o adecuada.

    El comportamiento de un procesador en una red neuronal artificial, que es análogo a una neurona, se puede caracterizar de la siguiente manera. En primer lugar, el procesador computa la señal total (su entrada neta) que le están enviando otros procesadores de la red. Segundo, la unidad utiliza una función de activación para convertir su entrada neta en actividad interna (generalmente un número continuo entre 0 y 1) sobre la base de esta señal calculada. Tercero, la unidad convierte su actividad interna en una señal de salida, y envía esta señal a otros procesadores. Una red utiliza procesamiento paralelo porque muchas, si no todas, de sus unidades realizarán sus operaciones simultáneamente.

    La señal enviada por un procesador a otro es un número que se transmite a través de una conexión ponderada, que es análoga a una sinapsis. La conexión sirve como un canal de comunicación que amplifica o atenúa las señales que se envían a través de ella, debido a que estas señales se multiplican por el peso asociado a la conexión. El peso es un número que define la naturaleza y la fuerza de la conexión. Por ejemplo, las conexiones inhibitorias tienen pesos negativos, y las conexiones excitatorias tienen pesos positivos. Las conexiones fuertes tienen pesos fuertes (es decir, el valor absoluto del peso es grande), mientras que las conexiones débiles tienen pesos cercanos a cero.

    El patrón de conectividad en una red PDP (es decir, el conjunto completo de pesos de conexión de la red) define cómo fluyen las señales entre los procesadores. Como resultado, los pesos de conexión de una red son análogos a un programa en una computadora convencional (Smolensky, 1988). Sin embargo, el “programa” de una red no es del mismo tipo que define un modelo clásico. El programa de una red no refleja la distinción clásica estructura/proceso, porque las redes no emplean símbolos explícitos ni reglas. En cambio, el programa de una red es un conjunto de enlaces causales o asociativos desde procesadores de señalización hasta procesadores receptores. La actividad que se produce en las unidades receptoras es causada literalmente por tener un patrón de entrada de actividad modulado por una matriz de pesos de conexión entre unidades. En este sentido, los modelos coneccionistas parecen de naturaleza marcadamente asociacionista (Bechtel, 1985); pueden estar cómodamente relacionados con la antigua psicología asociacionista (Warren, 1921).

    Las redes neuronales artificiales no son necesariamente realizaciones de la filosofía empírica. En efecto, las primeras redes neuronales artificiales no aprendieron de la experiencia; eran nativistas en el sentido de que tenían que tener sus pesos de conexión “cableados a mano” por un diseñador (McCulloch & Pitts, 1943). Sin embargo, sus características asociacionistas dieron como resultado una tendencia natural a que las redes neuronales artificiales se convirtieran en el rostro del empirismo moderno. Esto se debe a que el asociacionismo siempre ha estado fuertemente ligado al empirismo; los filósofos empiristas invocaron diversas leyes de asociación para explicar cómo las ideas complejas podrían construirse a partir del conocimiento aportado por la experiencia (Warren, 1921). A finales de la década de 1950, cuando las computadoras se usaban para dar vida a las redes, las redes estaban explícitamente vinculadas al empirismo (Rosenblatt, 1958). Las redes neuronales artificiales de Rosenblatt no estaban cableadas a mano. En cambio, aprendieron de la experiencia a establecer los valores de sus pesos de conexión.

    ¿Qué significa decir que las redes neuronales artificiales son empiristas? Un famoso pasaje de Locke (1977, p. 54) destaca dos elementos clave: “Supongamos entonces que la mente sea, como decimos, papel blanco, vacío de todos los personajes, sin idea alguna, ¿cómo viene a ser amueblada? ... A esto respondo, en una palabra, desde la experiencia”.

    El primer elemento de la cita anterior es el “libro blanco”, a menudo descrito como la tabula rasa, o la pizarra en blanco: la noción de que una mente está en blanco en ausencia de experiencia. Las redes conexionistas modernas pueden describirse como refrendando la noción de pizarra en blanco (Pinker, 2002). Esto se debe a que antes del aprendizaje, el patrón de conexiones en las redes modernas no tiene una estructura preexistente. Las redes comienzan literalmente como pizarras en blanco, siendo todos los pesos de conexión iguales a cero (Anderson et al., 1977; Eich, 1982; Hinton & Anderson, 1981), o empiezan con todos los pesos de conexión asignados valores pequeños seleccionados aleatoriamente (Rumelhart, Hinton, & Williams, 1986a, 1986b).

    El segundo elemento en la cita de Locke es que la fuente de ideas o conocimiento o estructura es la experiencia. Las reglas de aprendizaje conexionista proporcionan una encarnación moderna de esta noción. Las redes neuronales artificiales están expuestas a la estimulación ambiental, la activación de sus unidades de entrada, lo que da como resultado cambios en los pesos de conexión. Estos cambios proporcionan la pizarra en blanco de una red, lo que resulta en un patrón de conectividad que representa el conocimiento e implementa un mapeo particular de entrada y salida.

    En algunos sistemas, llamados redes autoorganizativas, la experiencia da forma a la conectividad a través del aprendizaje no supervisado (Carpenter & Grossberg, 1992; Grossberg, 1980, 1987, 1988; Kohonen, 1977, 1984). Cuando el aprendizaje no es supervisado, las redes solo se proporcionan con patrones de entrada. No se presentan con salidas deseadas que están emparejadas con cada patrón de entrada. En el aprendizaje no supervisado, cada patrón presentado causa actividad en las unidades de salida; esta actividad a menudo se refina aún más por una competencia de ganador se lleva todo en la que una unidad de salida gana la competencia para emparejarse con el patrón de entrada actual. Una vez que se selecciona la unidad de salida a través de la dinámica de red interna, sus pesos de conexión, y posiblemente los pesos de las unidades de salida vecinas, se actualizan mediante una regla de aprendizaje.

    Las redes cuyos pesos de conexión se modifican a través del aprendizaje no supervisado desarrollan sensibilidad a las regularidades estadísticas en las entradas y organizan sus unidades de salida para reflejar estas regularidades. Por ejemplo, en un famoso tipo de red autoorganizada llamada red Kohonen (Kohonen, 1984), las unidades de salida están dispuestas en una cuadrícula bidimensional. El aprendizaje no supervisado hace que la cuadrícula se organice en un mapa que revela la estructura descubierta de las entradas, donde los patrones relacionados producen actividad vecina en el mapa de salida. Por ejemplo, cuando tales redes se presentan con entradas musicales, suelen producir mapas de salida que se organizan según el círculo musical de quintas (Griffith & Todd, 1999; Todd & Loy, 1991).

    En la ciencia cognitiva, la mayoría de las redes reportadas en la literatura no son selforganizantes y no están estructuradas a través del aprendizaje no supervisado. En cambio, son redes a las que se les instruye para mediar en una asignación de entrada-salida deseada. Esto se logra a través del aprendizaje supervisado. En el aprendizaje supervisado, se asume que la red cuenta con un profesor externo. La red se presenta con un patrón de entrada y produce una respuesta a la misma. El profesor compara la respuesta generada por la red con la respuesta deseada, generalmente calculando la cantidad de error asociada a cada unidad de salida. El profesor proporciona entonces el error como retroalimentación a la red. Una regla de aprendizaje utiliza retroalimentación sobre el error para modificar pesos de tal manera que la próxima vez que se presente este patrón a la red, la cantidad de error que produce será menor.

    Una variedad de reglas de aprendizaje, incluyendo la regla delta (Rosenblatt, 1958, 1962; Stone, 1986; Widrow, 1962; Widrow & Hoff, 1960) y la regla delta generalizada (Rumelhart, Hinton, & Williams, 1986b), son reglas de aprendizaje supervisadas que funcionan corrigiendo errores de red. (La regla delta generalizada es quizás la regla de aprendizaje más popular en el conexionismo moderno, y se discute con más detalle en la Sección 4.9.) Este tipo de aprendizaje implica la presentación repetida de una serie de pares de patrones de entrada-salida, llamados conjunto de entrenamiento. Idealmente, con suficientes presentaciones de un conjunto de entrenamiento, la cantidad de error producida a cada miembro del conjunto de entrenamiento será insignificante, y se puede decir que la red ha aprendido el mapeo inputoutput deseado. Debido a que estas técnicas requieren muchas presentaciones de un conjunto de patrones para que se complete el aprendizaje, a veces han sido criticadas por ser ejemplos de “aprendizaje lento” (Carpenter, 1989).

    La naturaleza empirista y asociacionista del coneccionismo lo acercaron a la posición misma contra la que reaccionó el cognitivismo clásico: el conductismo psicológico (Miller, 2003). Los argumentos clásicos modernos contra la ciencia cognitiva coneccionista (Fodor & Pylyshyn, 1988) cubren gran parte del mismo terreno que los argumentos contra los relatos conductistas y asociacionistas del lenguaje (Bever, Fodor, & Garrett, 1968; Chomsky, 1957, 1959a, 1959b, 1965). Es decir, los científicos cognitivos clásicos argumentan que las redes neuronales artificiales, al igual que sus primos asociacionistas, no tienen el poder computacional para capturar el tipo de regularidades modeladas con sistemas de reglas recursivas.

    Sin embargo, estos argumentos en contra del conexionismo son defectuosos. Vemos en secciones posteriores que los análisis computacionales de las redes neuronales artificiales han demostrado que ellas también pertenecen a la clase “máquina universal”. Como resultado, los tipos de asignaciones de entrada-salida que se han realizado en las redes neuronales artificiales son vastas y diversas. Se pueden encontrar modelos coneccionistas en todos los dominios de investigación que también han sido explorados por científicos cognitivos clásicos. Incluso los críticos del conexionismo admiten que “el estudio de las máquinas conexionistas ha llevado a una serie de hallazgos llamativos e imprevistos; es sorprendente la cantidad de computación que se puede hacer con una red uniforme de elementos simples interconectados” (Fodor y Pylyshyn, 1988, p. 6).

    Que los modelos coneccionistas puedan producir resultados imprevistos es un resultado directo de su naturaleza empirista. A diferencia de sus contrapartes clásicas, los investigadores coneccionistas no requieren una teoría completamente especificada de cómo se logra una tarea antes de que comience el modelado (Hillis, 1988). En su lugar, pueden dejar que una regla de aprendizaje descubra cómo mediar en una asignación de entrada-salida deseada. Las reglas de aprendizaje coneccionistas sirven como métodos poderosos para desarrollar nuevos algoritmos de interés para la ciencia cognitiva. Hillis (1988, p. 176) ha señalado que las redes neuronales artificiales permiten “la posibilidad de construir inteligencia sin antes entenderla”.

    Un problema con la ciencia cognitiva coneccionista es que los algoritmos que descubren las reglas de aprendizaje son extremadamente difíciles de recuperar de una red entrenada (Dawson, 1998, 2004, 2009; Dawson & Shamanski, 1994; McCloskey, 1991; Mozer y Smolensky, 1989; Seidenberg, 1993). Esto se debe a que estos algoritmos implican interacciones distribuidas y paralelas entre elementos altamente no lineales. “Una cosa que las redes coneccionistas tienen en común con los cerebros es que si los abres y miras adentro, todo lo que puedes ver es un gran montón de sustancia pegajosa” (Mozer & Smolensky, 1989, p. 3).

    En los primeros días de la ciencia cognitiva conexionista moderna, esto no era una preocupación. Este fue un período de lo que se ha llamado el conexionismo “gee whiz” (Dawson, 2009), en el que los coneccionistas modelaron fenómenos que se describían típicamente en términos de manipulación de símbolos gobernados por reglas. A mediados de la década de 1980 era lo suficientemente interesante como para demostrar que tales fenómenos podrían ser explicados por sistemas de procesamiento distribuido paralelo que no proponían reglas o símbolos explícitos. Sin embargo, a medida que maduraba el conexionismo, fue necesario que sus investigadores explicaran los detalles de los algoritmos alternativos encarnados en sus redes (Dawson, 2004). Si estos algoritmos no podían extraerse de las redes, entonces “las redes coneccionistas no deberían ser vistas como teorías de las funciones cognitivas humanas, ni como simulaciones de teorías, o incluso como demostraciones de puntos teóricos específicos” (McCloskey, 1991, p. 387). En respuesta a tales críticas, los científicos cognitivos coneccionistas han desarrollado una serie de técnicas para recuperar algoritmos de sus redes (Berkeley et al., 1995; Dawson, 2004, 2005; Gallant, 1993; Hanson &Burr, 1990; Hinton, 1986; Moorhead, Haig, &Clement, 1989; Omlin& Giles, 1996).

    ¿Cuáles son los elementos del conexionismo y cómo se relacionan con la ciencia cognitiva en general y con la ciencia cognitiva clásica en particular? El propósito del resto de este capítulo es explorar con más detalle las ideas de la ciencia cognitiva conexionista.


    This page titled 4.2: La crianza versus la naturaleza is shared under a CC BY-NC-ND license and was authored, remixed, and/or curated by Michael R. W. Dawson (Athabasca University Press) .