Saltar al contenido principal
LibreTexts Español

7.4: Control centralizado versus descentralizado

  • Page ID
    143725
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Dos de los elementos clave de una teoría clásica de la ciencia cognitiva son un conjunto de símbolos primitivos y un conjunto de procesos primitivos para la manipulación de símbolos. Sin embargo, estos dos componentes necesarios no son suficientes por sí mismos para definir completamente un modelo clásico de trabajo. También se requiere un tercer elemento: un mecanismo de control.

    Se requiere el control para determinar “qué hacer a continuación”, para elegir qué operación primitiva se va a aplicar en un momento dado.

    Más allá de la capacidad de ejecutar las operaciones básicas de manera individual, una máquina informática debe poder realizarlas de acuerdo con la secuencia —o mejor dicho, el patrón lógico— en el que generan la solución del problema matemático que es el propósito real del cálculo en cuestión. (von Neumann, 1958, p. 11)

    El propósito de esta sección es explorar la noción de control desde la perspectiva de las tres escuelas de pensamiento en la ciencia cognitiva. Esto se hace considerando el control cognitivo en el contexto de la historia del control automático de los dispositivos informáticos. Se argumenta que si bien los diferentes enfoques en la ciencia cognitiva pueden afirmar tener relatos muy diferentes del control cognitivo, de hecho no hay diferencias cualitativas entre estas cuentas.

    Uno de los primeros ejemplos de control automático fue el mecanismo de tarjetas perforadas de Jacquard para, en esencia, programar un telar para tejer un patrón particular en tela de seda (Essinger, 2004), como se discute en el Capítulo 3. Una tarjeta perforada controlaba la apariencia de una fila de hilos en la tela. Los agujeros perforados en la tarjeta permitieron que las varillas se movieran, lo que elevaba los hilos especificados para hacerlos visibles en este punto de la tela. Las cartas que definieron un patrón se unieron como un cinturón que avanzaba una carta a la vez durante el tejido. Un patrón típico para ser tejido fue definido por alrededor de 2,000 a 4,000 diferentes tarjetas perforadas; patrones muy complejos requerían usar muchas más tarjetas. Por ejemplo, el autorretrato de Jacquard en seda se definió por 24,000 diferentes tarjetas perforadas.

    Jacquard patentó su telar en 1804 (Essinger, 2004). A finales del siglo XIX, las tarjetas perforadas inspiradas en su invención tenían un lugar central en el procesamiento de la información. Sin embargo, su papel era representar esta información, no controlar cómo se manipulaba.

    Después de que Herman Hollerith se graduara de Columbia School of Mines en 1879, fue empleado para trabajar en el Censo de Estados Unidos de 1880, que fue el primer censo en recopilar no solo datos de población sino también para preocuparse por cuestiones económicas (Essinger, 2004). La experiencia censal de Hollerith reveló una marcada necesidad de automatizar el procesamiento de la enorme cantidad de información que se había recopilado.

    Mientras se dedicaba a trabajar sobre el décimo censo, se llamó la atención del escritor sobre los métodos empleados en la tabulación de las estadísticas de población y el enorme gasto que implica. Estos métodos fueron descritos en su momento como 'bárbaros [;] alguna máquina debería idearse con el propósito de facilitar tales tabulaciones'. (Hollerith, 1889, p. 239)

    La respuesta de Hollerith fue representar la información del censo utilizando tarjetas perforadas (Austrian, 1982; Comrie, 1933; Hollerith, 1889). Una tarjeta perforada estándar, llamada tarjeta tabulante, medía 18.7 cm por 8.3 cm, y su esquina superior izquierda fue biselada para evitar que la tarjeta se orientara incorrectamente. Una tarjeta tabuladora en blanco constaba de 80 columnas verticales, con 12 posiciones diferentes en cada columna a través de las cuales se podía perforar un agujero. La tarjeta en sí actuaba como aislante eléctrico y se pasaba a través de una escobilla de alambre y un rodillo de latón. La brocha y el rodillo entraron en contacto donde se había perforado un agujero, completando un circuito eléctrico y permitiendo que se leyera información específica de una tarjeta y se actuara sobre ella (Eckert, 1940).

    Hollerith inventó un conjunto de diferentes dispositivos para manipular tarjetas tabuladoras. Estos incluyeron un perforador de tarjetas para ingresar datos perforando agujeros en tarjetas, un verificador para verificar errores de entrada de datos, un clasificador de conteo para clasificar tarjetas en diferentes grupos de acuerdo con la información punzonada en cualquier columna de interés, un tabulador o una máquina de contabilidad para agregar números perforados en un conjunto de tarjetas, y un multiplicador para tomar dos números diferentes perforados en una tarjeta, calcular su producto y perforar el producto en la misma tarjeta. Los dispositivos de Hollerith fueron empleados durante el censo de 1890. Ahorraron más de dos años de trabajo y 5 millones de dólares, y permitieron crear fácilmente tablas complicadas que involucran relaciones entre diferentes variables (Essinger, 2004).

    En el sistema de Hollerith, las tarjetas perforadas representaban información, y los diversos dispositivos especializados que inventó sirvieron como los procesos primitivos disponibles para manipular la información. El control, sin embargo, no fue mecanizado, fue proporcionado por un operador humano de las diversas máquinas tabuladoras en una habitación. “El proceso de cálculo se hizo pasando barajas de cartas de una máquina a otra, con cada máquina aportando algo al proceso” (Williams, 1997, p. 253). Este enfoque fue muy poderoso. En lo que se ha descrito como el primer libro sobre programación informática, Punched Card Methods in Scientific Computation (Eckert, 1940), el astrónomo Wallace Eckert describió cómo un conjunto de máquinas de Hollerith, una instalación de tarjetas perforadas, podría emplearse para el análisis armónico, para resolver diferenciales ecuaciones, para calcular perturbaciones planetarias y para realizar muchos otros cálculos complejos.

    El controlador humano de una instalación de tarjetas perforadas estaba en una posición análoga a la de un tejedor en Lyon antes de la invención del telar de Jacquard. Es decir, ambos eran operadores humanos —o más precisamente, controladores humanos— de máquinas responsables de producir productos complicados. Jacquard revolucionó la industria de la seda al automatizar el control de telares. Los dispositivos informáticos modernos surgieron de una innovación análoga, automatizando el control de los tabuladores de Hollerith (Ceruzzi, 1997, p. 8): Toda la habitación que comprende una instalación de tarjetas perforadas “incluyendo a la gente en ella y no a las máquinas individuales es lo que finalmente reemplazó la computadora electrónica”.

    La primera fase de la historia de reemplazar las instalaciones de tarjetas perforadas por dispositivos informáticos controlados automáticamente implicó la creación de dispositivos de cálculo que empleaban tecnología mecánica, electromecánica o de relés (Williams, 1997). Esta fase comenzó en la década de 1930 con la creación de las calculadoras alemanas inventadas por Konrad Zuse (Zuse, 1993), las computadoras de relé Bell desarrolladas por George Stibitz (Irvine, 2001; Stibitz & Loveday, 1967a, 1967b), y las máquinas Harvard diseñadas por Howard Aiken (Aiken & Hopper, 1946).

    Los componentes internos de cualquiera de estas calculadoras realizaron operaciones análogas a las realizadas por las diferentes máquinas Hollerith en una instalación de tarjetas perforadas. Además, las acciones de estos componentes internos se controlaron automáticamente. Completando el paralelo con el telar Jacquard, este control se logró utilizando cinta o tarjetas perforadas. Las diversas máquinas Stibitz y Aiken leen bobinas de cinta de papel perforado; las máquinas de Zuse fueron controladas por agujeros perforados en película desechada de 35 mm (Williams, 1997). Las calculadoras desarrolladas durante esta época por IBM, compañía que había sido fundada en parte a partir de la Compañía de Grabación de Tabulación por Computadora de Hollerith, estaban controladas por barajas de tarjetas perforadas (Williams, 1997).

    En la década de 1940, la tecnología electromecánica o de relés fue reemplazada por componentes electrónicos mucho más rápidos, lo que llevó a la próxima generación de dispositivos informáticos. Los tubos de vacío fueron elementos clave tanto de la computadora Atanasoff-Berry (ABC), creada por John Atanasoff y Clifford Berry (Burks & Burks, 1988; Mollenhoff, 1988; Smiley, 2010), como del ENIAC (Electronic Numerical Integrator and Computer) diseñado por Presper Eckert y John Mauchly (Burks, 2002; Neukom, 2006).

    El aumento en la velocidad de los componentes internos de las computadoras electrónicas causó problemas con el control de cinta de papel o tarjetas perforadas. El problema era que las máquinas electrónicas eran 500 veces más rápidas que los dispositivos basados en relés (Pelaez, 1999), lo que significaba que las formas tradicionales de control eran demasiado lentas.

    Este problema de control se resolvió para Eckert y el ENIAC de Mauchly mediante el uso de un controlador maestro que a su vez era un dispositivo electrónico. Se trataba de un conjunto de diez interruptores electrónicos que podían ajustarse cada uno a seis valores diferentes; cada conmutador estaba asociado con un contador que podría usarse para avanzar un conmutador a una nueva configuración cuando se alcanzaba un valor predefinido (Williams, 1997). Los conmutadores enrutarían las señales entrantes a componentes particulares de ENIAC, donde se realizaban cálculos; un cambio en el estado de un conmutador enviaría información a un componente diferente de ENIAC. El control de este flujo de información se logró mediante el uso de una placa de enchufe para cablear físicamente las conexiones entre los interruptores y los componentes de la computadora. Esto permitió que el control coincidiera con la velocidad de cálculo, pero a un costo:

    ENIAC fue una máquina rápida pero relativamente inflexible. Era el más adecuado para su uso en cálculos largos y repetitivos. Una vez que se conectó para un programa en particular, de hecho era una máquina de propósito especial. Adaptarlo a otro propósito (un problema diferente) requirió una intervención manual para reconfigurar los circuitos eléctricos. (Peláez, 1999, p. 361)

    Por lo general, se requerían dos días completos de recableado de la placa de enchufe para convertir ENIAC de una máquina de propósito especial a otra.

    Así, el desarrollo de las computadoras electrónicas derivó en una crisis de control. La cinta perforada proporcionó un control flexible, fácil de cambiar. No obstante, los lectores de cinta perforados fueron demasiado lentos para aprovechar en la práctica la velocidad de las nuevas máquinas. Las placas de enchufe proporcionaron un control que coincidía con la velocidad de los nuevos componentes, pero era inflexible y requería mucho tiempo para cambiar. Esta crisis de control inspiró otra innovación, el programa informático almacenado (Aspray, 1982; Ceruzzi, 1997; Pelaez, 1999).

    La noción de computadora de programa almacenado fue planteada por primera vez en 1945 por John von Neumann en un borrador de memorándum que describía las propiedades de la EDVAC (Electronic Discrete Variable Automatic Computer), la computadora que descendía directamente del ENIAC (Godfrey & Hendry, 1993; von Neumann, 1993). Una de las innovaciones de este diseño fue la inclusión de un controlador central. En esencia, las instrucciones que normalmente se representarían como una secuencia en una cinta perforada se representarían internamente en la memoria de EDVAC. El controlador central tenía la tarea de buscar, interpretar y ejecutar una instrucción desde la memoria y luego repetir este proceso después de pasar a la siguiente instrucción en la secuencia.

    No hay un acuerdo claro sobre qué dispositivo en particular fue el primer programa informático almacenado; en la misma época se crearon varias máquinas candidatas. Estos incluyen el EDVAC (creado 1945—1950) (Reitwiesner, 1997; von Neumann, 1993; Williams, 1993), la computadora IAS de Princeton (creada 1946—1951) (Burks, 2002; Cohen, 1999), y la máquina Manchester (funcionando en 1948) (Copeland, 2011; Lavington, 1980). Posteriormente se trabajó en el ENIAC también exploró su uso de programas almacenados (Neukom, 2006). Independientemente de las “primicias”, todas estas máquinas eran funcionalmente equivalentes en el sentido de que reemplazaban el control externo, como por una cinta perforada, con instrucciones de cinta internalizando en la memoria.

    La invención del programa informático almacenado condujo directamente a la versión informática del sándwich clásico (Hurley, 2001). La “detección” implica cargar la memoria interna de la computadora tanto con el programa como con los datos a procesar. “Pensar” implica ejecutar el programa y realizar los cálculos deseados sobre los datos almacenados. “Actuar” implica proporcionar los resultados de los cálculos al operador de la computadora, por ejemplo, perforando una cinta de salida o un juego de tarjetas perforadas.

    El sándwich clásico es una de las características definitorias de la ciencia cognitiva clásica (Hurley, 2001), y la propuesta de un ciclo sentido-acto para reemplazar el procesamiento sentido-pensar-acto del sándwich (Brooks, 1999, 2002; Clark, 1997, 2008; Pfeifer & Scheier, 1999) es una de las reacciones características de encarnó la ciencia cognitiva contra la tradición clásica (Shapiro, 2011). La adopción por parte de la ciencia cognitiva clásica del sándwich clásico fue una consecuencia natural de estar inspirada en el enfoque de la informática para el procesamiento de la información, que, en el momento en que nació la ciencia cognitiva clásica, había culminado en la invención del programa informático almacenado.

    Sin embargo, hemos visto desde la historia previa a su invención que la computadora del programa almacenado, y por lo tanto el sándwich clásico, no era un requisito en principio para el procesamiento de la información. En cambio, fue el resultado de una necesidad práctica de igualar la velocidad de control con la velocidad de los componentes electrónicos. De hecho, los mecanismos de control de una variedad de modelos de procesamiento de información que son fundamentales para la ciencia cognitiva clásica son de hecho bastante consistentes con la ciencia cognitiva encarnada.

    Por ejemplo, la máquina universal de Turing es de vital importancia para la ciencia cognitiva clásica, no sólo en su papel de definir los elementos centrales de la manipulación de símbolos, sino también en su función de definir los límites de la computación (Dawson, 1998). Sin embargo, en la mayoría de los aspectos una máquina Turing universal es un dispositivo que resalta algunas de las características clave del enfoque encarnado.

    Por ejemplo, la máquina universal Turing ciertamente no es una computadora de programa almacenada (Wells, 2002). Si uno realmente construyera un dispositivo de este tipo, el original solo se usaba como modelo teórico (Turing, 1936), entonces la única memoria interna que se requeriría sería para sostener la mesa de la máquina y el estado interno del cabezal de la máquina. (Es decir, si se requirió alguna memoria interna en absoluto. La noción de estado de máquina de Turing se inspiró en los diferentes estados de las llaves de una máquina de escribir [Hodges, 1983], y así un estado de máquina puede no ser recordado o representado, sino simplemente adoptado. De igual manera, la mesa de la máquina presumiblemente estaría construida a partir de circuitos físicos, y nuevamente no estaría representada ni recordada). El programa ejecutado por una máquina Turing universal, y las manipulaciones de datos que resultaron, fueron completamente andamiados. La memoria de la máquina es literalmente un cuaderno externo análogo al utilizado por Oscar en el famoso argumento para extender la mente (Clark & Chalmers, 1998). Es decir, los datos y el programa de una máquina Turing universal se almacenan externamente, en la cinta de teletipo de la máquina.

    De hecho, las interacciones entre el cabezal de la máquina universal de Turing y su cinta de teletipo son decididamente de la variedad sentido-acto, y no de la variedad sentido-pensar-acto. Cada operación posible en la mesa de la máquina realiza una acción (ya sea escribir algo en la cinta de teletipo o mover la cinta una celda hacia la derecha o hacia la izquierda) inmediatamente después de detectar el símbolo actual en la cinta y el estado actual del cabezal de la máquina. No se requiere ningún otro procesamiento interno intermedio (es decir, pensamiento).

    De igual manera, los andamios externos fueron característicos de las computadoras de retransmisión de última generación desarrolladas en los laboratorios Bell, como el Mark III. Estas máquinas emplearon más de un lector de cinta, permitiendo que las cintas externas fueran utilizadas para almacenar tablas de valores precalculados. Esto dio como resultado la arquitectura CADET (“Can't Add, Does't Even Try”) que funcionó buscando respuestas a la suma y otros problemas en lugar de computar el resultado (Williams, 1997). Esto fue posible gracias a un “circuito de caza” que permitió que la computadora se trasladara a cualquier ubicación deseada en una cinta perforada (Stibitz & Loveday, 1967b). ENIAC también empleó andamios, obteniendo valores de función estándar al leerlos de tarjetas (Williams, 1997).

    Desde una perspectiva de ingeniería, la diferencia entre computadoras de programa controladas externamente y almacenadas fue cuantitativa (por ejemplo, velocidad de procesamiento) y no cualitativa (por ejemplo, tipo de procesamiento). En otras palabras, para un ingeniero informático puede que no haya diferencia de principios entre un dispositivo de acto sensato como una máquina Turing universal y una computadora sensorial-pensar-actuar como la EDVAC. En el contexto del control cognitivo, entonces, puede no haber ningún elemento cualitativo que distinga los enfoques clásico y encarnado.

    Quizás una perspectiva diferente sobre el control pueda revelar distinciones agudas entre la ciencia cognitiva clásica y la encarnada. Por ejemplo, un elemento clave en la descripción del EDVAC en 1945 fue el componente llamado unidad de control central (Godfrey & Hendry, 1993; von Neumann, 1993). Fue argumentado por von Neumann que la manera más eficiente de controlar una computadora de programa almacenada era tener un componente físico del dispositivo dedicado al control (es decir, a la obtención, decodificación y ejecución de pasos del programa). Von Neumann llamó a esto el “órgano central de control”. Quizás sea la noción de que el control está centralizado a una ubicación u órgano particular de un dispositivo clásico que sirve de división entre modelos clásicos y encarnados. Por ejemplo, los roboticistas basados en el comportamiento a menudo se esfuerzan por descentralizar el control (Brooks, 1999). En los primeros robots caminantes de seis patas de Brooks como Atila, cada pata del robot era responsable de su propio control, y no se incluyó ningún órgano de control central en el diseño (Brooks, 2002).

    Sin embargo, parece que la necesidad de un órgano central de control estaba ligada nuevamente a la ingeniería pragmática más que a un requisito de principios para definir el procesamiento de la información. La adopción de un controlador central reflejó la adherencia al principio de diseño modular de la ingeniería (Marr, 1976). De acuerdo con este principio, “cualquier cálculo grande debe dividirse e implementarse como una colección de pequeñas subpartes que sean tan casi independientes entre sí como lo permita la tarea general” (p. 485). El hecho de no diseñar un componente o proceso funcional de acuerdo con el principio del diseño modular generalmente significa,

    que el proceso en su conjunto se vuelve extremadamente difícil de depurar o de mejorar, ya sea por un diseñador humano o en el curso de la evolución natural, porque un pequeño cambio para mejorar una parte tiene que ir acompañado de muchos cambios compensadores simultáneos en otros lugares. (Marr, 1976, p. 485)

    Las computadoras digitales fueron diseñadas explícitamente de acuerdo con el principio del diseño modular, que von Neumann (1958) llamó “el principio de un solo órgano por cada operación básica” (p. 13). No sólo fue esta buena práctica de ingeniería, sino que von Neumann también argumentó que este principio distinguía a las computadoras digitales de sus ancestros analógicos como el analizador diferencial (Bush, 1931).

    El principio del diseño modular también se refleja en la arquitectura de la máquina Turing universal. El órgano central de control de este dispositivo es su mesa de máquina (ver Figura 3-8), la cual está separada e independiente de los demás elementos del dispositivo, como los mecanismos para leer y escribir la cinta, el estado de la máquina, etc. Recuerde que la mesa de la máquina es un conjunto de instrucciones; cada instrucción está asociada con un símbolo de entrada específico y un estado de máquina particular. Cuando una máquina Turing en estado físico x lee el símbolo y de la cinta, procede a ejecutar la instrucción en las coordenadas (x, y) en su mesa de máquina.

    Es importante destacar que el control completamente descentralizado resulta en una máquina de Turing cuando el principio de von Neumann (1958) de un solo órgano por cada operación básica se lleva al extremo. En lugar de tomar toda la mesa de la máquina como órgano central de control, se podría diseñar plausiblemente un sistema súper modular en el que cada instrucción se asociara con su propio órgano. Por ejemplo, se podría reemplazar la mesa de la máquina por un sistema de producción en el que cada producción fuera responsable de una de las entradas de la mesa de la máquina. Las condiciones para cada producción serían un estado particular de la máquina y un símbolo de entrada particular, y la acción de la producción sería la manipulación requerida de la cinta teletipo. En este caso, la versión del sistema de producción de la máquina Turing se comportaría de manera idéntica a la versión original. No obstante, ya no tendría un órgano de control centralizado.

    En definitiva, el control central no es una característica necesaria del procesamiento clásico de la información, y por lo tanto no distingue entre teorías clásicas y encarnadas. Otra forma de hacer este punto es recordar la observación del Capítulo 3 de que los sistemas de producción son ejemplos prototípicos de arquitecturas clásicas (Anderson et al., 2004; Newell, 1973), pero ellos, como muchos modelos encarnados (Dawson, Dupuis, & Wilson, 2010; Holland & Melhuish, 1999; Susi & Ziemke, 2001; Theraulaz & Bonabeau, 1999), se controlan estigmérgicamente. “El control tradicional del sistema de producción es internamente estigmérgico, porque los contenidos de la memoria de trabajo determinan qué producción actuará en un momento dado” (Dawson, Dupuis, & Wilson, 2010, p. 76).

    La discusión hasta este punto ha utilizado la historia del control automático de las computadoras para argumentar que las características del control no pueden ser utilizadas para proporcionar una distinción de principios entre la ciencia cognitiva clásica y la encarnada. Examinemos ahora la ciencia cognitiva conexionista en el contexto del control cognitivo.

    Los conexionistas han argumentado que la naturaleza del control cognitivo proporciona una distinción de principios entre los modelos de red y los modelos que pertenecen a la tradición clásica (Rumelhart & McClelland, 1986b). En particular, los científicos cognitivos coneccionistas afirman que el control en sus redes está completamente descentralizado, y que esta propiedad es ventajosa porque es biológicamente plausible. “Hay un aspecto final de nuestros modelos que se deriva vagamente de nuestra comprensión del funcionamiento cerebral. Esta es la noción de que no hay un ejecutivo central que supervise el flujo general de procesamiento” (Rumelhart & McClelland, 1986b, p. 134).

    Sin embargo, la afirmación de que las redes coneccionistas no están bajo control central es fácilmente refutada; Dawson y Schopflocher (1992a) consideraron un sistema coneccionista muy simple, la memoria distribuida o asociador de patrones estándar descrito en el Capítulo 4 (ver Figura 4.2.1). Señalaron que los investigadores coneccionistas suelen describir tales modelos como autónomos, sugiriendo que las operaciones clave de dicha memoria (es decir, aprender y recordar) se definen explícitamente en su arquitectura, es decir, en los pesos de conexión y procesadores, como se representa en la Figura 4.2.1.

    Sin embargo, Dawson y Schopflocher (1992a) procedieron a demostrar que incluso en un sistema de memoria tan simple, si la red aprende o recupera información depende de instrucciones proporcionadas por un controlador externo: el programador demostrando el comportamiento de la red. Cuando se les instruye para aprender, los componentes del asociador de patrones estándar se comportan de una manera. Sin embargo, cuando se les instruye a recordar, estos mismos componentes se comportan de una manera muy diferente. La naturaleza del procesamiento de la red depende críticamente de las señales proporcionadas por un controlador que no forma parte de la arquitectura de la red.

    Por ejemplo, durante el aprendizaje las unidades de salida en un asociador de patrones estándar sirven como un segundo banco de unidades de entrada, pero durante la recuperación registran la respuesta de la red a las señales enviadas desde las otras unidades de entrada. El comportamiento de las unidades de salida viene determinado por si la red está involucrada en una fase de aprendizaje o en una fase de recuperación, la cual es señalada por el usuario de la red, no por ninguno de sus componentes arquitectónicos. De manera similar, durante la fase de aprendizaje los pesos de conexión se modifican de acuerdo con una regla de aprendizaje, pero los pesos no se modifican durante la fase de recuperación. El comportamiento de los pesos está bajo el control del usuario. En efecto, la regla de aprendizaje se define fuera de la arquitectura de la red que es visible en la Figura 4.2.1.

    Dawson y Schopflocher (1992a) concluyeron que,

    las redes PDP actuales no son autónomas porque sus principios de aprendizaje no se realizan directamente en la arquitectura de la red. Es decir, las redes regidas por estos principios requieren señales explícitas de algún controlador externo para determinar cuándo van a aprender o cuándo realizarán una tarea aprendida. (Dawson y Schopflocher 1992a, pp. 200—201)

    Esto no es una limitación de principios, ya que Dawson y Schopflocher presentaron una arquitectura mucho más elaborada que permite a un asociador de patrones estándar aprender y recordar de forma autónoma, es decir, sin la necesidad de la intervención de un usuario. Sin embargo, esta arquitectura no es típica; los asociadores de patrones estándar como el de la Figura 4.2.1 exigen control ejecutivo.

    La necesidad de tal control no se limita a simples memorias distribuidas. Lo mismo es cierto para una variedad de arquitecturas de red multicapa populares y más potentes, incluyendo perceptrones multicapa y redes autoorganizativas (Roy, 2008). “Claramente hay un ejecutivo central que supervisa el funcionamiento del algoritmo de retropropagación” (p. 1436). Roy (2008) procedió a argumentar que dicho control es requerido en sí mismo por sistemas parecidos al cerebro, y por lo tanto, las redes biológicamente plausibles exigen no solo un relato explícito de la transformación de datos, sino también una teoría biológica del control ejecutivo.

    En resumen, las redes coneccionistas generalmente requieren el mismo tipo de control que es un componente típico de un modelo clásico. Además, se argumentó anteriormente que no parece existir ninguna distinción de principios entre este tipo de control y el tipo que se presume en un relato encarnado de la cognición. El control es una característica clave de una teoría cognitiva, y diferentes escuelas de pensamiento en la ciencia cognitiva se unen para apelar al mismo tipo de mecanismos de control. En definitiva, el control central no es una marca de lo clásico.


    This page titled 7.4: Control centralizado versus descentralizado is shared under a CC BY-NC-ND license and was authored, remixed, and/or curated by Michael R. W. Dawson (Athabasca University Press) .