Saltar al contenido principal
LibreTexts Español

7.5: Procesamiento en serie frente a paralelo

  • Page ID
    143732
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    La ciencia cognitiva clásica se inspiró en las características de las computadoras digitales; pocos negarían que el enfoque clásico explota la metáfora de la computadora digital (Pylyshyn, 1979a). Las computadoras son pruebas de existencia de que las máquinas físicas son capaces de manipular, con infinita flexibilidad, expresiones semánticamente interpretables (Haugeland, 1985; Newell, 1980; Newell y Simon, 1976). Las computadoras ilustran cómo el logicismo puede estar fundamentado en mecanismos físicos.

    El coneccionista y las reacciones encarnadas a la ciencia cognitiva clásica suelen sostener que la metáfora de la computadora digital no es apropiada para las teorías de la cognición. Se ha argumentado que las operaciones de las computadoras electrónicas tradicionales son cualitativamente diferentes a las de la cognición humana, y como resultado los modelos clásicos que inspiran están condenados al fracaso, al igual que los intentos de producir inteligencia artificial en tales máquinas (Churchland & Sejnowski, 1992; Dreyfus , 1972, 1992; Searle, 1980).

    En concierto con rechazar la metáfora de la computadora digital, los científicos coneccionistas y cognitivos encarnados recurren a nociones cualitativamente diferentes en un intento de distinguir sus enfoques de las teorías clásicas que los precedieron. Sin embargo, su intento de definir la marca de lo clásico, y de mostrar cómo esta marca no se aplica a sus teorías, no siempre tiene éxito.

    Por ejemplo, se argumentó en el apartado anterior que cuando los estudiosos abandonaron la noción de control centralizado, de hecho estaban reaccionando contra un concepto que no era una condición necesaria de la teoría clásica, sino que era una conveniencia de ingeniería. Además, se demostró que los mecanismos de control en las teorías conexionistas y encarnadas no eran radicalmente diferentes a los de los modelos clásicos. La sección actual proporciona otro ejemplo de este tipo.

    Una de las características definitorias de la teoría clásica es el procesamiento en serie, la noción de que solo se puede ejecutar una operación a la vez. Los opositores a la ciencia cognitiva clásica han argumentado que esto significa que los modelos clásicos son simplemente demasiado lentos para ser ejecutados por el lento hardware que compone el cerebro (Feldman & Ballard, 1982). Sugieren que lo que en cambio se requiere es el procesamiento paralelo, en el que muchas operaciones se llevan a cabo simultáneamente. A continuación se argumenta que caracterizar las computadoras digitales o teorías clásicas como de naturaleza serial no es del todo exacto. Además, caracterizar las escuelas alternativas de pensamiento en la ciencia cognitiva como campeones del procesamiento paralelo también es problemático. En resumen, la diferencia entre el procesamiento serial y paralelo puede no proporcionar una distinción clara entre los diferentes enfoques de la ciencia cognitiva.

    No se puede negar que el procesamiento en serie ha jugado un papel importante en la historia de los dispositivos informáticos modernos. La cuenta original de cálculo de Turing (1936) era puramente serial: una máquina de Turing procesaba solo un símbolo a la vez, y lo hacía solo ejecutando una sola operación a la vez. Sin embargo, el propósito de la propuesta de Turing fue proporcionar una noción incontrovertida de “método definido”; el procesamiento en serie hizo que la noción de computación de Turing fuera fácil de entender, pero no era una característica necesaria.

    Una década después, el pionero programa almacenado de computadora EDVAC también fue un dispositivo serie de dos maneras diferentes (Ceruzzi, 1997; von Neumann, 1993). Primero, sólo ejecutaba un comando a la vez. Segundo, a pesar de que utilizó 44 bits para representar un número como una “palabra”, procesó estas palabras en serie, operando sobre ellas poco a poco. De nuevo, sin embargo, este diseño estuvo motivado por un deseo de simplicidad, en este caso, simplicidad de ingeniería. “El dispositivo debe ser lo más sencillo posible, es decir, contener el menor número de elementos posible. Esto se puede lograr nunca realizando dos operaciones simultáneamente, si esto provocaría un incremento significativo en el número de elementos requeridos” (von Neumann, 1993, p. 8).

    Además, la naturaleza serial de EDVAC también fue dictada por restricciones de ingeniería en las primeras máquinas del programa almacenado. La existencia de tales dispositivos dependía de la invención de nuevos tipos de componentes de memoria (Williams, 1997). EDVAC utilizó un sistema de memoria de línea de retardo, que funcionaba retrasando una serie de pulsos (que representaban un número binario) durante unos milisegundos, y luego alimentando estos pulsos nuevamente a la línea de retardo para que persistieran en la memoria. Fundamentalmente, las memorias de línea de retardo solo permitieron acceder a la información almacenada en serie, un bit a la vez.

    El diseño simple y en serie de EDVAC reflejó una decisión explícita contra el procesamiento paralelo que von Neumann (1993) llamó procesos telescópicos.

    También cabe destacar que hasta ahora todo pensando en dispositivos de computación digital de alta velocidad ha tendido en sentido contrario: Hacia la aceleración mediante procesos telescópicos al precio de multiplicar el número de elementos requeridos. Por lo tanto, parecería más instructivo tratar de pensar lo más completamente posible el punto de vista opuesto. (von Neumann, 1993, p. 8)

    El punto de vista opuesto de EDVAC solo fue práctico debido a la alta velocidad de sus componentes de tubo de vacío.

    El procesamiento en serie fue una decisión de diseño atractiva porque simplificó la arquitectura de EDVAC. Sin embargo, no fue una decisión de diseño necesaria. El telescopio de procesos fue una decisión de diseño común en dispositivos informáticos más antiguos que usaban componentes más lentos. Von Neumann era muy consciente de que muchos de los antepasados de EDVAC empleaban diversos grados de procesamiento paralelo.

    En todos los dispositivos existentes donde el elemento no es un tubo de vacío el tiempo de reacción del elemento es suficientemente largo para hacer deseable un cierto telescopio de los pasos involucrados en suma, resta, y aún más en multiplicación y división. (von Neumann, 1993, p. 6)

    Por ejemplo, las computadoras Zuse realizaron operaciones aritméticas en paralelo, con un componente manipulando al exponente y otro manipulando la mantisa de un número representado (Zuse, 1993). La computadora Mark II de Aiken en Harvard también tenía múltiples unidades aritméticas que podían activarse en paralelo, aunque esta no era una práctica común porque la coordinación de sus operaciones paralelas era difícil de controlar (Williams, 1997). ENIAC utilizó 20 acumuladores como operadores matemáticos, y estos se podían ejecutar simultáneamente; era una máquina paralela (Neukom, 2006).

    A pesar de la defensa de von Neumann (1993) del procesamiento en serie, los avances en la memoria de la computadora le permitieron adoptar una arquitectura parcialmente paralela en la máquina que luego desarrolló en Princeton (Burks, Goldstine, & Von Neumann, 1989). Las memorias de tubo de rayos catódicos (Williams & Kilburn, 1949) permitieron acceder en paralelo a todos los bits de una palabra en la memoria, aunque las operaciones sobre esta información recuperada aún se realizaban en serie.

    Para obtener una palabra de la memoria en este esquema se requiere, entonces, un mecanismo de conmutación al que se conectan todos los 40 tubos en paralelo. Tal esquema de conmutación nos parece más sencillo que la técnica necesaria en el sistema serial y es, por supuesto, 40 veces más rápido. En consecuencia, adoptamos el procedimiento paralelo y así se nos lleva a considerar una llamada máquina paralela, en contraste con los principios seriales que se están considerando para el EDVAC. (Burks, Goldstine & von Neumann, 1989, p. 44)

    Curiosamente, el diseño serial extremo en EDVAC resurgió en las calculadoras de bolsillo de la década de 1970, permitiéndoles ser simples y pequeñas (Ceruzzi, 1997).

    La breve revisión histórica proporcionada anteriormente indica que si bien algunos de los primeros dispositivos informáticos eran procesadores serie, muchos otros confiaban en cierto grado de procesamiento paralelo. Lo mismo ocurre con algunas arquitecturas prototípicas propuestas por la ciencia cognitiva clásica. Por ejemplo, los sistemas de producción (Newell, 1973, 1990; Newell & Simon, 1972) son seriales en el sentido de que solo una producción manipula la memoria de trabajo a la vez. Sin embargo, todas las producciones en dicho sistema escanean la memoria de trabajo en paralelo al determinar si la condición que lanza su acción está presente.

    Un enfoque alternativo para argumentar que el procesamiento en serie no es una marca de lo clásico es señalar que el procesamiento en serie también aparece en arquitecturas no clásicas. La distinción serial versus paralela se argumenta típicamente como una de las diferencias clave entre las teorías conexionistas y clásicas. Por ejemplo, se requiere un procesamiento paralelo para explicar cómo el cerebro es capaz de realizar cálculos complejos a pesar de la lentitud de las neuronas en comparación con los componentes electrónicos (Feldman & Ballard, 1982; McClelland, Rumelhart, & Hinton, 1986; von Neumann, 1958). Al comparar cerebros con computadoras digitales, von Neumann (1958, p. 50) señaló que “los componentes naturales favorecen a los autómatas con más órganos, pero más lentos, mientras que el artificial favorece la disposición inversa de menos órganos, pero más rápidos”.

    Sin duda es el caso de que las arquitecturas conexionistas tienen un alto grado de paralelismo. Por ejemplo, se presume que todas las unidades de procesamiento en la misma capa de un perceptrón multicapa operan simultáneamente. Sin embargo, incluso los modelos prototípicos de procesamiento distribuido paralelo revelan la presencia de procesamiento en serie.

    Una razón por la que la memoria distribuida o el asociador de patrones estándar requieren un control central externo (Dawson & Schopflocher, 1992a) es porque este tipo de modelo no es capaz de aprender y recordar simultáneamente. Esto se debe a que uno de sus bancos de procesadores se utiliza como conjunto de unidades de entrada durante el aprendizaje, pero se usa de manera completamente diferente, como unidades de salida, durante la recuperación. El control externo se utiliza para determinar cómo se emplean estas unidades y, por lo tanto, determina si la máquina está aprendiendo o recuperando. El control externo también impone serialidad en el sentido de que durante la entrada de aprendizaje, los patrones se presentan en secuencia, y durante el recuerdo, las señales presentadas se presentan de nuevo una a la vez. Dawson y Schopflocher (1992a) demostraron cómo se podía lograr un verdadero procesamiento paralelo en una red de este tipo, pero solo después de elaborar sustancialmente los componentes primitivos de la arquitectura coneccionista.

    Un grado de procesamiento en serie también está presente en redes multicapa. Primero, mientras que todos los procesadores en una capa pueden describirse como operativos en paralelo, el flujo de información de una capa a la siguiente es en serie. Segundo, las operaciones de un procesador individual son intrínsecamente en serie. No se puede emitir una señal hasta que se haya calculado la activación interna, y la activación interna no se puede calcular hasta que se haya determinado la entrada neta.

    El procesamiento paralelo no se propone generalmente como una característica que distingue a los modelos encarnados de los clásicos. Sin embargo, algunos investigadores han notado las ventajas de la computación descentralizada en robots basados en el comportamiento (Brooks, 1999).

    De nuevo, sin embargo, las teorías encarnadas parecen explotar una mezcla de procesamiento paralelo y serial. Considere los primeros robots andantes parecidos a insectos de Rodney Brooks (1989, 1999, 2002). Cada pierna en el robot de seis patas Genghis es un procesador paralelo, en el sentido de que cada pierna opera de manera autónoma. Sin embargo, las operaciones de cada pata pueden describirse como un autómata de estado finito (ver el apéndice de Genghis en Brooks, 2002), que es un dispositivo intrínsecamente en serie.

    El control estigmérgico de la inteligencia del enjambre que emerge de una colección de robots o insectos sociales (Beni, 2005; Bonabeau & Meyer, 2001; Hinchey, Sterritt, & Rouff, 2007; Sharkey, 2006; Tarasewich & McMullen, 2002) también parece ser una mezcla de operaciones paralelas y seriales. Un colectivo opera en paralelo en el sentido de que cada miembro del colectivo es un agente autónomo. Sin embargo, el comportamiento de cada agente suele caracterizarse mejor en serie: primero el agente hace una cosa, y luego hace otra, y así sucesivamente. Por ejemplo, en un enjambre capaz de crear un nido mediante la demolición ciega (Parker, Zhang, & Kube, 2003), los agentes operan en paralelo. Sin embargo, cada agente se mueve en serie de un estado (por ejemplo, arando, colisionando, terminando) a otro.

    En resumen, el procesamiento en serie se ha enfatizado más en los modelos clásicos, mientras que el procesamiento paralelo ha recibido más énfasis en enfoques coneccionistas y encarnados. Sin embargo, no se puede decir que el procesamiento en serie sea una marca de lo clásico.

    Primero, el procesamiento en serie en los sistemas clásicos de procesamiento de información se adoptó como una conveniencia de ingeniería, y muchas computadoras digitales incluyeron cierto grado de procesamiento paralelo. En segundo lugar, con un examen cuidadoso el procesamiento en serie también se puede encontrar mezclado con el procesamiento paralelo de redes coneccionistas o de inteligencias colectivas.


    This page titled 7.5: Procesamiento en serie frente a paralelo is shared under a CC BY-NC-ND license and was authored, remixed, and/or curated by Michael R. W. Dawson (Athabasca University Press) .