Saltar al contenido principal
LibreTexts Español

5.5: Encarnación, Situación y Retroalimentación

  • Page ID
    143746
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Las teorías que incorporan estigmergia demuestran la plausibilidad de eliminar el control cognitivo central; tal vez la ciencia cognitiva encarnada podría reemplazar el ciclo sentido-pensar-acto del sándwich clásico con reflejos de acto sensorial.

    La comprensión fue que los llamados sistemas centrales de inteligencia —o IA central como se le ha referido más recientemente-eran quizás una ilusión innecesaria, y que todo el poder de la inteligencia surgió del acoplamiento de los sistemas de percepción y actuación. (Brooks, 1999, p. viii)

    Para que una teoría estigmérgica tenga algún poder, los agentes deben exhibir dos habilidades críticas. Primero, deben ser capaces de sentir su mundo. Segundo, deben ser capaces de actuar físicamente sobre el mundo. Por ejemplo, el control estigmérgico de la construcción del nido sería imposible si las avispas no pudieran sentir los atributos locales de la estructura del nido ni actuar sobre el nido para cambiar su apariencia.

    En la ciencia cognitiva encarnada, la capacidad de un agente para percibir su mundo se llama situatedness. Por el momento, simplemente equipararemos la situatividad con la capacidad de sentir. Sin embargo, la situatividad es más complicada que esto, porque depende críticamente de la naturaleza física de un agente, incluyendo su aparato sensorial y su estructura corporal. Estos temas serán considerados con más detalle en la siguiente sección.

    En la ciencia cognitiva encarnada, la capacidad de un agente para actuar y alterar su mundo depende de su encarnación. En el sentido más general, decir que un agente está encarnado es decir que es un artefacto, que tiene existencia física. Así, mientras no se encarnan ni un experimento mental (Braitenberg, 1984) ni una simulación por computadora (Wilhelms & Skinner, 1990) para explorar un vehículo Braitenberg, se encarna un robot físico que actúa como un vehículo Braitenberg (Dawson, Dupuis, & Wilson, 2010). La estructura física del propio robot es importante en el sentido de que es una fuente de complejidad conductual. Las simulaciones por computadora de los vehículos Braitenberg son idealizaciones en las que todos los motores y sensores funcionan perfectamente. Esto es imposible en un robot físicamente realizado. En un agente incorporado, un motor será menos potente que otro, o un sensor puede ser menos efectivo que otro. Tales diferencias alterarán el comportamiento del robot. Estas imperfecciones son otra fuente importante de complejidad conductual, pero están ausentes cuando tales vehículos se crean en mundos simulados e idealizados.

    Sin embargo, la realización es más complicada que la mera existencia física. Los agentes físicamente existentes pueden encarnarse en diferentes grados (Fong, Nourbakh sh, & Dautenhahn, 2003). Esto se debe a que algunas definiciones de realización se refieren a la medida en que un agente puede alterar su entorno. Por ejemplo, Fong, Nourbakhsh, & Dautenhahn (2003, p. 149) argumentaron que “la encarnación se basa en la relación entre un sistema y su entorno. Cuanto más un robot puede perturbar un ambiente, y ser perturbado por él, más se encarna”. Como resultado, no todos los robots están igualmente encarnados (Dawson, Dupuis, & Wilson, 2010). Un robot que está encarnado más fuertemente que otro es un robot que es más capaz de afectar, y ser afectado por, su entorno.

    El poder de la ciencia cognitiva encarnada emerge de agentes que están situados y encarnados. Esto se debe a que estas dos características proporcionan una fuente crítica de no linealidad llamada retroalimentación (Ashby, 1956; Wiener, 1948). La retroalimentación ocurre cuando se utiliza información sobre el efecto de una acción en el mundo para informar el progreso de esa acción. Como señaló Ashby (1956, p. 53), “la 'retroalimentación' existe entre dos partes cuando cada una afecta a la otra”, cuando “existe circularidad de acción entre las partes de un sistema dinámico”.

    Wiener (1948) se dio cuenta de que la retroalimentación era fundamental para un núcleo de problemas relacionados con la comunicación, el control y la mecánica estadística, y que era crucial tanto para los agentes biológicos como para los sistemas artificiales. Brindó un marco matemático para estudiar la comunicación y el control, definiendo la disciplina que denominó cibernética. El término cibernética se derivó de la palabra griega para “tirista” o “gobernador”. “Al elegir este término, deseamos reconocer que el primer artículo significativo sobre mecanismos de retroalimentación es un artículo sobre gobernadores, que fue publicado por Clerk Maxwell en 1868” (Wiener, 1948, p. 11). Curiosamente, los gobernadores de motores hacen apariciones frecuentes en discusiones formales sobre el enfoque encarnado (Clark, 1997; Port & van Gelder, 1995b; Shapiro, 2011).

    El problema con la no linealidad producida por la retroalimentación es que hace que los análisis computacionales sean extraordinariamente difíciles. Esto se debe a que las matemáticas de las relaciones de retroalimentación entre incluso pequeños números de componentes son esencialmente intratables. Por ejemplo, Ashby (1956) se dio cuenta de que la retroalimentación entre una máquina que solo constaba de cuatro componentes simples no podía analizarse:

    Cuando solo hay dos partes unidas para que cada una afecte a la otra, las propiedades de la retroalimentación dan información importante y útil sobre las propiedades del conjunto. Pero cuando las partes suben hasta a tan solo cuatro, si todos afectan a los otros tres, entonces se pueden rastrear veinte circuitos a través de ellas; y conocer las propiedades de los veinte circuitos no da información completa sobre el sistema. (Ashby, 1956, p. 54)

    Por esta razón, la ciencia cognitiva encarnada se practica a menudo utilizando ingeniería avanzada, que es una especie de metodología sintética (Braitenberg, 1984; Dawson, 2004; Pfeifer & Scheier, 1999). Es decir, los investigadores no toman un agente completo y lo realizan ingeniería inversa en sus componentes. En cambio, toman una pequeña cantidad de componentes simples, los componen en un sistema intacto, ponen los componentes en movimiento en un entorno de interés y observan los comportamientos resultantes.

    Por ejemplo, Ashby (1960) investigó las complejidades de su máquina de cuatro componentes no tratando con matemáticas intratables, sino construyendo y observando un dispositivo de trabajo, el Homeostat. Se componía de cuatro máquinas idénticas (dispositivos eléctricos de entrada-salida), incorporaba retroalimentación mutua y le permitió observar el comportamiento, que era el movimiento de los indicadores para cada máquina. Ashby descubrió que el Homeostat podía aprender; reforzó sus respuestas manipulando físicamente la esfera de un componente para “castigar” una respuesta incorrecta (por ejemplo, por mover una de sus agujas en la dirección incorrecta). Ashby también encontró que el Homeostat podría adaptarse a dos ambientes diferentes que se alternaban de un juicio a otro. Este conocimiento era inalcanzable a partir de los análisis matemáticos. “Una mejor demostración la puede dar una máquina, construida para que sepamos exactamente su naturaleza y sobre la cual podamos observar lo que sucederá en diversas condiciones” (p. 99).

    Braitenberg (1984) ha argumentado que una ventaja de la ingeniería hacia adelante es que producirá teorías que son más simples que las que se lograrán con la ingeniería inversa. Esto se debe a que cuando surgen comportamientos complejos o sorprendentes, el conocimiento preexistente de los componentes —que fueron construidos por el investigador— puede ser utilizado para generar explicaciones más simples del comportamiento.

    El análisis es más difícil que la invención en el sentido en el que, generalmente, la inducción toma más tiempo para realizarse que la deducción: en la inducción se tiene que buscar el camino, mientras que en la deducción se sigue un camino directo. (Braitenberg, 1984, p. 20)

    Braitenberg llamó a esto la ley del análisis cuesta arriba y la síntesis cuesta abajo.

    Otra forma de considerar la ley del análisis cuesta arriba y la síntesis cuesta abajo es aplicar la parábola de la hormiga de Simon (1969). Si se toma en serio el ambiente como un contribuyente a la complejidad del comportamiento de un agente situado y encarnado, entonces uno puede aprovechar el mundo del agente y proponer mecanismos internos menos complejos que aún producen los intrincados resultados deseados. Esta idea es central en la hipótesis de reemplazo que Shapiro (2011) ha argumentado es una característica fundamental de la ciencia cognitiva encarnada.


    This page titled 5.5: Encarnación, Situación y Retroalimentación is shared under a CC BY-NC-ND license and was authored, remixed, and/or curated by Michael R. W. Dawson (Athabasca University Press) .