Saltar al contenido principal
LibreTexts Español

10.5: Otros Sistemas Simbólicos

  • Page ID
    147008
    • Wikipedia

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    La mayor parte de la investigación neurolingüística se refiere a la producción y comprensión del idioma inglés, ya sea escrito o hablado. Sin embargo, observar diferentes sistemas lingüísticos desde una perspectiva neurocientífica puede fundamentar y diferenciar teorías reconocidas del procesamiento del lenguaje. En la siguiente sección se muestra cómo la investigación neurológica de tres sistemas simbólicos, cada uno diferente del inglés en algún aspecto, ha permitido distinguir -al menos en cierta medida- entre regiones cerebrales que se ocupan de la modalidad del lenguaje (y por lo tanto pueden variar de un idioma a otro, dependiendo de si el idioma en cuestión es, por ejemplo, hablado o firmado) desde regiones cerebrales que parecen ser necesarias para el procesamiento del lenguaje en general, independientemente de si estamos tratando con lenguaje firmado, hablado o incluso musical.

    Kana y Kanji

    Kana y Kanji son los dos sistemas de escritura utilizados paralelos en el idioma japonés. Dado que en ellas se utilizan diferentes enfoques para representar palabras, estudiar a pacientes japoneses con alexia es una gran posibilidad para probar la hipótesis sobre la existencia de dos rutas diferentes al significado, explicadas en el apartado anterior.

    El sistema de escritura en inglés es fonológico — cada grafema en inglés escrito representa aproximadamente un sonido de voz — una consonante o una vocal. Existen, sin embargo, otros enfoques posibles para escribir un idioma hablado. En sistemas silábicos como el kana japonés, un grafema representa una sílaba. Si el inglés escrito fuera silábico, podría, por ejemplo, incluir un símbolo para la sílaba “nut”, apareciendo tanto en las palabras “donut” como “peanut”. Los sistemas silábicos están basados en el sonido —dado que los grafemas representan unidades de palabras habladas en lugar de significar directamente, se tiene que crear una representación auditiva de la palabra para llegar al significado. Por lo tanto, la lectura de sistemas silábicos debe requerir una ruta fonológica intacta. Además de kana, los japoneses también utilizan un sistema de escritura logográfica llamado kanji, en el que un grafema representa una palabra completa o un concepto. A diferencia de los sistemas fonológico y silábico, los sistemas logográficos no comprenden relaciones sistemáticas entre las formas visuales y la forma en que se pronuncian; en cambio, la forma visual está directamente asociada con la pronunciación y el significado de la palabra correspondiente. Por lo tanto, la lectura de kanji debe requerir que la ruta directa al significado esté intacta.

    La hipótesis sobre la existencia de dos vías diferentes al significado ha sido confirmada por el hecho de que después del daño cerebral, puede haber una doble disociación entre kana y kanji. Algunos pacientes japoneses pueden así leer kana pero no kanji (alexia superficial), mientras que otros pueden leer kanji pero no kana (alexia fonológica). Además, existe evidencia de que diferentes regiones cerebrales de hablantes nativos japoneses están activas mientras leen kana y kanji, aunque al igual que en el caso de los hablantes nativos de inglés, estas regiones también se superponen.

    Dado que la distinción entre ruta directa y fonológica también tiene sentido en el caso del japonés, puede ser un principio general común a todas las lenguas escritas que su lectura se base en dos sistemas independientes (al menos parcialmente), ambos utilizando estrategias diferentes para captar el significado de una palabra escrita, ya sea asociando la forma visual directamente con el significado (la ruta directa), o utilizando la representación auditiva como intermediario entre la forma visual y el significado de la palabra (la ruta fonológica).

    fig-ch01_patchfile_01.jpg
    El signo japonés de Kana para la sílaba “mu”
    fig-ch01_patchfile_01.jpg
    El letrero kanji japonés para el concepto “Libro”, “escritura” o “caligrafía”

    Lenguaje de señas

    Desde una perspectiva lingüística, las lenguas de señas comparten muchas características de las lenguas habladas; hay muchas lenguas de señas regionalmente delimitadas, cada una con una gramática y un léxico distintos. Ya que al mismo tiempo, las lenguas de señas difieren de las lenguas habladas en la forma en que se “pronuncian” las palabras, es decir, en la modalidad, la investigación neurocientífica en ellas puede arrojar valiosas ideas sobre la cuestión de si existen mecanismos neuronales generales que se ocupan del lenguaje, independientemente de su modalidad.

    Estructura de SL

    Las lenguas de señas son lenguajes fonológicos - cada signo significativo consiste en varios fonemas (los fonemas solían llamarse queremes (griego χερι: mano) hasta que se realizó su equivalencia cognitiva con los fonemas en las lenguas habladas) que no tienen ningún significado como tal, pero sin embargo son importantes para distinguir los significado del signo. Una característica distintiva de los fonemas SL es el lugar de la articulación: la forma de una mano puede tener diferentes significados dependiendo de si se produce a nivel de ojos, nariz o mentón. Otras características que determinan el significado de un signo son la forma de la mano, la orientación de la palma, el movimiento y los marcadores no manuales (por ejemplo, expresiones faciales).

    Para expresar las relaciones sintácticas, las Lenguas de Signos explotan las ventajas del medio visuo-espacial en el que se producen los signos; por lo tanto, la estructura sintáctica de las lenguas de señas a menudo difiere de la de las lenguas habladas. Dos características importantes de la mayoría de las gramáticas del lenguaje de señas (incluyendo American Sign Language (ASL), Deutsche Gebärdensprache (DGS) y varias otras lenguas de señas importantes) son la direccionalidad y la codificación simultánea de elementos de información:

    • Direccionalidad

    La dirección en la que se hace el signo suele determinar el sujeto y el objeto de una oración. Los sustantivos en SL pueden ser 'vinculados' a un punto particular en el espacio, y posteriormente en el discurso pueden ser referidos señalando nuevamente ese mismo lugar (esto está funcionalmente relacionado con los pronombres en inglés). El objeto y el sujeto pueden cambiarse entonces cambiando la dirección en la que se hace el signo de un verbo transitivo.

    • Codificación simultánea de elementos de información

    El medio visual también permite codificar varias piezas de información simultáneamente. Considera por ejemplo la frase “El vuelo fue largo y no lo disfruté”. En inglés, la información sobre la duración y desagrado del vuelo tiene que codificarse secuencialmente agregando más palabras a la oración. Para enriquecer el enunciado “El vuelo fue largo” con la información sobre el desagrado del vuelo, hay que agregar otra frase (“No la disfruté”) a la original. Entonces, para transmitir más información, la longitud de la sentencia original debe crecer. En lenguaje de señas, sin embargo, el incremento de la información en una enunciación no necesariamente aumenta la duración de la pronunciación. Para transmitir información sobre el desagrado de un vuelo largo experimentado en el pasado, uno puede simplemente usar el signo único para “vuelo” con el marcador de tiempo pasado, movido de una manera que representa el atributo “largo”, combinado con la expresión facial de desafección. Dado que todas estas características están firmadas simultáneamente, no se necesita tiempo adicional para pronunciar “El vuelo fue largo” en comparación con “El vuelo fue largo y no lo disfruté”.

    Neurología de SL

    Dado que las oraciones en SL se codifican visualmente, y dado que su gramática a menudo se basa en relaciones visuales más que secuenciales entre diferentes signos, se podría sugerir que el procesamiento de SL depende principalmente del hemisferio derecho, que se ocupa principalmente del desempeño en tareas visuales y espaciales. Sin embargo, hay evidencia que sugiere que el procesamiento de SL y lenguaje hablado puede ser igualmente dependiente del hemisferio izquierdo, es decir, que el mismo mecanismo neural básico puede ser responsable del funcionamiento de todo el lenguaje, independientemente de su modalidad (es decir, si el lenguaje es hablado o firmado).

    La importancia del hemisferio izquierdo en el procesamiento de SL indicó, por ejemplo, por el hecho de que los firmantes con un hemisferio derecho dañado pueden no ser afásicos, mientras que como en el caso de sujetos auditivos, las lesiones en el hemisferio izquierdo de los firmantes pueden resultar en sutiles dificultades lingüísticas (Gordon, 2003). Además, estudios de firmantes nativos afásicos han demostrado que el daño a las porciones anteriores del hemisferio izquierdo (área de Broca) resulta en un síndrome similar a la afasia de Broca: los pacientes pierden fluidez de comunicación, no son capaces de usar correctamente marcadores sintácticos e inflexionar verbos, aunque las palabras firman son semánticamente apropiados. En contraste, los pacientes con daños en las porciones posteriores de la circunvolución temporal superior (área de Wernicke) aún pueden inflar correctamente los verbos, configurar y recuperar sustantivos de un locus del discurso, pero las secuencias que firman no tienen significado (Poizner, Klima & Bellugi, 1987). Entonces, como en el caso de las lenguas habladas, las porciones anterior y posterior del hemisferio izquierdo parecen ser responsables de la sintaxis y semántica de la lengua respectivamente. De ahí que no sea esencial para los “mecanismos de procesamiento de sintaxis” del cerebro si la sintaxis se transmite simultáneamente a través de marcadores espaciales o sucesivamente a través del orden de palabras y morfemas agregados a las palabras, los mismos mecanismos subyacentes podrían ser responsables de la sintaxis en ambos casos.

    Otra evidencia de los mismos mecanismos subyacentes para las lenguas habladas y firmadas proviene de estudios en los que la FMRI se ha utilizado para comparar el procesamiento lingüístico de:

    • 1. firmantes nativos congénitamente sordos del lenguaje de señas británico,
    • 2. escuchar a los firmantes nativos de BSL (generalmente oyen hijos de padres sordos)
    • 3. escuchar a los firmantes que han aprendido BSL después de la pubertad
    • 4. Sujetos que no firman

    Investigar el procesamiento del lenguaje en estos diferentes grupos permite hacer algunas distinciones entre diferentes factores que influyen en la organización del lenguaje en el cerebro, por ejemplo, en qué cantidad influye la sordera en la organización del lenguaje en el cerebro en comparación con solo tener SL como primer idioma (1 vs. 2), o a qué cantidad difiere el aprendizaje de SL como primer idioma del aprendizaje de SL como lengua nativa (1,2 vs.3), o a qué cantidad se organiza la lengua en hablantes en comparación con los firmantes (1,2,3 vs.4).

    Estos estudios han demostrado que las áreas típicas del hemisferio izquierdo se activan tanto en hablantes nativos de inglés dados estímulos escritos como en firmantes nativos que dan signos como estímulos. Además, también hay áreas que están igualmente activadas tanto en el caso de sujetos sordos que procesan el lenguaje de señas como los sujetos auditivos que procesan el lenguaje hablado, hallazgo que sugiere que estas áreas constituyen el sistema lingüístico central independientemente de la modalidad de lenguaje (Gordon, 2003).

    A diferencia de los hablantes, sin embargo, los firmantes también muestran una fuerte activación del hemisferio derecho. Esto se debe en parte a la necesidad de procesar información visuo-espacial. Sin embargo, algunas de esas áreas (por ejemplo, el giro angular) solo se activan en firmantes nativos y no en sujetos auditivos que aprendieron SL después de la pubertad. Esto sugiere que la forma de aprender las lenguas de señas (y las lenguas en general) cambia con el tiempo: los cerebros de los alumnos tardíos son incapaces de reclutar ciertas regiones cerebrales especializadas para procesar este lenguaje (Newman et al., 1998).]

    Hemos visto que la evidencia de afasias así como de la neuroimagen sugiere los mismos mecanismos neuronales subyacentes para ser responsables de los lenguajes de signos y hablados. Es natural preguntarse si estos mecanismos neuronales son aún más generales, es decir, si son capaces de procesar cualquier tipo de sistema simbólico subyacente a alguna sintaxis y semántica. Un ejemplo de este tipo de sistema simbólico más general es la música.

    Música

    Al igual que el lenguaje, la música es un universal humano que involucra algunos principios combinatorios que rigen la organización de elementos discretos (tonos) en estructuras (frases) que transmiten algún significado; la música es un sistema simbólico con un tipo especial de sintaxis y semántica. Por lo tanto, es interesante preguntarse si la música y el lenguaje natural comparten algunos mecanismos neuronales: si el procesamiento de la música depende del procesamiento del lenguaje o al revés, o si los mecanismos subyacentes que los subyacen están completamente separados. Al investigar los mecanismos neuronales subyacentes a la música podríamos averiguar si los procesos neuronales detrás del lenguaje son exclusivos del dominio del lenguaje natural, es decir, si el lenguaje es modular. Hasta ahora, la investigación en la neurobiología de la música ha arrojado evidencias contradictorias respecto a estas cuestiones.

    Por un lado, hay evidencia de que existe una doble disociación de las habilidades del lenguaje y la música. Las personas que sufren de amusia son incapaces de percibir la armonía, de recordar y de reconocer incluso melodías muy simples; al mismo tiempo no tienen problemas para comprender o producir el habla. Incluso hay un caso de una paciente que desarrolló amusia sin aprosodia, es decir, aunque no pudo reconocer el tono en las secuencias musicales, aún así podría hacer uso de tono, sonoridad, ritmo o ritmo para transmitir significados en el lenguaje hablado (Pearce, 2005). Este problema altamente selectivo en el procesamiento de la música (amusia) puede ocurrir como consecuencia de un daño cerebral, o ser innato; en algunos casos corre sobre familias, sugiriendo un componente genético. El síndrome del complemento de la amusia también existe —tras sufrir un daño cerebral en el hemisferio izquierdo, el compositor ruso Shebalin perdió sus funciones de habla, pero sus habilidades musicales permanecieron intactas (Zatorre, McGill, 2005).

    Por otro lado, los datos de neuroimagen sugieren que el lenguaje y la música tienen un mecanismo común para procesar estructuras sintácticas. El P600 ERP`s en el área de Broca, medido como respuesta a oraciones no gramaticales, también se provoca en sujetos que escuchan secuencias de acordes musicales carentes de armonía (Patel, 2003); por lo tanto, la expectativa de secuencias típicas en la música podría estar mediada por los mismos mecanismos neuronales que la expectativa de secuencias gramaticales en lenguaje.

    Una posible solución a esta aparente contradicción es el enfoque de sistema dual (Patel, 2003) según el cual la música y el lenguaje comparten algunos mecanismos procedimentales (áreas cerebrales frontales) responsables de procesar los aspectos generales de la sintaxis, pero en ambos casos estos mecanismos operan sobre diferentes representaciones (áreas cerebrales posteriores) — notas en caso de música y palabras en caso de lenguaje.


    This page titled 10.5: Otros Sistemas Simbólicos is shared under a CC BY-SA 3.0 license and was authored, remixed, and/or curated by Wikipedia via source content that was edited to the style and standards of the LibreTexts platform.