Saltar al contenido principal
LibreTexts Español

9.4: Ortografía a Asignaciones de Sonido en Lectura de Palabras

  • Page ID
    123165
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Ahora ampliamos el camino directo entre las entradas visuales de palabras (ortografía) y la salida del habla verbal (fonología), utilizando un conjunto mucho mayor de palabras que comprenden la mayoría de las palabras monosilábicas en inglés (casi 3,000 palabras). Al aprender sobre una selección tan grande de palabras, muestreadas según su frecuencia de ocurrencia en inglés, la red tiene la oportunidad de extraer las “reglas” que rigen el mapeo entre ortografía y sonido en inglés (tal como son), y así poder pronunciar con éxito no palabras.

    El inglés es un idioma particularmente difícil desde la perspectiva de la pronunciación, ya que cualquiera sabe quién ha intentado adquirirlo como segundo idioma. Hay muy pocas (si las hay) reglas absolutas. Todo es más una regularidad parcial, dependiente del contexto, que también se llama subregularidad. Por ejemplo, compara la pronunciación de la letra i en menta y pista (sonido corto i) con eso en mente y encuentra (largo sueno). La consonante final (t vs. d) determina la pronunciación, y por supuesto siempre hay excepciones como pinta (sonido largo I).

    Una forma de clasificar qué tan fuerte es una regularidad, es contar cuántas otras letras depende la pronunciación. Una excepción completa como pinta o yate depende de todas las letras de la palabra, mientras que menta vs. mente depende de otra letra en la palabra (la t o d final). Hay muchos ejemplos de letras silenciosas, como la e final en muchas palabras. Una bonita subregularidad es la letra m, que depende de si hay una n junto a ella, en cuyo caso se queda en silencio, como en maldita sea, columna, o mnemotécnica. Muchas otras consonantes pueden guardar silencio con diversos grados de subregularidad, incluyendo b (deuda), d (guapo), h (honesto), l (halve), p (golpe), r ( hierro), s (pasillo), t (castillo), w (espada) y z (encuentro).

    Otro factor que determina cuánto contexto se requiere para pronunciar una letra dada es la preponderancia de grupos multiletras como th (think), que tienen una pronunciación regular particular que difiere de las letras individuales por separado. Otros ejemplos de estos incluyen: sch (escuela), tch (lote), gh (fantasma), ght (derecha), kn (knock), ph (foto), wh ( qué). Uno de los conjuntos de letras más sensibles al contexto es el grupo ough, como en aunque, duro, tos, arado, a través, nada, donde la pronunciación varía ampliamente.

    Entonces el inglés es un desastre. La palabra construida ghoti es un famoso ejemplo de lo loco que puede llegar a ser. Se pronuncia “pez”, donde el gh es un sonido f como en duro, o es un sonido i como en mujeres, y ti es un sonido sh como en nación.

    Para que cualquier sistema pueda tener alguna posibilidad de producir una pronunciación correcta del inglés, debe ser capaz de tomar en cuenta un rango de contexto alrededor de una letra dada en una palabra, hasta toda la palabra misma. Un influyente enfoque temprano para simular la ortografía al sonido en una red neuronal (Seidenberg & McClelland, 1989) utilizó una representación llamada Wickelfeature (llamada así por Wayne Wickelgren), donde las letras escritas fueron codificadas en pares de tres. Por ejemplo, la palabra “pensar” estaría codificada como thi, hin y tinta. Esto es bueno para capturar contexto, pero es un poco rígido, y no permite la considerable cantidad de regularidad en las propias letras individuales (la mayoría de las veces, una m es solo una m). En consecuencia, este modelo no generalizó muy bien a las no palabras, donde las letras aparecían en compañía diferente a las palabras reales utilizadas en la formación. Un modelo posterior de Plaut, McClelland, Seidenberg y Patterson (1996) (en adelante PMSP) logró una buena generalización sin palabras al representar palabras de entrada a través de una combinación codificada a mano de unidades de letras individuales y contextos útiles de varias letras (por ejemplo, una unidad th).

    fig_reading_model.png
    Figura\(9.8\): Lectura de palabras como proceso de reconocimiento de objetos espacialmente invariantes. Las palabras aparecen en diferentes ubicaciones en la entrada, y el siguiente nivel, equivalente al nivel V4 en el modelo de reconocimiento de objetos, extrae combinaciones de letras más complejas, al tiempo que desarrolla representaciones más invariantes que integran letras individuales o entidades multiletra sobre múltiples diferentes ubicaciones. La representación a nivel de TI tiene entonces una representación completamente invariante espacialmente de la palabra (como una representación distribuida que se integra sobre letras individuales y grupos de letras), que luego proporciona un bonito mapeo a la salida fonológica.

    Tomamos un enfoque diferente en nuestro modelo de ortografía a sonido (Figura 9.8), aprovechando ideas del modelo de reconocimiento de objetos que se exploró en el Capítulo de Percepción. Específicamente, vimos que el modelo de reconocimiento de objetos podría aprender a construir combinaciones cada vez más complejas de características, a la vez que desarrollaba invarianza espacial, sobre múltiples niveles de procesamiento en la jerarquía desde V1 hasta TI. En el contexto del reconocimiento de palabras, estas características complejas podrían incluir combinaciones de letras, mientras que la invarianza espacial permite al sistema reconocer que una m en cualquier ubicación es la misma que cualquier otra m (la mayor parte del tiempo).

    Una demostración convincente de la importancia de la invarianza espacial en la lectura proviene de este ejemplo, que hizo las rondas en correo electrónico hace unos años:

    Yo cnduo't bvleiee taht me culod aulaclty uesdtannrd waht yo era rdnaieg. Unisg el icndeblire pweor del hmuan mnid, aocdcrnig a rseecrah en Cmabrigde Uinervtisy, dseno't mttaer en waht oderr los lterets en un wrod son, el olny irpoamtnt tihng es taht el frsit y lsat ltteer estar en el rhgit pclae. El rset puede ser un taotl mses y puedes sentll raed it whoutit un pboerlm. Tihs es bucseae el huamn mnid deos no raed ervey ltteer por istlef, sino el wrod como wlohe. Aaznmig, ¿eh? Yaeh y yo awlyas tghhuot slelinpg era ipmorantt! A ver si yuor fdreins también puede raed tihs.

    Claramente esto es más esfuerzo que el texto correctamente escrito, pero la capacidad de leerlo en absoluto indica que el simple hecho de extraer letras individuales de una manera invariante va muy lejos.

    Rendimiento de generalización sin palabras
    Conjunto de no palabras Modelo ss PMSP Personas
    Regulares de Glushko 95.3 97.7 93.8
    Excepciones de Glushko en bruto 79.0 72.1 78.3
    Glushko excepciones alt OK 97.6 100.0 95.9
    Ctrls de McCann y Besner 85.9 85.0 88.6
    Homofón de McCann y Besner 92.3 N/A 94.3
    Taraban & McClelland 97.9 N/A 94.3

    Tabla\(9.1\): Comparación del rendimiento de lectura sin palabras para nuestro modelo de ortografía a sonido (modelo ss), el modelo PMSP y datos de personas, a través de una variedad de diferentes conjuntos de datos de no palabras como se describe en el texto. Nuestro modelo funciona de manera comparativa con las personas, después de aprender casi 3,000 palabras monolílabas en inglés.

    Para probar el desempeño de este enfoque basado en el reconocimiento de objetos, lo ejecutamos a través de un conjunto de diferentes conjuntos estándar de no palabras, varios de los cuales también se utilizaron para probar el modelo PMSP. Los resultados se muestran en la Tabla\(9.1\).

    • Regulares de Glushko — no palabras construidas para coincidir con fuertes regularidades, por ejemplo nust, que es completamente regular (por ejemplo, must, bust, trust, etc).
    • Excepciones de Glushko: no palabras que tienen excepciones similares en inglés y regularidades conflictivas, como bint (podría ser como mint, pero también podría ser como pinta). Puntuamos estos ítems ya sea de acuerdo a la regularidad predominante, o también incluyendo casos excepcionales cercanos (alt OK en la tabla).
    • Ctrls de McCann & Besner: estos son pseudo-homófonos y controles coincidentes, que suenan como palabras reales, pero se deletrean de una manera novedosa, por ejemplo choyce (pronunciado como choice), y el control coincidente es phoyce.
    • Taraban & McClelland — tiene frecuencia coincidente con no palabras regulares y de excepción, por ejemplo poes (como palabras de alta frecuencia va o hace), y mose, como pose de menor frecuencia o perder.

    Los resultados indican que el modelo hace un trabajo notablemente bueno al capturar el desempeño del desempeño de las personas en estos conjuntos de lectura sin palabras. Esto sugiere que el modelo es capaz de aprender las regularidades y subregularidades apropiadas que están presentes en las estadísticas de pronunciación en inglés.

    Exploración

    • Abra Spelling to Sound para explorar el modelo de ortografía a sonido y probar su rendimiento tanto en estímulos verbales como no verbales.

    This page titled 9.4: Ortografía a Asignaciones de Sonido en Lectura de Palabras is shared under a CC BY-SA license and was authored, remixed, and/or curated by O'Reilly, Munakata, Hazy & Frank.