Saltar al contenido principal
LibreTexts Español

2.4: Multimodalidad en Subtitulado para Sordos y Educación con Dificultad Auditiva en Brasil

  • Page ID
    98679
    • Charles Bazerman, Chris Dean, Jessica Early, Karen Lunsford, Suzie Null, Paul Rogers, & Amanda Stansell
    • WAC Clearinghouse

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    Vera Lúcia Santiago Araújo

    Universidade Estadual do Ceará

    Desde la obra pionera de los años 90, la investigación sobre la multimodalidad se ha venido desarrollando para incluir el análisis de textos y géneros de páginas web y películas, junto con páginas impresas e imágenes estáticas. 1 La transcripción multimodal (MT) es una de las metodologías ideadas para el examen de textos y géneros cinematográficos, y se ha aplicado con éxito en gran parte de la investigación sobre multimodalidad. La traducción audiovisual (AVT), también conocida como Screen Translation, es el área de Estudios de Traducción que se ocupa de la traducción destinada a los medios masivos, con cinco modos diferentes: subtitulado, doblaje, voz en off, interpretación y audiodescripción. Un subcampo destacado en AVT es la accesibilidad audiovisual, que trata de la traducción de productos audiovisuales dirigidos a personas con discapacidad sensorial: los ciegos (audiodescripción), y los sordos (subtitulado para sordos y personas con dificultades auditivas-SDH).

    A pesar de la obvia interfaz entre la multimodalidad y la AVT, poco se ha hecho en términos de metodología para unir los dos enfoques. Hasta el momento estamos al tanto de una sola investigación que utiliza MT de películas para encontrar un mejor camino a través de la formación de los subtituladores novatos. Taylor (2003) propuso un modelo que une estudios de MT y subtitulado. El MT implica “la desintegración de una película en fotogramos/disparos/fases individuales”, y el análisis “de todas las modalidades semióticas que operan en cada fotograma/disparo/fase”. (Taylor, 2003:191)

    El presente trabajo en curso tiene como objetivo replicar el estudio de Taylor con subtituladores novatos para sordos y problemas de audición en Brasil. La investigación sobre SDH se realiza en la Universidad Estatal de Ceara (Brasil) desde el año 2000. Se realizaron tres estudios con el fin de encontrar parámetros que satisfagan las necesidades del público sordo brasileño. Ahora que estos parámetros se están probando en las cinco regiones de Brasil, sentimos que era el momento de capacitar a futuros subtituladores. Esta acción se justifica porque el SDH producido en el país no sigue los procedimientos ordinarios utilizados para la audiencia audiencia. El primer procedimiento es el uso de una tasa de subtítulos de 145, 160 o 180 palabras por minuto (wpm). Según D'Ydewalle et al. (1987), estas tasas son las que permiten a los espectadores tener una buena recepción, porque armonizan subtítulo, habla e imagen. El segundo es el número de líneas. Se garantiza la legibilidad si el subtítulo tiene dos líneas como máximo. El tercero es la subdivisión del discurso en uno o más subtítulos (segmentación o saltos de línea). Para lograrlo, hay algunos criterios a seguir para que el subtítulo se lea cómodamente. Por último, a veces es necesaria la condensación del discurso, debido a las tasas de subtítulos mencionadas anteriormente. Los tres estudios sugieren que estos parámetros más la provisión de información adicional, como la identificación del altavoz y los efectos de sonido, también deben ser utilizados en SDH.

    Este capítulo informa sobre un proyecto de investigación en curso sobre el uso de la transcripción multimodal en la formación de traductores sobre SDH. La idea surgió, después de que Fronteira (Frontier), largometraje, fuera subtitulado por estudiantes de la Universidad Federal de Minas Gerais y de la Universidad Estatal de Ceará. En su momento, era difícil explicar a los miembros del equipo en qué situaciones debemos identificar al hablante y cómo debemos traducir un sonido en palabras. Esta explicación podría haber sido más fácil de hacer si hubiéramos usado MT. Nuestra hipótesis es que MT puede ser una herramienta para enseñar a futuros traductores expertos a manejar el análisis de texto y la tecnología multimedia para un SDH exitoso.

    En este capítulo se describe esta investigación formativa en dos pasos. El primero se centra en describir las características del Subtitulado para Sordos y Dificultades Auditivas (SDH), siguiendo los parámetros propuestos por las investigaciones sobre el tema realizadas en la Universidad Estatal (cf. Araújo, 2004a, 2005, 2007; Franco & Araújo, 2003), y los patrones dirigidos a una audiencia auditiva (cf. Araújo, 2004b; Díaz Cintas & Remel, 2007; D'Ydewalle et al., 1987; Ivarsson & Carol 1998; y Perego, 2003, 2008, 2009). El segundo paso proporciona una transcripción multimodal de un extracto de Frontier para analizar su SDH como elemento de un texto multimodal. El propósito final es idear un modelo para ser utilizado en la educación SDH que combine multimodalidad y AVT.

    Además de la introducción, este capítulo se divide en tres partes. Comienza con un breve relato de nuestro marco teórico, que se basa en la transcripción multimodal y AVT. Luego se esboza la metodología utilizada y se presenta y discute el análisis del subtitulado de un extracto de la Frontera. Por último, se extraen algunas conclusiones y se señalan vías para profundizar en la investigación.

    Marco Teórico: SDH en Brasil

    El subtitulado dirigido a los espectadores auditivos y el subtitulado producido para audiencias sordas y con problemas de audición parecen ser vistos de manera diferente por los productores audiovisuales brasileños y por el gobierno porque la producción de ambos tipos de subtítulos es diferente. El primer tipo es considerado como una actividad de traducción y sigue las normas descritas por los investigadores de AVT (cf. Díaz Cintas & Remel 2007; D'Ydewalle et al., 1987; Ivarsson & Carol 1998; y Perego, 2008). El segundo es visto como una transcripción del habla y no se concibe como traducción. La propia ley corrobora esta visión, como el Proyecto de Ley 310, que regula el uso de SDH, audiodescripción e Interpretación del Lenguaje de Señas en la TV, definiendo a SDH como la “transcripción en portugués de diálogos, efectos sonoros y otra información que no pudiera ser percibida o entendida por las personas con discapacidad auditiva”. 2 El subtitulado intralingüe se incluye en los estudios de traducción porque el campo reconoce tres tipos de traducción: intralingüe (dentro de una misma lengua), interlingüe (entre dos lenguas diferentes) e intersemiótica (entre dos modos semióticos diferentes, por ejemplo, de lo visual a lo verbal y viceversa)

    Los subtítulos para espectadores auditivos se realizan con la ayuda de un software que permite detectar 3, traducir, revisar y previsualizar. Los parámetros que siguen las empresas brasileñas de subtitulación son similares a la hora de crear este tipo de subtítulo en muchos aspectos a los utilizados en Europa. Según estos parámetros, los subtítulos normalmente no tienen más de dos líneas que contienen aproximadamente 145 o 150 palabras por minuto, con una duración de proyección de cuatro segundos a 64 caracteres. Aunque los brasileños no siguen la regla europea de los seis segundos (cf. Díaz Cintas & Remel 2007; D'Ydewalle et al., 1987; Ivarsson & Carrol 1998), el número máximo de espacios disponibles para cuatro segundos, el estándar brasileño, está muy cerca de los espacios proporcionados por Díaz Cintas y Remel (2007, p. 97). El Cuadro 1 resume el número de caracteres por línea para la tasa de subtítulos de 145wpm, ya que las velocidades de lectura más altas (160 y 180 wpm) no son comunes aquí.

    Los subtítulos brasileños para audiencias auditivas también tienden a condensarse para que los subtítulos sean legibles en el tiempo disponible. Este acortamiento permite la sincronía entre subtítulos, voz e imagen, lo cual es esencial para facilitar la recepción del espectador. Un espectador debe tener tiempo suficiente para leer los subtítulos, ver las imágenes, escuchar el audio fuente y disfrutar del programa cómodamente. La condensación del contenido se puede lograr mediante la eliminación de ideas redundantes y no relevantes y por la omisión de algunas palabras de texto fuente. Estas eliminaciones son importantes para lograr el sincronismo de subtítulo-voz-imagen. Las palabras frecuentemente omitidas son: (i) palabras repetidas; (ii) marcadores conversacionales como “ya sabes”, “quiero decir”, “correcto”, etc.; (iii) interjecciones; (iv) etiquetar preguntas; (v) clichés o fórmulas rutinarias; (vi) palabras afines; (vii) palabras relacionadas con personas o cosas visibles en la pantalla (Diaz Cintas, 2003, pp. 209-211).

    La detección o ruptura de líneas se refiere a la desintegración de los diálogos en una o más unidades. Gottlieb (1994, pp. 109-110), citando a Helene Reid (1990), señala tres criterios a adoptar al manchar: el visual (siempre que esté presente un corte o un movimiento de cámara, es aconsejable un subtítulo diferente); el retórico, (los subtítulos deben seguir el ritmo del habla: cuando los altavoces hacen una pausa para respirar, los subtítulos deben final); y el gramatical, (en ausencia de cortes y pausas respiratorias, se adopta el parámetro gramatical). Cada subtítulo debe ser un todo coherente, es decir, las unidades semánticas deben permanecer en el mismo subtítulo.

    La legibilidad de los subtítulos es muy importante y por ello, el formateo es un tema clave en la producción y análisis de un subtítulo. Aparte del número de líneas, la tasa de subtítulos, la condensación de la información, el manchado y la duración de los subtítulos (cuatro o seis segundos), hay una serie de otros elementos relevantes para la legibilidad de los subtítulos: ubicación, tipo de fuente y posición. Los subtítulos normalmente se encuentran en la parte inferior de la pantalla. Se prefieren fuentes con tamaños variados y sin serif, porque resuelven problemas de legibilidad. En cuanto a la posición, los subtítulos normalmente están alineados al centro o a la izquierda, pero la forma alineada al centro es considerada por la mayoría de los analistas como la mejor opción (Díaz Cintas y Remel, 2007, p. 84).

    No se adopta el mismo procedimiento para crear SDH. Los profesionales involucrados no son los subtituladores, sino los stenocaptioners que operan un teclado especial —estenotipo— vinculado a una máquina computarizada llamada estenografía. El estenotipo permite velocidades de escritura muy rápidas y normalmente se utiliza para transcribir reuniones congresionales y de negocios, así como sesiones de corte. Ahora también se está utilizando para subtitular programas de televisión pregrabados y en vivo. En el Cuadro 2 se muestra un ejemplo de estas diferencias de subtitulación (Araújo, 2009:166):

    El subtítulo exhibido en la televisión no tiene un pensamiento completo, ya que algunos grupos de palabras están separados (“las figuras” y “de”, por ejemplo), el número de caracteres supera la tasa de subtítulos de 145-wpm-( ver Tabla 1). Debido a los parámetros antes mencionados, los cuatro subtítulos se transformaron en tres para cumplir con los criterios de número de caracteres, condensación y segmentación.

    Tabla\(\PageIndex{1}\): Espacios máximos para una velocidad de lectura de 145 palabras por minuto

    Aparte de estos parámetros, SDH también se abordará mediante un proyecto de investigación en curso que tiene como objetivo diseñar un modelo de SDH para audiencias brasileñas sordas y con problemas de audición. Este modelo fue desarrollado por el equipo de investigación de la Universidad Estatal con doce personas sordas del Instituto de Educación para Sordos de Ceará. Este proyecto tiene su base en los estándares señalados en el Cuadro 1, y se realizaron tres estudios en la universidad. Si bien se requieren resultados más concluyentes para considerar el modelo como capaz de satisfacer las necesidades de los televidentes brasileños sordos y con problemas de audición, puede indicar los elementos considerados relevantes para producir un servicio eficiente de SDH en todo Brasil. Este modelo preliminar se está probando en las cinco regiones de Brasil (Norte, Sur, Sureste, Nordeste y Centro Este). De cada región, cinco personas sordas de dos estados probarán el modelo viendo cuatro cortometrajes subtitulados. Este estudio no se describirá aquí, pero se hará referencia a algunas percepciones de los datos recopilados hasta el momento para aclarar algunos aspectos del tercer estudio.

    El primer estudio que realizamos analizó la SDH proporcionada por la cadena Globo TV, la más popular del país. En su momento (2002), era la única red que ofrecía SDH en Brasil. Los participantes (15 estudiantes sordos del Instituto de Educación para Sordos de Ceará, con sede en Fortaleza, y un grupo control de 13 estudiantes auditivos) fueron expuestos a diferentes géneros de programación televisiva. Se formularon cuatro hipótesis: (1) Siempre que la comprensión del habla no dependiera de las imágenes, la falta de sincronismo habla-subtítulo-imagen no afectaría la recepción de los subtítulos y la comprensión de su contenido; (2) Siempre que la comprensión del habla dependiera de las imágenes, la falta de voz-subtítulo-imagen el sincronismo afectaría la recepción; (3) Siempre que hubiera sincronismo de voz-subtítulo-imagen, se facilitaría la recepción; (4) Cuando estuvieran presentes (o carecían, según el caso), la oralidad y los marcadores acústicos considerados (in) dispensables por los participantes sordos estuvieran presentes (o carentes, según el caso), la recepción se vería comprometida.

    Tabla\(\PageIndex{2}\): Subtítulo cerrado versus parámetros SDH

    Se confirmaron las hipótesis 1, 2 y 4, sugiriendo que los subtítulos sincronizados voz-imagen facilitan la recepción por parte del espectador (Franco y Araújo, 2003). Sin embargo, la hipótesis 3 se encontró insostenible y esto señala que tal vez el sincronismo habla-subtítulo-imagen y la condensación del contenido no son suficientes para facilitar una recepción eficiente. Las películas mostradas tenían sincronización de voz e imagen así como subtítulos condensados, pero estos resultaron desafiantes para los participantes. Una posible explicación es que los subtítulos utilizados estaban menos condensados que los subtítulos dirigidos a escuchar a los espectadores, ya que la edición no siguió los parámetros señalados anteriormente y se realizó únicamente para la sincronización de imagesubtitle (Araújo, 2004a). Debido a que los participantes sordos informaron que no entendían el contenido cinematográfico, asumimos que tal vez los subtítulos deberían condensarse aún más para reducir el tiempo requerido para leerlos (Franco & Araújo, 2003). Somos conscientes de que se necesitan más investigaciones para probar esta suposición. Teniendo en cuenta estos resultados, decidimos volver a subtitular los mismos programas para nuestro segundo estudio en el que utilizamos únicamente subtítulos pop-on que adoptaron el parámetro más común empleado por las empresas de subtitulación en Brasil. Como el parámetro 160-wpm era adecuado para los espectadores auditivos, pensamos que también sería eficiente para los espectadores sordos.

    El segundo estudio probó los subtítulos condensados pop-on con el mismo grupo de participantes sordos y oyentes. Después de ver los mismos programas en un televisor, los participantes respondieron cuestionarios escritos, compuestos por preguntas abiertas y cerradas, 4 una herramienta más eficiente que los cuestionarios de opción múltiple que habíamos utilizado anteriormente. El nuevo cuestionario consistió en preguntas de “concepto, “detalle” e “imagen” relacionadas con la comprensión del contenido y la integración de imágenes y subtítulos. Esta vez el desempeño de los participantes fue mejor, pero los resultados aún no fueron concluyentes (Araújo, 2004a). En ocasiones los participantes lograron comprender el tema principal, pero no pudieron comentar la imagen y/o las ideas secundarias del clip. En lo que respecta a la edición, se consideró incómoda la cantidad de condensación de información ocurrida (Araújo, 2004a). Por ello, la condensación y la edición fueron el foco del tercer estudio.

    El tercer estudio trató de averiguar qué nivel de condensación satisfaría las necesidades de las personas sordas brasileñas (Araújo, 2007). Además, se investigó cuál sería el formato ideal, teniendo en cuenta consideraciones técnicas así como estilo, convenciones y puntuación utilizados. Un grupo de doce estudiantes sordos, integrado por estudiantes universitarios (nueve) y de secundaria (tres), tuvieron reuniones mensuales con el equipo de investigación durante ocho meses. Ellos vieron diferentes clips del mismo programa con dos conjuntos diferentes de SDH: el contenido preexistente y la propuesta del equipo de investigación. Este último se basó en los estándares señalados en la Tabla 1 los cuales están dirigidos a escuchar a los espectadores más el horquillado para proporcionar información adicional. Después de cada visionado, se pidió a los participantes que platicaran sobre el contenido del programa y accedieran al SDH. Estos protocolos de recuerdo ocurrieron en Lengua de Signos Brasileña (LIBRAS) con la interpretación en portugués brasileño filmada para su posterior análisis.

    Los clips fueron subtitulados con diferentes velocidades de lectura: 145 (ver Tabla 1), 160 y 180wpm. Si bien no hubo mucha diferencia entre las tres velocidades, los participantes sordos prefirieron la tasa de 145 palabras por minuto, ya que ésta resultó ser más cómoda de ver. Esto sugiere que para las personas sordas brasileñas se necesita un mayor grado de edición para facilitar el disfrute de un programa de televisión.

    Las sugerencias respecto al formato fueron para el uso de corchetes al señalar la identificación de altavoces y efectos de sonido. Rechazaron el sistema de color europeo. En la Figura 1 se muestran los dos parámetros.

    Hay otro aspecto interesante relacionado con la identificación del orador que nos gustaría señalar. Participantes sordos dijeron que era muy difícil distinguir quién habla en una escena. Al principio, sugirieron que se nombrara a los oradores en cada subtítulo. Al argumentar que se perdería una gran cantidad de espacio en la pantalla, coincidieron en que la identificación del orador debería estar presente cada vez que una persona diferente hable. Estos cambios continúan siendo discutidos en el estudio actual, ya que algunas personas sordas de otras partes de Brasil no están identificando adecuadamente a los personajes, porque fue nuestra elección no nombrar al hablante cuando no había otro personaje visible en la pantalla. Un buen ejemplo se puede ver en la Figura 1. El nombre del personaje Romanza no fue reconocido por la mayoría de los participantes sordos en la investigación actual. Siempre se la denominó “la niña” y “la nieta”.

    Estamos empezando a darnos cuenta de que debemos prestar más atención a este tema. Por lo tanto, pensamos que deberíamos tratar de abordar este tema en la formación de nuestros subtituladores. La descripción de todos los elementos multimodales por medio de MT puede ayudarles a decidir en qué situación se necesita esta identificación.

    MT también puede ser útil cuando traducimos la pista sonora de una película. La investigación actual ha demostrado que traducir todos los sonidos puede no ser una estrategia eficiente. Casi todos los participantes que hasta ahora han estado expuestos a los subtítulos solo parecen reconocer el sonido si está vinculado a la trama cinematográfica. Por ejemplo, los sordos pudieron reconocer el sonido: [Canción triste]. Este efecto sonoro anunció un personaje muerto. El efecto podría describirse como [sonido de una campana]. Esto resultó ser una buena estrategia, ya que los sordos no reconocían otras canciones en las que intentamos caracterizar el sonido como [Música instrumental] y [Batería], por ejemplo.

    Transcripción Multimodal

    Baldry y Thibault (2000), citados en Taylor (2003), son los autores de la transcripción multimodal (MT), una herramienta para describir y analizar textos cinematográficos. El MT de Baldry y Thibault es una cuadrícula con seis columnas que se descompone y describe a fondo un texto cinematográfico audiovisual en términos de cada modo semiótico del que está hecho. La cuadrícula contiene seis columnas: (1) TIEMPO en segundos; (2) marco visual—la imagen estática; (3) imagen visual—descripción del escenario y participantes mostrados de acuerdo a la posición de la cámara utilizando los componentes descritos en la Figura 2; (4) ACCIÓN KINESICA de los participantes; (5) SONIDO SONIDO— diálogos, sonidos ambientales, música; y (6) INTERPRETACIÓN METAFUNCIONAL, donde la película se divide en fases y subfases definidas por la identificación de un patrón de modos semióticos en acción, que hará temporalmente la transición a un patrón distinto de modos semióticos.

    Figura\(\PageIndex{1}\): Identificación del hablante: Brasil y Europa
    Figura\(\PageIndex{2}\): Componentes de la tabla de transcripción multimodal

    Taylor (2003) adaptó la cuadrícula de Bladry y Thibaut en sus estudios de subtitulado, afirmando que puede ser utilizada como una herramienta para que los subtituladores novatos aprendan a usar la imagen para decidir qué información se priorizará al agregar o eliminar, y qué estrategias serán necesarias para condensar o editar un subtítulo. El autor afirma que:

    (MT) Como herramienta para el profesional es, como hasta ahora desarrollada, consume mucho tiempo y no es comercialmente viable sobre una base costo-beneficio, pero este artículo intenta mostrar que como instrumento para sensibilizar a los estudiantes de traducción a las demandas particulares de la traducción multimodal, nos lleva un paso más allá en el camino a la optimización de estrategias de subtitulación. (Taylor, 2003, p. 191)

    Taylor realizó tres cambios considerables en el modelo de Bauldry y Tibaut, porque consideró la tabla original sobre detallada y la refinó para el diseño de subtítulos (Taylor, 2004). El autor fusionó así la tercera columna con la cuarta, eliminó la última columna sin tener en cuenta el desglose en fases y subfases, y luego insertó una columna con subtítulos, como se ilustra en la Figura 3.

    Figura\(\PageIndex{3}\): Transcripción multimodal de Taylor de un episodio de una serie de comedia de la BBC. Fuente: TAYLOR, 2003, p. 162
    Figura\(\PageIndex{4}\): Transcripción multimodal utilizada aquí.

    De acuerdo con la opinión de Taylor (2004), hubo que hacer otras dos modificaciones importantes. El primer cambio es que la columna (1) —TIEMPO en segundos— fue reemplazada por Lectura de Código de Tiempo (TCR), que es un método de contabilización de imágenes de video y fotogramas que dice HORAS: MINUTOS: SEGUNDOS: FRAMAS (00:00:12:20). Esto se hizo porque la duración de la escena, a la que deben insertarse los títulos, es de crucial importancia, ya que determina el número de caracteres por segundo que deben estar en pantalla, para garantizar la legibilidad. Cada TCR presentado en la tabla MT de este capítulo, fue recuperado del software de subtitulación Subtitle Workshop ©, que se explicará en la siguiente parte de este capítulo.

    El otro cambio es que la columna de subtítulos se convirtió en la columna SDH donde se insertará la sugerencia final de subtitulación de este capítulo. La Figura 4 muestra la estructura completa del MT.

    El Curso de Capacitación

    Como parte del proyecto de cooperación de las dos universidades, a los subtituladores dedicados a la investigación y a la accesibilidad audiovisual se les imparten procedimientos de subtitulación mediante un curso de capacitación. Como se dijo anteriormente, era muy difícil para los alumnos decidir cuándo se debía identificar a un orador y cómo traducir un sonido en palabras. Para facilitar las elecciones de los estudiantes, pensamos que sería útil la descripción de todos los elementos semióticos involucrados en una escena proporcionada por MT. Entonces, estamos empezando a introducir esta herramienta en el curso.

    El esquema del curso es el siguiente: a) cuestiones teóricas relacionadas con el subtitulado; b) presentación del software de subtitulación Subtitle Workshop©; c) práctica de subtitulación. El freeware Subtitle Workshop (SW), desarrollado por Urusoft—HTTP://www.urusoft.net, nos permite elaborar todas las fases del proceso de subtitulado: 1) SPOTTING O CUEING; 2) TRADUCCIÓN; 3 REVISIÓN (ver Figura 5).

    Figura\(\PageIndex{5}\): Taller de subtítulos

    En el menú PELÍCULA podemos cargar la película y en el menú ARCHIVO podemos cargar subtítulos preexistentes o crear otros nuevos. La película subtitulada se puede ver mientras se preparan los subtítulos, y podemos elegir el formato de los subtítulos (color, fuente, tamaño, etc.) en el menú EDITAR. Además, los tiempos de entrada y salida y la duración se pueden visualizar en el lado izquierdo del SW. El texto del subtítulo está escrito en la parte inferior de la pantalla.

    En las siguientes páginas, proporcionamos un ejemplo de cómo se utilizará MT en la formación de subtituladores novatos, y se discutirá el subtitulado de un extracto de Frontier. Esta película fue elegida para ser nuestro foco porque es una película de autor con un diálogo limitado y muchos sonidos que ayudaron a crear la atmósfera misteriosa.

    Subtitulado de Frontier

    Frontier (2008) fue dirigida por Rafael Conde, quien trabaja para la Universidad Federal. El año pasado salió la versión DVD, subtitulada y audiodescrita por miembros del proyecto. Cuenta una historia de amor, llena de fe y misterio. Fue baleado en una casa vieja donde vive una jovencita (María Santa), considerada santa por la gente de Minas Gerais. La llegada del Viajero, la amante de María Santa, y la tía Emiliana (una anciana), que prepara el gran milagro, cambiará para siempre la vida de María Santa

    \(\PageIndex{6}\)Figura:Portada del DVD

    Como se ha dicho, la película no tiene mucho diálogo, sino una pista sonora que es necesaria para crear la misteriosa atmósfera. Así, identificar al hablante y los efectos sonoros son esenciales para seguir la trama. Por ello, tuvimos que poner mucha atención a lo que revelan las imágenes para que supieran cuándo traducir las dos características.

    En la escena enfocada aquí, María Santa y el Viajero están hablando de un secreto que comparten. El subtitulado de esta escena de dos segundos requiere que se utilicen 29 espacios para lograr la tasa de 145wpm (ver Cuadro 1). A pesar de que había suficiente espacio para la traducción del sonido (llanto), el análisis del disparo por medio de MT muestra que María Santa estaba llorando antes de decir “lo siento por nosotros”. El primer fotograma de la Figura 7 muestra claramente que el personaje está llorando. Entonces la decisión fue no subtitular esta información porque la imagen lo dice a la audiencia. El disparo anterior, que duró más de tres segundos muestra que María Santa estaba muy triste y que su llanto expresó su dolor. En este caso, fue una decisión fácil porque no había necesidad de condensar el texto. Sin embargo, en los otros ejemplos, el MT demostró ser una ayuda eficiente para los subtituladores novatos.

    Figura\(\PageIndex{7}\): Transcripción multimodal 1

    El disparo trae a María Santa, la Viajera, y a la tía Emiliana. Cuando la anciana se une a la pareja, es necesario identificarla, pues desde una distancia media, es difícil darse cuenta de qué persona está hablando (ver Figura 8). Es por ello que se produjo el subtítulo con el nombre EMILIANA. La escena dura dos segundos y cuatro fotogramas y la traducción debe tener 32 caracteres como máximo (ver Tabla 1). Entonces, aparte de EMILIANA entre paréntesis (10 caracteres), también se tiene que incluir en el subtítulo la frase Estive rezando minhas ladainhas (32 caracteres). Por lo tanto, se escribió una versión abreviada, Rezei minhas ladainhas (23 caracteres). En su momento, a los estudiantes les tomó mucho tiempo subtitular la película, ya que tenía muchas situaciones así. Presumimos que si se hubiera utilizado MT, el subtitulado hubiera sido más fácil.

    El mismo tipo de dificultad no ocurrió en el siguiente subtítulo señalado en la Figura 8, porque, como se puede ver en el MT, la situación sigue siendo la misma y el espectador puede ver que la anciana continúa su discurso. Por lo que no fue necesario nombrarla, y su discurso, E agora vou descansar um pouco (1:18, 25 caracteres), podría estar completamente subtitulado y no tuvo que ser editado para cumplir con el parámetro 145wpm (ver Tabla 1).

    Los últimos subtítulos que se discutirán aquí están relacionados con dos situaciones que involucran la ira de la tía Emiliana, una ira percibida porque grita mientras habla. En ambos subtítulos, no fue necesario traducir la información añadiendo [gritos] al subtítulo, ya que las imágenes mostraban claramente las reacciones emocionales de la anciana (ver Figura 9).

    Esta estrategia fue útil en el segundo subtítulo porque había que editarlo. Sin la inclusión del efecto de sonido, solo se tuvo que eliminar al destinatario del mensaje (você). Si se hubiera incluido [gritos], el subtítulo tendría que estar más condensado, ya que solo se permitían 40 caracteres para cumplir con la tasa de subtítulos conveniente (ver Tabla 1).