Saltar al contenido principal
LibreTexts Español

4.1: La prueba de Turing

  • Page ID
    97715
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Alan Turing29

    Alan Mathison Turing OBE FRS (/ˈtjrɪ/; 23 de junio de 1912 — 7 de junio de 1954) fue un informático inglés, matemático, lógico, criptanalista y biólogo teórico. Fue muy influyente en el desarrollo de la informática teórica, proporcionando una formalización de los conceptos de algoritmo y computación con la máquina Turing, la cual puede considerarse un modelo de una computadora de propósito general. Turing es ampliamente considerado como el padre de la informática teórica y la inteligencia artificial.

    Durante la Segunda Guerra Mundial, Turing trabajó para el Government Code and Cypher School (GC&CS) en Bletchley Park, el centro británico de descifrado de código. Durante un tiempo dirigió Hut 8, la sección responsable del criptanálisis naval alemán. Diseñó una serie de técnicas para acelerar la ruptura de los cifrados alemanes, incluyendo mejoras en el método de bombardeo polaco de antes de la guerra, una máquina electromecánica que podría encontrar ajustes para la máquina Enigma. Turing jugó un papel fundamental al descifrar mensajes codificados interceptados que permitieron a los Aliados derrotar a los nazis en muchos compromisos cruciales, incluida la Batalla del Atlántico; se ha estimado que este trabajo acortó la guerra en Europa en más de dos años y salvó más de catorce millones de vidas.

    Después de la guerra, trabajó en el Laboratorio Nacional de Física, donde diseñó el ACE, entre los primeros diseños para una computadora de programa almacenado. En 1948 Turing se incorporó al Laboratorio de Máquinas de Computación de Max Newman en la Universidad Victoria de Manchester, donde ayudó a desarrollar las computadoras de Manchester y se interesó por la biología matemática. Escribió un artículo sobre la base química de la morfogénesis, y predijo reacciones químicas oscilantes como la reacción de Belousov—Zhabotinsky, observada por primera vez en la década de 1960.

    Turing fue procesado en 1952 por actos homosexuales, cuando por la Enmienda Labouchere, la “indecencia grave” seguía siendo criminal en el Reino Unido. Aceptó el tratamiento de castración química, con DES, como alternativa a la prisión. Turing murió en 1954, 16 días antes de cumplir 42 años, por envenenamiento por cianuro. Una investigación determinó su muerte como suicidio, pero se ha señalado que la evidencia conocida también es congruente con envenenamiento accidental. En 2009, tras una campaña en Internet, el primer ministro británico Gordon Brown hizo una disculpa pública oficial en nombre del gobierno británico por “la espantosa forma en que lo trataron”. La reina Isabel II le concedió un indulto póstumo en 2013.

    “La prueba de Turing”

    La obra de Turing “Computing Machinery and Intelligence” 30 fue pionera en su mirada hacia el futuro de cómo podemos entender y tratar con máquinas cada vez más capaces. Las citas de Turing a continuación que se combinan con mi comentario son de este artículo.

    La primera sección del artículo de Turing está etiquetada como “El juego de la imitación”. El reciente biopic abut Turing (2014, Dirigido por Morten Tyldum) utiliza este como título, haciendo uso tanto de la contribución más popular de Turing a la Filosofía como del hecho de que Turing tenía muchas dificultades para encajar socialmente, por lo que tuvo que “imitar” ser una persona normal. Vale la pena un reloj si tienes tiempo. En esta primera sección del artículo, Turing esboza cuál va a ser su proyecto, y deja muy claro lo que quiere argumentar, y lo que no quiere argumentar,

    “Propongo considerar la pregunta: “¿Pueden pensar las máquinas?” Esto debería comenzar con definiciones del significado de los términos “máquina” y “pensar”. Las definiciones podrían enmarcarse para reflejar en la medida de lo posible el uso normal de las palabras, pero esta actitud es peligrosa, Si el significado de las palabras “máquina” y “pensar” se encuentran examinando cómo se usan comúnmente es difícil escapar a la conclusión de que el significado y la respuesta a la pregunta, “¿Pueden pensar las máquinas?” se buscará en una encuesta estadística como una encuesta de Gallup. Pero esto es absurdo. En lugar de intentar tal definición voy a sustituir la pregunta por otra, que está estrechamente relacionada con ella y que se expresa en palabras relativamente inequívocas.

    La nueva forma del problema se puede describir en términos de un juego al que llamamos el 'juego de imitación”. Se juega con tres personas, un hombre (A), una mujer (B), y un interrogador (C) que puede ser de cualquiera de los dos sexos. El interrogador se queda en una habitación aparte frente a los otros dos. El objeto del juego para el interrogador es determinar cuál de los otros dos es el hombre y cuál es la mujer. Los conoce por etiquetas X e Y, y al final del juego dice o bien “X es A e Y es B” o “X es B e Y es A.”

    La forma que tomará la prueba es bastante fácil de entender dadas las tecnologías actuales, pero Turing tuvo que hacer todo lo posible para básicamente describir al juez comunicándose con los dos a través de forma electrónica, como una sala de chat, mensajería instantánea o mensajes de texto. Comunicar de esta manera asegura que solo se tenga en cuenta el contenido de lo que se dice a la hora de tomar una decisión. Entonces dice:

    “Ahora hacemos la pregunta: “¿Qué pasará cuando una máquina tome el papel de A en este juego?” ¿El interrogador decidirá erróneamente tantas veces cuando el juego se juega así como cuando el juego se juega entre un hombre y una mujer? Estas preguntas sustituyen a nuestro original, “¿Pueden pensar las máquinas?"”

    Entonces, lo que quiere hacer es bastante sencillo: un juez (tú, por ejemplo) chatea con 2 seres a través de una computadora. Una es una computadora y la otra es una persona. Ambos tratan de convencerte de que es la persona, y si no puedes decidir cuál es cuál o adivinar mal —y esto te sucede repetidamente tanto a ti mismo como a los demás— entonces Turing cree que debemos concluir que la computadora es inteligente como nosotros ya que nos ha imitado adecuadamente (de ahí llamarlo el” juego de imitación”).

    Turing luego continúa explicando las ventajas de acercarse a la inteligencia artificial de esta manera en lugar de tratar de definir el pensamiento y demostrar que una máquina puede hacerlo,

    “El nuevo problema tiene la ventaja de trazar una línea bastante aguda entre las capacidades físicas e intelectuales de un hombre. Ningún ingeniero o químico afirma ser capaz de producir un material que sea indistinguible de la piel humana. Es posible que en algún momento esto se pueda hacer, pero incluso suponiendo que esta invención esté disponible, deberíamos sentir que tenía poco sentido tratar de hacer una “máquina pensante” más humana vistiéndola de tal carne artificial. La forma en que hemos establecido el problema refleja este hecho en la condición que impide que el interrogador vea o toque a los demás competidores, o escuche -sus voces...

    No deseamos penalizar a la máquina por su incapacidad para brillar en concursos de belleza, ni penalizar a un hombre por perder en una carrera contra un avión. Las condiciones de nuestro juego hacen que estas discapacidades sean irrelevantes. Los “testigos” pueden presumir, si lo consideran aconsejable, tanto como les plazca de sus encantos, fuerza o heroísmo, pero el interrogador no puede exigir demostraciones prácticas...

    Se podría instar a que al jugar al “juego de imitación” la mejor estrategia para la máquina posiblemente sea algo más que la imitación del comportamiento de un hombre. Esto puede ser, pero creo que es poco probable que haya algún gran efecto de este tipo. En cualquier caso no hay intención de investigar aquí la teoría del juego, y se asumirá que la mejor estrategia es tratar de dar respuestas que naturalmente serían dadas por un hombre”.

    ¿Por qué abordar la inteligencia artificial de esta manera? Es bastante simple: ¿cómo sabemos que otras personas son inteligentes? ¿Definimos “pensar” y luego decimos “sé que estás pensando y así puedes ser inteligente”? ¿O simplemente asumimos que otros son inteligentes si interactuamos con ellos y ellos demuestran que son inteligentes? Turing solo quiere extender esta cortesía que extendemos a otras personas a las máquinas también.

    Después de presentar sus razones para creer que la prueba es buena, Turing continúa lidiando con muchos contraargumentos a los suyos. Se trata de un movimiento filosófico sólido y es su intento de hacer frente a todas las objeciones más razonables y comunes a lo que ha propuesto. Se ocupó de una serie de temas tecnológicos que ahora podemos dar por sentado: son pocos los que dudan de que la inteligencia artificial suceda algún tiempo, y ahora parece ser solo cuestión de cuándo y cómo. Las computadoras avanzan en el poder cada año, por lo que alguna forma real de inteligencia artificial más allá de los ayudantes similares a Siri está en el horizonte lejano. Él también se ocupa de otras objeciones, más atemporales, y esas siguen a continuación.

    La objeción matemática

    A pesar de los avances en la tecnología, aún es posible que las computadoras nunca sean capaces de computar todo lo necesario para imitar o tener inteligencia humana. Resume estas objeciones de la siguiente manera,

    “El resultado en cuestión se refiere a un tipo de máquina que es esencialmente una computadora digital con una capacidad infinita. Afirma que hay ciertas cosas que una máquina así no puede hacer. Si está amañado para dar respuestas a preguntas como en el juego de imitación, habrá algunas preguntas a las que o bien dará una respuesta incorrecta, o dejará de dar una respuesta por mucho tiempo que se le permita para una respuesta. Por supuesto, puede haber muchas preguntas de este tipo, y las preguntas que no pueden ser respondidas por una máquina pueden ser respondidas satisfactoriamente por otra. Por supuesto, estamos suponiendo para el presente que las preguntas son del tipo a las que es apropiada una respuesta “Sí” o “No”, más que preguntas como “¿Qué opinas de Picasso?” Las preguntas que sabemos que las máquinas deben fallar son de este tipo... Este es el resultado matemático: se argumenta que demuestra una discapacidad de máquinas a las que no está sujeto el intelecto humano”.

    Su respuesta a esto es bastante simple: ¿Y qué? ¿Cómo sabes que la gente no está limitada? Y aunque una computadora tenga limitaciones, ¿realmente importa? Su respuesta está abajo y termina con su punto más importante a efectos de la utilidad del Juego de Imitación,

    “La respuesta corta a este argumento es que aunque se establece que hay limitaciones a los Poderes Si alguna máquina en particular, sólo se ha afirmado, sin ningún tipo de prueba, que tales limitaciones no se aplican al intelecto humano. Pero no creo que este punto de vista pueda descartarse tan a la ligera. Siempre que a una de estas máquinas se le haga la pregunta crítica apropiada, y dé una respuesta definitiva, sabemos que esta respuesta debe ser incorrecta, y esto nos da cierto sentimiento de superioridad. ¿Es este sentimiento ilusorio? Sin duda es bastante genuino, pero no creo que se le deba dar demasiada importancia. Con demasiada frecuencia damos respuestas equivocadas a las preguntas nosotros mismos para ser justificados en estar muy satisfechos con tal evidencia de falibilidad por parte de las máquinas. Además, nuestra superioridad sólo se puede sentir en tal ocasión en relación con la única máquina sobre la que hemos anotado nuestro mezquino triunfo. No habría cuestión de triunfar simultáneamente sobre todas las máquinas. En resumen, entonces, puede haber hombres más inteligentes que cualquier máquina dada, pero de nuevo podría haber otras máquinas más inteligentes otra vez, y así sucesivamente.

    Los que se aferran al argumento matemático, creo, sobre todo estaría dispuesto a aceptar el juego de imitación como base para la discusión...”

    Entonces, aunque haya algo en este argumento, el Juego de Imitación en sí mismo puede funcionar como una prueba de inteligencia.

    El argumento desde la conciencia

    Este argumento es uno de los más interesantes y fuertes que aún hoy se mantiene en contra de la posibilidad de una verdadera Inteligencia Artificial similar a la nuestra, la inteligencia humana. Turing explica este argumento de la siguiente manera,

    “Este argumento está muy, bien expresado en la Oración Lister del profesor Jefferson para 1949, de la que cito. “No hasta que una máquina pueda escribir un soneto o componer un concierto por pensamientos y emociones sentidas, y no por casualidad caída de símbolos, podríamos estar de acuerdo en que la máquina es igual al cerebro, es decir, no sólo escribirla sino saber que la había escrito. Ningún mecanismo podía sentir (y no meramente señalar artificialmente, un artificio fácil) placer por sus éxitos, pena cuando sus válvulas se fusionan, calentarse por halagos, hacerse miserables por sus errores, dejarse encantar por el sexo, enojarse o deprimirse cuando no puede conseguir lo que quiere "”.

    Esta objeción llama a la cuestión validez de la prueba del Juego de Imitación y esencialmente dice: “Incluso si pasa la prueba, no es inteligente porque carece de conciencia o de la capacidad de hacer algo nuevo y emocional”. Turing responde preguntando si realmente sabemos o no que los demás están pensando (o incluso nosotros mismos). Tiene un punto aquí ya que lo que constituye “conciencia” y “pensamiento” sigue siendo sobre todo un misterio. Sabemos cómo funcionan los cerebros durante esos procesos, pero aún no podemos definirlos exactamente, de ahí por qué a Turing le gusta su prueba como método para determinar la inteligencia.

    Turing continúa diciendo que la verdadera fuerza del argumento es que pone en tela de juicio a una máquina la capacidad de entender cualquier cosa como lo hace un humano. El argumento de John Searle “Sala China” que sigue a continuación es una presentación más fuerte de este argumento, y Turing da su propia respuesta a estas objeciones diciendo que una máquina ciertamente podría comportarse como si tuviera entendimiento, y si ese entendimiento sería o no “genuino” es un tema separado; el prueba del Juego de Imitación para la inteligencia aún puede funcionar, sobre todo porque es como sabemos que otras personas entienden las cosas.

    Argumentos desde diversas discapacidades

    Turing resume esta objeción de la siguiente manera,

    “Estos argumentos toman la forma, “te concedo que puedes hacer que las máquinas hagan todas las cosas que has mencionado pero nunca podrás hacer una para hacer X.” Numerosas características X se sugieren en esta conexión. Ofrezco una selección:

    Sea amable, ingenioso, hermoso, amable, tenga iniciativa, tenga sentido del humor, diga lo correcto del mal, comete errores, enamórese, disfrute de las fresas y la crema, haga que alguien se enamore de ella, aprenda de la experiencia, use las palabras correctamente, sea el tema de su propio pensamiento, tenga tanta diversidad de comportamiento como hombre, hacer algo realmente nuevo”.

    La respuesta de Turing es sorprendentemente simple: Entonces, ¿y si no pueden hacer estas cosas ya que aún podrían ser inteligentes sin tener que hacer estas cosas y, lo que es más importante, ¿no podríamos simplemente hacer que la máquina haga estas cosas? ¿No podemos hacer que una computadora cometa errores, aprender, comportarse de cierta manera, tener papilas gustativas, autoprogramarse, etc.? Y si no es gracioso, ¿no es humano entonces? Si bien me gustaría llamar inhumanos a aquellos que no tienen sentido del humor, no lo haré, solo son aburridos, y las computadoras ciertamente pueden ser aburridas.

    Por último, Turing vuelve a casa su punto principal: nada de esto pone en duda la idoneidad de su prueba para determinar cuándo una máquina ha logrado inteligencia.

    Objeción de Lady Lovelace

    Esta es quizás una de las objeciones más citadas a la inteligencia informática, y es anterior a Turing por más de cien años. Lo retrata, y su respuesta, de la siguiente manera,

    “Nuestra información más detallada del motor analítico de Babbage proviene de una memoria de Lady Lovelace (1842). En ella afirma, “El Motor Analítico no tiene pretensiones de originar nada. Puede hacer lo que sepamos ordenar que se realice” (sus cursivas). Esta afirmación es citada por Hartree (1949) quien agrega: “Esto no implica que tal vez no sea posible construir equipos electrónicos que 'piensen por sí', o en los que, en términos biológicos, se pueda establecer un reflejo condicionado, que serviría de base para el 'aprendizaje'. Si esto es posible en principio o no es una pregunta estimulante y emocionante, sugerida por algunos de estos desarrollos recientes Pero no parecía que las máquinas construidas o proyectadas en su momento tuvieran esta propiedad”.

    Estoy en total acuerdo con Hartree sobre esto. Se notará que no afirma que las máquinas en cuestión no habían conseguido el inmueble, sino que las pruebas de que disponía Lady Lovelace no la animaron a creer que la tenían. Es muy posible que las máquinas en cuestión tuvieran en cierto sentido consiguieron esta propiedad. Por suponer que alguna máquina de estado discreto tiene la propiedad. El Motor Analítico era una computadora digital universal, de manera que, si su capacidad de almacenamiento y velocidad fueran adecuadas, se pudiera realizar mediante una programación adecuada para imitar la máquina en cuestión. Probablemente este argumento no se le ocurrió a la Condesa ni a Babbage. En todo caso no había obligación sobre ellos de reclamar todo lo que pudiera reclamarse...

    Una variante de la objeción de Lady Lovelace afirma que una máquina “nunca puede hacer nada realmente nuevo”. Esto puede ser detenido por un momento con la sierra, “No hay nada nuevo bajo el sol”. Quién puede estar seguro de que el “trabajo original” que ha realizado no fue simplemente el crecimiento de la semilla sembrada en él por la enseñanza, o el efecto de seguir principios generales bien conocidos”.

    Nuevamente, para volver al punto principal de Turing, esto no parece crear un problema genuino para su prueba. Si una máquina —o cualquiera— puede o no hacer algo nuevo es una cuestión aparte de si algo es inteligente.

    Argumento desde la continuidad en el sistema nervioso

    Esta objeción a Turing es más técnica, y la explica así,

    “El sistema nervioso ciertamente no es una máquina de estado discreto. Un pequeño error en la información sobre el tamaño de un impulso nervioso que incide en una neurona, puede marcar una gran diferencia en el tamaño del impulso saliente. Se puede argumentar que, siendo así, no se puede esperar poder imitar el comportamiento del sistema nervioso con un sistema de estado discreto”.

    Esta es una versión temprana de la distinción entre lo que ahora se conoce como “IA dura” versus “IA suave”. La IA dura es el tipo de inteligencia del que ha estado hablando Turing: una computadora, tal y como las entendemos, ejecuta un programa que es inteligente. Esta objeción que está discutiendo básicamente dice que no hay forma de que esto pueda funcionar ya que una computadora es, en cierto sentido, binaria (solo usando 1's y 0's para hacer todo) y el cerebro y la mente humanos funcionan de una manera completamente diferente. Este problema aún se está discutiendo, ya que simplemente no sabemos si nuestros cerebros funcionan o no como una computadora personal muy compleja o no.

    Porque todavía hay algo en esta objeción, hay quienes van por lo que se conoce como “IA suave” donde, en lugar de crear un programa tradicional en una computadora tradicional, el objetivo es crear un cerebro mecánico artificial que replique completamente nuestro propio cerebro en todos los sentidos. En lugar de que un programa sea inteligente, la idea es que lo resultante sería inteligente ya que sería, pieza por pieza, una réplica exacta (pero artificial) del cerebro humano. Mucha gente piensa que esta es la única manera de obtener una IA real y la gente está sentando las bases para tratar de crear un cerebro “artificial” que pueda pensar por sí mismo e imitar la mente humana. El tiempo nos dará la respuesta de si esto funciona o no.

    “La habitación china” 31

    El argumento de la sala china sostiene que un programa no puede darle a una computadora una “mente”, “comprensión” o “conciencia”, independientemente de cuán inteligente o humana pueda hacer que el programa se comporte. El argumento fue presentado por primera vez por el filósofo John Searle en su artículo, “Mentes, cerebros y programas”, publicado en Behavioral and Brain Sciences en 1980. Ha sido ampliamente discutido en los años transcurridos desde entonces. La pieza central del argumento es un experimento de pensamiento conocido como la habitación china.

    El argumento se dirige contra las posiciones filosóficas del funcionalismo y el computacionalismo, que sostienen que la mente puede ser vista como un sistema de procesamiento de información que opera sobre símbolos formales. Específicamente, el argumento refuta una posición que Searle llama IA Fuerte:

    La computadora apropiadamente programada con las entradas y salidas correctas tendría así una mente exactamente en el mismo sentido que los seres humanos tienen mentes.

    Aunque originalmente se presentó en reacción a las declaraciones de los investigadores de inteligencia artificial (IA), no es un argumento en contra de los objetivos de la investigación de IA, porque no limita la cantidad de inteligencia que una máquina puede mostrar. El argumento se aplica únicamente a las computadoras digitales que ejecutan programas y no se aplica a las máquinas en general.

    El experimento de pensamiento de la habitación china

    El experimento de pensamiento de Searle comienza con esta premisa hipotética: supongamos que la investigación de inteligencia artificial ha logrado construir una computadora que se comporta como si entendiera chino. Toma caracteres chinos como entrada y, siguiendo las instrucciones de un programa de computadora, produce otros caracteres chinos, que presenta como salida. Supongamos, dice Searle, que esta computadora realiza su tarea de manera tan convincente que pasa cómodamente la prueba de Turing: convence a un hablante chino humano de que el programa es en sí mismo un hablante chino en vivo. A todas las preguntas que hace la persona, le hace las respuestas adecuadas, de tal manera que cualquier hablante de chino estaría convencido de que está hablando con otro ser humano de habla china.

    La pregunta que Searle quiere responder es esta: ¿la máquina literalmente “entiende” al chino? ¿O simplemente está simulando la capacidad de entender chino? Searle llama a la primera posición “IA fuerte” y a esta última “IA débil”.

    Searle supone entonces que está en una habitación cerrada y tiene un libro con una versión en inglés del programa de computadora, junto con suficiente papel, lápices, gomas de borrar y archivadores. Searle podría recibir caracteres chinos a través de una ranura en la puerta, procesarlos de acuerdo con las instrucciones del programa y producir caracteres chinos como salida. Si la computadora hubiera pasado la prueba de Turing de esta manera, se deduce, dice Searle, que él también lo haría, simplemente ejecutando el programa manualmente.

    Searle afirma que no existe una diferencia esencial entre los roles de la computadora y él mismo en el experimento. Cada uno simplemente sigue un programa, paso a paso, produciendo un comportamiento que luego se interpreta como demostración de conversación inteligente. No obstante, Searle no sería capaz de entender la conversación. (“No hablo ni una palabra de chino”, señala.) Por lo tanto, argumenta, se deduce que la computadora tampoco sería capaz de entender la conversación.

    Searle sostiene que, sin “entender” (o “intencionalidad”), no podemos describir lo que está haciendo la máquina como “pensar” y, como no piensa, no tiene una “mente” en nada como el sentido normal de la palabra. Por lo tanto, concluye que la “IA fuerte” es falsa.

    La prueba de Turing

    La sala china implementa una versión de la prueba de Turing. Alan Turing introdujo la prueba en 1950 para ayudar a responder la pregunta “¿pueden pensar las máquinas?” En la versión estándar, un juez humano entabla una conversación en lenguaje natural con un humano y una máquina diseñada para generar un rendimiento indistinguible del de un ser humano. Todos los participantes están separados entre sí. Si el juez no puede distinguir de manera confiable la máquina del humano, se dice que la máquina pasó la prueba.

    Turing entonces consideró cada posible objeción a la propuesta “las máquinas pueden pensar”, y encontró que hay respuestas simples, obvias si la pregunta se desmitifica de esta manera. No pretendía, sin embargo, que la prueba mida por la presencia de “conciencia” o “comprensión”. No creía que esto fuera relevante para los temas que estaba abordando. Escribió:

    No deseo dar la impresión de que creo que no hay misterio sobre la conciencia. Hay, por ejemplo, algo así como una paradoja relacionada con cualquier intento de localizarlo. Pero no creo que estos misterios deban necesariamente ser resueltos antes de que podamos responder a la pregunta que nos ocupa en este trabajo.

    Para Searle, como filósofo que investiga en la naturaleza de la mente y la conciencia, estos son los misterios relevantes. La sala china está diseñada para mostrar que la prueba de Turing es insuficiente para detectar la presencia de conciencia, aunque la habitación pueda comportarse o funcionar como lo haría una mente consciente.

    “Lo que es ser un murciélago” 32

    El filósofo Thomas Nagel ideó un experimento de pensamiento que creo que puede actuar como una respuesta interesante al argumento de Searle en la Sala China. Searle sí tiene un punto muy fuerte e interesante sobre la comprensión, pero no demuestra que no se lleve a cabo ningún entendimiento —solo que no será el mismo tipo de comprensión que nosotros (humanos normales, conscientes) creemos que tenemos. Nagel nos pide que intentemos entender cómo sería ser un murciélago, y concluye que no podríamos empezar a comprender cómo los murciélagos experimentan el mundo, pero eso no significa que no esté pasando algo, es solo que está en una forma que no podemos comprender. Si tomas lo que dice y lo aplicas a la Sala China, entonces ¿no podría una computadora tener su propio tipo de entendimiento no humano que no podamos comprender? A continuación he incluido un resumen de sus argumentos, y es muy técnico, pero ojalá tenga sentido.

    ¿Cómo es ser murciélago? "es un artículo del filósofo estadounidense Thomas Nagel, publicado por primera vez en The Philosophical Review en octubre de 1974, y más tarde en Mortal Questions de Nagel (1979). En ella, Nagel sostiene que las teorías materialistas de la mente omiten el componente esencial de la conciencia, es decir, que hay algo que es (o siente) como ser una cosa particular, consciente. Argumentó que un organismo tenía estados mentales conscientes, “si y sólo si hay algo que es como ser ese organismo, algo que es como para el organismo”. Daniel Dennett llamó al ejemplo de Nagel “El experimento de pensamiento más ampliamente citado e influyente sobre la conciencia”.

    La tesis intenta refutar el reduccionismo (la posición filosófica de que un sistema complejo no es más que la suma de sus partes). Por ejemplo, el enfoque de un fisicalista reduccionista del problema mente-cuerpo sostiene que el proceso mental que los humanos experimentan como conciencia puede describirse completamente a través de procesos físicos en el cerebro y el cuerpo.

    Nagel comienza argumentando que la experiencia consciente está muy extendida, presente en muchos animales (particularmente mamíferos), y que para que un organismo tenga una experiencia consciente debe ser especial, en el sentido de que sus cualia o “carácter subjetivo de experiencia” son únicos. Nagel declaró: “Un organismo tiene estados mentales conscientes si y sólo si hay algo que es como ser ese organismo -algo que es como que el organismo sea él mismo”.

    El artículo argumenta que la naturaleza subjetiva de la conciencia socava cualquier intento de explicar la conciencia a través de medios objetivos y reduccionistas. Un carácter subjetivo de la experiencia no puede ser explicado por un sistema de estados funcionales o intencionales. La conciencia no puede explicarse sin el carácter subjetivo de la experiencia, y el carácter subjetivo de la experiencia no puede ser explicado por un ser reduccionista; es un fenómeno mental que no puede reducirse al materialismo. Así, para que la conciencia se explicara desde una postura reduccionista, habría que descartar la idea del carácter subjetivo de la experiencia, lo cual es absurdo. Tampoco puede una visión fisicalista, porque en un mundo así cada experiencia fenomenal que tiene un ser consciente tendría que tener una propiedad física atribuida a ella, lo cual es imposible de probar debido a la subjetividad de la experiencia consciente. Nagel sostiene que todas y cada una de las experiencias subjetivas están conectadas con un “punto de vista único”, lo que hace inviable considerar cualquier experiencia consciente como “objetiva”.

    Nagel utiliza la metáfora de los murciélagos para aclarar la distinción entre conceptos subjetivos y objetivos. Los murciélagos son mamíferos, por lo que se supone que tienen experiencia consciente. Nagel utilizó murciélagos para su argumento debido a su uso altamente evolucionado y activo de un aparato sensorial biológico que es significativamente diferente al de muchos otros organismos. Los murciélagos utilizan la ecolocalización para navegar y percibir objetos. Este método de percepción es similar al sentido humano de la visión. Tanto el sonar como la visión son consideradas como experiencias perceptivas. Si bien es posible imaginar cómo sería volar, navegar por sonar, colgar boca abajo y comer bichos como un murciélago, eso no es lo mismo que la perspectiva de un murciélago. Nagel afirma que incluso si los humanos fueran capaces de metamorfosearse gradualmente en murciélagos, sus cerebros no habrían sido cableados como murciélagos desde el nacimiento; por lo tanto, solo podrían experimentar la vida y los comportamientos de un murciélago, en lugar de la mentalidad.

    Tal es la diferencia entre los puntos de vista subjetivos y objetivos. Según Nagel, “nuestra propia actividad mental es el único hecho incuestionable de nuestra experiencia”, es decir, que cada individuo sólo sabe lo que es ser ellos (Subjetivismo). La objetividad, requiere un estado de percepción imparcial, no subjetivo. Para Nagel, la perspectiva objetiva no es factible, porque los humanos se limitan a la experiencia subjetiva.

    Nagel concluye con el argumento de que sería erróneo asumir que el fisicalismo es incorrecto, ya que esa posición también se entiende imperfectamente. El fisicalismo afirma que los estados y eventos son físicos, pero esos estados y eventos físicos sólo están caracterizados de manera imperfecta. Sin embargo, sostiene que el fisicalismo no puede entenderse sin caracterizar la experiencia objetiva y subjetiva. Esa es una condición previa necesaria para entender el problema mente-cuerpo.


    This page titled 4.1: La prueba de Turing is shared under a CC BY license and was authored, remixed, and/or curated by Noah Levin (NGE Far Press) .