x
1

Habitación china



La habitación china es un experimento mental, propuesto originalmente por John Searle, en su escrito Mentes, cerebros y programas, publicado en Behavioral and Brain Sciences en 1980, mediante el cual se trata de rebatir la validez del test de Turing y de la creencia de que el pensamiento es simplemente computación.[1]

Searle se enfrenta a la analogía entre mente y ordenador cuando se trata de abordar la cuestión de la conciencia. La mente implica no solo la manipulación de símbolos (gramática o sintaxis), sino que además posee una capacidad semántica para darse cuenta, o estar consciente, de los significados de los símbolos.

En 1995, cuando Herbert Simon y Allen Newell Simon escribieron que «Ahora hay máquinas que leen, aprenden y pueden crear»,[2]​ se trataba de dar a entender que se había dado una solución al problema mente-cuerpo.

Pero Searle en su texto de Mentes, cerebros y ciencia (1984) ataca este pensamiento, y con el experimento de la habitación china muestra cómo una máquina puede realizar una acción sin siquiera entender lo que hace y el por qué lo hace. Por lo tanto según Searle la lógica usada por las computadoras es nada más que una que no busca el contenido en la acción como la usada por los seres humanos.

Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada que le da un hablante natural de ese idioma, estas entradas serían los signos que se le introducen a la computadora, la cual más tarde proporciona una respuesta en su salida. Supóngase a su vez que esta computadora fácilmente supera la prueba de Turing, ya que convence al hablante del idioma chino de que sí entiende completamente el idioma, y por ello el chino dirá que la computadora entiende su idioma.

Ahora Searle nos pide que supongamos que él está dentro de ese computador completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino.

Supongamos también que fuera de la sala o computador está el mismo chino que creyó que la computadora entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a «Si entran tal y tal caracteres, escribe tal y tal otros»).

De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído ese idioma.

Dada esta situación cabe preguntarse:

De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial fuerte —los que afirman que programas de ordenador adecuados pueden comprender el lenguaje natural o poseer otras propiedades de la mente humana, no simplemente simularlas— deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el conjunto de componentes supere el test, el test no confirma que en realidad la persona entienda chino, ya que como sabemos Searle no conoce ese idioma.

Esto es así en el contexto de la siguiente argumentación:

Una puntualización importante: Searle no niega que las máquinas puedan pensar —el cerebro es una máquina[cita requerida] y piensa—, niega que al hacerlo apliquen un programa.

Argumentos como los de Searle en la filosofía de mente desataron un debate más intenso sobre la naturaleza de la inteligencia, la posibilidad de máquinas inteligentes y el valor de la prueba de Turing que continuó durante las décadas de los 80 y 90.[3]​ El experimento mental de la habitación china confirmaría la premisa 2, a juicio de sus defensores. A juicio de sus detractores, la premisa 2 basada en la inferencia a partir del experimento mental no es concluyente. Las objeciones suelen seguir una de las tres líneas siguientes:

No hay razón para decir que estos modelos solo exhiben una comprensión aparente, como en el caso de la habitación y su habitante, pero son modelos de inteligencia artificial.

El filósofo fisicalista William Lycan reconoció el avance de las inteligencias artificiales, comenzando a comportarse como si tuvieran mentes. Lycan usa el experimento mental de un robot humanoide llamado Harry que puede conversar, jugar golf, tocar la viola, escribir poesía y por consiguiente consigue engañar a la gente como si fuera una persona con mente. Si Harry fuera humano, sería perfectamente natural pensar que tiene pensamientos o sentimientos, lo que sugeriría que en realidad Harry pueda tener pensamientos o sentimientos aun si es un robot.[4][5]​ Para Lycan "no hay ningún problema ni objeción a la experiencia cualitativa en máquinas que no es igualmente un dilema para tal experiencia en humanos".[6]



Escribe un comentario o lo que quieras sobre Habitación china (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!