La habitación china se trata de un experimento conceptual propuesto por John Searle en 1980 que se ha convertido en un clásico de la inteligencia artificial.
El experimento consiste en lo siguiente: tenemos a una persona que no habla, ni comprende el chino, encerrada en una habitación. A esta persona, le llegan una serie de textos escritos en chino a través de una rendija. En la habitación tiene una serie de normas y procedimientos en papel, que describen lo que debe escribir en cada caso. Cuándo le llega un texto, sólo tiene que seguir esas normas escritas y escribir la respuesta, que estará correctamente escrita en chino.
Para pasar el test de Turing un juez debe determinar, haciendo preguntas en chino y examinando las respuestas, si han sido generadas por un ser humano. Si el juez es engañado, podemos decir que la habitación es inteligente.
Suponiendo que conseguimos una habitación con una serie de normas escritas que superan el test de turing y engañan al juez, el argumento de Searle es que el test no es válido para identificar una máquina inteligente, puesto que la persona en el interior de la habitación ni siquiera comprende el lenguaje chino y el resto de elementos de la sala no son inteligentes.
El experimento pretende demostrar que una máquina que se limite a realizar un procesamiento sintáctico (seguir unas reglas para componer un mensaje escrito) no puede ser inteligente. Como consecuencia, cualquier intento de crear inteligencia artificial a través de ordenadores no tendrá éxito, puesto que un programa de ordenador no es más que un procesador sintáctico de símbolos (las normas escritas en papel). Además invalida el test de Turing cómo herramienta para identificar inteligencia, puesto que la máquina descrita no es inteligente y sin embargo pasa el test.
Sin embargo, si suponemos que la habitación pasa el test de Turing, esto implica que el juez (si ha comprendido bien el test) está realizando preguntas que implican un nivel semántico profundo. Por ejemplo, le preguntará a la máquina qué entiende por existencia, qué piensa del amor, qué recuerda de su infancia, a lo que la habitación china debe responder inteligentemente. Si después de un rato el juez repite las mismas preguntas, la máquina (como ser inteligente) deducirá que el juez no le ha comprendido y matizará las respuestas (si una persona repitiese exactamente lo mismo cada vez que le preguntamos algo, no lo juzgaríamos como inteligente). A pesar de que la sala funciona mediante el procesamiento sintáctico de símbolos, si supera el test es porque ha conseguido generar una comprensión semántica.
Mi argumento es que el test no está correctamente planteado. No se puede demostrar que siguiendo una serie de reglas sintácticas puede surgir este comportamiento semántico, pero tampoco lo contrario. No sabemos si ejecutando millones de reglas obtenemos un sistema capaz de comprender a nivel semántico. Sólo podemos decir que la sala para superar el test debe estar a un nivel semántico. Ni el experimento, ni los contraejemplos eliminan la duda de si esto es posible con una máquina de turing, con lo que el experimento de la habitación china está por ahora en tablas. Creo que es posible conseguirlo, pero ahora mismo es una cuestión de fé.
Me gusta compararlo con la mecánica cuántica y la mecánica clásica. Si sólo conocieramos las leyes de la mecánica cuántica y estuvieramos jugando con un puñado de átomos sería imposible prever las leyes de la mecánica clásica. Necesitamos un número gigantesco de átomos para tener planetas y gravedad.