Wednesday, November 30, 2011

Consciencia y prueba de Turing


En la inteligencia artificial (IA), desde el principio ha habido un gran debate sobre qué es la inteligencia. El primero en tratar de responder a esta pregunta fue realmente Alan Turing (que el año que viene se cumplen 100 años de su nacimiento). De ahí salió la ahora llamada "Prueba de Turing".

De acuerdo a wikipedia, el Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.

La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna máquina puede pasar este examen en una experiencia con método científico.

A todo esto, en 1990 se inició un concurso, el Premio Loebner, una competición de carácter anual entre programas de ordenador que sigue el estándar establecido en la prueba de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. El premio está dotado con 100.000 dólares estadounidenses para el programa que pase el test, y un premio de consolación para el mejor programa anual. Todavía no ha sido otorgado el premio principal.

Pues bien, en contraposición a esta prueba esta la que planteara John Searle, la cual se describe así:

Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada que le da un hablante natural de ese idioma, estas entradas serían los signos que se le introducen a la computadora, la cual más tarde proporciona una respuesta en su salida. Supóngase a su vez que esta computadora fácilmente supera la Prueba de Turing, ya que convence al hablante del idioma chino de que sí entiende completamente el idioma, y por ello el chino dirá que la computadora entiende su idioma.

Ahora Searle nos pide que supongamos que él está dentro de ese computador completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino.

Supongamos también que fuera de la sala o computador está el mismo chino que creyó que la computador entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a "Si entran tal y tal caracteres, escribe tal y tal otros").

De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído ese idioma.

Dada esta situación cabe preguntarse:

  • ¿Cómo puede Searle responder si no entiende el idioma chino?
  • ¿Acaso los manuales saben chino?
  • ¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus respuestas) como, un sistema que entiende chino?

De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial fuerte -los que afirman que programas de ordenador adecuados pueden comprender el lenguaje natural o poseer otras propiedades de la mente humana, no simplemente simularlas- deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el conjunto de componentes supere el test, el test no confirma que en realidad la persona entienda chino, ya que como sabemos Searle no conoce ese idioma.

Entre estas dos "pruebas" se centra la discusión de la inteligencia y así mismo, de toda la ciencia de la inteligencia artificial. De hecho, en mi opinión la prueba de Searle exige que quien exhibe cierto tipo de inteligencia sea consciente de sí mismo, sino, todo parece reducirlo a un asunto mecánico.

Por ejemplo, hace mucho tiempo escribí un programa que conjuga los verbos regulares (en Prolog). ¿Conjugar un verbo exhibe inteligencia? La verdad es que no, porque es un asunto rutinariamente mecánico. Incluso, si se consideran todos los verbos, los irregulares, se puede escribir un programa que los conjugue todos sin el mayor asomo de error. ¿Eso sería inteligencia? No. Porque el sistema no sabe siquiera nada al respecto. Sigue, como en la idea de Searle, una serie de reglas que le da los resultados correctos. No tiene que saber nada más.

Pero pensemos en los programas que juegan al ajedrez. ¿No exhiben inteligencia? ¿No juegan mejor que los seres humanos en un 99.99%? Si esto es cierto, de acuerdo a la prueba de Turing, los programas de ajedrez SON INTELIGENTES, pero de nuevo, si consideramos el criterio de Searle, es claro que no lo son, porque los programas simplemente siguen mecánicamente una serie de criterios para establecer la mejor jugada en una posición dada. Si es así, como leí en algún artículo hace años, con respecto a los programas de ajedrez, "no hay nadie en casa". Vaya, no saben siquiera que están jugando ajedrez los programas.

¿Cuál será pues la condición necesaria y suficiente para que algo se considere inteligente? Pensemos en nuestra mascota. ¿Se da cuenta de sí misma? ¿Sabe de su propia existencia? Aparentemente sí. Cuando le hablaba a la Pupa (mi perrita snauzer que ya murió), estaba seguro que ella entendía en alguna medida lo que decía. Exhibía pues algún comportamiento inteligente. Si le decía, por ejemplo, "ve por tu pelota", la Pupa iba a buscarla y regresaba con ella en el hocico. Sin duda -considerando el hecho de que de entrada, la orden era verbal- la perrita sabía lo que hacía. ¿Tenía consciencia de sí misma? No lo sé. Asumo que sabía de su propia existencia, pero ¿cómo asegurarlo?

Y toda esta reflexión, de la cual probablemente ya he hablado antes aquí en este blog, surge de QBO, un robotito que entiende el lenguaje natural y que además, tiene un modo de reconocimiento visual. En el siguiente video, QBO es interrogado para reconocer ciertos objetos, por ejemplo, el dibujo del pingüino de Linux, el cual acierta. Pero entonces el robot enfrenta una imagen de sí mismo en un espejo. ¿Qué respuesta dará? ¿Podrá reconocerse a si mismo? A mí todo esto me parece fascinante. Vea el siguiente video para que observe como QBO responde a esta interesante interrogante.



Ahora bien, una vez que QBO se ha reconocido a sí mismo en un espejo, ¿significa que tiene consciencia de sí mismo? tengo mis dudas. El tema me parece abrumador.

Más información sobre cómo funciona este simpático robot QBO, aquí.

8 comments:

mfjimeneztar said...

Morsa,

Interesantisimo este artículo. Cae en lo filosófico.

A mi sinceramente no me agrada en nada que se desarrollen robots, si el problema que tenemos hoy día es el desempleo con esos aparatos aumentará aún más.

Manuel "el ruso" García said...

Quihubas:

El robotito puede decir "Whoa" o "that's me. Nice", porque le metieron esas palabras en el programa. El hijo de una conocida, cuando tenía unos cinco años, le preguntó a su mamá dónde estaba él entonces, cuando escuchó que sus papás hablaban sobre un departamento en que habían vivido antes de que él naciera. La mamá le dijo que entonces él todavía no existía. El niño, por suuesto, todavía no entendía esos conceptos y planteó muchas preguntas. la mamá al final intentó inventar una historia con el niño prácticamente flotando en el éter o en el espacio antes de materializarse con el nacimiento. Por supuesto, el niño no quedó satisfecho con tal explicación. Con los años, sin que nadie se siente a programarlo, entenderá qué es existir y qué es no existir, o dejar de hacerlo. Ah, y nadie le le dijo "en cuanto escuches que hablan de tiempos pasados, pregunta dónde estabas tú entonces y así parecerá que te autorreflexionas y que eres inteligente".

Morsa said...

Tocayo,

yo creo que tu historia no tiene nada que ver con estos asuntos. Desde luego que el robot está programado para estas labores, y probablemente el video fue preparado, es decir, no era la primera vez que ponían al robotito frente a un espejo.

La cuestión es ¿en qué momento algo es inteligente? ¿lo es porque exhibe algún acto supuestamente inteligente o bien, lo es porque es consciente de sí mismo? ¿Por qué tomar consciencia de uno mismo es algo que no se ha podido programar? ¿Cuáles son las condiciones para que algo así ocurra?

saludos
Manuel

Manuel "el ruso" García said...

Tocayín:

A ver si ahora sí le atino con la historia adecuada. Mi hijo, que en febrero cumple tres, desde hace no sé cuánto tiempo se reconoce en el espejo. es más, ha visto dibujos bastantes abstractos de un elefante (un óvalo grande, con un semicírculo como oreja y una línea curva como trompa. Puras líneas, sin color ni ojos ni patas ni nada), y lo ha reconocido como elefante. Acá me acuerdo de una discusión con un filósofo: Qué es lo que hace que un árbol sea un árbol. Porque los hay enormes, pequeños, algunos casi sin raíz, otros sin hojas, etc. Entonces, cuáles son las características que debe reunir un vegetal para ser un árbol y no un arbusto. De hecho, esto bien puede ser considerado subjetivo (ahora Plutón no es planeta sino planetoide; si hubiera dado esa respuesta en la escuela me reprueban. Ahora, quien diga la respuesta que yo tuve que dar, reprueba). Creo que algo o alguien es inteligente cuando es capaz de juzgar y calibrar las consecuencias de sus actos, de aprehender su entorno y reaccionar al mismo. Hacer menos de más, tu solito, sin que nadie te programe, como los niños que solitos, con el paso del tiempo, aprenden a reocnocerse en el espejo. A poco no el lenguaje y la manera en la que el chavo le habla el robot es como si le hablara a un niño chiquito o a un retardado: fuerte, extremadamente claro y bien modulado, repetitivo. Si estuvieran trabajando para atornillarle una placa con el logo de un patrocinador y al manipularlo lo giraran sin querer de manera que quedara frente al espejo y el robot gritara solito "A chingá, ¡pero si ese soy yo!", yo sería el primero en decir "esa cosa es inteligente". Pero mientras se limiten a hacer muy bien lo que les ordenas y ya, no creo que podamos hablar de inteligencia. La conciencia de si mismo es fundamental, creo yo, para la inteligencia.

Un saludote

Matón de Nochebuenas said...

Lo único que demostró Searle es que hay que definir bien las cosas antes de empezar a debatir sobre ellas. Ciertamente la inteligencia y conciencia será muy difícil definirlas. Pasar la prueba de Turing me parece una definicion razonable de inteligencia.

Sobre el experimento de Searle, si bien Searle por si mismo no entiende chino, Searle + manuales sí entienden chino (en mi opinión).

Morsa said...

Matón de nochebuena,

No estoy muy seguro que tu conclusión de que Searle más manuales de chino entienden chino. Mi pregunta sería ¿qué entidad es quien entiende chino? Yo creo que Searle tiene un punto fuerte al decir que en su experimento mental, nadie entiende nada, aunque dé respuestas correctas.

Te pondré otro ejemplo, en los programas de ajedrez, que incluso juegan mejor que los propios programadores que los escribieron, acaso ¿demuestran ser más inteligentes que sus creadores? Siguiendo la idea de Searle, ¿sabe el programa que hace buenas jugadas? ¿que gana partidas? ¿Que analiza correctamente lo que pasa en el tablero? La respuesta es NO. No sabe nada de eso. Como ya mencioné alguna vez "no hay nadie en casa".

¿Es entonces el programa de ajedrez un ente inteligente?

saludos
Manuel

Matón de Nochebuenas said...

Debatir si algo es inteligente o no es casi equivalente a debatir si Plutón es un planeta o no. Finalmente Plutón ya no es un planeta, pero eso no lo elimina, sigue ahí. De igual manera, no importa que a una máquina que toma decisiones razonables se le catalogue de inteligente o no, es una discusión que no nos lleva a ningún lado.


Hay "alguien dentro de cada uno"? ¿Qué nos da la inteligencia y conciencia a nosotros? ¿Una neurona? ¿Dos? ¿100 000 millones?
Somos un conjunto de átomos que tomó conciencia de sí mismo, a la naturaleza le tomó menos de 5000 millones de años hacerlo. No hay razón alguna por la cual creer que el humano no pueda crear algo similar electrónicamente algún día; y al fin y al cabo, eso que se creará sólo será un conjunto de átomos que tomará decisiones, aunque "no haya nadie en casa".

Nuevamente, debatir sobre esto sin tener las cosas bien definidas, es inútil.

Discutir sobre esto lleva a mi mente el solipsismo.

Francisco Salguero said...

Que interesante!, lastima que estoy comentando 3 años después.
Creo que la inteligencia es algo emergente que viene de una gran grupo de elementos "tontos" que interaccionan. Como leí por ahí nuestro cerebro tiene conciencia de si mismo pero no creo que cada neurona individual sepa que esta haciendo o se plantee si existe.
Ahora en todos los temas lo que se evalúa es el comportamiento, como un patrón a comparar para definir la inteligencia, (al menos por ahora). Y si es por comportamiento todos los componentes "juntos" que intervienen en el experimento de la habitación china si entienden el idioma.
Es mi humilde opinión!.
Bravo por este blog es uno de mis favoritos!.