Thursday, June 16, 2011

¿Cómo es que somos conscientes de nosotros mismos?

Últimamente he estado pensando en dónde reside la conciencia. ¿Cómo es que sabemos quiénes somos? ¿Cómo es que somos conscientes de nosotros mismos? Quizás todo surgió por la lectura del último libro de Jorge Volpi (ver aquí), que de alguna manera, toca este tema un poco de lado, pero que lo deja a uno pensando.

Mi opinión actual sobre este tema es que el grado de conciencia, el darnos cuenta de nuestra propia existencia, tiene que ver con la complejidad de los sistemas. Así, bajo esta percepción es interesante preguntarse si una araña, por ejemplo, tiene conciencia de su propia existencia, o yendo más lejos, 168los organismos más simples de la Naturaleza saben de su propia existencia?

Pero no vayamos muy lejos, por ejemplo, la Pupa, la perrita snauzer que tuve sabía que era la Pupa. Sabía su nombre y entendía perfectamente muchísimas cosas. ¿Era consciente de sí misma? No puedo asegurarlo, pero si pensamos en cualquier niño de menos de 6 años quizás, la misma pregunta me parece válida. Dicho de otra manera, ¿el saberse a sí mismo se da cuando se va creciendo, con el paso de los años? Porque es claro que un bebé de pecho no sabe de su existencia. Y remotándome a mi pasado, ¿de qué cosas me acuerdo? ¿cuándo me di cuenta de mí mismo? ¿cuándo empecé este interminable diálogo que vivo conmigo mismo las 24 horas del día y que me hacen dar cuenta de mi existencia? No lo sé.

Creo que en la complejidad de los sistemas de pronto pasa algo y ¡zas! ese sistema se hace consciente de su propia existencia. Pero si vemos los sistemas de cómputo, que francamente cada vez son más complejos en hardware y software, no parece haber ningún indicio que nos diga que una máquina ya se percató de ella misma. No, parece ser que los sistemas complejos están lejos de la trivialidad del invento del microprocesador y de todos los subsistemas que hacen que las computadoras hagan las maravillas que ahora hacen.

Un crítico de la inteligencia artificial, John Searle, dice que la tesis de la Inteligencia Artificial fuerte es falsa, la cual indica que los procesos realizados por una computadora son idénticos a los que realiza el cerebro, y por lo tanto se puede deducir que, si el cerebro genera conciencia, también las computadoras deben ser conscientes. Para refutar esta posición, Searle desarrolla el siguiente experimento mental.

Imaginemos que un individuo es colocado en una habitación cerrada al exterior en China. Por una rendija le son entregados papeles con símbolos chinos que desconoce absolutamente pues el individuo no conoce el idioma chino. Con unas instrucciones en inglés (o cualquiera que fuera su lengua madre) se le indica que debe sacar por la misma rendija una respuesta de acuerdo a un manual que se le ha entregado. En dicho manual sólo aparecen símbolos chinos de entrada y los correspondientes símbolos de salida. Así, el individuo puede localizar los símbolos que le son entregados y puede sacar papeles con símbolos diferentes. Los chinos que estén fuera de la habitación pensarán que el de la habitación conoce el chino pues han recibido respuestas satisfactorias. (Hay que reconocer que esto es un equivalente a la prueba de Turing, con otro disfraz, pero que finalmente busca decir lo mismo).

Searle considera que lo mismo ocurre con una computadora. Ésta manipula diferentes códigos sintácticos que nada tienen que ver con la comprensión semántica de los contenidos procesados. Evidentemente, el concepto de Intencionalildad está en el fondo del argumento de la Habitación china de Searle en contra de la inteligencia artificial.

Yo creo que Searle tiene razón en que la tesis de la inteligencia artificial fuerte es absurda. Una computadora, en mi opinión, crea modelos de la realidad. Por ejemplo, un programa que juega al ajedrez no lo hace como lo hace un ser humano. Los programadores de estos sistemas crean un modelo y lo aplican. Si tiene éxito el modelo no implica que sea idéntico a lo que los humanos hacen para resolver la misma problemática. Y esto no sólo pasa en cómputo. Las teorías más complejas de la mecánica cuántica, por ejemplo, son meros modelos de lo que suponemos pasa en lo intrincado de la materia, entre protones y neutrones, etc., pero no sabemos, ni podremos saberlo probablemente, qué es lo que ocurre en los fenómenos cuánticos. Como el modelo funciona, y funciona muy bien, asumimos que ésa es la realidad, pero esto está equivocado. ¿Suena un árbol cuando cae y no hay quien lo escuche? Pregunta aún difícil de satisfacer, amén de que ya sabemos que el hecho de observar algo altera lo observado y esta conclusión es francamente asombrosa.

Así, regresando al asunto que nos ocupa, Searle piensa que no importa que los sistemas sean o no muy complejos. La conciencia en ellos no va a brotar de la nada, como un milagro, como algo que se sale del curso natural. Y agrega Searle: la conciencia es un fenómeno neurobiológico causado por el cerebro. La solución neurológica es más complicada y debemos esperar a que los neurocientíficos hagan su tarea.

Searle se opone tanto al dualismo como al materialismo, en favor de una posición a la que llama naturalismo biológico. El dualismo comete el error de considerar a la conciencia como una sustancia separada y por encima de lo material. El materialismo comete el error de negar los hechos básicos de la conciencia, inclusiva su existencia misma. Ambos están equivocados desde la raíz cartesiana que les dio origen. Las categorías físico y mental están cargadas con un significado antagónico del cual debemos deshacernos.

Así entonces, mientras no exista un sistema creado por el hombre, artificial desde luego, que de pronto cobre conciencia de sí mismo, deberíamos creerle a Searle en su percepción de las cosas. Bajo el argumento de que ninguna máquina ha adquirido conciencia de sí misma, es claro que pueden estar pasando dos cosas: o Searle tiene razón o bien, nuestros sistemas artificiales son realmente simplones en el fondo, aunque para la mayoría de los seres humanos, nos parezcan demasiado complejos.


____

(*) La foto de este artículo corresponde a John Searle. Ver aquí para más información sobre este personaje.

3 comments:

SUPEREDGAR said...

No hay ser vivo que sea consciente de si mismo, pero todo ser vivo tiene necesidades propias de su persona. La pupa debio llegar a un punto donde valoro su alimento y el trato grato que se le brindaba, aprendio que el trato cambiaba despues de una entonacion fuerte de una palabra y que el trato grato venia seguido de una entonacion mas aguda por lo que reaccionaba con gratitud.

La inteligencia artificial concuerdo totalmente una calculadora no inventa nada que una persona no realizara con anterioridad. Pero nosotros sabemos el ¿por que? y el ¿para que? de buscar los valores de la accion. Es decir la consciencia es antecedida solo explicada y existente por la necesidad.

Juan Llaca said...

De acuerdo. Cuanto más complejo el sistema, mayores las probabilidades de que los análisis de información le lleven a la conclusión de que existe. Hay, por así decirlo, mas pruebas de su existencia.

El tema de las arañas es interesante. Casi todas las arañas construyen telas con el propósito de cazar su alimento. Luego, el tejido de telas es una forma de "cultura" arácnida y desde luego un acto inteligente y orientado a un propósito autofinalistico. El asunto es si la araña decide hacer la tela. No lo creo. Simplemente sigue órdenes dictadas desde su ADN, lo que llamamos instinto; una pauta hereditaria de comportamiento. Pero dado que todas (o casi todas) las formas de arácnidos lo hacen, doy en pensar que tienen una forma de cultura. Las arañas NO enseñan a otras arañas como tejer telas en cambio, formas mas avanzadas como por ejemplo, los felinos si enseñan a sus crías las técnicas de caza, desempeñan rol social y se organizan, etc.

Es sabido que los lobos cazan en grupos en los que unos persiguen la presa, uno más la fuerza en determinada dirección y uno más, el menos cansado en el momento, es el que mata al ciervo. De esta forma los lobos, saben que evitan ser lastimados y el ejercicio de la caza es más eficiente. Si esto no es estar consciente, que lo es?

Apuntaría a una teoría en la que la consciencia no es un estado único y absolutamente definido. Se va desarrollando conforme se adquiere experiencia (información) durante el período vital de la entidad.

Un "software" que en realidad jugara ajedrez, no debería ser programado para jugar ajedrez por un ajedrecista. Debería más bien ser un sistema capaz de aprender el juego desde cero y desarrollar el interés por el mismo. Es decir; si desde un inicio cuenta con las pautas heredadas (bases de datos, reglas, etc.) y todo el conocimiento, juega por instinto.

(Sería válido decir que Rybka, Fritz, Houdini, Chessmaster, etc. lo traen en la sangre como las arañas el tejido de telas)

La consciencia se desarrolla con el acopio de experiencia y conocimientos, sea la entidad que sea y con independencia de su origen natural o artificial. Luego, estamos (la humanidad) muy lejos aún de poder crear una entidad consciente. Realmente consciente y no imitando la conducta consciente.

Saludos

Hugo Lopez said...

Me parece acertado el comentario de Juan Llaca en términos de que la conciencia no es un estado único, sino que se va desarrollando. Y en este sentido, los agentes artificiales que tienen la capacidad de mutar su código tienen la posibilidad de lograr entrar en ese desarrollo de conciencia, pero ya en ese punto, sin la ayuda del hombre, ya que esta ayuda sería limitada, y la evolución misma en cambio, rompe los límites.

Saludos