MENTE, CONCIENCIA Y ARTIFICIO

Claudio Gutiérrez


PROPÓSITOS:

Este capítulo busca poner en contacto al estudiante con la polémica sobre la posibilidad y límites de la inteligencia artificial. Al mismo tiempo, intenta hacerle patente, una vez más, la trascendencia del paradigma informático, tanto como modelo para la interpretación de los fenómenos cognoscitivos como para la emulación por medio de procesos mecánicos de los fenómenos propios de la vida mental. De un modo especial se propone, mediante un ejemplo ilustrado con bastante detalle -la explicación de la conciencia- poner de relieve las potencialidades del paradigma para aclarar un problema profundamente difícil.

Introducción

En este último capítulo debemos estudiar cuestiones de gran profundidad y alcance: a saber, cuáles son los alcances y las limitaciones del paradigma informático, tanto como instrumento para entender la mente humana y sus fenómenos cognoscitivos, como en calidad de herramienta para emular esos mismos fenómenos, con interés productivo, en un ambiente estrictamente tecnológico. Deberemos examinar y comentar varios textos importantes, recogidos en el capítulo VI de la Antología, donde se ofrecen diversas y encontradas opiniones sobre los alcances -e incluso la posibilidad- de la inteligencia artificial; igualmente, trataremos de ver con detenimiento cómo se desempeña el paradigma informático frente al fenómeno cognoscitivo quizá más difícil de analizar; la conciencia que el ser cognoscente tiene de su mundo-ambiente, e incluso de sí mismo. Dividiremos el desarrollo de nuestro análisis en dos partes. Primeramente discutiremos el tema de la posibilidad y límites de la inteligencia artificial; para ello presentaremos la médula de los argumentos contrarios esgrimidos por dos grandes objetantes de la disciplina, John Searle y Roger Penrose, así como la reacción de varios pensadores activos dentro de ella. En segundo lugar, presentaremos un resumen del estudio, muy reciente, realizado por el filósofo -ya bien conocido por nuestros lectores- Daniel Dennett, como uno de los intentos de mayor envergadura realizados hasta ahora para resolver el problema de la conciencia desde una perspectiva informática.


Explicación de textos


Ejercicio de lectura

Leer el texto de John Searle ( SEARLE 80) o su traducción en el capítulo sexto de nuestra Antología.


Comentario

En 1980, John Searle publicó un artículo que inmediatamente se hizo famoso por contener un experimento imaginario -desde entonces conocido como "el cuarto chino"- que según él refutaba de manera contundente la atrevida tesis, ya entonces extendida en la comunidad de investigadores de inteligencia artificial, de que los incipientes programas de comprensión del lenguaje natural producidos en la Universidad de Yale por Roger Schank y sus colaboradores, representaban un caso claro de actividad mental por parte de las máquinas. Los editores de la revista tuvieron el cuidado de mostrar el artículo de Searle antes de su publicación a muchos investigadores de inteligencia artificial, lo que hizo posible publicarlo acompañado de muchas reacciones contrarias a su argumentación. A partir de la aparición del artículo, las ideas de Searle han continuado siendo discutidas abundantemente, en muchísimos artículos y libros publicados durante ya más de una década. El tema es profundamente polémico y probablemente se necesitarán muchos años más de discusión, y un considerable avance de la tecnología y ciencia informáticas, antes de que las cuestiones debatidas se consideren suficientemente aclaradas y las tesis suficientemente sedimentadas en la comunidad científica.

Ante todo, tratemos de presentar, con las propias palabras de Searle, el experimento imaginario:

Supongamos que estoy encerrado en un cuarto y que se me da una horneada de escritura china. Supongamos también que, como es precisamente el caso, yo no sé nada de chino, ni escrito ni hablado, y que ni siquiera tengo confianza en que puedo reconocer los caracteres chinos de, por ejemplo, los caracteres japoneses, o de garabatos sin sentido. Para mí, los caracteres chinos son, en efecto, otros tantos garabatos sin sentido. Ahora bien, supongamos también que después de la primera horneada de caracteres chinos recibo otra horneada, con un conjunto de reglas para correlacionar la segunda horneada con la primera. Las reglas están en español, y entiendo estas reglas tan bien como cualquier otro hablante nativo del español. Ellas me permiten correlacionar un conjunto de símbolos formales con otro conjunto de símbolos formales, y todo lo que "formal" significa aquí es que puedo identificar los símbolos enteramente por su forma física. Supongamos ahora también que me dan una tercera horneada de símbolos chinos junto con algunas instrucciones, también en español, que me permiten correlacionar elementos de esta tercera horneada con los de las dos primeras horneadas, y estas reglas me instruyen sobre cómo producir ciertos símbolos chinos con ciertas clases de formas como respuesta a otros símbolos chinos -con ciertas clases de formas- que me han sido dados en la tercera horneada. Sin que yo lo sepa, la gente que me da todos estos símbolos llaman a la primera horneada "un libreto", a la segunda "un cuento" y a la tercera "preguntas". Por otra parte, llaman a las respuestas que doy a la tercera horneada "contestaciones a las preguntas", y al conjunto de reglas en español que me dieron, "el programa". Para complicar la historia un poquito, imaginemos que esta gente me da también cuentos en español NOTA 1, que comprendo, y me hacen preguntas en español sobre esos cuentos, y que les doy contestaciones en español. Supongamos también que después de un tiempo soy tan bueno en seguir las instrucciones para manipular los símbolos chinos y los programadores llegan a ser tan buenos para escribir el programa que desde un punto de vista externo -es decir, desde el punto de vista de alguien que esté fuera del cuarto en que me encuentro encerrado- mis contestaciones a las preguntas son absolutamente indistinguibles de las de los hablantes chinos nativos. Nadie que viera mis contestaciones podría decir que no hablo una palabra de chino. Supongamos que mis contestaciones a las preguntas en español fueran, como indudablemente serían, indistinguibles de las de otros hablantes españoles nativos, por la simple razón de que soy un hablante nativo español. Desde el punto de vista externo -desde el punto de vista de alguien que leyera mis "contestaciones"- las contestaciones a las preguntas chinas y a las preguntas españolas serían igualmente buenas. Pero en el caso chino, a diferencia del caso español, produzco las contestaciones manipulando símbolos formales no interpretados. En lo que respecta al chino, simplemente me comporto como una computadora, realizo operaciones computacionales sobre elementos especificados formalmente. Para los propósitos del chino, soy simplemente un ejemplo de un programa de cómputo.

En esta descripción del experimento imaginario se da por conocida la teoría de Roger Schank sobre comprensión del lenguaje por computadora, entonces en boga en la comunidad de inteligencia artificial. Tal teoría estaba inspirada en un trabajo previo de Marvin Minsky, en que este proponía la idea de los sistemas de marcos. A su vez, la teoría de Minsky estaba basada en la hipótesis de sistemas de símbolos físicos de Newell y Simon, ampliamente discutida en esta obra. Recuérdese que esta hipótesis es indisociable de la idea de que el conocimiento es representativo y de que, de algún modo, en la mente existen símbolos con dimensión semántica que representan los objetos externos y sus diversas relaciones. Según Minsky, los intentos de representación del conocimiento hasta ese momento (alrededor de 1972) habían sido "demasiado detallados, locales y faltos de estructura para dar cuenta... de la eficacia del pensamiento de sentido común" ( MINSKY 75). Propuso, en cambio, que cuando uno encuentra una nueva situación, selecciona de la memoria una estructura compleja, que propuso llamar marco, que consiste en una configuración plasmada por experiencias anteriores en la cual pueden fácilmente hacerse modificaciones para adaptarla al caso presente. En sus palabras:

Un marco es una estructura de datos para representar una situación estereotipada, como estar en una cierta clase de sala de estar, o ir a la fiesta de cumpleaños de un niño. Pegadas a cada marco hay varias clases de información. Algunas se refieren a cómo usar el marco. Otras, a qué podemos esperar que pase en seguida. Otras a qué hacer si esas expectativas se confirman.

Podemos considerar el marco como una red de nodos y relaciones. Los de más arriba serían fijos, y representarían las cosas que son siempre verdaderas sobre la situación supuesta. Los niveles inferiores tendrían muchas terminales -ranuras que deberían ser llenadas con ejemplos específicos de datos. Cada terminal puede especificar condiciones que deben llenar sus asignaciones. (Las asignaciones mismas serían normalmente marcos más pequeños)....

Colecciones de marcos relacionados se asociarían entre sí para formar sistemas de marcos....

Sobre esa base, Schank ( SCHANK 77) elaboró su teoría de los libretos NOTA 2. Un libreto es una especie de marco relativo a situaciones comunes que se producen en el tiempo, como visitar un restaurante. Consiste en un conjunto de ranuras. Asociada con cada ranura puede haber cierta información sobre qué clase de valores puede contener, así como valores de omisión para ser usados cuando no se dispone de otra información. Tomemos el caso del libreto de restaurante como un ejemplo, que podría tener las siguientes seis ranuras:

Condiciones iniciales

Deben satisfacerse, en general, antes de que los eventos descritos en el libreto puedan ocurrir.

Resultado

Condiciones que, en general, serán verdaderas después de que los eventos descritos en el libreto hayan ocurrido.

Objetos de apoyo

Los objetos normalmente implicados en los eventos descritos en el libreto.

Roles

Los actores que normalmente participan en el libreto.

Carriles

Las variaciones más frecuentes de la acción; diferentes variaciones pueden compartir muchos, aunque no todos, los otros elementos del libreto.

Escenas

La secuencia efectiva de los eventos, representada en un formalismo adecuado.

Los libretos son útiles porque, en el mundo real, existen patrones repetitivos para la ocurrencia de los eventos. Estos patrones surgen de las relaciones causales entre los eventos que producen cadenas causales entre los eventos.

Imaginemos una aplicación del libreto anterior para tratar de entender el siguiente minicuento:

Pedro fue a un restaurante anoche. Pidió un casado. Cuando lo pagó notó que se había quedado sin plata. Corrió a su casa porque había empezado a llover.

Ahora supongamos la siguiente pregunta dirigida al programa informático correspondiente:

¿Comió Pedro anoche?

Si el programa trabaja bien, responderá, sin duda, que sí, y para hacerlo habrá usado el libreto de restaurante, activado por la primera frase del cuento, que contiene en la ranura de "resultado" el hecho de que la persona normalmente realiza una comida en el restaurante.

Volviendo ahora al experimento imaginario de Searle, se ve claro el sentido de las tres "horneadas" de símbolos chinos: se trata de un cuento (segunda horneada) que el programa debe comprender con ayuda de un libreto (primera horneada) sacado de la memoria de largo plazo para estos efectos; las preguntas (tercera horneada) son una manera de verificar si el programa ha comprendido el cuento. Todo lo que se le da en español corresponde al programa mismo, pues se trata de reglas para relacionar elementos de las tres horneadas de símbolos chinos unos con otros.

Searle afirma que "los sostenedores de la posición fuerte de inteligencia artificial pretenden que la computadora adecuadamente programada comprende los cuentos y que el programa en cierta forma explica esa comprensión". La "posición fuerte" de inteligencia artificial corresponde precisamente a la de los investigadores -si es que existen- que sostienen esas dos tesis. Una "posición débil" en la materia, posiblemente se conformaría con decir que tales programas ilustran ciertos aspectos de la comprensión humana y contribuyen en alguna medida a explicar su funcionamiento. Ahora bien, Searle sostiene -en relación con la primera tesis- que él (en el experimento imaginario) no comprende nada de los cuentos chinos:

Tengo entradas y salidas que son indistinguibles de las que tienen los hablantes nativos chinos, y puedo tener cualquier programa formal que se quiera, pero aun así no comprendo nada. Por la misma razón un programa de inteligencia artificial no comprende nada de los cuentos que recibe, sean en chino, en español o en cualquier otra lengua, puesto que en el caso chino la computadora soy yo; y en los casos en que la computadora no soy yo la computadora no tiene nada que yo no tenga en el caso en que no comprendo nada.

Nótese que Searle se identifica sin ninguna salvedad con el programa o con la computadora, lo que será señalado por los críticos como un error de importancia. Este error se relaciona con la falacia de composición que comentamos en el capítulo primero a propósito de un ejemplo de Minsky sobre la caja que contiene a un ratón. En ese ejemplo quedaba claro que no podíamos atribuir a ninguna de las partes de la caja la propiedad de "contenimiento", sino solamente al conjunto de todas las partes. Este detalle ha sido explotado por casi todos los críticos del argumento: Searle es solamente una parte del sistema que comprende chino, y puede muy bien, por sí mismo, no entender el chino, pero el sistema como un todo lo entiende -en la medida que lo entienda, que puede ser muy limitada por la cantidad y calidad de los libretos y otros instrumentos de comprensión de que se haya dotado al sistema-.

Con respecto a la segunda tesis, Searle alega que "la computadora y su programa no proveen las condiciones suficientes para la comprensión, puesto que la computadora y el programa funcionan y la comprensión no se produce". Por supuesto, esta supuesta refutación depende crucialmente de que la comprensión no se produzca, pero es muy cuestionable que Searle haya demostrado esto, por las razones apuntadas antes.

Searle continúa diciendo que no ve, en principio, ninguna razón por la que no pudiéramos "dar a una máquina la capacidad de entender español o chino, puesto que en un sentido importante nuestros cuerpos con nuestros cerebros son precisamente tales máquinas". Pero no considera factible dar esas propiedades a una máquina cuya operación esté definida solamente en términos de procesos informáticos realizados sobre elementos definidos formalmente. "No es porque yo sea un ejemplo de un programa de computación que puedo entender español y tener otras formas de intencionalidad. Hasta donde llega mi conocimiento, es porque soy una cierta clase de organismo con una cierta estructura biológica, y bajo ciertas condiciones esta estructura es causalmente capaz de producir percepción, acción, comprensión, aprendizaje y otros fenómenos intencionales". Esta parte de su argumento ha sido criticada acerbamente, pues parece una afirmación de que el cerebro secreta el pensamiento como una glándula del cuerpo secreta cierta substancia, por ejemplo, la glándula mamaria secreta leche.

Es importante anotar que la discusión entre Searle y sus críticos es una discusión entre materialistas. Searle no está argumentando que la inteligencia artificial es imposible porque el pensamiento solo puede ser producido por una sustancia no extensa, como pretendía Descartes NOTA 3. La objeción de Searle se refiere más bien a la posibilidad de producir pensamiento por medios estrictamente formales. No niega en principio la posibilidad de que se llegue a crear una máquina artificial que produzca pensamiento, pero esa máquina -según él- tendría que ser construida siguiendo los mismos principios, y probablemente con los mismos materiales, de que están hechas las máquinas pensantes naturales (los cerebros humanos): "Si podemos duplicar las causas usando principios químicos diversos de los que usa el cuerpo humano, eso es más bien una cuestión empírica que no puede ser aclarada en este momento".

La negación de Searle se circunscribe, entonces, a algo muy concreto: la posibilidad de crear una máquina artificial pensante que tenga este poder en virtud de su estructura formal e informática:

Pero, ¿podría algo pensar, comprender, etc., solamente en virtud de ser una computadora con el programa correcto? ¿Podría la ejemplificación de un programa, del programa correcto por supuesto, por sí misma ser una condición suficiente para la comprensión?

Estas son, según el autor, las preguntas acertadas, y su contestación es no. ¿Por qué no?

Porque las manipulaciones de símbolos formales por sí mismas no tienen ninguna intencionalidad; son no significativas; no son ni siquiera manipulaciones de símbolos, puesto que los símbolos no simbolizan nada. En la jerga de los lingüistas, tienen solo sintaxis, pero no semántica. La intencionalidad que los programas de computación parecen tener está solamente en las mentes de los que los escriben y usan, los que les dan las entradas e interpretan sus salidas.

Y llega así a lo que es el resumen de su posición:

Solamente algo que tenga los mismos poderes causales del cerebro puede tener intencionalidad.

......................

Sea la intencionalidad lo que fuere, es un fenómeno biológico, y es tan probable que sea causalmente dependiente de la bioquímica específica de sus orígenes como la lactación, la fotosíntesis o cualquier otro fenómeno biológico....

Llegamos así a un nuevo dualismo, diferente del dualismo cartesiano por ser totalmente materialista, pero no por ello menos dualista: un mundo de fenómenos estrictamente biológicos, por una parte; y por la otra, un mundo de fenómenos mecánicos o -como él dice- formales. El comentario más pertinente que se nos ocurre hacer al respecto es que Searle, al hacer esta dicotomía, se coloca él mismo al margen del desarrollo de la ciencia contemporánea que ha consistido precisamente en la "mecanización" de la biología: todos los estudios de la biología molecular, incluidos los que se refieren al lenguaje genético, contribuyen a demostrarlo. Ningún biólogo serio sostiene hoy este tipo de dualismo.

Ejercicio de lectura

Leer, en el mismo capítulo sexto de la Antología -en seguida del texto de Searle-, la refutación de su argumento por Daniel Dennett (DENNETT 91).


Comentario

Dennett comienza por resumir el argumento de Searle, recalcando un aspecto que le interesa para la ulterior refutación:

Searle nos invita a imaginarlo encerrado en un cuarto, donde simula a mano un programa gigante de inteligencia artificial que putativamente entiende chino. Estipula que el programa pasa la prueba de Turing saliendo airoso de todos los intentos hechos por sus interlocutores humanos de distinguirlo de un comprendedor genuino de chino. No se sigue, según él, de esta imposibilidad conductual de distinguir que haya ninguna real comprensión del chino, ni una conciencia china, en este cuarto chino. Searle, encerrado en el cuarto y manipulando agitadamente hileras de símbolos de conformidad con el programa no obtiene por eso ninguna comprensión del chino, y no hay tampoco nada más en el cuarto que entienda chino.

Como hemos visto, este experimento mental se supone que prueba la imposibilidad de lo que Searle llama "inteligencia artificial fuerte", o sea la tesis de que "un programa digital apropiadamente programado con las entradas y salidas correctas tendría por eso mismo una mente en exactamente el mismo sentido que los seres humanos tienen mentes". Dennett menciona el inmenso torrente de reacciones a las diversas versiones del experimento mental de Searle durante la década pasada, y se pregunta por qué, aunque los filósofos y otras personas han siempre encontrado defectos en este experimento mental considerado como argumento lógico, su "conclusión" sigue impresionando a mucha gente.

En su opinión, la razón estriba en el hecho de que la gente no imagina verdaderamente la situación descrita con el detalle que esa misma descripción exige. El punto crucial es que el Cuarto Chino NOTA 4 habría pasado la prueba de Turing NOTA 5. Dennett recalca el hecho de que el programa habría pasado la prueba de Turing, lo que el propio Searle no dice explícitamente pero que, para que su argumento tenga fuerza, debería haber sido el caso. Dennett se propone sacar todas las consecuencias implícitas en ese importante hecho.

Dennett procede a presentar su propio experimento mental, complementario del de Searle. Su idea es darle contenido al intercambio entre el Cuarto Chino, de modo que ese contenido sea conmensurado con el hecho extraordinario de que hubiera aprobado la prueba de Turing. Dentro de esa tesitura, procede a imaginar un breve diálogo entre el Cuarto Chino y su examinador, quien por medio de tal intercambio estaría precisamente aplicándole la prueba de Turing. Nos advierte que, para nuestra comodidad, el intercambio ha sido traducido, aunque -naturalmente- se habría producido originalmente en chino:

JUEZ: ¿Has oído el chiste sobre el irlandés que encontró una lámpara mágica? Cuando la frotó apareció un genio y le ofreció cumplir tres deseos. "¡Quiero un jarro de guaro!", respondió el irlandés, e inmediatamente apareció. El irlandés se dio a beber el guaro corcor, pero el nivel del jarro se mantuvo mágicamente constante. Seguía bebiendo, hasta que el genio se puso impaciente. "Bueno, ¿qué pasó con el segundo deseo?", preguntó. Y el irlandés respondió entre trago y trago: "¡Pues dame otro de estos!".

CUARTO CHINO: Muy divertido. No, no lo había oído; pero, sabe, encuentro los chistes racistas de mal gusto. Me reí a pesar de todo, pero pienso que deberíamos encontrar otros temas de discusión.

J: Tenés razón, pero te conté el chiste porque quiero que me lo expliqués.

CC: ¡Qué aburrición! Uno nunca debe explicar chistes.

J: Pero de todas maneras, esa es la pregunta de la prueba. ¿Podrías explicarme cómo y por qué el chiste "funciona"?

CC: Si usted insiste. Vea, depende de la suposición de que el vaso que se vuelve a llenar mágicamente lo seguirá haciendo indefinidamente, de modo que el irlandés tiene a su disposición todo el guaro que quiera beber en su vida. Así pues, no tiene ninguna razón para desear un duplicado, pero es tan estúpido (y esta es la parte que me disgusta) o está tan atontado por el alcohol, que no reconoce esto y, llevado por la felicidad que le ha producido el cumplimiento de su primer deseo, pide repetición. Desde luego que estos supuestos de fondo no son verdad, sino solo parte del ambiente tradicional de la contadera de chistes, donde suspendemos nuestra desconfianza en la magia, etcétera. Por cierto, podríamos imaginar una continuación del cuento en la cual el irlandés tuviera razón después de todo -estaría por ejemplo planeando dar una gran fiesta, y un jarro no podría volver a llenarse suficientemente rápido para satisfacer la sed de sus invitados (no valdría acumular el guaro por adelantado porque perdería sabor). Tendemos a no pensar en estas complicaciones, y esto es parte de la explicación de por qué los chistes funcionan. ¿Está satisfecho?

Lo importante de esta ilustración estriba en que pone frente a nosotros la inmensa proeza que sería, para un programa informático, aprobar la prueba de Turing. Ese hecho enorme se pone de inmediato en relación con la pretensión de Searle de haber podido simular "a pie" y sin ninguna dificultad la ejecución del programa. Recuérdese que Searle, de acuerdo con las instrucciones de su experimento imaginario, no tiene la menor idea de lo que está haciendo, y solamente vería ceros y unos que manipularía de acuerdo con el programa. Searle supone, con gran desconocimiento de la naturaleza de la programación informática, que ese inmenso programa funcionaría simplemente "apareando" los caracteres chinos de entrada (el cuento) con otros caracteres chinos (el libreto). Pero, por supuesto, este programa no podría funcionar así, ni mucho menos. Cualquiera que haya estudiado por lo menos los rudimentos de la programación electrónica, y haya conocido algunos de los algoritmos para operaciones relativamente simples (como ordenar una lista según el alfabeto) sabe que los procesos implicados son muchísimo más complicados que el simple apareamiento de caracteres.

Dennett nos indica de manera gruesa lo que estaría implicado en la ejecución de un programa tal:

Un programa que pudiera efectivamente generar los discursos del CUARTO CHINO en respuesta a las preguntas del JUEZ se vería más o menos así en acción (visto en el nivel de máquina virtual, no en el nivel básico en que está colocado Searle): al analizar las primeras palabras, "Has oído el chiste..." algunos de los "demonios detectores de chistes" del programa serían activados, los que llamarían a toda una hueste de estrategias para lidiar con ficción, lenguaje de doble sentido, y cosas por el estilo, de modo que cuando las palabras "lámpara mágica" llegaran a ser analizadas el programa habría ya puesto una prioridad baja a respuestas que se quejaran de que no existen cosas como lámparas mágicas. Una variedad de marcos narrativos o libretos estándares sobre chistes-de-genios se activarían creando varias expectativas para continuaciones, pero a todas les robaría la vuelta una interpretación más mundana (el libreto de "repetir"), y lo inesperada de ella no pasaría inadvertida al programa. Al mismo tiempo se alertarían los demonios sensibles a las connotaciones negativas de los chistes racistas, llevando eventualmente al segundo tema de la respuesta del CUARTO CHINO. Y así sucesivamente, en mucho más detalle que el que haya intentado poner aquí.

Dada esta descripción de la situación, resulta claro que no es obvio que no haya comprensión genuina del chiste. No tenemos derecho a descalificar a los billones de acciones de todas estas partes sumamente estructuradas como capaces de producir una auténtica comprensión. Después de todo, eso es lo que tenemos base para suponer que hace el cerebro: integrar de una manera congruente también billones de acciones de partes sumamente estructuradas. En efecto, lo peor que puede decirse del argumento de Searle es que descalifica al cerebro (a nosotros mismos) como seres que realmente posean en algún momento auténtica comprensión. Encontramos de nuevo aquí el tema de la falacia de composición tan grato a Minsky: "Si ninguna de las partes tiene comprensión el todo no puede tener comprensión". Aplicar este argumento a cualquier máquina nos hace ver en seguida lo irracional de este razonamiento: "Si ninguna de las partes de mi automóvil puede llevarme de un lado para otro, tampoco puede hacerlo mi automóvil". Así lo recalca Dennett: si somos materialistas convencidos de que nuestros cerebros "son responsables por sí mismos, sin ayuda milagrosa, de nuestra comprensión, entonces debemos admitir que una comprensión genuina es alcanzada por un proceso compuesto de interacciones entre una hueste de subsistemas ninguno de los cuales entiende nada por sí mismo".

Probablemente la razón para no ver lo obvio de este contra-argumento consiste en la poca familiaridad con la programación electrónica o cualquier otro tipo de actividad constructiva o analítica del mismo carácter. Ello porque cualquier construcción suficientemente grande produce de camino "propiedades emergentes" que no se daban en las etapas intermedias. Y lo mismo vale decir para el proceso inverso, del análisis: cualquiera que desarticule máquinas, organismos o instituciones, y que lleve el proceso a suficiente profundidad, irá naturalmente viendo desaparecer en el camino muchas propiedades que, con el cambio de nivel de agregación, dejan de ser posibles.


Ejercicio de lectura

Leer el texto de Roger Penrose ( PENROSE 90), o su traducción en el capítulo sexto de la Antología.


Comentario

Más recientemente, un físico inglés muy eminente, Roger Penrose, ha unido sus armas a las de John Searle para combatir la posibilidad de que llegue a existir una inteligencia artificial basada en los métodos formales de la informática. En 1989 escribió un voluminoso libro, titulado "La mente nueva del Emperador" NOTA 6, donde pasa revista al estado de diversas ciencias como un preámbulo a su enfática negativa a aceptar que el funcionamiento del cerebro pueda ser replicado por medios algorítmicos. Debemos confesar que el libro, a pesar de su excelente revisión de conceptos científicos contemporáneos -por la que recomendamos su lectura- deja mucho que desear como argumento lógico en contra de la inteligencia artificial.

Básicamente el argumento consiste en anunciar, al comienzo del libro, que extraerá una refutación de la inteligencia artificial del estado de las ciencias contemporáneas; en seguida procede a hacer la presentación que hemos alabado como excelente resumen del estado de varias importantes ciencias contemporáneas (las matemáticas, la física y la biología, especialmente). Al final, y de manera muy breve, Penrose pretende cumplir con lo que nos había ofrecido, pero lo único que consigue es resucitar un argumento muy viejo -y muchas veces refutado- de J. R. Lucas (1961) contra la posibilidad de que las máquinas piensen, basado en la famosa prueba de Gödel de que las matemáticas no pueden ser al mismo tiempo congruentes y completas NOTA 7. Como complemento de ese argumento, ya muy conocido -o manido, como lo califica Donald Perlis-, ofrece como cosa nueva solamente la afirmación, sin prueba posible por la naturaleza de la misma, de que el secreto de la inteligencia será eventualmente descubierto cuando se logre establecer una ciencia intermedia entre la física relativista y la física cuántica... (!?!)

Una afirmación de este tipo, especialmente viniendo de un científico del calibre de Penrose, tiene que ser desilusionante. Equivale a un llamado a descalificar una disciplina científica en pleno florecimiento (la inteligencia artificial), con por lo menos treinta años de importantes logros, en nombre de una disciplina aún inexistente, y que tal vez nunca llegue a constituirse, a saber, un pretendido puente entre dos físicas que hasta ahora han demostrado ser paradigmas irreconciliables en principio: la relatividad -basada en fenómenos esencialmente continuos- y la física cuántica -basada en fenómenos eminentemente discontinuos-.

Lo horripilante de esta afirmación, desde el punto de vista epistemológico, es que con argumentaciones parecidas podría defenderse toda clase de posturas anticientíficas: por ejemplo -y para dar solo dos ejemplos de aberraciones posibles paralelas a la posición de Penrose- la parasicología ("hay fenómenos que la ciencia todavía no puede explicar, pero que sin duda quedarán explicados cuando se descubran fuerzas psíquicas intermedias entre la física y la psicología"); o la astrología ("hasta ahora la ciencia no ha podido construir instrumentos suficientemente finos para verificar la existencia del cuerpo astral, pero ya lo hará").

En mi opinión, sólo su prestigio como físico ha hecho que las opiniones de Penrose en esta materia hayan merecido algún debate; lo cual nos recuerda la existencia, inventariada en los textos de lógica, de la falacia de autoridad: a saber, la concesión de respetabilidad a la opinión que un científico vierte fuera de su campo de competencia. El "Emperador" es un caso tan conspicuo de este desliz intelectual que nos atrevemos a recomendárselo a los redactores de textos de lógica como una ilustración de antología para esta falacia.

Pero el caso es todavía más serio. Porque en su intento de eliminar en principio la posibilidad de la inteligencia artificial como disciplina científica, Penrose cuestiona de hecho, si no de palabra, la tesis Turing-Church NOTA 8, una tesis admitida por todos los matemáticos. En efecto, Penrose pretende que eventualmente serán descubiertos procedimientos no-algorítmicos que se puedan mostrar como los fundamentos de la inteligencia. Aquí Penrose agrega a la "falacia de autoridad" la "falacia por ignorancia", otro desliz intelectual inventariado en los textos introductorios de lógica. No solo se permite como físico estar en desacuerdo con todos los matemáticos, sino que afirma que existen procedimientos no-algorítmicos, basándose únicamente en la ausencia de prueba de la famosa conjetura NOTA 9. Esto no es nada diferente que pretender que existen fantasmas porque nadie ha podido probar que no existen NOTA 10.

Penrose trata también de reforzar su tesis con un recurso de dudosa calidad: apelar a una calidad misteriosa como fundamento de la percepción de la verdad matemática:

¿Cómo deciden de hecho los matemáticos cuáles enunciados matemáticos son verdaderos y cuáles falsos? ¿Siguen algún algoritmo o tienen otra ruta hacia la verdad por medio de una "intuición" misteriosa que no puede ser tratada algorítmicamente?

Para él resulta claro que siguen la segunda ruta. El concepto de "intuición" ha sido tradicionalmente un recurso de los filósofos no materialistas para tratar de explicar por medios no mecanicistas algún fenómeno complicado. El problema con este intento de explicación es que no explica nada, porque -por hipótesis- se ofrece la palabra "intuición" precisamente sin ningún mecanismo que la sustente. Sin que la palabra represente ningún proceso que pueda examinarse, la introducción del respectivo concepto no pasa de ser un recurso semejante a la "vis dormitiva" para explicar los poderes dormitivos del opio, según Molière: una palabra tras la cual escondemos nuestra ignorancia. Si además nos dice que esa intuición es "misteriosa", entonces podemos concluir que efectivamente se trata de un recurso que no explica absolutamente nada. A confesión de parte -como dicen los abogados- relevo de pruebas.

¿Debemos explicar nosotros cómo hacen los matemáticos su discriminación entre enunciados verdaderos y falsos? Desde luego, no es ese el propósito de esta obra. Sin embargo, podemos observar -siguiendo a Popper- que el asunto de la verdad es una cuestión epistemológica independiente de la cuestión psicológica de cómo se llega a ella. La cuestión de la validez de una proposición matemática (por ejemplo las proposiciones gödelianas) se decide por medios formales, es decir, la prueba matemática (el algoritmo), cualquiera que sea la naturaleza de ese misterioso recurso que Penrose llama "intuición"; la cuestión sobre el origen en el cerebro de nuestras ideas, probablemente no tenga en último término más explicación que el atavismo genético de las personas bien dotadas para el razonamiento matemático. Pero el origen de una idea no es lo mismo que su demostración y, en todo caso, es claro que Penrose decide ignorar el hecho obvio de que el teorema de Gödel es una demostración formal. Todo su valor descansa en procedimientos estrictos de razonamiento, y en ningún sentido está basado en una "intuición" o en cualquier otro procedimiento no formal. Es porque el teorema es formal, y no incurre en ninguna falacia formal, que aceptamos sus conclusiones sobre la naturaleza y límites de las matemáticas.

En seguida recurre el autor a la prueba de Gödel como una supuesta demostración de que el conocimiento matemático es intuitivo y no algorítmico NOTA 11. En esto incurre en una mala interpretación, por otra parte bastante común, del trabajo de Gödel. El hecho de que no se pueda probar dentro de un determinado sistema una proposición que consideramos verdadera no nos dice nada sobre los métodos por los que hayamos llegado a aceptarla como verdadera. En particular, no nos dice que no podamos haber llegado a aceptarla por cuanto, en otro sistema formal la proposición sí pueda ser probada. La mala interpretación consiste en olvidar que la prueba de Gödel lo único que nos dice es que no podemos construir un sistema formal único que incluya todas las proposiciones que consideramos verdaderas; no nos dice que por cada proposición verdadera no podamos encontrar un sistema formal en que esa proposición pueda ser probada. En realidad, pareciera que la única posibilidad racional que tenemos de aceptar algo como verdadero es visualizarlo como demostrable en algún sistema más o menos formal (si no fuera así, nuestra creencia en su verdad permanecería científicamente injustificada, no pertenecería a la ciencia, sino a la superstición).

La prueba de Gödel quiebra el ideal formalista de Hilbert, que aspiraba a concebir un sistema único y total que cubriera todas las demostraciones matemáticas. Ese sistema unitario, si se hubiera establecido, tendría más en común con el ideal de verdad platónica que suscribe Penrose que con el punto de vista instrumentalista que caracteriza las investigaciones en inteligencia artificial. Lo que Gödel demuestra con su teorema es que no es posible captar la realidad con una sola red; no nos dice que las redes que usemos no deban ser formales. Al contrario, todo sistema matemático -o metamatemático- deberá seguir siendo formal. Pero ahora sabemos que los sistemas formales son instrumentos creados por la mente humana y no un sistema que cubra todas las verdades; sabemos cuáles son los requisitos para que esos sistemas tengan validez (deben tener congruencia interna y ser suficientemente amplios para permitir derivar las proposiciones que nos interesan) y en este sentido su creación no puede ser arbitraria. Pero como instrumentos humanos, descansan en la creatividad de la mente humana y la habilidad de los seres humanos para usarlos selectiva y productivamente. Después de Gödel es más difícil, de ningún modo más fácil, ser platónico (en los términos en que Penrose pretende ser platónico) que antes de Gödel.


Ejercicio de lectura

Leer el texto de Donald Perlis ( PENROSE 90) o su traducción en nuestra Antología, .


Comentario

Perlis coincide con nosotros en que los argumentos de Penrose contra la inteligencia artificial son falaces. En particular, se refiere a la "falacia de extrapolación" para identificar un tipo de error lógico que nosotros calificamos antes como "falacia de composición": las moléculas "simples no se reproducen ni metabolizan, pero las complejas pueden hacerlo". Bohr y Delbruck concluían que la vida tendría que ser explicada por "principios aún no descubiertos", de la misma manera que Penrose hoy alude a presuntos principios no-algorítmicos en la zona de nadie entre la física clásica y la física cuántica. Pero la vida resultó ser una combinación increíblemente compleja de elementos físicos de acuerdo con los mismos principios existentes, como la inteligencia está progresivamente siendo explicada por la aplicación de principios físicos conocidos y las técnicas de la programación informática.

También se refiere Perlis a la suposición de Penrose de que el análisis de temas difíciles (como las experiencias subjetivas internas) está más allá de la posibilidad de interpretación informática. El ejemplo más típico sería la explicación de la conciencia. Después de que Perlis escribiera esta observación, salió a la luz el libro de Dennett, La explicación de la conciencia, que comentaremos al final de este capítulo; esta obra es quizá el mejor ejemplo de lo que puede hacerse dentro del paradigma informático para aclarar tópicos relacionados con experiencias subjetivas que hasta ahora se había considerado que quedaban más allá de toda interpretación computacional.

Ejercicio de lectura

Leer el texto de John McCarthy ( MCCARTHY 90) o su traducción en el capítulo sexto de nuestra Antología.


Comentario

John McCarthy es un veterano investigador de la inteligencia artificial; más aún, podemos considerarlo, junto con Marvin Minsky, el padre fundador de la disciplina. Entre sus méritos tiene el haber creado un lenguaje de programación especialmente concebido para elaborar programas de inteligencia artificial, Lisp, un lenguaje especializado en operaciones con listas y otras estructuras simbólicas, en el cual se ha escrito la inmensa mayoría de los programas de la disciplina NOTA 12. Además de esta contribución inicial, McCarthy ha sido un pensador muy creativo dentro de la comunidad de inteligencia artificial, muy conocido por sus esfuerzos por basar la investigación respectiva en cánones lógicos estrictos NOTA 13. Junto con Patrick Hayes, es el creador del cálculo de situaciones, un instrumento para la representación del conocimiento de sentido común. Últimamente, sus esfuerzos se han concentrado en el desarrollo de la lógica nomonotónica NOTA 14, en cuyo campo ha hecho una contribución muy importante: la teoría de la circunscripción.

La principal crítica que McCarthy le hace a Penrose es que se atreve a desautorizar los esfuerzos por producir inteligencia artificial sin aludir a ninguno de los logros de cuarenta años de investigación en esa disciplina. En efecto, desde sus inicios en los años cincuenta, la inteligencia artificial ha producido logros que, si bien no llegan ni lejanamente a la producción total de una mente completa, sin embargo replican con bastante propiedad muchas de las capacidades de la mente humana. Es especialmente notable que Penrose no haga referencia a este desarrollo, sobre todo si se toma en cuenta la gran cantidad de páginas que dedica en su libro a resumir los logros de varias otras ciencias. Sin pretender cubrir todo lo que la disciplina ha conseguido durante las últimas cuatro décadas, permítasenos tratar de compensar aquí esa omisión, haciendo un rápido recuento de algunas de sus realizaciones.


Los logros de la inteligencia artificial

Podemos definir la inteligencia artificial como la disciplina que busca lograr que las computadoras sean capaces de realizar acciones que, si las hicieran seres humanos, diríamos que requieren inteligencia. Otra manera de poner el asunto es decir que esta disciplina busca mejorar la capacidad de las computadoras de realizar acciones que los seres humanos hacen mejor ( RICH 83). Curiosamente, las tareas en que esta ciencia tuvo éxito más temprano son aquellas que corresponden a problemas que los seres humanos consideramos difíciles: por ejemplo, jugar bien damas o ajedrez, así como probar teoremas lógicos, o pasar una prueba de inteligencia basada en interpretación analógica de figuras. En 1963, A. L. Samuel logró producir un programa para jugar damas que no solo actuaba de conformidad con las reglas sino que derrotaba a sus oponentes y aprendía a jugar mejor con la experiencia ( SAMUEL 63). En ese mismo año, A. Newell, J. C. Shaw y H. Simon ( NEWELL 63) produjeron un programa muy competente para probar teoremas lógicos considerados difíciles, tomados de Principia Mathematica de Whitehead y Russell ( WHITEHEAD 10). Desde entonces, el desarrollo de ambas líneas de investigación han llevado a programas sumamente eficientes, entre los cuales cabe destacar programas que juegan ajedrez con la perfección de un maestro de este juego, y que a muy corto plazo serán probablemente capaces de contender de igual a igual con los campeones del mundo ( BERLINER 88). En cambio, las mayores dificultades se han encontrado en emular las capacidades de la mente humana para resolver problemas superficiales, como por ejemplo conducirse con éxito en una insulsa conversación de salón. No obstante, se han sentado bases importantes para avanzar también en ese espinoso campo, con el desarrollo de técnicas generales de solución de problemas y de comprensión y generación del lenguaje ordinario.

Es importante anotar que, tanto en lo relativo a los juegos como a la prueba de teoremas lógicos, se creyó en un principio que, a pesar de su obvia dificultad, estos problemas podrían ser fácilmente solucionables por una máquina mediante la técnica de un barrido completo de posibilidades. Esta idea, sin embargo, resultó falsa, por cuanto no es posible superar la complejidad de la llamada explosión combinatoria generada por tales problemas NOTA 15. Las computadoras, tanto como los jugadores humanos, tienen que seleccionar entre las enormes posibilidades de ramificar el juego (o la prueba lógica) aquellas ramas que más prometen, y ello sólo puede hacerse basándose en conocimiento sobre el campo respectivo.

Otro esfuerzo temprano de la inteligencia artificial fue el realizado por Newell y Simon ( NEWELL 63b), en relación con el tipo de problemas que uno resuelve todos los días, por ejemplo al preparar su desayuno o escoger ruta para llegar a su lugar de trabajo. En relación con esto, dichos autores desarrollaron la técnica del análisis de fines y medios, y construyeron un programa basado en dicha técnica, con el pomposo nombre de Solucionador General de Problemas NOTA 16. Este programa hacía uso de muy poco conocimiento, en la forma de unas tablas de diferencias entre estado actual y estado deseado, y los correspondientes operadores para eliminarlas. Esta investigación dejó como legado permanente la distinción teórica entre métodos débiles (los de gran alcance de aplicación y de poco poder) y métodos fuertes (los de poco alcance y mucho poder) que ha sido la base para desarrollos posteriores, especialmente la tecnología de los sistemas expertos (programas que tienen gran poder sobre un dominio muy limitado del conocimiento) NOTA 17.

Conforme la disciplina fue desarrollando mejores técnicas para manejar cantidades considerables de conocimientos sobre el mundo, le fue posible acometer tareas importantes en distintos campos: la percepción (tanto visión como comprensión de lenguaje hablado), comprensión de lenguaje escrito, planificación, navegación de aparatos mecánicos por cuartos congestionados de mobiliario, manipulación de objetos por un brazo mecánico, y -finalmente- resolución de problemas sobre dominios técnicos concretos que requieren experticia, como el diagnóstico médico, la prospección geológica, el análisis químico, las inversiones en la bolsa o el diseño de arquitecturas informáticas. Estos últimos desarrollos se dieron a partir de la década de los setenta, bajo la cobertura general de lo que se conoce como tecnología de los sistemas expertos, ya mencionada antes. Desde mediados de la década de los ochenta se trabaja intensamente en el área de aprendizaje, buscándose la creación de sistemas expertos que aprendan -y no solo apliquen una base de conocimientos programada por adelantado- y en sistemas expertos que razonan a partir de primeros principios -y no simplemente aplicando reglas de condición/acción de carácter empírico. En los últimos años, los mayores esfuerzos se han concentrado en el mejoramiento de los métodos de representación del conocimiento, y en estudios teóricos sobre los fundamentos lógicos necesarios para la acción inteligente ordinaria (sobre todo, desarrollo de lógicas nomonotónicas NOTA 18).


El poder está en el conocimiento

Con base en su gran experiencia en el intento de replicar las capacidades intelectuales humanas por medios artificiales, McCarthy encuentra que las preocupaciones de Penrose sobre el tipo de física o el tipo de algoritmo que sustenta la actividad mental resultan en realidad inatinentes. "Las mayores dificultades para dotar de inteligencia a una computadora" nos dice "no son problemas técnicos matemáticos. Más bien, consisten en escoger un conjunto de predicados, funciones y fórmulas adecuadamente generales para representar el conocimiento de sentido común". En otras palabras, el problema no está en el tipo de hardware que sustenta a la inteligencia, y que una física con distintos fundamentos que la actual pudiera solucionar, ni siquiera en el tipo de software (la clase de programas -algorítmicos o no- que edificáramos sobre esa física); sino más bien en la manera en que deba representarse y organizarse el conocimiento que sustenta el poder de la inteligencia.

Esta observación es oportuna porque Penrose, ajeno a toda la temática trabajada por la inteligencia artificial a lo largo de los últimos cuarenta años, se refiere a los métodos de la disciplina como si fueran algoritmos matemáticos del estilo de los que se necesitan para resolver problemas numéricos ordinarios. En cambio, la programación de inteligencia artificial -también llamada programación heurística- descansa sobre todo en el manejo de símbolos, especialmente listas, de carácter no numérico. Pero además, como de lo que se trata es de emular los procedimientos del intelecto humano, que raramente actúa al estilo matemático, sino más bien por aproximación y basándose en hipótesis plausibles o muy probables, casi nunca emplea directamente algoritmos rigurosos e infalibles para realizar sus deducciones, sino más bien en reglas "de bolsillo" que los seres humanos hemos llegado a aceptar como suficientemente confiables y que son computacionalmente económicas -permiten llegar a una conclusión razonable antes de que sea tarde para aplicarla-.

Cabe hacer aquí una distinción importante, que Penrose no hace, y que podemos relacionar con los conceptos epistemológicos que hemos establecido en capítulos anteriores. Sabemos lo que es una máquina Turing y que su funcionamiento es indistinguible del enunciado de un algoritmo (en realidad, fue propuesta como definición rigurosa del mismo concepto de algoritmo). Además, conocemos -por la famosa tesis Turing-Church- que todo procedimiento para ser eficazmente calculable debe corresponder a una tal máquina. De ahí se sigue que toda emulación de la inteligencia deberá estar basada en arquitecturas - hardware y software- de máquinas Turing. En este punto Penrose no está de acuerdo porque sostiene, con muy cuestionable fundamento, que en algún momento descubriremos las bases de procedimientos eficaces no algorítmicos en un cierto tipo de física por ahora aún inexistente.

Sabemos también que en la vida real los algoritmos no son aplicables directamente, puesto que es muy raro que contemos con información completa y segura que nos suministre premisas ciertas para los respectivos razonamientos. Sin embargo, los seres humanos razonamos -cuando lo hacemos- con el mayor rigor que permiten las circunstancias, y obtenemos muchas veces, a pesar de todas las limitaciones epistemológicas mencionadas, resultados positivos y útiles (por ejemplo, el que escribe estas líneas espera, con conocimiento incompleto e inseguro, que estas líneas serán adecuadamente entendidas por sus lectores). Podemos decir entonces que nuestros procedimientos son (parcialmente pero frecuentemente) eficaces; en la medida en que lo sean deben pues -por la tesis Turing-Church- ser reducibles a una máquina Turing. Sin embargo, nuestros procedimientos no son seguros, porque no siempre aciertan, y las máquinas Turing, los algoritmos, siempre deben terminar con la respuesta correcta.

Es evidente que necesitamos aquí hacer una distinción, y es una distinción de niveles, de esos niveles ontológicos que hemos analizado con tanto detenimiento en los capítulos tercero y cuarto. Podemos decir, entonces, que en el nivel de la computación (o intencional, para usar la terminología de Dennett) nuestros procedimientos son inseguros. Pero en el nivel de los mecanismos/algoritmos (o del diseño) nuestros procedimientos son tan estrictos como la máquina Turing. Y esto es efectivamente lo que pasa: un programa de inteligencia artificial está escrito en algún lenguaje (por ejemplo Lisp o Prolog) con arreglo a algoritmos absolutamente precisos (el programador sabe cómo funcionará cada línea de código, cada función definida por él); pero el resultado de la acción de ese código, en un nivel superior, puede ser visto como una recomendación de un sistema experto que nos enuncia que tal o cual acción (por ejemplo, en la bolsa de valores, o en el tratamiento de una enfermedad) es la que se ofrece como más beneficiosa. Pero el sistema experto puede fallar en su recomendación, y el paciente morir a consecuencia de un mal diagnóstico, o el inversionista arruinarse por una mala inversión, por culpa de sus malos consejos. De nuevo, el comportamiento racional humana no es infalible en el sentido en que lo es un algoritmo matemático; pero si aceptamos la tesis mecanicista, su comportamiento es producido, en algún nivel adecuado, por la interacción de algoritmos mecánicos (equivalentes de máquinas Turing).

Esta distinción es evidente y se da por supuesta en la comunidad de los investigadores de inteligencia artificial. Está ausente, sin embargo, en las argumentaciones de Penrose, que no le dedica ni media palabra. Para él la cuestión es saber si la inteligencia es algorítmica o no lo es, sin ninguna otra cualificación. Para él no se plantea, evidentemente por falta de familiaridad con los campos de la epistemología, de la psicología o de la informática (el tema de los niveles es obvio y omnipresente en cada uno de esos tres campos). Y en realidad, la categorización ontológica es indispensable para ver con claridad en este complicado problema. Definitivamente, en un nivel, nuestro pensamiento es algorítmico: en el nivel de los mecanismos. Pero también, definitivamente, en otro nivel, el de la computación o la intención, nuestro pensamiento no es algorítmico (puesto que puede fallar) sino heurístico.

La distinción entre lo algorítmico (en sentido puro) y lo heurístico surge muy temprano en la práctica de la inteligencia artificial, como una necesaria consecuencia de la percatación de que para resolver los problemas de diseño de una actividad intelectual cualquiera debe superarse el formidable obstáculo de la explosión combinatoria. En el juego de damas, o en el de ajedrez, la búsqueda exhaustiva de las mejores jugadas es un programa inviable. La alternativa es introducir, en momentos adecuados, una función heurística. Por ejemplo, se ha desarrollado una técnica muy eficiente para prever el desarrollo de las jugadas, llamada minimax; según ella, se prevé que en cada capa de jugadas, de lo que se trata es de computar la ventaja que uno mismo o el adversario pueden obtener, y correspondientemente valorar como positivo lo que nos favorece y como negativo lo que favorece a la otra parte.

Pero para poder cuantificar esa ventaja debemos tener una manera de valorar las situaciones finales de nuestro juego mental anticipado. Es ahí donde debemos echar mano de conocimiento del juego, y en donde la simple técnica computacional solo nos puede ayudar indirectamente. Debemos diseñar una función, o sea un algoritmo preciso, para estimar si la situación del juego es favorable o no para el que está evaluando la partida.
Por ejemplo, podemos incluir como parte de esa función en el juego de ajedrez el número y calidad de piezas sobre el tablero de cada uno de los jugadores ("Si en la posición habré perdido la reina, estoy prácticamente perdido"). Pero también muchos otros elementos, como el soporte recíproco que se brinden las piezas propias y las del adversario, las obstrucciones de unas piezas sobre las acciones de las otras, etcétera. La función se llama heurística, porque no puede saberse por adelantado (sin hacer cómputos adelantados sobre ulteriores capas del juego) si, por ejemplo, la pérdida de la reina no se va a compensar más adelante por un "mate en tres". En consecuencia, no podemos estar completamente seguros de que la evaluación es buena. Pero si la función es ideada por un jugador experto, podemos tener confianza de que, en la mayor parte de las situaciones, nos dará buenos resultados. El tipo de programación en que se usan este tipo de funciones es lo que llamamos programación heurística.

Los algoritmos desarrollados hasta ahora en la programación heurística son suficientes para dar cuenta de los métodos fundamentales de la inteligencia, esos métodos "débiles" que pueden aplicarse a toda clase de problemas. Lo que se necesita además de eso es la experticia necesaria en los múltiples campos en que la inteligencia se ejerce, apoyada en una representación adecuada del dominio correspondiente. En este tema se produce un encuentro entre las posiciones, a menudo antitéticas, de los dos patriarcas de la inteligencia artificial, John McCarthy y Marvin Minsky. En efecto, según lo hemos visto en otras partes de esta obra, este último postula como solución al problema de construir una mente artificial (o de entender la natural), perfectamente compatible con el énfasis en la necesidad de vastas acumulaciones de conocimiento sobre el mundo que postula aquí McCarthy. A saber: un agregado de "agentes", cada uno encapsulado en sí mismo y responsable de un cierto tipo de actividad o de representación del mundo, que interactúan entre sí en formas muy complejas y ricas. Cada uno de los métodos de interacción es relativamente sencillo: corresponde básicamente a un intercambio de mensajes y, en el fondo, a la explotación, por cada uno de estos módulos, de los recursos que pueden brindarle los otros. Uniendo las posiciones de ambos autores, tendríamos una posición conjunta sobre el futuro desarrollo de la inteligencia artificial, que insiste crucialmente en esfuerzos para lograr una mejor representación del conocimiento, basada en la lógica o en otros medios; representación que, en todo caso, deberá revestir una enorme complejidad antes de que pueda dar cuenta de las extraordinarias capacidades de sentido común de la mente humana.


Las trampas de la lógica

McCarthy, un excelente lógico y matemático, disfruta de una posición privilegiada para refutar los argumentos de Penrose basados en el teorema de Gödel. Recuérdese que Penrose resucita un argumento de Lucas en el sentido de que la mente humana tendría ventaja frente a la computadora con inteligencia en relación con la producción de fórmulas de Gödel, que percibiría como verdaderas pero serían indemostrables en un sistema dado (que presume sería el único que podría manejar la computadora). La respuesta de McCarthy es contundente, y además muy graciosa. Nos pide imaginar el siguiente diálogo entre Penrose y una computadora dedicada por vocación a las matemáticas:

Penrose: Dígame el sistema lógico que usted usa y yo le diré una proposición verdadera que no puede probar.
Programa: Dígame usted cual sistema usa usted y yo le diré una proposición verdadera que usted no puede probar.
Penrose: Yo no uso un sistema lógico fijo.
Programa: Yo puedo usar cualquier sistema que usted elija, aunque más frecuentemente uso una variante de ZF descendiente de la obra realizada durante los años ochentas por David McAllester. ¿Le imprimo el manual?...


¡Sobran comentarios!


Ejercicio de lectura

Leer el texto de Daniel Dennett ( DENNETT 91), o su traducción en el capítulo sexto de nuestra Antología.


Comentario

En la obra de que está extractado este texto, Dennett intenta llevar a sus últimas consecuencias el uso del paradigma computacional para explicar los fenómenos mentales, aplicándolo al análisis de la conciencia humana. El autor comienza por advertirnos que no debemos esperar encontrar en la explicación de la conciencia ningún elemento consciente. Nos hace notar que explicar un fenómeno significa librarse del asombro original que nos produce lo desconocido. Para ello, debemos tomar lo que deseamos explicar, en este caso la conciencia, y tratar de producir una explicación (es decir un conjunto de premisas de las cuales puede deducirse el fenómeno) estrictamente en términos de cosas que no incluyan ese mismo fenómeno; en nuestro caso, cosas que no sean conscientes. Por ello no debe extrañarnos, sino -al contrario- parecernos completamente natural, que la explicación disuelva el misterio, y que la conciencia quede explicada con ayuda de procesos y estructuras que no tienen nada de conscientes.

En segundo lugar, el autor presenta pruebas impresionantes de cómo la aplicación de criterios tecnológicos puede disolver un problema aparente, al circunscribir claramente lo que es posible construir y lo que es literalmente inconstruible; o al establecer de qué manera ciertos procesos no son sino el producto de la interacción eficaz entre varios otros procesos más simples.

El resultado final del análisis de Dennett es la propuesta de un nuevo modelo de la mente, lo que él llama el "modelo de las versiones múltiples", que viene a reemplazar al "modelo del teatro cartesiano" postulado por la filosofía dualista tradicional.

La nueva filosofía de la mente, en contraste con la tradicional, se caracteriza por aplicar al problema de comprender los hechos mentales, el punto de vista del método científico y el punto de vista del quehacer tecnológico. En otras palabras, se trata de producir explicaciones que despejen el "misterio" tradicional en los problemas de la mente y de acercarse a los fenómenos mentales con la misma actitud con que enfrentaríamos el funcionamiento de un artefacto cuyo diseño interior no conocemos.


La mente puede ser enfocada con sentido científico

Solo una teoría que dé cuenta de los eventos conscientes en términos de eventos no conscientes puede dar cuenta en absoluto de la conciencia, así como los sólidos y los líquidos y los gases no pueden ser explicados sino en términos de cosas que no son ellas mismas ni sólidos ni líquidos ni gases. Explicar el dolor sin despejar su carácter desagradable sería circular -tanto como explicar la acción del opio por su virtud dormitiva es circular, como ya lo comprendió Molière-. Similarmente, una explicación adecuada de la risa debe dejar fuera la comicidad: su presencia meramente pospondría el intento de contestar la pregunta por su naturaleza. Si este enfoque nos parece extraño, como observa Daniel Dennett, ello sólo significa que no hemos aprendido aún a pensar sobre la mente, como sí sabemos ya pensar sobre los sólidos, los líquidos y los gases: "un misterio es un fenómeno sobre el cual la gente no sabe como pensar todavía". En el fondo, nunca llegamos a entender una explicación científica de un fenómeno natural: simplemente nos acostumbramos a ella; nos habituamos a hablar del fenómeno en los nuevos términos, dadas las ventajas inmensas de carácter pragmático que representa el aceptarlos. Si además de seres prácticos somos poetas, o místicos, siempre podemos poner temporalmente entre paréntesis la explicación científica y volver a maravillarnos de que el sol "salga" por el este todas las mañanas.


La mente puede ser enfocada con sentido tecnológico

En cuanto al enfoque tecnológico, poner atención al fenómeno mental de la misma manera en que atenderíamos a un artefacto, permite el surgimiento de preguntas nuevas más fácilmente contestables que las de la filosofía tradicional, tales como: ¿cuáles modelos de la alucinación pueden evitar la explosión combinatoria implicada en suponer que el mecanismo alucinatorio debe prever las reacciones del alucinado?; ¿cómo puede el contenido de la experiencia ser elaborado por procesos (relativamente) desprovistos de inteligencia y comprensión, del mismo modo que la música puede salir de un choque de partículas en el disco de un gramófono? En cuanto a la primera, podremos fácilmente mostrar que las alucinaciones fuertes son simplemente computacionalmente imposibles. Una alucinación fuerte sería, por ejemplo, las producidas por el "genio maligno" que Descartes supone metodológicamente en sus Meditaciones metafísicas para explicar las impresiones que recibimos del mundo exterior; o un fantasma con el que pudiéramos conversar, que nos permitiera tocarlo y resistiera nuestro embate con solidez, que proyectara una sombra como los cuerpos ordinarios, que fuera visible desde cualquier ángulo, que lo encontráramos cómodamente sentado en el mismo sillón después de ausentarnos brevemente de la sala en que nos hubiere aparecido, etc.

La respuesta tecnológica al primer interrogante es que sólo un fantasma verdadero podría producir una alucinación de ese tipo, y sólo un mundo real podría crear en la mente las impresiones inducidas por el genio maligno de Descartes. En cuanto a la segunda pregunta, sobre cómo producir cognición con elementos no cognoscitivos, puede considerársela como el programa de investigación mismo de la moderna ciencia del conocimiento. Parte de ese programa, por ejemplo, implica explicar el sentido común de la gente por la interacción en el cerebro de sistemas "menos inteligentes" que colaboran para producir la inteligencia ordinaria. Esos sistemas menos inteligentes, quedarían explicados por la coalición de subsistemas todavía menos inteligentes, hasta llegar a átomos de inteligencia ninguna de cuyas partes tuviera ya inteligencia NOTA 19.


La debilidad de la intuición

Uno de los obstáculos para la explicación científica de la inteligencia estriba en la tendencia inveterada que tenemos de creer que, por ser nosotros conciencia, tenemos una vía privada y privilegiada al conocimiento de sus secretos. Un ejemplo está dado por la vieja inclinación a creer que uno pueda descubrir conocimiento psicológico por simple introspección, ahorrándose laboriosos experimentos en situaciones de observación objetiva controlada. En otra parte hemos llamado a esa tendencia "la tentación del científico social", y tratado de exorcizarla mediante un cuidadoso distingo entre dos conceptos de subjetividad: subjetividad1 y subjetividad2, según nos estemos refiriendo a la subjetividad del científico o a la subjetividad del objeto de ciencia. En el caso de la introspección, estas dos subjetividades quedarían confundidas, pues el observador sería al mismo tiempo el observado. Estas confusiones deben siempre evitarse cuidadosamente, para asegurar la máxima objetividad posible en las conclusiones científicas ( GUTIÉRREZ 82).

En el caso de la conciencia, según nos lo recuerda Dennett, cuando en relatos sobre experiencias subjetivas pretendemos estar usando no más que nuestros poderes de intuición u observación interna, en realidad nos encontramos embarcados en procesos de amplia teorización informal, las más de las veces carentes de un mínimo control experimental. La verdad es que la gente se equivoca continuamente, incluso -como lo apunta Dennett- dentro de contextos de experimentación controlada, en sus opiniones intuitivas sobre lo que hace o sobre la forma en que lo hace. No se trata de que mienta propiamente, sino de que confabula: llena lagunas de la experiencia, adivina, agrega elementos "razonables", y en general confunde la teoría con la observación. Hay amplia evidencia experimental, recogida en multitud de experimentos psicológicos, de que "uno no tiene autoridad para dar cuenta de lo que le está pasando, sino solamente sobre lo que le parece que le está pasando".


El método heterofenomenológico

Esta comprobación da base a Dennett para presentar su método heterofenomenológico como un método neutral para investigar y describir la fenomenología NOTA 20. Implica la extracción y purificación de textos de sujetos con la capacidad de hablar, y el uso de esos textos para engendrar un mundo teórico ficticio propio del sujeto, al cual Dennett denomina heterofenomenológico del sujeto, o sea, un mundo fenomenológico pero objetivado, hecho accesible a los otros. Amueblamos ese mundo ficticio con toda clase de imágenes, eventos, sonidos, olores, presentimientos y sentimientos que han sido descritos con sinceridad por el sujeto como realmente existentes en su intimidad mental. Podemos decir que, cuando se ha constituido en su integridad, este mundo retrata de manera neutral en lo que consiste ser ese sujeto, con la ventaja de que lo hace en los términos del propio sujeto.

Extraída esa heterofenomenología, el investigador puede entonces pasar a considerar la heterofenomenología en todos sus detalles. El método descansa en el supuesto de que los hechos internos en que la gente cree, y sobre cuya existencia informa cuando expresa sus creencias con sinceridad, son fenómenos que una teoría de la mente no puede pasar por alto y debe explicar. Examen aparte merece la cuestión de si los ítemes que quedan así representados existen de hecho como objetos, eventos y estados reales en el cerebro de la persona. Esta es una cuestión eminentemente empírica que debe ser investigada por las técnicas correspondientes. Si se tiene éxito en descubrir candidatos reales adecuados que correspondan a estos elementos del mundo heterofenomenológico, podemos identificarlos como los referentes de los términos empleados por el sujeto; de lo contrario, nos quedaría siempre la obligación de explicar por qué los sujetos creen que tales términos designan cosas reales.


Observación e interioridad

Dennett identifica como la fuente de algunas de las paradojas de la conciencia que producen más perplejidad, la tendencia a aferrarnos demasiado tiempo a hábitos de pensamiento que usualmente producen buenos resultados prácticos, al evitarnos caer en dificultades. El caso más relevante consiste en que, siempre que lidiamos con un ser consciente, postulamos de inmediato la existencia de un punto de vista, desde el cual tal ser consciente percibe el mundo que lo rodea. La función principal de ese punto de vista es seleccionar una porción de la información disponible, y ordenarla en grados de proximidad o accesibilidad en relación con el observador (decimos que la "ponemos en perspectiva"), para permitir al observador actuar selectiva y eficazmente con base en esa información. No hay duda que esta postulación de punto de vista es un hábito útil de nuestro espíritu. Sin embargo, su aplicación tiene límites, que la filosofía tradicional ha ignorado, como veremos inmediatamente.

¿Qué sucede si, concentrándonos en el observador mismo, seguimos pensando que dentro de él hay todavía un punto de vista, es decir si tratamos de localizar el origen de la perspectiva como si fuera un punto interno al individuo que observa? Lo que sucede es que una presuposición común y útil para nuestra operación en el mundo externo comienza ahora a decepcionarnos: tendería a indicarnos que existe un observador interno, un homúnculo espectador dentro del ser humano ordinario. Aparte de los problemas de recursividad infinita que esto plantea (¿habrá otro homúnculo más pequeño que sería el observador interno del homúnculo original...?), Dennett nos presenta resultados concluyentes de la investigación empírica que demuestran -contra la tradición filosófica- que no existe un tal punto único en el cerebro adonde toda la información del mundo exterior confluya y se canalice. Esta comprobación tiene consecuencias muy vastas e importantes, que no son en absoluto obvias y que incluso resultan contraintuitivas para una mente acostumbrada a proyectar hacia adentro, sin mayor examen, sus hábitos de pensamiento adquiridos en el comercio con el ambiente exterior. No obstante, estos hallazgos son perfectamente compatibles con la más estricta aplicación del método científico. No debe de extrañarnos que los resultados sean contraintuitivos, habida cuenta de que la ciencia siempre busca explicar los fenómenos que no comprendemos en términos de ideas ya comprendidas y generalmente más claras y simples. Por lo demás, el fenómeno de la observación tendrá que ser explicado por fenómenos que en sí mismos no son observaciones, so pena de caer en una regresión infinita.


El teatro cartesiano

Dennett llama a la idea de que existe un lugar central en el cerebro materialismo cartesiano: es la opinión a que uno llega cuando descarta el dualismo de Descartes NOTA 21 pero conserva las imágenes relativas a un teatro central (aunque fuera material) donde se representen los datos del contenido de la conciencia. El materialismo cartesiano implica que existe una demarcación espacial en algún lugar del cerebro, que determina el orden de llegada o de "presentación" de los datos de la experiencia. Este punto de llegada es semejante al escenario de un teatro, al cual confluyen todos los esfuerzos de actores, director, escenógrafos, etc. para preparar la función. El teatro cartesiano es una metáfora de cómo puede la experiencia consciente producirse en el cerebro; en su forma original, el teatro cartesiano funcionaba para un público: el alma espiritual. Adoptada por el materialismo, la metáfora es mostrenca, en el sentido de que es un teatro que no observa nadie; sin embargo, forma un elemento relevante de la posición materialista que estamos comentando. Dennett advierte con mucha agudeza que el arrastre de esta metáfora parece superficialmente una extrapolación inocente del hecho familiar e innegable de que para intervalos de tiempo cotidianos y macroscópicos se puede en verdad ordenar los eventos en dos categorías: "lo ya observado" y "lo no observado todavía". Pero, en realidad, la idea de un centro especial en el cerebro "donde todo se arme" ha probado ser más bien una muy mala idea que confunde cualquier intento de pensar con claridad y precisión sobre la conciencia.

Dennett sostiene que esa metáfora es una rémora innecesaria y perjudicial para el pensamiento filosófico sobre la conciencia. Una vez que queda descartado el fantasma de la cosa pensante de Descartes, el escenario, la estación central o centro de operaciones en el cerebro, no pueden cumplir ninguna función útil. La glándula pineal, que Descartes suponía realizaba la conexión entre el alma y el cuerpo, no puede ya tener la función de fax intermediario entre las dos sustancias; pero tampoco podrá ser la oficina del Director Ejecutivo del cerebro; y por supuesto, tampoco podrá desempeñar esa función ninguna otra parte del cerebro, pues no hay ninguna razón empírica ni teórica para creer que el cerebro mismo tenga ninguna presidencia ni santuario íntimo, la llegada al cual constituyera la experiencia consciente. En breve, no hay ningún homúnculo dentro del hombre, ni ningún "cerebrúnculo" dentro del cerebro. No hay ningún indicio empírico de que lo haya; pero además, la teoría informática nos muestra que no existe ningún papel que tal extraño ente podría jugar: la "sociedad de la mente" de Minsky es una sociedad de mentes más pequeñas, que a su vez se resuelven en mentes más pequeñas, pero al final tenemos que desembocar en "átomos de inteligencia" cuyas partes no contienen elemento mental alguno.


El modelo de las versiones múltiples

El modelo de la conciencia que Dennett propone para sustituir al del teatro cartesiano se llama modelo de las versiones múltiples. Según él, toda la variedad de percepción, pensamiento o actividad mental que ocurre en el cerebro, se realiza por medio de procesos de interpretación y elaboración paralelos y de múltiples canales. Para usar una metáfora útil, la información que entra en el sistema nervioso es sometida en el cerebro a una "revisión editorial" continua, como la que se haría en las oficinas de un periódico.

La tesis del modelo de las versiones múltiples produce una reacción de profunda extrañeza en la gente ("Siento que no es así como yo percibo..."). Pero igual extrañeza producen los resultados empíricos que respaldan la tesis; por ejemplo, es difícil aceptar que en condiciones normales de lectura, los ojos avanzan por medio de sacudidas de aproximadamente cinco fijaciones por segundo; sin embargo, es así. Pero tal movimiento, al igual que el movimiento de la cabeza cuando oteamos nuestro entorno, se elimina muy pronto precisamente por "corrección editorial" en el trámite informático que tiene lugar desde el ojo hasta la conciencia NOTA 22. Los psicólogos han descubierto correcciones de este tipo en muchos momentos de la elaboración de la información generada por los sentidos; algunas ocurren en etapas muy tempranas del trámite, por ejemplo la que está asociada con la interpretación de profundidad en estereogramas de puntos aleatorios, tanto más curiosa por cuanto estamos acostumbrados a ligar la percepción de profundidad con el reconocimiento de los objetos; en este experimento, sin embargo, lo único que se presenta a los ojos (separadamente a cada uno) es la fotografía de una textura formada por puntos distribuidos al azar, que no forman ningún objeto reconocible. No obstante, al integrar las imágenes percibidas separadamente por los ojos, resulta claramente perceptible una figura geométrica que sobresale en tercera dimensión contra el fondo de puntos aleatorios. El fenómeno ocurre porque en efecto existe una pequeñísima discrepancia de posición entre los puntos circunscritos por el cuadrado virtual, entre las dos fotografías, en todo lo demás completamente idénticas.

Procesos de percepción que nos parecen instantáneos, toman en realidad fracciones largas de segundo, y en ese tiempo pueden ocurrir, y de hecho ocurren, varios agregados, enmiendas y hasta sustituciones de un contenido por otro, en diversos órdenes temporales. La conclusión es que "ver para creer" o "los sentidos no engañan" son enunciados verdaderos solamente -en el mejor de los casos- en el nivel supremo de abstracción, pero difícilmente en el nivel de los mecanismos o algoritmos. ¡De nuevo encontramos un empleo importante para nuestra categorización ontológica!

Contrariamente a lo que pretendieron los filósofos empiristas o positivistas, no experimentamos directamente nada. Lo que experimentamos es un producto de muchos procesos de interpretación y reinterpretación -procesos editoriales, en efecto-. Estos procesos, que tienen lugar como flujos de actividad neuronal en diversas partes del cerebro, toman como insumos representaciones burdas y tendenciosas, y producen como resultado representaciones agregadas, corregidas y más ricas que sus elementos originales.

Como consecuencia de todo esto, Dennett concluye que no existe un solo y definitivo "flujo de conciencia", que no hay oficinas centrales, ni teatro cartesiano donde "todo se integre" para ser aprobado por un "significador" central. Y que en vez de un flujo de conciencia único, existen múltiples canales en los cuales los circuitos especialistas, en literal pandemonio NOTA 23, tratan de hacer al mismo tiempo sus varias cosas, y crean sobre la marcha versiones múltiples de la información que pueden ser identificadas como narraciones. La mayor parte de estas narraciones fragmentarias desempeñan papeles de corta duración; sin embargo, algunas de ellas son promovidas a ulteriores papeles funcionales en la actividad de lo que podemos llamar la máquina virtual del cerebro.

La fijación del contenido de la conciencia

Como hace notar muy sagazmente Dennett, dentro de un modelo de versiones múltiples y procesos paralelos, la discriminación de aspectos o detalles no debe ser realizada por el cerebro más que una sola vez. Es decir, cuando una comprobación de algún detalle particular se ha realizado, gracias a la acción de uno de los especialistas dentro del cerebro, el contenido de información que quede así fijado no debe ser examinado de nuevo por ningún supervisor ni discriminador jefe. Esa es otra manera de decir que la discriminación no conduce a una representación del elemento discriminado, para beneficio de la audiencia del teatro cartesiano -pues simplemente no hay teatro cartesiano-.

Esta afirmación de Dennett parece ir en contra de la tesis representativa de la mente, basada en la hipótesis de los sistemas de símbolos físicos que hemos examinado con detenimiento en el capítulo cuarto. Sin embargo, no hay que olvidar varios aspectos. En primer lugar Dennett está comprometido con esa tesis, como se desprende de sus planteamientos en el artículo sobre los sistemas semánticos (los deseos y creencias deben estar presentes en la mente como representaciones). En seguida, el propósito del argumento que estamos comentando es sólo desbancar la idea del teatro cartesiano, de modo que "representación" es usado aquí más bien en el sentido de representación teatral, sin que se esté discutiendo si el conocimiento es representativo o no representativo (en el sentido en que lo querría un eliminacionista). Por otra parte, las distintas versiones de un evento que corran simultáneamente por el cerebro, como los borradores en la redacción de un periódico, tienen que ser representaciones en el sentido de las expresiones simbólicas que se manejan en la hipótesis de los sistemas de símbolos físicos. Pero además, el mismo Dennett nos dice inequívocamente en su libro que el cerebro es capaz de tener representaciones de muchas clases; que puede representar, por ejemplo, cosas como las siguientes:

    1. la posición del cuerpo y sus miembros;
    2. un punto de luz roja;
    3. un grado de hambre;
    4. un grado de sed;
    5. el olor de un vino rojo fino y viejo;
    6. el olor de un vino rojo fino y viejo como el de un Chambertin 1971;
    7. París;
    8. la Atlántida;
    9. la raíz cuadrada del número primo más grande menor que 20;
    10. el concepto de un combinación de saca-corchos con removedor de grapas, de color plateado.

La capacidad de representar los cinco primeros objetos, el cerebro humano la tiene en común con, probablemente, todos los animales. La de representar los últimos cinco, la tiene con exclusividad.

Estas fijaciones de contenido (que bien podemos llamar representaciones en el sentido de expresiones simbólicas, aunque no en el de representación teatral), están espacial y temporalmente distribuidas en el cerebro, y son por supuesto localizables con precisión tanto en el espacio como en el tiempo. Sin embargo, no está decidido si un contenido particular así discriminado aparecerá eventualmente como un elemento de la experiencia consciente, al igual que no está determinado que un párrafo particular de un borrador que circula en la redacción del periódico va a aparecer en el artículo publicado. Por lo tanto, no tiene mucho sentido preguntar cuándo llega a ser consciente: en todo momento hay versiones múltiples de "fragmentos narrativos" en varios estadios de edición en distintos lugares del cerebro, en vez de una narración única y canónica. A este respecto, es importantísimo considerar los estados de conciencia en estrecha relación con los esfuerzos que se hagan para sondearlos. "Sondear" se entiende en este contexto como la pregunta dirigida a la persona que experimenta un flujo de conciencia, en relación con alguno de los elementos de este flujo, sea que esta sea formulada por otra persona o por ella misma.

Estos sondeos del flujo de conciencia pueden intervenir en distintos momentos y separados unos de otros por distintos intervalos, y según la oportunidad en que se hagan, pueden producir efectos completamente diferentes, precipitando diferentes narraciones. En particular, si uno demora el sondeo demasiado, el resultado, el flujo respectivo puede no ser ya narración del todo, por haber sido eliminado por el proceso editorial; si, por el contrario, uno sondea demasiado temprano, puede enterarse por medio de ese sondeo de cuán tempranamente es lograda una discriminación particular en el flujo de conciencia, aunque en este caso deberá pagar como costo una perturbación del progreso normal de ese flujo.


Narración y sondeo

Así pues, aquello de lo que somos conscientes dentro de una cierta duración de tiempo no se define independientemente de los sondeos que usemos para precipitar las respectivas narraciones sobre ese período. Dennett nos presenta como ejemplo el caso de la conducción de un vehículo por varios kilómetros mientras estamos sumergidos en una interesante conversación o silencioso soliloquio. De repente, en un intermedio de esa conversación, podemos descubrir que no tenemos del todo recuerdo de la carretera, del tráfico, o de las propias actividades de manejo en que hemos estado inmersos. ¿Estábamos realmente inconscientes de todos los carros que pasaron, de los semáforos, de las curvas de la carretera, etcétera? Con toda seguridad que no: si hubiéramos sido sondeados a tiempo, en varios momento del camino, sobre lo que habríamos visto justamente antes, por supuesto que habríamos tenido algo que contar. Pero como no lo fuimos, esos detalles fueron eliminados por el proceso editorial en forma irreversible.


Estas consideraciones llevan a Dennett a formular un principio psicológico de incertidumbre, semejante al que Heisenberg estableció para la física
NOTA 24, a saber:

No podemos atribuir a un evento dado un momento específico en el flujo de la conciencia, con independencia de los sondeos particulares que hagamos para determinarlo.


Obviamente, este principio está sustentado por razones semejantes a las que sustentan el principio homólogo de la física: cuando lidiamos con elementos últimos, sean estos en la composición de la materia o en la composición de la conciencia, es inevitable que los métodos de observación afecten de manera irremediable los fenómenos que quieren ser observados.


Evidencia empírica contra el teatro cartesiano

Dennett acumula en su libro pruebas empíricas que demuestran la inexistencia del teatro cartesiano y la existencia, en cambio, de versiones múltiples paralelas de los contenidos de la conciencia. Una de las más poderosas de estas pruebas se fundamenta en la base psicológica del cine, el llamado fenómeno phi. En su forma más simple, el fenómeno consiste en que si dos o más luces separadas por, a lo más, 4 grados de ángulo visual se encienden brevemente en sucesión muy rápida, el sujeto percibe una sola mancha, la cual parece moverse en forma reiterada, viajando de ida y vuelta entre los dos puntos en que se encienden las luces.

El experimento realizado por Paul Kolers y Michael von Grünau, por sugerencia del filósofo Nelson Goodman, es especialmente instructivo. En tal experimento se encendieron dos luces de distinto color durante 150 milisegundos cada una (dentro de un intervalo de 50 milisegundos); "la primera mancha pareció comenzar a moverse y entonces cambiar de color abruptamente a la mitad de su ilusorio camino hacia la segunda localización". Salta entonces la pregunta de cómo puede el cerebro crear manchas en los momentos-lugares intermediarios entre el primer y el segundo centelleo, precisamente antes de que ese segundo centelleo haya ocurrido.

Tanto Goodman como Dennett (basándose este en su modelo de las versiones múltiples) contestan que el cerebro crea retrospectivamente el juicio de que hay posiciones intermedias, y que este contenido deja una marca en la memoria. Pero Dennett considera que el cerebro no necesita construir ninguna representación para rellenar esas lagunas, lo que sería dispendioso de recursos. Puesto que el juicio ya está formado, el cerebro puede dedicarse a otros menesteres. Una vez que una discriminación se ha hecho, no tiene que realizarse otra vez: el cerebro simplemente se ajusta a la conclusión lograda y usa la nueva interpretación para modular la conducta subsecuente.

Otro ejemplo, muy revelador, tiene que ver con suposiciones simplificadoras que el cerebro debe hacer para dar cuenta de hechos que ocurren en muy corto tiempo. Se aplican con ritmo unos golpecitos de martilletes mecánicos en dos o tres lugares a lo largo del brazo, digamos cinco en la muñeca seguidos por dos cerca del codo y finalmente tres en la parte superior del brazo. Los golpecitos se aplican con intervalos de entre 50 y 200 milisegundos. El efecto inesperado es que los golpecitos parecen viajar en secuencia regular sobre puntos equidistantes hacia arriba, como si un animalito se desplazara a lo largo del brazo. Uno se pregunta: ¿cómo sabe el cerebro que después de cinco golpecitos en la muñeca va a haber unos golpecitos cerca del codo? Los sujetos experimentan la "salida" de los golpecitos de la muñeca comenzando con el segundo, y sin embargo en pruebas de control en las que los golpecitos del codo nunca llegan a producirse, se sienten todos los cinco golpecitos de la muñeca en la misma muñeca.

La explicación que da Dennett es que el cambio en el espacio (a lo largo del brazo) lo discrimina el cerebro a lo largo del tiempo. El número de golpecitos es también diferenciado. Aunque en la realidad física los golpecitos están agrupados en localizaciones particulares, el cerebro hace la suposición simplificadora de que se distribuyen regularmente sobre la extensión espacio-temporal de la experiencia. El cerebro descansa en esta interpretación -parsimoniosa pero equivocada- después de que los golpecitos se registran, por supuesto, y esto tiene el efecto de editar (borrar) interpretaciones parciales anteriores.

Esto no debiera parecernos tan extraño, si hacemos un paralelo entre lo que sucede con nuestras representaciones en el tiempo con lo que sucede con nuestras representaciones en el espacio: en efecto, no representamos los objetos vistos como existentes en la retina, sino más bien a cierta distancia de nosotros en el mundo exterior; algo muy parecido hacemos con los objetos percibidos por los oídos. ¿Por qué no podría el cerebro representar también los eventos en el punto temporal donde tenga mayor sentido ambiental que sucedan, como lo hace con el punto espacial?

Si tomamos en cuenta que la distancia del dedo del pie al cerebro es mucho más grande que la de la frente al cerebro, estímulos aplicados simultáneamente en estos dos sitios arribarían a una supuesta Presidencia del cerebro en sucesión descompasada (si suponemos constante la velocidad de traslado de la información a lo largo de las diferentes vías). Podríamos entonces preguntar cómo hace el cerebro para asegurar una simultaneidad global. La respuesta de Dennett es que sería un error suponer que el cerebro necesite resolver este problema, por una razón muy fuerte de diseño: sería malgastar tiempo precioso conceder a todas las operaciones un itinerario gobernado por lo que ocurriría en el peor de los casos (cuando la discrepancia sería máxima, como en la comparación entre el viaje desde el dedo del pie con el viaje desde la frente). En general, es un principio de ingeniería que solamente en casos "de vida o muerte" vale la pena diseñar un sistema con vistas al peor caso que puede presentarse, pues tales previsiones degradan profundamente el funcionamiento de cualquier sistema. ¿Por qué deberían señales muy importantes procedentes de la frente tener que demorarse siempre en una sala de espera, solo por la razón de que en alguna ocasión particular pudiera suceder que señales concurrentes de los dedos de los pies convergieran de algún modo con ellas, alterando -por ejemplo- una relación de causalidad? NOTA 25.

En cambio, lo que tiene que asegurar el cerebro es que, en las circunstancias requeridas, la narración obtenga "sentido ambiental", de modo que, por ejemplo, un efecto no preceda a su causa. En otras palabras, no es tan importante la cronología de las señales atinentes como su organización, original o "editada", y lo único necesario es que esa organización dé base adecuada para el control del comportamiento.

Estos ejemplos, en que se hace evidente que el cerebro pone información que no estaba en los estímulos originales, o cambia la distribución temporal de ellos, junto con los que se refieren al principio de incertidumbre analizado antes, muestran claramente que no existe un fundamento singular para el flujo de la conciencia. Al contrario, todo parece indicar que en el cerebro fluyen corrientes de información complementarias o incluso contrarias, que son selectivamente integradas de acuerdo con las necesidades pragmáticas del individuo cognoscente. Además, puesto que la cognición y el control -y por lo tanto la conciencia- están distribuidos a lo largo y ancho del cerebro, se sigue que ningún tiempo puede ser señalado como el preciso momento cuándo un evento se hace consciente. Como hemos visto, los sondeos precipitan narraciones, de modo que el momento mismo en que se realizan puede tener efectos revisionistas sobre las formas representativas usadas por el cerebro. Todo esto le parece a Dennett argumento suficiente para rechazar en forma categórica la idea de un carácter único en el flujo de conciencia.


La superimposición de la conciencia

Las funciones múltiples para un mismo órgano, relativamente raras en el caso de los artefactos, abundan en cambio en la naturaleza. Piénsese, por ejemplo, en todas las funciones que tiene la boca, especialmente en los seres humanos. Una de las razones por las cuales los teóricos de la mente tienen tanta dificultad para discernir en el cerebro un diseño plausible para la conciencia, es el hecho de que han tendido a pensar que los elementos cerebrales deben servir cada uno para una, y solo una, función. El resultado es que está resultando tremendamente difícil escudriñar cómo funciona el cerebro, precisamente por haber sido diseñado por un proceso -la evolución- capaz de utilizar funcionalidades múltiples y superimpuestas, algo sistemáticamente difícil de discernir por los métodos de la ingeniería inversa NOTA 26.

La lentitud de la actividad mental consciente hace evidente que el cerebro no fue realmente diseñado -alambrado- para tal actividad. Los especialistas básicos de la conciencia son parte de nuestra herencia animal: no fueron diseñados para realizar acciones particularmente humanas, como leer o escribir, sino para agacharse en caso de peligro, evitar depredadores, reconocer caras, agarrar, lanzar, recoger bayas y otras tareas esenciales. Pero los enlistó la evolución, de modo oportunista, para nuevos papeles, que solo por casualidad y aproximadamente podían corresponder a sus talentos naturales.

Así, por ejemplo, "nuestros sistemas visuales, como los de muchos otros animales superiores, incluso los peces, son exquisitamente sensibles a patrones con un eje vertical de simetría". Esto se debe probablemente a que en el mundo natural de nuestros remotos antepasados las únicas cosas en la naturaleza que mostraban ejes de simetría vertical eran otros animales, y solamente cuando estaban de frente (entonces no había fachadas de catedrales, ni otros objetos construidos por el hombre que hoy exhiben la misma clase de simetría). Así, la evolución desarrolló en favor de nuestros antepasados un sistema de alarma muy eficiente, el cual se disparaba (sobre todo) cuando eran mirados por otro animal, una posible pareja, posible comida, o un depredador. Sin embargo, hoy día, la cultura ha superimpuesto a este mecanismo los cánones estéticos de la arquitectura -llegados a su máxima expresión en los ideales de belleza de los griegos clásicos-, con sus contenidos de proporción y simetría bilaterales.

Abundando en este tema de la superposición de la conciencia en sistemas neuronales más antiguos, el psicólogo Julian Jaynes, en especulación atrevidamente original ( JAYNES 76), enfatiza que la misma conciencia humana es una imposición cultural extremadamente reciente -comenzaría a producirse apenas en el período homérico- sobre una arquitectura funcional mucho más temprana, de carácter estrictamente vegetativo NOTA 27.


El efecto Baldwin

Como sabemos, nada de lo que el individuo aprende es trasmitido biológicamente a su progenie. Sin embargo, los individuos suficientemente afortunados para estar cerca, en su constitución genética, de un buen truco aprendible NOTA 28 tenderán a tener más progenie, que también tenderá por predisposición genética a estar cerca de ese buen truco. Si no fuera por la plasticidad -es decir, la capacidad de aprender-, este efecto, llamado técnicamente efecto Baldwin, no podría presentarse. Pero gracias a él, la especie con plasticidad tenderá a evolucionar mucho más rápido, y con más sentido de dirección, que aquellas que no la tienen. En resumen, la especie con plasticidad magnifica sus capacidades evolutivas, sin que para eso tengamos que aceptar la herencia de caracteres adquiridos por aprendizaje.

El efecto Baldwin tiene especial aplicación con respecto a la adquisición del lenguaje. El genotipo humano incluye muchas adaptaciones que específicamente favorecen la adquisición del lenguaje. Fueron adquiridas muy rápidamente, en términos de evolución, pero eso es precisamente lo que habría que esperar, dado el efecto Baldwin, en una especie con plasticidad: poder hablar es tan buen truco que cualquier individuo lento en adquirirlo habría estado en pavorosa desventaja y tendría muy pocas probabilidades de reproducirse y trasmitir su genoma a las subsiguientes generaciones.

Llegó un tiempo en la evolución del lenguaje -imagina Dennett- cuando las vocalizaciones debieron empezar a servir la función de compartir información útil. Así, un buen día un homínido dotado de la capacidad de vocalizar, habría podido pedir ayuda -equivocadamente- cuando no había, al alcance de su voz, un oyente capaz de ofrecerla... ¡con excepción de sí mismo! Al oír su propia invocación, este estímulo habría provocado precisamente la clase de ayuda que la invocación habría causado si hubiese venido de otro homínido. Así, para su sorpresa, el homínido habría encontrado que el incidente lo estimuló para contestar a su propia pregunta.

La práctica de hacerse preguntas a uno mismo puede ser claramente reconocida como un buen truco: es un método excelente de promover una acción mejor informada. Supongamos que, aunque la información correcta para algún propósito específico existiera ya en el cerebro, estuviera en manos de un especialista incorrecto; el subsistema que necesitara la información no podría entonces obtenerla directamente, simplemente porque la evolución todavía no habría proveído la conexión interna adecuada NOTA 29. En estas circunstancias, podemos especular que las grandes ventajas de hablar sotto voce consigo mismo habrían sido fácilmente reconocidas, y habrían llevado pronto a los homínidos a conversaciones internas completamente silenciosas.

Julian Jaynes ha argumentado persuasivamente que las capacidades del cerebro para autoexhortación y autorrecordatorio son un prerrequisito de autocontrol, sin los cuales la agricultura, los proyectos de construcción y otras actividades civilizadas y civilizadoras nunca hubieran podido organizarse. También ha postulado que un mecanismo arcaico para esta autoexhortación, basado en la división en dos "cámaras" cerebrales -correspondientes al que invoca y al que responde a la invocación- podría haberse conservado hasta muy avanzados los tiempos históricos; tal bicamerismo, históricamente anterior a la autoconciencia, proveería una explicación, por ejemplo, para los relatos de apariciones de dioses en los tiempos mosaicos y homéricos. NOTA 30


Teoría de los memes

Esta hipótesis de la superposición de la conciencia da base a Dennett para elucubrar una superposición de mayor envergadura: la superposición de la cultura a la evolución. Para este ambicioso proyecto usa las ideas de Richard Dawkins, según el cual las ideas se integran por ellas mismas en unidades memorables discretas que llama memes, como analogía de "genes" -los memes serían a la herencia cultural lo mismo que los genes son a la herencia biológica-. Ejemplos de tales unidades serían las ideas de la rueda o de portar vestiduras; las ideas de venganza, del triángulo recto, del alfabeto, del calendario; o la idea de evolución por selección natural -podría ser que la teoría de los memes, si tiene éxito, se convirtiera ella misma en un meme-.

En El gene egoísta, DAWKINS (1976) nos urge a considerar seriamente la posibilidad de la evolución de estos racimos intelectuales o memes. Dawkins argumenta persuasivamente que la teoría de la evolución por selección natural debiera considerarse neutral en relación con las diferencias entre memes y genes: ambos son solamente distintas clases de replicadores que evolucionan en diferentes medios a velocidades diferentes. Un carro con ruedas radiales no solo lleva grano o carga de un lugar a otro; lleva también la idea memorable de un carro con ruedas radiales de una mente a otra. La evolución de los memes no es simplemente análoga a la evolución biológica, sino un fenómeno que obedece exactamente las leyes de la selección natural como quedan especificadas por los requisitos de variación aleatoria de una generación a otra, transmisión de características por herencia y supervivencia de acuerdo con las diferencias en adaptación al medio NOTA 31.

Dawkins sugiere que tendemos a dejar inadvertido el hecho fundamental de que "un aspecto cultural puede haber evolucionado en la forma en que lo ha hecho simplemente por ser ventajoso para sí mismo" y no necesariamente para la especie humana. No obstante, algunos memes son buenos también desde nuestra perspectiva, y no solo desde la suya propia en calidad de autorreplicadores egoístas: los memes de la cooperación, la música, la escritura, la educación, la conciencia ambiental, la reducción de armamentos. Otros memes son más controversiales; podemos entender por qué se extienden, y por qué debemos tolerarlos, a pesar de los problemas que causan: la burocracia, los embotellamientos de tráfico, la comida rápida, la propaganda política... Todavía otros más son incuestionablemente perniciosos y muy difíciles de erradicar: el antisemitismo, el secuestro de aviones, los virus informáticos, el terrorismo, la corrupción administrativa. Es posible decir que, gracias a los medios electrónicos de información, los memes se expanden hoy día alrededor del mundo a la velocidad de la luz, y se replican tan rápidamente que hacen aparecer la reproducción de la mosca de la fruta y la de las células de levadura como producidas en cámara lenta.

Puede llegar el día en que la selección natural de los memes ocurra gracias a mecanismos distintos de la mente humana. Sin embargo, todos los memes tienen que pasar todavía una etapa de capullo en ese notable nido. Como las mentes están en corta provisión, y cada mente tiene una capacidad limitada para albergar memes, se produce considerable competencia entre ellos por entrar en cuantas más mentes sea posible. Esta competencia es por el momento la fuerza selectiva de la "memosfera" NOTA 32.

Por otro lado, las mentes humanas mismas son en grado considerable creación de los memes. "Miles de memes, la mayoría sostenida por el lenguaje, pero también por mudas imágenes y otras estructuras de datos, fijan su residencia en algún cerebro individual y moldean sus tendencias, transformándolo en mente".

Es importante anotar que, comparada con la plasticidad de la especie, que nos ha acompañado millones de años, la evolución memética es un fenómeno reciente, que ha llegado a ser una fuerza de suficiente poder solo en los últimos cien mil años y ha experimentado una explosión vertiginosa únicamente a partir del desarrollo de la civilización hace menos de diez mil años. Según sabemos, está restringida a una sola especie terrestre, la nuestra.


La mente: máquina virtual del cerebro

La mejor manera de dar cuenta de la relación entre la biología básica del cerebro y su superestructura memética es usar una metáfora tomada de la informática. Podemos decir que las mentes conscientes humanas son máquinas virtuales más o menos seriales implantadas en un hardware eminentemente paralelo suministrado por la evolución.

Es así que Dennett llega a la conclusión de que todo parece indicar que la conciencia humana

    1. es demasiado reciente para estar alambrada en nuestra maquinaria innata;
    2. es mayormente un producto de la evolución cultural que se imparte a los cerebros en el adiestramiento temprano; y
    3. su instalación exitosa está determinada por miríadas de micromodulaciones en la plasticidad del cerebro, lo cual significa que sus características funcionales son probablemente invisibles para el escrutinio neuroanatómico.

En nuestros cerebros existe una colección entreverada de circuitos especializados que, gracias a una familia de hábitos inculcados en parte por la cultura y en parte por autoexploración, conspira para producir una más o menos ordenada, más o menos efectiva, más o menos bien diseñada máquina virtual, la máquina joyceana NOTA 33.

Esta máquina enyunta en una causa común a distintos órganos especializados con historias evolutivas independientes. Podemos considerarla como el sistema operativo o el software del cerebro, y es lo que realiza esa suerte de milagro político interior que consiste en crear en cada ocasión un capataz virtual, sin dar a ninguna parte del sistema poderes dictatoriales de largo plazo. ¿Quién está a cargo? -se pregunta Dennett-. Debemos contestar que nadie, o que primero lo está una coalición de especialistas y después alguna otra, dependiendo de las circunstancias del trabajo interior.


Una consecuencia repugnante de la virtualidad del "yo"

El hecho de que la conciencia, o "yo", no sea substancial (alambrado) sino virtual (programado y cambiante) parece tener valor explicativo sobre muchos aspectos de la realidad interior que han intrigado por igual a lo largo de los tiempos a filósofos, moralistas, psicólogos y juristas. Algunos de esos aspectos, por ejemplo, tienen que ver con la patente crueldad que puede manifestar la agresividad humana, en todo disímil a la "crueldad necesaria" de la lucha por la supervivencia del mundo animal NOTA 34. Es bien posible que tales matices de encarnizamiento de la agresividad en los seres humanos NOTA 35 se base en la profunda inseguridad inducida en el yo por la conciencia de su propia insustancialidad: la mente es una máquina virtual que además se sabe virtual. No se trata aquí del conocimiento de la propia mortalidad -asequible a algunos, si no a todos, los animales- lo que está en juego, sino el conocimiento de la propia virtualidad, del carácter eminentemente efímero de la conciencia como simple amalgama transitoria de volátiles coaliciones de sistemas especializados en el cerebro.

Deficiencias y límites de la conciencia

El humilde origen de nuestra conciencia, como producto del bricolage de materiales preexistentes, queda claramente de manifiesto en sus abundantes límites y deficiencias. La notable flaqueza de nuestra visión periférica (toda la visión excepto dos o tres grados alrededor del puro centro) se nos oculta normalmente por las trayectorias suaves o las repentinas sacudidas que hacen variar momentáneamente el contenido del área foveal central de la retina (el resto de la retina es, según se sabe, como diez veces menos discriminante que la fóvea).

Otra característica sobresaliente de la conciencia es su discontinuidad, según se revela en el punto ciego -por donde entra el nervio óptico- en que la retina es insensible a la luz, y en las lagunas que dejan los movimientos de sacudida de los ojos, para tomar solo los ejemplos más simples. La discontinuidad de la conciencia es llamativa en especial por la frecuencia con que su continuidad ha sido alabada por profanos, literatos y filósofos NOTA 36. Pero de hecho la conciencia "está llena de lagunas y es escasa, no contiene ni la mitad de lo que la gente piensa que contiene".

Solemos maravillarnos, en momentos de autoconciencia intensificada, de la gloriosa riqueza de nuestra experiencia consciente. Pero esa riqueza de que nos vanagloriamos no es en efecto sino solamente la riqueza objetiva del mundo exterior, en su lujuriosa manifestación. Como lo hemos aprendido de innumerables experimentos en psicología cognoscitiva, tal riqueza nunca "entra" en nuestras mentes conscientes: simplemente permanece disponible para una conciencia activa pero intermitente, fragmentaria y limitada en muchos sentidos diferentes.


La coevolución de la visión del color y las "clases naturales"

Nuestra visión de color no nos da acceso a propiedades simples de los objetos, como lo pretendieran los filósofos empiristas, aun en este siglo. La visión en colores "naturales" coevolucionó desde el principio con colores cuya razón de ser era simplemente un color coding NOTA 37, como el que encontramos en las líneas de los trenes metropolitanos en algunos países NOTA 38, de rasgos naturales necesarios para la supervivencia. En esto parece que debemos volver las cosas "de cabeza": los arquitectos que diseñaron el metro de París, de México o de Washington D.C. no inventaron el color coding, sino que simplemente volvieron a utilizar los colores para su propósito primigenio. Algunas cosas en la naturaleza necesitaban ser vistas y otras necesitaban verlas, así pues evolucionó un sistema que tendió a minimizar la tarea de las últimas acentuando la visibilidad de las primeras. Así, "el principio de la codificación por colores es la base de la visión de color en los insectos, no simplemente una reciente invención de una sagaz especie de mamífero". Los pájaros, los peces y los reptiles tienen también visión en colores, aunque no los perros ni los gatos, que todavía no la han inventado. Curiosamente, dentro de los mamíferos, solo los primates la han desarrollado.


Las "clases naturales"

Estos hechos iluminan la cuestión ontológica de las clases naturales, a que nos referimos en el capítulo tercero. En el principio fueron los colores, para ser vistos por aquellos seres hechos para verlos. Una vez que hubo criaturas que distinguían las bayas rojas de las bayas verdes, pudieron ellas también distinguir los rubíes rojos de las esmeraldas verdes, pero solo como una añadidura casual. El "cielo azul que todos vemos" es azul porque las manzanas maduras son rojas, las uvas moradas y la hierba verde y la vida necesitó como fondo de contraste el color azul celeste.

Siguiendo el mismo argumento, no podemos preguntarnos con sentido si la diferencia entre las esmeraldas y los rubíes es una diferencia visible, a menos que especifiquemos al mismo tiempo un sistema de visión determinado. Los colores no son "clases naturales" precisamente porque son el producto de la evolución natural, la cual tiene una tolerancia por fronteras desdibujadas entre categorías que indignaría a los filósofos, aficionados a ideas claras y distintas. Dennett llega a decir que si la vida de una criatura dependiera de empaquetar juntos a la luna, el queso azul y las bicicletas, con toda seguridad la madre naturaleza encontraría una manera de hacerla ver estas cosas como "intuitivamente la misma y cabal clase de cosa".

Podemos concluir, en relación con el tema ontológico, que no es objetivo de nuestros sistemas sensoriales el detectar propiedades "básicas" o "naturales" del entorno, sino solamente realizar nuestro propósito narcisista de permanecer vivos; como dice Dennett, "no está entre las funciones de la naturaleza el crear máquinas epistémicas". La vocación epistemológica es algo superimpuesto a funciones biológicas anteriores, del mismo modo que lo son el lenguaje o la conciencia.


La conciencia y la sociedad

Una de las deficiencias más reveladoras de la conciencia es su gran fragilidad. Según lo recuerda Dennett, hay voluminosos diagnósticos, perfectamente confiables, de que no existen solo un puñado o unos cientos sino en realidad miles de casos de DPM (desorden de personalidad múltiple) hasta el día de hoy. Casi invariablemente esos casos deben su existencia a ultraje prolongado en la primera infancia, usualmente de carácter sexual, o a severidad patológica en el seno de la familia. Así, se trata de un fenómeno muy complejo que se extiende mucho más allá de los cerebros individuales de quienes lo sufren. Aquí, como en muchas otras ocasiones, una deficiencia de la conciencia nos pone sobre la pista de una de sus notas fundamentales; en este caso su carácter eminentemente social. Se puede considerar como establecido por la ciencia que las personalidades no son madreperlas que existan independientemente, sino productos de los procesos sociales que nos crean; como tales artefactos, están sujetas a cambios repentinos de estatus. La única estabilidad -concluye Dennett- que podemos atribuir a la trayectoria de una personalidad, como a la de un club, es el momentum que le imparte la red de creencias que la constituye; cuando estas creencias se reblandecen, aquella falla, sea temporal o permanentemente.

Como lo ha mostrado Marvin Minksy en La sociedad de la mente, existe una continuidad natural entre la dinámica que origina y explica el funcionamiento de las mentes y la que origina y explica el funcionamiento de las sociedades: ambas resultan de la interacción de innumerables procesos paralelos que se interpenetran en todas direcciones. Así pues, una personalidad no es un punto matemático ni un ente metafísico, sino una abstracción definida sobre las miríadas de atribuciones e interpretaciones (incluidas las autoatribuciones y las autointerpretaciones) que componen la biografía de un cuerpo viviente cuyo centro de gravedad narrativa (como diría Dennett) ella misma es. Como tal, juega un papel singularmente importante en la economía cognoscitiva del cuerpo viviente, porque de todos los modelos de cosas del entorno que un cerebro activo debe construir mentalmente ninguna es más crucial para su supervivencia y bienestar que el modelo que el agente se hace de sí mismo.


Conclusión

Sea cual sea la posición que uno mantenga en estas grandes polémicas, es claro que el día en que podamos construir un robot que replique por lo menos lejanamente el comportamiento intelectual humano, sabremos que existe al menos una teoría -la que hubiere orientado esa construcción- que explicaría tal comportamiento, sea ella igual o diferente de la que pudiera explicar el diseño del cerebro humano. Mientras llega ese día, cada rendimiento de un mecanismo artificial isomórfico al del correspondiente en el cerebro, constituirá una explicación de la capacidad humana asociada con ese mecanismo. Así, la inteligencia artificial no solo puede verse como la vertiente tecnológica de la ciencia cognoscitiva; podemos entenderla además como una metodología para validar esta ciencia.


Ejercicios de aprendizaje

Para contestar estas preguntas usted puede consultar cualesquiera de sus textos, con entera libertad. Estos ejercicios requieren que usted haga un esfuerzo de imaginación y de razonamiento analógico.

1) Comente la siguiente frase de Dennett: "Un misterio es un fenómeno sobre el cual la gente no sabe como pensar todavía". ¿Cuál es la recomendación implícita en estas palabras que Dennett nos hace sobre cómo proceder en relación con esta clase de fenómenos?

2) Dennett nos dice que algunas de las paradojas de la conciencia que producen más perplejidad surgen porque nos aferramos demasiado tiempo a un buen hábito de pensamiento que usualmente nos evita meternos en problemas. Encuentre un ejemplo en el cual se ilustre de qué manera un hábito de pensamiento o conducta que rinde muy buenos beneficios en la generalidad de los casos, resulta contraproducente en ciertos casos límites.

3) Compare la técnica de los libretos que se usa en inteligencia artificial para hacer que una computadora entienda un cuento con lo visto en el capítulo tercero sobre lógica no monotónica. ¿Tienen alguna coincidencia? Si la tienen, explique en qué consiste.

4) Imagínese que usted es parte del equipo de investigación de Roger Schank y que le ha sido encargado definir un libreto para una situación que ocurre frecuentemente en los cuentos de niños. Escoja la situación y escriba el libreto, usando el siguiente formato:

Nombre del libreto:

Condiciones iniciales

..

Resultado

..

Objetos de apoyo

..

Roles

..

Carriles

..

Escenas

..

5) Con ayuda del libreto que usted haya definido, escriba un pequeño cuento para dárselo al "cuarto chino" e improvise unas preguntas para probar su comprensión. Escriba unas posibles respuestas del sistema que probarían que ha comprendido el cuento.

6) Dennett nos dice que sólo un fantasma real podría relacionarse de una manera natural con nosotros. Explique, dentro de esta perspectiva, por qué los fantasmas son elusivos (por ejemplo, desaparecen cuando uno trata de atraparlos).

7) Contraponga y compare los modelos de la mente del teatro cartesiano y de las versiones múltiples.

Contestaciones a los ejercicios de aprendizaje

1) "Misterio" es una palabra que no tiene lugar en la ciencia; si hay un fenómeno que todavía no haya podido explicarse, procede entonces buscar las hipótesis adecuadas para tratar de hacerlo. Pero no sólo es necesario formular hipótesis: a veces es todavía más importante acuñar el vocabulario adecuado en que sea posible formular esas hipótesis. Muchas veces es incluso indispensable adoptar un marco de referencia nuevo, distinto de aquel dentro del cual el problema ha surgido, para poder comenzar a plantear correctamente el problema. En muchas ocasiones el problema sólo existe dentro del marco de referencia que hemos heredado de la tradición, y que identificamos como "sentido común" o "intuición", pero el problema se disuelve cuando comenzamos a verlo desde un punto de vista riguroso.

2) Cuando alguien sale a navegar con una lancha en el Golfo de Nicoya, al regresar a Puntarenas desde, por ejemplo, Isla Tortugas, puede elegir como punto de referencia para regresar a puerto "La Punta". Tal referencia le servirá por un buen rato; pero llegará un momento en que deba abandonar ese punto de referencia, porque de lo contrario terminaría por encallar en la playa, en vez de enfilarse como sería debido a los muelles del estero.

3) Lo que tienen en común los "libretos" de la comprensión artificial del lenguaje y la lógica nomonotónica es que en ambos casos se proveé un mecanismo para suplir la información que falta para la resolución de un problema con algún "valor de omisión".


4) Nombre del libreto: Fiesta de cumpleaños

Condiciones iniciales

Recibimiento de la invitación, compra del regalo, compra o preparación del vestido para ir a la fiesta.

Resultado

Los niños vuelven a sus casas, satisfechos, pero también cansados, y usualmente llorosos por haber sido removidos de la fiesta violentamente por sus respectivas madres.

Objetos de apoyo

Regalos de cumpleaños, tinaja, cubo de helados, queque con velitas, bombas de hule para decoración, confeti.

Roles

El cumpleañero, los invitados, la mamá del cumpleañero, las mamás de los invitados.

Carriles

La fiesta puede celebrarse en el jardín, si hay buen tiempo, o en el garaje de la casa si llueve.

Escenas

La llegada, con entrega del regalo al cumpleañero.

Juegos de diversas clases.

Rompimiento de la tinaja, después de varios intentos de distintos niños, con los ojos vendados, seguida de rebatiña en el suelo de los caramelos y otros pequeños valores de que estaba llena la tinaja.

Repartición del queque, que comienza por canto de "feliz cumpleaños", continúa con soplado de candelitas y consecuente aplaudida, y termina por la comilona del queque y de los helados que lo acompañan.

Más juegos.

Escenas opcionales de pequeños accidentes de los niños o riñas entre ellos.

La pelea con las mamás porque los niños no quieren irse.

5) "Juancito fue a la fiesta de cumpleaños de Mabel. Se divirtió mucho, aunque no quiso cantar ni comer helado. Fue él quien rompió la tinaja. Su madre lo llevó a la casa hecho un mar de lágrimas".

Preguntas:

Respuestas correctas:

¿Qué canción se negó a cantar Juancito?

"Feliz cumpleaños"

¿Alguien castigó a Juancito por haber roto la tinaja?

Por supuesto que no. Lo felicitaron.

¿Por qué lloró Juancito?

Juancito lloró porque no quería irse de la fiesta.


6) Los fantasmas, para toda persona realista, no pueden ser producto sino de ilusiones ópticas o de alucinaciones. Ahora bien, las ilusiones son transitorias, y generalmente se disuelven con solo cambiar de punto de vista. En cuanto a una alucinación, no puede ser tan completa como la impresión que deja la realidad misma, porque chocaría con dificultades computacionales. Un fantasma que pudiera inspeccionarse por todos lados, con el que pudiéramos hablar, etcétera, es una imposibilidad computacional -a menos que fuera real, pero por hipótesis estamos descartando esa posibilidad-.

7)

teatro cartesiano

versiones múltiples

un lugar único adonde "todo se arma"

pandemonio, procesos paralelos

un solo flujo de conciencia

muchos flujos de conciencia

no hay construcción de información sino solo representación

construcción editorial de la información

la conciencia es continua

la conciencia es discontinua

conciencia clara y distinta

conciencia depende de los sondeos que se le hagan


Ejercicios de evaluación

Conteste por escrito, lo más clara y completamente que pueda, sin consultar sus libros. Califique cada respuesta comparándola con las respuestas que se ofrecen en seguida. Si alguna de las preguntas resulta mal contestada, busque el material atinente en el texto y repáselo hasta quedar satisfecho con su asimilación del mismo.

1) Describa el experimento mental llamado "cuarto chino" y diga qué representa cada uno de sus elementos.

2) Explique de manera sucinta la tesis de Searle sobre la posibilidad de que un programa informático comprenda el lenguaje ordinario.

3) Explique en líneas generales la objeción de Dennett al argumento de Searle.

4) Resuma el argumento de Penrose contra la inteligencia artificial.

5) Resuma los argumentos esgrimidos por varios autores contra la tesis de Penrose.

6) Explique cuál es el respectivo papel de los métodos y el conocimiento, según lo han determinado los investigadores de la inteligencia artificial (por ejemplo, en qué sentido son los métodos débiles y el conocimiento fuerte).

7) Enuncie y explique el principio psicológico de incertidumbre.

8) Dentro de la perspectiva que adopta Dennett sobre la evolución del aparato cerebral, ¿qué lugar ocupa la conciencia en relación con otros órganos o funciones biológicos más primitivos?

9) ¿En qué consiste la teoría de los memes de Dawkins?

10) ¿Cómo se entienden las clases naturales dentro de una perspectiva evolucionaria?



Respuestas a los ejercicios de evaluación

1) El cuarto representa un sistema informático que se supone es capaz de comprender lenguaje ordinario (chino, por ejemplo). Dentro de él, Searle realiza las funciones que realizaría la unidad central de proceso, o sea, leer las instrucciones del programa respectivo y ejecutarlas. La información que se le suministra a Searle (a la unidad central de proceso) es de varias clases: un programa, escrito en un lenguaje que Searle entiende (español en el experimento mental, que representa al lenguaje de máquina que entiende la unidad central de proceso), compuesto por reglas para relacionar las dos primeras horneadas de textos en chino. Se le da también varias horneadas de textos chinos, a saber: una primera horneada que representa un libreto, o sea, un modelo de una situación que ocurre frecuentemente en los cuentos; una segunda horneada que representa un cuento; y una tercera horneada que representa preguntas que se pueden hacer a propósito del cuento para probar si el sistema ha entendido el cuento. La respuesta que el sistema da a la tercera horneada representa contestaciones a esas preguntas.

2) Searle considera que el lenguaje ordinario sólo puede ser comprendido verdaderamente, y no solamente ser simulada su comprensión, por un ser con intencionalidad. A su vez, que solamente algo que tenga los mismos poderes causales del cerebro puede tener intencionalidad. Finalmente, que sea lo que sea lo que la intencionalidad es, es un fenómeno biológico, y solo puede ser producido por medios biológicos.

3) Un programa capaz de entender chino debería haber pasado la prueba de Turing, y sería enormemente más complejo que lo que Searle supone en su ejemplo, donde el hombre dentro del cuarto lo único que se supone que hace es comparar símbolos ininteligibles unos con otros. Los procesos implicados en un programa de inteligencia artificial son muchísimo más complicados que el simple apareamiento de caracteres. No tenemos derecho a descalificar como capaces de producir una auténtica comprensión a los billones de acciones de las múltiples partes sumamente estructuradas que compondrían un programa que hubiera pasado la prueba de Turing. Después de todo, eso es lo que tenemos base para suponer que hace el cerebro: integrar de una manera congruente billones de acciones de partes sumamente estructuradas. Así pues, lo más grave que puede decirse del argumento de Searle es que descalifica al cerebro (a nosotros mismos) como seres que realmente posean en algún momento una auténtica comprensión.

4) Básicamente Penrose arguye que el pensamiento humano tiene capacidades intuitivas "no algorítmicas", que se manifiestan, por ejemplo, en el poder que tienen los matemáticos de construir fórmulas verdaderas que, sin embargo, no se pueden probar por un sistema formal. Esos supuestos poderes no algorítmicos están basados en una física que todavía no se ha descubierto y que, presumiblemente, resolverá el conflicto entre la física cuántica y la física relativista.

5) La argumentación de Penrose incurre en la falacia per ignorantiam al ofrecer pruebas con base en una física que todavía no se ha constituido. Además, incurre en la falacia de autoridad, por cuanto apela a su propio renombre como físico para lanzar dudas sobre una muy bien confirmada conjetura de los matemáticos, la tesis Turing-Church. Por otro lado, incurre en un error de hilación lógica (también llamado non sequitur) al afirmar que ciertas fórmulas consideradas verdaderas dependen de una facultad de intuición porque no pueden probarse en un sistema formal (algorítmico), cuando es perfectamente posible probarlas en otro sistema formal diferente. También se le ha criticado a Penrose que incurre en la falacia de composición, pues supone que porque argumentos muy simples no demuestran tener inteligencia, una combinación de muchos de ellos no podrá tenerla. Finalmente, se le critica la desautorización de una ciencia que no conoce, o por lo menos cuyos logros no se mencionan en su libro (a pesar de presentarse en él resúmenes de varias ciencias). Finalmente, cabe hacerle la crítica de que al afirmar que el pensamiento humano tiene características no algorítmicas omite hacer una distinción ontológica (o de niveles de abstracción) muy importante: el pensamiento aplica "heurísticas" (es decir, procedimientos que no tienen garantizado el éxito, pero que generalmente lo logran) en el nivel de la computación; pero esas heurísticas, para poder funcionar, tienen que estar programadas algorítmicamente en el nivel de los mecanismos.

6) Los métodos, a veces calificados como "métodos débiles", son las técnicas de que se vale el pensamiento (natural o artificial) para resolver problemas de manera general, es decir, sin tomar en cuenta las peculiaridades del caso. Por ejemplo, "considerar una por una todas las combinaciones de los factores implicados" es un método débil. Los métodos débiles tienen como características su gran generalidad (se aplican a todos o a una inmensa cantidad de problemas) y, por otro lado, su muy limitado poder para resolver los problemas. Por su parte, el conocimiento constituye la fuerza del pensamiento, aunque tiene como característica importante que cada tipo de conocimiento contribuye a la resolución de sólo un muy limitado rango de problemas.

9) No podemos atribuir a un evento dado un momento específico en el flujo de la conciencia, con independencia de los sondeos particulares que hagamos para determinarlo. Esto quiere decir que aquello de lo que somos conscientes dentro de una cierta duración de tiempo, no se define independientemente de los sondeos que usemos para precipitar las respectivas narraciones sobre ese período.

10) Los indicios que tenemos son en el sentido de que la conciencia existe superimpuesta a otros fenómenos y estructuras biológicos diseñados por la evolución para propósitos muy distintos. Los especialistas básicos de la conciencia son parte de nuestra herencia animal y no fueron diseñados para realizar acciones particularmente humanas, como leer o escribir, sino para agacharse en caso de peligro, evitar depredadores, reconocer caras, agarrar, lanzar, recoger bayas y otras tareas esenciales.

11) Las ideas se integran por ellas mismas en agregados discretos que llamamos memes en analogía con los genes. Los memes son a la herencia cultural lo que los genes son a la herencia biológica. La evolución de los memes no es simplemente análoga a la evolución biológica, sino un fenómeno que obedece a las leyes de la selección natural según los requisitos de variación aleatoria, transmisión hereditaria y supervivencia diferencial.

12) No es objetivo de nuestros sistemas sensoriales el detectar propiedades básicas o naturales del entorno, sino solamente asegurar el propósito de la supervivencia del ser vivo. No está entre las funciones de la naturaleza el crear máquinas epistémicas. La vocación epistemológica es algo superimpuesto a funciones biológicas anteriores, del mismo modo que lo son el lenguaje o la conciencia.


ÍNDICE DE LA OBRA

REFERENCIAS


Copyright © 1997 Claudio Gutiérrez


Notas:

NOTA 1 Naturalmente, en la versión inglesa del texto Searle se refería al inglés, su idioma nativo.


NOTA 2 La palabra está tomada, obviamente, de la tecnología teatral, donde el libreto describe el conjunto de escenas, con indicación de personajes, contexto y objetos de apoyo para la acción dramática.


NOTA 3 Para Renato Descartes, filósofo francés del siglo XVII, la producción del pensamiento era privativa de una sustancia espiritual, que él llamaba precisamente "sustancia pensante", y que oponía a otra sustancia, la física, que llamaba "sustancia extensa" o simplemente "extensión".


NOTA 4 Ponemos "Cuarto Chino" con mayúsculas iniciales para enfatizar que como tal, y por hipótesis, es un ser pensante.


NOTA 5 Confróntese el capítulo primero de esta obra.


NOTA 6 Una referencia irónica al famoso cuento "La camisa nueva del emperador", con la que el autor insinúa que el reconocimiento de carácter científico a la inteligencia artificial no es sino una pose adoptada -contra evidencia- por conformismo con una moda intelectual.


NOTA 7 Cotéjese la explicación que damos sobre esta prueba de Gödel en el capítulo segundo; igualmente, el comentario sobre la refutación de este argumento por John McCarthy, más adelante en este capítulo.


NOTA 8 Esta tesis es examinada por nosotros en el capítulo segundo.


NOTA 9 En el capítulo segundo explicamos ampliamente por qué la tesis Turing-Church no puede probarse, a pesar de que todos los matemáticos la aceptan como verdadera.


NOTA 10 Recuérdese que probar hechos singulares negativos es imposible. Confróntese el capítulo primero, en relación con la obra de Popper.


NOTA 11 Confróntese el capítulo segundo para un resumen de la famosa prueba.


NOTA 12 Hasta el año 1972, prácticamente todos los programas de inteligencia artificial eran escritos en Lisp. Después de esa fecha, con la creación de Prolog, el lenguaje creado por McCarthy encontró un competidor importante, que ha ido ganando terreno lentamente dentro de la comunidad científica. Sin embargo, a pesar de este auge de la programación en lógica, es probable que todavía hoy la mayor parte de la investigación en inteligencia artificial se haga en Lisp.


NOTA 13 En esta empresa ha chocado muchas veces con Marvin Minsky, el cofundador de la disciplina, quien cree que la lógica no es medio adecuado para representar el conocimiento de sentido común; en sucesivas etapas ha abogado por medios alternativos, como los "marcos", a los cuales nos hemos referido en este mismo capítulo.


NOTA 14 Ver capítulo tercero.


NOTA 15 Por ejemplo, se ha estimado que el número de partidas posibles en el juego de ajedrez es mayor que el número de átomos en el universo.


NOTA 16 Confróntese lo explicado sobre este programa, dentro del contexto de la hipótesis de búsqueda heurística, en el capítulo cuarto.


NOTA 17 Los métodos débiles han continuado usándose en prácticamente todo tipo de aplicaciones.


NOTA 18 Ver capítulo tercero.


NOTA 19 Un arco reflejo sería, por ejemplo, un tal átomo de inteligencia.


NOTA 20 Conjunto de impresiones, ideas, deseos, temores, sentimientos, etc. que un sujeto experimenta en su mente.


NOTA 21 Recuérdese que Descartes interpretaba al ser humano como la convergencia de dos substancias fundamentalmente diversas: la "cosa extensa" (el espacio, el cuerpo) y la "cosa pensante" (el intelecto, la conciencia, el alma). El dualismo en este sentido suele oponerse a la posición filosófica materialista, que supone que no existe más que una clase de sustancia: la materia.


NOTA 22 Nótese el empleo aquí, justificado por la costumbre, de la metáfora misma que estamos criticando: hablamos de un trámite "desde el ojo hasta la conciencia" como si la conciencia fuera un punto de llegada, en el mismo sentido en que la retina es un punto de llegada de los rayos de luz. En realidad, precisamente no se trata ni de un solo recorrido, ni de un lugar discernible "adonde todo confluya", sino más bien de un conjunto de procesos paralelos que intercambian información entre sí y forman, como resultado de la actividad total, la impresión (¿o deberemos decir "ilusión"?) del flujo de la conciencia.


NOTA 23 "Pandemonio" (todos los demonios) es la palabra clásica para lo que hoy llamaríamos multiproceso.


NOTA 24 El principio de incertidumbre de Heisenberg establece que hay un límite a la precisión con que se pueden determinar cuantitativamente ciertos pares de propiedades, como por ejemplo la posición de una partícula y su momentum (cantidad de movimiento), o la energía y el tiempo en que ocurre. Estas limitaciones se pueden explicar de manera aproximada e informal diciendo que, en lo extremadamente pequeño, las condiciones necesarias para hacer la observación interactúan con el fenómeno que se trata de observar, cambiándolo en un fenómeno ligeramente distinto.


NOTA 25 Por ejemplo, podría ser que algo sucediera en la frente que fuera causa de un efecto sensible en el pie, pero que, por la diferencia de llegada al cerebro de las respectivas señales, apareciera como posterior al efecto. Pero el cerebro tiene una manera de lidiear con estas situaciones mucho más efectiva, económica y general: simplemente, las versiones provisionales se ajustan para lograr una "redacción" que tenga "sentido ecológico".


NOTA 26 Se llama ingeniería inversa al proceso de descubrir el diseño a partir de la máquina. Bien podríamos considerar a la ciencia toda como un proyecto de ingeniería inversa para discernir el diseño del universo.


NOTA 27 Ver adelante una referencia más detallada sobre el mecanismo de esta superimposición y sus ideas sobre la naturaleza original de la conciencia.


NOTA 28 Es decir, aquellos individuos de la especie que por su constitución genética están especialmente dotados para aprender el truco. Desde luego, se da por supuesto que no nacen con la capacidad de realizarlo, pues su naturaleza biológica simplemente los predispone a aprenderlo con facilidad.


NOTA 29 Esta hipótesis supone, lo que es verosímil, que la evolución habría logrado primero dotar a los homínidos de la capacidad de ayudarse mutuamente por signos, sin que eso implicara en absoluto la autoconciencia (el poder de hablarse a sí mismo).


NOTA 30 La autoconciencia misma, según Jaynes, no habría comenzado a existir sino a partir del rompimiento de ese bicamerismo, lo que supone que tuvo lugar tan cerca como los tiempos de Sócrates y Pericles.


NOTA 31 Como hemos visto en el capítulo anterior, el surgimiento de la vida artificial (evolución de organismos digitales, programas en una computadora virtual) es otro tipo de evolución que no tiene nada que ver con los organismos basados en la química del carbono. Pareciera que esto añade fuerza al reclamo de Dawkins en relación con la posibilidad de que los memes evolucionen también por su cuenta.


NOTA 32 Por analogía con la biosfera, capa de seres vivos que cubre el planeta tierra.


NOTA 33 Dennett le da este nombre en honor del célebre novelista irlandés James Joyce, que introdujo en la literatura el concepto de "flujo de conciencia".


NOTA 34 Como terribles ejemplos podemos citar, entre muchos otros, la "solución final al problema judío" por parte de los nazis -que implicó el exterminio de 6 millones de personas-, o el más reciente "programa de limpieza racial" emprendido por los serbios en la antigua Yugoslavia -violación masiva de miles de mujeres bosnias, ordenada por los jefes del ejército-.


NOTA 35 Debo la percepción de este aspecto de la vida mental a una sagaz intervención del crítico costarricense Andrés Sáenz, con ocasión de una presentación oral de estas mismas ideas.


NOTA 36 Por ejemplo, por Kant o Bergson.


NOTA 37 Inglés por "codificación mediante el uso de colores".


NOTA 38 En San José, Costa Rica, los taxis son todos rojos, lo que ayuda a distinguirlos en el tráfico.

Ir a la Página Mis Trabajos