Este capítulo
busca poner en contacto al estudiante con la polémica sobre la posibilidad y límites
de la inteligencia artificial. Al mismo tiempo, intenta hacerle patente, una vez
más, la trascendencia del paradigma informático, tanto como modelo para la
interpretación de los fenómenos cognoscitivos como para la emulación por
medio de procesos mecánicos de los fenómenos propios de la vida mental. De un
modo especial se propone, mediante un ejemplo ilustrado con bastante detalle -la
explicación de la conciencia- poner de relieve las potencialidades del
paradigma para aclarar un problema profundamente difícil.
En este último capítulo debemos estudiar
cuestiones de gran profundidad y alcance: a saber, cuáles son los alcances y
las limitaciones del paradigma informático, tanto como instrumento para
entender la mente humana y sus fenómenos cognoscitivos, como en calidad de
herramienta para emular esos mismos fenómenos, con interés productivo, en un
ambiente estrictamente tecnológico. Deberemos examinar y comentar varios textos
importantes, recogidos en el capítulo VI de la Antología, donde se ofrecen
diversas y encontradas opiniones sobre los alcances -e incluso la posibilidad-
de la inteligencia artificial; igualmente, trataremos de ver con detenimiento cómo
se desempeña el paradigma informático frente al fenómeno cognoscitivo quizá
más difícil de analizar; la conciencia que el ser cognoscente tiene de su
mundo-ambiente, e incluso de sí mismo. Dividiremos el desarrollo de nuestro análisis
en dos partes. Primeramente discutiremos el tema de la posibilidad y límites de
la inteligencia artificial; para ello presentaremos la médula de los argumentos
contrarios esgrimidos por dos grandes objetantes de la disciplina, John Searle y
Roger Penrose, así como la reacción de varios pensadores activos dentro de
ella. En segundo lugar, presentaremos un resumen del estudio, muy reciente,
realizado por el filósofo -ya bien conocido por nuestros lectores- Daniel
Dennett, como uno de los intentos de mayor envergadura realizados hasta ahora
para resolver el problema de la conciencia desde una perspectiva informática.
Leer el texto de John Searle ( SEARLE
80) o su traducción en el capítulo
sexto de nuestra Antología.
En 1980, John Searle publicó un artículo que
inmediatamente se hizo famoso por contener un experimento imaginario -desde
entonces conocido como "el cuarto chino"- que según él refutaba de
manera contundente la atrevida tesis, ya entonces extendida en la comunidad de
investigadores de inteligencia artificial, de que los incipientes programas de
comprensión del lenguaje natural producidos en la Universidad de Yale por Roger
Schank y sus colaboradores, representaban un caso claro de actividad mental por
parte de las máquinas. Los editores de la revista tuvieron el cuidado de
mostrar el artículo de Searle antes de su publicación a muchos investigadores
de inteligencia artificial, lo que hizo posible publicarlo acompañado de muchas
reacciones contrarias a su argumentación. A partir de la aparición del artículo,
las ideas de Searle han continuado siendo discutidas abundantemente, en muchísimos
artículos y libros publicados durante ya más de una década. El tema es
profundamente polémico y probablemente se necesitarán muchos años más de
discusión, y un considerable avance de la tecnología y ciencia informáticas,
antes de que las cuestiones debatidas se consideren suficientemente aclaradas y
las tesis suficientemente sedimentadas en la comunidad científica.
Ante todo, tratemos de presentar, con las
propias palabras de Searle, el experimento imaginario:
Supongamos que
estoy encerrado en un cuarto y que se me da una horneada de escritura china.
Supongamos también que, como es precisamente el caso, yo no sé nada de chino,
ni escrito ni hablado, y que ni siquiera tengo confianza en que puedo reconocer
los caracteres chinos de, por ejemplo, los caracteres japoneses, o de garabatos
sin sentido. Para mí, los caracteres chinos son, en efecto, otros tantos
garabatos sin sentido. Ahora bien, supongamos también que después de la
primera horneada de caracteres chinos recibo otra horneada, con un conjunto de
reglas para correlacionar la segunda horneada con la primera. Las reglas están
en español, y entiendo estas reglas tan bien como cualquier otro hablante
nativo del español. Ellas me permiten correlacionar un conjunto de símbolos
formales con otro conjunto de símbolos formales, y todo lo que
"formal" significa aquí es que puedo identificar los símbolos
enteramente por su forma física. Supongamos ahora también que me dan una
tercera horneada de símbolos chinos junto con algunas instrucciones, también
en español, que me permiten correlacionar elementos de esta tercera horneada
con los de las dos primeras horneadas, y estas reglas me instruyen sobre cómo
producir ciertos símbolos chinos con ciertas clases de formas como respuesta a
otros símbolos chinos -con ciertas clases de formas- que me han sido dados en
la tercera horneada. Sin que yo lo sepa, la gente que me da todos estos símbolos
llaman a la primera horneada "un libreto", a la segunda "un
cuento" y a la tercera "preguntas". Por otra parte, llaman a las
respuestas que doy a la tercera horneada "contestaciones a las
preguntas", y al conjunto de reglas en español que me dieron, "el
programa". Para complicar la historia un poquito, imaginemos que esta gente
me da también cuentos en español NOTA
1, que comprendo, y me hacen preguntas
en español sobre esos cuentos, y que les doy contestaciones en español.
Supongamos también que después de un tiempo soy tan bueno en seguir las
instrucciones para manipular los símbolos chinos y los programadores llegan a
ser tan buenos para escribir el programa que desde un punto de vista externo -es
decir, desde el punto de vista de alguien que esté fuera del cuarto en que me
encuentro encerrado- mis contestaciones a las preguntas son absolutamente
indistinguibles de las de los hablantes chinos nativos. Nadie que viera mis
contestaciones podría decir que no hablo una palabra de chino. Supongamos que
mis contestaciones a las preguntas en español fueran, como indudablemente serían,
indistinguibles de las de otros hablantes españoles nativos, por la simple razón
de que soy un hablante nativo español. Desde el punto de vista externo -desde
el punto de vista de alguien que leyera mis "contestaciones"- las
contestaciones a las preguntas chinas y a las preguntas españolas serían
igualmente buenas. Pero en el caso chino, a diferencia del caso español,
produzco las contestaciones manipulando símbolos formales no interpretados. En
lo que respecta al chino, simplemente me comporto como una computadora, realizo
operaciones computacionales sobre elementos especificados formalmente. Para los
propósitos del chino, soy simplemente un ejemplo de un programa de cómputo.
En esta descripción del experimento
imaginario se da por conocida la teoría de Roger Schank sobre comprensión del
lenguaje por computadora, entonces en boga en la comunidad de inteligencia
artificial. Tal teoría estaba inspirada en un trabajo previo de Marvin Minsky,
en que este proponía la idea de los sistemas de marcos. A su vez, la teoría de
Minsky estaba basada en la hipótesis de sistemas de símbolos físicos de
Newell y Simon, ampliamente discutida en esta obra. Recuérdese que esta hipótesis
es indisociable de la idea de que el conocimiento es representativo y de que, de
algún modo, en la mente existen símbolos con dimensión semántica que
representan los objetos externos y sus diversas relaciones. Según Minsky, los
intentos de representación del conocimiento hasta ese momento (alrededor de
1972) habían sido "demasiado detallados, locales y faltos de estructura
para dar cuenta... de la eficacia del pensamiento de sentido común" ( MINSKY
75). Propuso, en cambio, que cuando
uno encuentra una nueva situación, selecciona de la memoria una estructura
compleja, que propuso llamar marco, que consiste en una configuración plasmada
por experiencias anteriores en la cual pueden fácilmente hacerse modificaciones
para adaptarla al caso presente. En sus palabras:
Un marco es
una estructura de datos para representar una situación estereotipada, como
estar en una cierta clase de sala de estar, o ir a la fiesta de cumpleaños de
un niño. Pegadas a cada marco hay varias clases de información. Algunas se
refieren a cómo usar el marco. Otras, a qué podemos esperar que pase en
seguida. Otras a qué hacer si esas expectativas se confirman.
Podemos considerar
el marco como una red de nodos y relaciones. Los de más arriba serían fijos, y
representarían las cosas que son siempre verdaderas sobre la situación
supuesta. Los niveles inferiores tendrían muchas terminales -ranuras que
deberían ser llenadas con ejemplos específicos de datos. Cada terminal puede
especificar condiciones que deben llenar sus asignaciones. (Las asignaciones
mismas serían normalmente marcos más pequeños)....
Colecciones de
marcos relacionados se asociarían entre sí para formar sistemas de marcos....
Sobre esa base, Schank ( SCHANK
77) elaboró su teoría de los libretos
NOTA 2.
Un libreto es una especie de marco relativo a situaciones comunes que se
producen en el tiempo, como visitar un restaurante. Consiste en un conjunto de
ranuras. Asociada con cada ranura puede haber cierta información sobre qué
clase de valores puede contener, así como valores de omisión para ser usados
cuando no se dispone de otra información. Tomemos el caso del libreto de
restaurante como un ejemplo, que podría tener las siguientes seis ranuras:
Condiciones iniciales |
Deben satisfacerse, en general, antes de que los eventos descritos en el libreto puedan ocurrir. |
Resultado |
Condiciones que, en general, serán verdaderas después de que los eventos descritos en el libreto hayan ocurrido. |
Objetos de apoyo |
Los objetos normalmente implicados en los eventos descritos en el libreto. |
Roles |
Los actores que normalmente participan en el libreto. |
Carriles |
Las variaciones más frecuentes de la acción; diferentes variaciones pueden compartir muchos, aunque no todos, los otros elementos del libreto. |
Escenas |
La secuencia efectiva de los eventos, representada en un formalismo adecuado. |
Los libretos son útiles porque, en el mundo
real, existen patrones repetitivos para la ocurrencia de los eventos. Estos
patrones surgen de las relaciones causales entre los eventos que producen
cadenas causales entre los eventos.
Imaginemos una aplicación del libreto
anterior para tratar de entender el siguiente minicuento:
Pedro
fue a un restaurante anoche. Pidió un casado. Cuando lo pagó notó que se había
quedado sin plata. Corrió a su casa porque había empezado a llover.
Ahora supongamos la siguiente pregunta
dirigida al programa informático correspondiente:
¿Comió
Pedro anoche?
Si el programa trabaja bien, responderá, sin
duda, que sí, y para hacerlo habrá usado el libreto de restaurante, activado
por la primera frase del cuento, que contiene en la ranura de
"resultado" el hecho de que la persona normalmente realiza una comida
en el restaurante.
Volviendo ahora al experimento imaginario de
Searle, se ve claro el sentido de las tres "horneadas" de símbolos
chinos: se trata de un cuento (segunda horneada) que el programa debe comprender
con ayuda de un libreto (primera horneada) sacado de la memoria de largo plazo
para estos efectos; las preguntas (tercera horneada) son una manera de verificar
si el programa ha comprendido el cuento. Todo lo que se le da en español
corresponde al programa mismo, pues se trata de reglas para relacionar elementos
de las tres horneadas de símbolos chinos unos con otros.
Searle afirma que "los sostenedores de la
posición fuerte de inteligencia artificial pretenden que la computadora
adecuadamente programada comprende los cuentos y que el programa en cierta forma
explica esa comprensión". La "posición fuerte" de inteligencia
artificial corresponde precisamente a la de los investigadores -si es que
existen- que sostienen esas dos tesis. Una "posición débil" en la
materia, posiblemente se conformaría con decir que tales programas ilustran
ciertos aspectos de la comprensión humana y contribuyen en alguna medida a
explicar su funcionamiento. Ahora bien, Searle sostiene -en relación con la
primera tesis- que él (en el experimento imaginario) no comprende nada de los
cuentos chinos:
Tengo entradas y
salidas que son indistinguibles de las que tienen los hablantes nativos chinos,
y puedo tener cualquier programa formal que se quiera, pero aun así no
comprendo nada. Por la misma razón un programa de inteligencia artificial no
comprende nada de los cuentos que recibe, sean en chino, en español o en
cualquier otra lengua, puesto que en el caso chino la computadora soy yo; y en
los casos en que la computadora no soy yo la computadora no tiene nada que yo no
tenga en el caso en que no comprendo nada.
Nótese que Searle se identifica sin ninguna
salvedad con el programa o con la computadora, lo que será señalado por los críticos
como un error de importancia. Este error se relaciona con la falacia de
composición que comentamos en el capítulo primero a propósito de un ejemplo
de Minsky sobre la caja que contiene a un ratón. En ese ejemplo quedaba claro
que no podíamos atribuir a ninguna de las partes de la caja la propiedad de
"contenimiento", sino solamente al conjunto de todas las partes. Este
detalle ha sido explotado por casi todos los críticos del argumento: Searle es
solamente una parte del sistema que comprende chino, y puede muy bien, por sí
mismo, no entender el chino, pero el sistema como un todo lo entiende -en la
medida que lo entienda, que puede ser muy limitada por la cantidad y calidad de
los libretos y otros instrumentos de comprensión de que se haya dotado al
sistema-.
Con respecto a la segunda tesis, Searle alega
que "la computadora y su programa no proveen las condiciones suficientes
para la comprensión, puesto que la computadora y el programa funcionan y la
comprensión no se produce". Por supuesto, esta supuesta refutación
depende crucialmente de que la comprensión no se produzca, pero es muy
cuestionable que Searle haya demostrado esto, por las razones apuntadas antes.
Searle continúa diciendo que no ve, en
principio, ninguna razón por la que no pudiéramos "dar a una máquina la
capacidad de entender español o chino, puesto que en un sentido importante
nuestros cuerpos con nuestros cerebros son precisamente tales máquinas".
Pero no considera factible dar esas propiedades a una máquina cuya operación
esté definida solamente en términos de procesos informáticos realizados sobre
elementos definidos formalmente. "No es porque yo sea un ejemplo de un
programa de computación que puedo entender español y tener otras formas de
intencionalidad. Hasta donde llega mi conocimiento, es porque soy una cierta
clase de organismo con una cierta estructura biológica, y bajo ciertas
condiciones esta estructura es causalmente capaz de producir percepción, acción,
comprensión, aprendizaje y otros fenómenos intencionales". Esta parte de
su argumento ha sido criticada acerbamente, pues parece una afirmación de que
el cerebro secreta el pensamiento como una glándula del cuerpo secreta cierta
substancia, por ejemplo, la glándula mamaria secreta leche.
Es importante anotar que la discusión entre
Searle y sus críticos es una discusión entre materialistas. Searle no está
argumentando que la inteligencia artificial es imposible porque el pensamiento
solo puede ser producido por una sustancia no extensa, como pretendía Descartes
NOTA 3.
La objeción de Searle se refiere más bien a la posibilidad de producir
pensamiento por medios estrictamente formales. No niega en principio la
posibilidad de que se llegue a crear una máquina artificial que produzca
pensamiento, pero esa máquina -según él- tendría que ser construida
siguiendo los mismos principios, y probablemente con los mismos materiales, de
que están hechas las máquinas pensantes naturales (los cerebros humanos):
"Si podemos duplicar las causas usando principios químicos diversos de los
que usa el cuerpo humano, eso es más bien una cuestión empírica que no puede
ser aclarada en este momento".
La negación de Searle se circunscribe,
entonces, a algo muy concreto: la posibilidad de crear una máquina artificial
pensante que tenga este poder en virtud de su estructura formal e informática:
Pero, ¿podría
algo pensar, comprender, etc., solamente en virtud de ser una computadora
con el programa correcto? ¿Podría la ejemplificación de un programa, del
programa correcto por supuesto, por sí misma ser una condición suficiente para
la comprensión?
Estas son, según el autor, las preguntas
acertadas, y su contestación es no. ¿Por qué no?
Porque las
manipulaciones de símbolos formales por sí mismas no tienen ninguna
intencionalidad; son no significativas; no son ni siquiera manipulaciones de símbolos,
puesto que los símbolos no simbolizan nada. En la jerga de los lingüistas,
tienen solo sintaxis, pero no semántica. La intencionalidad que los programas
de computación parecen tener está solamente en las mentes de los que los
escriben y usan, los que les dan las entradas e interpretan sus salidas.
Y llega así a lo que es el resumen de su
posición:
Solamente algo que
tenga los mismos poderes causales del cerebro puede tener intencionalidad.
......................
Sea la
intencionalidad lo que fuere, es un fenómeno biológico, y es tan probable que
sea causalmente dependiente de la bioquímica específica de sus orígenes como
la lactación, la fotosíntesis o cualquier otro fenómeno biológico....
Llegamos así a un nuevo dualismo, diferente
del dualismo cartesiano por ser totalmente materialista, pero no por ello menos
dualista: un mundo de fenómenos estrictamente biológicos, por una parte; y por
la otra, un mundo de fenómenos mecánicos o -como él dice- formales. El
comentario más pertinente que se nos ocurre hacer al respecto es que Searle, al
hacer esta dicotomía, se coloca él mismo al margen del desarrollo de la
ciencia contemporánea que ha consistido precisamente en la "mecanización"
de la biología: todos los estudios de la biología molecular, incluidos los que
se refieren al lenguaje genético, contribuyen a demostrarlo. Ningún biólogo
serio sostiene hoy este tipo de dualismo.
Leer, en el mismo capítulo sexto de la
Antología -en seguida del texto de Searle-, la refutación de su argumento por
Daniel Dennett (DENNETT
91).
Dennett comienza por resumir el argumento de
Searle, recalcando un aspecto que le interesa para la ulterior refutación:
Searle nos invita a
imaginarlo encerrado en un cuarto, donde simula a mano un programa gigante de
inteligencia artificial que putativamente entiende chino. Estipula que el
programa pasa la prueba de Turing saliendo airoso de todos los intentos hechos
por sus interlocutores humanos de distinguirlo de un comprendedor genuino de
chino. No se sigue, según él, de esta imposibilidad conductual de distinguir
que haya ninguna real comprensión del chino, ni una conciencia china, en este
cuarto chino. Searle, encerrado en el cuarto y manipulando agitadamente hileras
de símbolos de conformidad con el programa no obtiene por eso ninguna comprensión
del chino, y no hay tampoco nada más en el cuarto que entienda chino.
Como hemos visto, este experimento mental se
supone que prueba la imposibilidad de lo que Searle llama "inteligencia
artificial fuerte", o sea la tesis de que "un programa digital
apropiadamente programado con las entradas y salidas correctas tendría por eso
mismo una mente en exactamente el mismo sentido que los seres humanos tienen
mentes". Dennett menciona el inmenso torrente de reacciones a las diversas
versiones del experimento mental de Searle durante la década pasada, y se
pregunta por qué, aunque los filósofos y otras personas han siempre encontrado
defectos en este experimento mental considerado como argumento lógico, su
"conclusión" sigue impresionando a mucha gente.
En su opinión, la razón estriba en el hecho
de que la gente no imagina verdaderamente la situación descrita con el detalle
que esa misma descripción exige. El punto crucial es que el Cuarto Chino NOTA
4 habría pasado la prueba de Turing
NOTA 5.
Dennett recalca el hecho de que el programa habría pasado la prueba de Turing,
lo que el propio Searle no dice explícitamente pero que, para que su argumento
tenga fuerza, debería haber sido el caso. Dennett se propone sacar todas las
consecuencias implícitas en ese importante hecho.
Dennett procede a presentar su propio
experimento mental, complementario del de Searle. Su idea es darle contenido al
intercambio entre el Cuarto Chino, de modo que ese contenido sea conmensurado
con el hecho extraordinario de que hubiera aprobado la prueba de Turing. Dentro
de esa tesitura, procede a imaginar un breve diálogo entre el Cuarto Chino y su
examinador, quien por medio de tal intercambio estaría precisamente aplicándole
la prueba de Turing. Nos advierte que, para nuestra comodidad, el intercambio ha
sido traducido, aunque -naturalmente- se habría producido originalmente en
chino:
JUEZ: ¿Has
oído el chiste sobre el irlandés que encontró una lámpara mágica? Cuando la
frotó apareció un genio y le ofreció cumplir tres deseos. "¡Quiero un
jarro de guaro!", respondió el irlandés, e inmediatamente apareció. El
irlandés se dio a beber el guaro corcor, pero el nivel del jarro se mantuvo mágicamente
constante. Seguía bebiendo, hasta que el genio se puso impaciente. "Bueno,
¿qué pasó con el segundo deseo?", preguntó. Y el irlandés respondió
entre trago y trago: "¡Pues dame otro de estos!".
CUARTO CHINO: Muy
divertido. No, no lo había oído; pero, sabe, encuentro los chistes racistas de
mal gusto. Me reí a pesar de todo, pero pienso que deberíamos encontrar otros
temas de discusión.
J:
Tenés razón, pero te conté el chiste porque quiero que me lo expliqués.
CC:
¡Qué aburrición! Uno nunca debe explicar chistes.
J:
Pero de todas maneras, esa es la pregunta de la prueba. ¿Podrías explicarme cómo
y por qué el chiste "funciona"?
CC:
Si usted insiste. Vea, depende de la suposición de que el vaso que se vuelve a
llenar mágicamente lo seguirá haciendo indefinidamente, de modo que el irlandés
tiene a su disposición todo el guaro que quiera beber en su vida. Así pues, no
tiene ninguna razón para desear un duplicado, pero es tan estúpido (y esta es
la parte que me disgusta) o está tan atontado por el alcohol, que no reconoce
esto y, llevado por la felicidad que le ha producido el cumplimiento de su
primer deseo, pide repetición. Desde luego que estos supuestos de fondo no son
verdad, sino solo parte del ambiente tradicional de la contadera de chistes,
donde suspendemos nuestra desconfianza en la magia, etcétera. Por cierto, podríamos
imaginar una continuación del cuento en la cual el irlandés tuviera razón
después de todo -estaría por ejemplo planeando dar una gran fiesta, y un jarro
no podría volver a llenarse suficientemente rápido para satisfacer la sed de
sus invitados (no valdría acumular el guaro por adelantado porque perdería
sabor). Tendemos a no pensar en estas complicaciones, y esto es parte de la
explicación de por qué los chistes funcionan. ¿Está satisfecho?
Lo importante de esta ilustración estriba en
que pone frente a nosotros la inmensa proeza que sería, para un programa informático,
aprobar la prueba de Turing. Ese hecho enorme se pone de inmediato en relación
con la pretensión de Searle de haber podido simular "a pie" y sin
ninguna dificultad la ejecución del programa. Recuérdese que Searle, de
acuerdo con las instrucciones de su experimento imaginario, no tiene la menor
idea de lo que está haciendo, y solamente vería ceros y unos que manipularía
de acuerdo con el programa. Searle supone, con gran desconocimiento de la
naturaleza de la programación informática, que ese inmenso programa funcionaría
simplemente "apareando" los caracteres chinos de entrada (el cuento)
con otros caracteres chinos (el libreto). Pero, por supuesto, este programa no
podría funcionar así, ni mucho menos. Cualquiera que haya estudiado por lo
menos los rudimentos de la programación electrónica, y haya conocido algunos
de los algoritmos para operaciones relativamente simples (como ordenar una lista
según el alfabeto) sabe que los procesos implicados son muchísimo más
complicados que el simple apareamiento de caracteres.
Dennett nos indica de manera gruesa lo que
estaría implicado en la ejecución de un programa tal:
Un programa que
pudiera efectivamente generar los discursos del CUARTO CHINO en respuesta a las
preguntas del JUEZ se vería más o menos así en acción (visto en el nivel de
máquina virtual, no en el nivel básico en que está colocado Searle): al
analizar las primeras palabras, "Has oído el chiste..." algunos de
los "demonios detectores de chistes" del programa serían activados,
los que llamarían a toda una hueste de estrategias para lidiar con ficción,
lenguaje de doble sentido, y cosas por el estilo, de modo que cuando las
palabras "lámpara mágica" llegaran a ser analizadas el programa habría
ya puesto una prioridad baja a respuestas que se quejaran de que no existen
cosas como lámparas mágicas. Una variedad de marcos narrativos o libretos estándares
sobre chistes-de-genios se activarían creando varias expectativas para
continuaciones, pero a todas les robaría la vuelta una interpretación más
mundana (el libreto de "repetir"), y lo inesperada de ella no pasaría
inadvertida al programa. Al mismo tiempo se alertarían los demonios sensibles a
las connotaciones negativas de los chistes racistas, llevando eventualmente al
segundo tema de la respuesta del CUARTO CHINO. Y así sucesivamente, en mucho más
detalle que el que haya intentado poner aquí.
Dada esta descripción de la situación,
resulta claro que no es obvio que no haya comprensión genuina del chiste. No
tenemos derecho a descalificar a los billones de acciones de todas estas partes
sumamente estructuradas como capaces de producir una auténtica comprensión.
Después de todo, eso es lo que tenemos base para suponer que hace el cerebro:
integrar de una manera congruente también billones de acciones de partes
sumamente estructuradas. En efecto, lo peor que puede decirse del argumento de
Searle es que descalifica al cerebro (a nosotros mismos) como seres que
realmente posean en algún momento auténtica comprensión. Encontramos de nuevo
aquí el tema de la falacia de composición tan grato a Minsky: "Si ninguna
de las partes tiene comprensión el todo no puede tener comprensión".
Aplicar este argumento a cualquier máquina nos hace ver en seguida lo
irracional de este razonamiento: "Si ninguna de las partes de mi automóvil
puede llevarme de un lado para otro, tampoco puede hacerlo mi automóvil".
Así lo recalca Dennett: si somos materialistas convencidos de que nuestros
cerebros "son responsables por sí mismos, sin ayuda milagrosa, de nuestra
comprensión, entonces debemos admitir que una comprensión genuina es alcanzada
por un proceso compuesto de interacciones entre una hueste de subsistemas
ninguno de los cuales entiende nada por sí mismo".
Probablemente la razón para no ver lo obvio
de este contra-argumento consiste en la poca familiaridad con la programación
electrónica o cualquier otro tipo de actividad constructiva o analítica del
mismo carácter. Ello porque cualquier construcción suficientemente grande
produce de camino "propiedades emergentes" que no se daban en las
etapas intermedias. Y lo mismo vale decir para el proceso inverso, del análisis:
cualquiera que desarticule máquinas, organismos o instituciones, y que lleve el
proceso a suficiente profundidad, irá naturalmente viendo desaparecer en el
camino muchas propiedades que, con el cambio de nivel de agregación, dejan de
ser posibles.
Leer el texto de Roger Penrose ( PENROSE
90), o su traducción en el capítulo
sexto de la Antología.
Más recientemente, un físico inglés muy
eminente, Roger Penrose, ha unido sus armas a las de John Searle para combatir
la posibilidad de que llegue a existir una inteligencia artificial basada en los
métodos formales de la informática. En 1989 escribió un voluminoso libro,
titulado "La mente nueva del Emperador" NOTA
6, donde pasa revista al estado de
diversas ciencias como un preámbulo a su enfática negativa a aceptar que el
funcionamiento del cerebro pueda ser replicado por medios algorítmicos. Debemos
confesar que el libro, a pesar de su excelente revisión de conceptos científicos
contemporáneos -por la que recomendamos su lectura- deja mucho que desear como
argumento lógico en contra de la inteligencia artificial.
Básicamente el argumento consiste en
anunciar, al comienzo del libro, que extraerá una refutación de la
inteligencia artificial del estado de las ciencias contemporáneas; en seguida
procede a hacer la presentación que hemos alabado como excelente resumen del
estado de varias importantes ciencias contemporáneas (las matemáticas, la física
y la biología, especialmente). Al final, y de manera muy breve, Penrose
pretende cumplir con lo que nos había ofrecido, pero lo único que consigue es
resucitar un argumento muy viejo -y muchas veces refutado- de J. R. Lucas (1961)
contra la posibilidad de que las máquinas piensen, basado en la famosa prueba
de Gödel de que las matemáticas no pueden ser al mismo tiempo congruentes y
completas NOTA
7. Como complemento de ese argumento,
ya muy conocido -o manido, como lo califica Donald Perlis-, ofrece como cosa
nueva solamente la afirmación, sin prueba posible por la naturaleza de la
misma, de que el secreto de la inteligencia será eventualmente descubierto
cuando se logre establecer una ciencia intermedia entre la física relativista y
la física cuántica... (!?!)
Una afirmación de este tipo, especialmente
viniendo de un científico del calibre de Penrose, tiene que ser desilusionante.
Equivale a un llamado a descalificar una disciplina científica en pleno
florecimiento (la inteligencia artificial), con por lo menos treinta años de
importantes logros, en nombre de una disciplina aún inexistente, y que tal vez
nunca llegue a constituirse, a saber, un pretendido puente entre dos físicas
que hasta ahora han demostrado ser paradigmas irreconciliables en principio: la
relatividad -basada en fenómenos esencialmente continuos- y la física cuántica
-basada en fenómenos eminentemente discontinuos-.
Lo horripilante de esta afirmación, desde el
punto de vista epistemológico, es que con argumentaciones parecidas podría
defenderse toda clase de posturas anticientíficas: por ejemplo -y para dar solo
dos ejemplos de aberraciones posibles paralelas a la posición de Penrose- la
parasicología ("hay fenómenos que la ciencia todavía no puede explicar,
pero que sin duda quedarán explicados cuando se descubran fuerzas psíquicas
intermedias entre la física y la psicología"); o la astrología
("hasta ahora la ciencia no ha podido construir instrumentos
suficientemente finos para verificar la existencia del cuerpo astral, pero ya lo
hará").
En mi opinión, sólo su prestigio como físico
ha hecho que las opiniones de Penrose en esta materia hayan merecido algún
debate; lo cual nos recuerda la existencia, inventariada en los textos de lógica,
de la falacia de autoridad: a saber, la concesión de respetabilidad a la
opinión que un científico vierte fuera de su campo de competencia. El
"Emperador" es un caso tan conspicuo de este desliz intelectual que
nos atrevemos a recomendárselo a los redactores de textos de lógica como una
ilustración de antología para esta falacia.
Pero el caso es todavía más serio. Porque en
su intento de eliminar en principio la posibilidad de la inteligencia artificial
como disciplina científica, Penrose cuestiona de hecho, si no de palabra, la
tesis Turing-Church NOTA
8, una tesis admitida por todos los
matemáticos. En efecto, Penrose pretende que eventualmente serán descubiertos
procedimientos no-algorítmicos que se puedan mostrar como los fundamentos de la
inteligencia. Aquí Penrose agrega a la "falacia de autoridad" la
"falacia por ignorancia", otro desliz intelectual inventariado en los
textos introductorios de lógica. No solo se permite como físico estar
en desacuerdo con todos los matemáticos, sino que afirma que existen
procedimientos no-algorítmicos, basándose únicamente en la ausencia de prueba
de la famosa conjetura NOTA
9. Esto no es nada diferente que
pretender que existen fantasmas porque nadie ha podido probar que no existen NOTA
10.
Penrose trata también de reforzar su tesis
con un recurso de dudosa calidad: apelar a una calidad misteriosa como
fundamento de la percepción de la verdad matemática:
¿Cómo deciden de
hecho los matemáticos cuáles enunciados matemáticos son verdaderos y cuáles
falsos? ¿Siguen algún algoritmo o tienen otra ruta hacia la verdad por medio
de una "intuición" misteriosa que no puede ser tratada algorítmicamente?
Para él resulta claro que siguen la segunda
ruta. El concepto de "intuición" ha sido tradicionalmente un recurso
de los filósofos no materialistas para tratar de explicar por medios no
mecanicistas algún fenómeno complicado. El problema con este intento de
explicación es que no explica nada, porque -por hipótesis- se ofrece la
palabra "intuición" precisamente sin ningún mecanismo que la
sustente. Sin que la palabra represente ningún proceso que pueda examinarse, la
introducción del respectivo concepto no pasa de ser un recurso semejante a la
"vis dormitiva" para explicar los poderes dormitivos del opio, según
Molière: una palabra tras la cual escondemos nuestra ignorancia. Si además nos
dice que esa intuición es "misteriosa", entonces podemos concluir que
efectivamente se trata de un recurso que no explica absolutamente nada. A
confesión de parte -como dicen los abogados- relevo de pruebas.
¿Debemos explicar nosotros cómo hacen los
matemáticos su discriminación entre enunciados verdaderos y falsos? Desde
luego, no es ese el propósito de esta obra. Sin embargo, podemos observar
-siguiendo a Popper- que el asunto de la verdad es una cuestión epistemológica
independiente de la cuestión psicológica de cómo se llega a ella. La cuestión
de la validez de una proposición matemática (por ejemplo las proposiciones gödelianas)
se decide por medios formales, es decir, la prueba matemática (el algoritmo),
cualquiera que sea la naturaleza de ese misterioso recurso que Penrose llama
"intuición"; la cuestión sobre el origen en el cerebro de nuestras
ideas, probablemente no tenga en último término más explicación que el
atavismo genético de las personas bien dotadas para el razonamiento matemático.
Pero el origen de una idea no es lo mismo que su demostración y, en todo caso,
es claro que Penrose decide ignorar el hecho obvio de que el teorema de Gödel
es una demostración formal. Todo su valor descansa en procedimientos estrictos
de razonamiento, y en ningún sentido está basado en una "intuición"
o en cualquier otro procedimiento no formal. Es porque el teorema es formal, y
no incurre en ninguna falacia formal, que aceptamos sus conclusiones sobre la
naturaleza y límites de las matemáticas.
En seguida recurre el autor a la prueba de Gödel
como una supuesta demostración de que el conocimiento matemático es intuitivo
y no algorítmico NOTA
11. En esto incurre en una mala
interpretación, por otra parte bastante común, del trabajo de Gödel. El hecho
de que no se pueda probar dentro de un determinado sistema una proposición que
consideramos verdadera no nos dice nada sobre los métodos por los que hayamos
llegado a aceptarla como verdadera. En particular, no nos dice que no podamos
haber llegado a aceptarla por cuanto, en otro sistema formal la proposición
sí pueda ser probada. La mala interpretación consiste en olvidar que la prueba
de Gödel lo único que nos dice es que no podemos construir un sistema formal
único que incluya todas las proposiciones que consideramos verdaderas;
no nos dice que por cada proposición verdadera no podamos encontrar un
sistema formal en que esa proposición pueda ser probada. En realidad, pareciera
que la única posibilidad racional que tenemos de aceptar algo como verdadero es
visualizarlo como demostrable en algún sistema más o menos formal (si
no fuera así, nuestra creencia en su verdad permanecería científicamente
injustificada, no pertenecería a la ciencia, sino a la superstición).
La prueba de Gödel quiebra el ideal
formalista de Hilbert, que aspiraba a concebir un sistema único y total que
cubriera todas las demostraciones matemáticas. Ese sistema unitario, si se
hubiera establecido, tendría más en común con el ideal de verdad platónica
que suscribe Penrose que con el punto de vista instrumentalista que caracteriza
las investigaciones en inteligencia artificial. Lo que Gödel demuestra con su
teorema es que no es posible captar la realidad con una sola red; no nos dice
que las redes que usemos no deban ser formales. Al contrario, todo sistema matemático
-o metamatemático- deberá seguir siendo formal. Pero ahora sabemos que los
sistemas formales son instrumentos creados por la mente humana y no un
sistema que cubra todas las verdades; sabemos cuáles son los requisitos
para que esos sistemas tengan validez (deben tener congruencia interna y ser
suficientemente amplios para permitir derivar las proposiciones que nos
interesan) y en este sentido su creación no puede ser arbitraria. Pero como
instrumentos humanos, descansan en la creatividad de la mente humana y la
habilidad de los seres humanos para usarlos selectiva y productivamente. Después
de Gödel es más difícil, de ningún modo más fácil, ser platónico (en los
términos en que Penrose pretende ser platónico) que antes de Gödel.
Leer el texto de Donald Perlis ( PENROSE
90) o su traducción en nuestra
Antología, .
Perlis coincide con nosotros en que los
argumentos de Penrose contra la inteligencia artificial son falaces. En
particular, se refiere a la "falacia de extrapolación" para
identificar un tipo de error lógico que nosotros calificamos antes como
"falacia de composición": las moléculas "simples no se
reproducen ni metabolizan, pero las complejas pueden hacerlo". Bohr y
Delbruck concluían que la vida tendría que ser explicada por "principios
aún no descubiertos", de la misma manera que Penrose hoy alude a presuntos
principios no-algorítmicos en la zona de nadie entre la física clásica y la física
cuántica. Pero la vida resultó ser una combinación increíblemente compleja
de elementos físicos de acuerdo con los mismos principios existentes, como la
inteligencia está progresivamente siendo explicada por la aplicación de
principios físicos conocidos y las técnicas de la programación informática.
También se refiere Perlis a la suposición de
Penrose de que el análisis de temas difíciles (como las experiencias
subjetivas internas) está más allá de la posibilidad de interpretación
informática. El ejemplo más típico sería la explicación de la conciencia.
Después de que Perlis escribiera esta observación, salió a la luz el libro de
Dennett, La explicación de la conciencia, que comentaremos al final de
este capítulo; esta obra es quizá el mejor ejemplo de lo que puede hacerse
dentro del paradigma informático para aclarar tópicos relacionados con
experiencias subjetivas que hasta ahora se había considerado que quedaban más
allá de toda interpretación computacional.
Leer el texto de
John McCarthy ( MCCARTHY
90) o su traducción en el capítulo
sexto de nuestra Antología.
John McCarthy es un veterano investigador de
la inteligencia artificial; más aún, podemos considerarlo, junto con Marvin
Minsky, el padre fundador de la disciplina. Entre sus méritos tiene el haber
creado un lenguaje de programación especialmente concebido para elaborar
programas de inteligencia artificial, Lisp, un lenguaje especializado en
operaciones con listas y otras estructuras simbólicas, en el cual se ha escrito
la inmensa mayoría de los programas de la disciplina NOTA
12. Además de esta contribución
inicial, McCarthy ha sido un pensador muy creativo dentro de la comunidad de
inteligencia artificial, muy conocido por sus esfuerzos por basar la investigación
respectiva en cánones lógicos estrictos NOTA
13. Junto con Patrick Hayes, es el
creador del cálculo de situaciones, un instrumento para la representación
del conocimiento de sentido común. Últimamente, sus esfuerzos se han
concentrado en el desarrollo de la lógica nomonotónica NOTA
14, en cuyo campo ha hecho una
contribución muy importante: la teoría de la circunscripción.
La principal crítica que McCarthy le hace a
Penrose es que se atreve a desautorizar los esfuerzos por producir inteligencia
artificial sin aludir a ninguno de los logros de cuarenta años de investigación
en esa disciplina. En efecto, desde sus inicios en los años cincuenta, la
inteligencia artificial ha producido logros que, si bien no llegan ni
lejanamente a la producción total de una mente completa, sin embargo replican
con bastante propiedad muchas de las capacidades de la mente humana. Es
especialmente notable que Penrose no haga referencia a este desarrollo, sobre
todo si se toma en cuenta la gran cantidad de páginas que dedica en su libro a
resumir los logros de varias otras ciencias. Sin pretender cubrir todo lo que la
disciplina ha conseguido durante las últimas cuatro décadas, permítasenos
tratar de compensar aquí esa omisión, haciendo un rápido recuento de algunas
de sus realizaciones.
Podemos definir la inteligencia artificial
como la disciplina que busca lograr que las computadoras sean capaces de
realizar acciones que, si las hicieran seres humanos, diríamos que requieren
inteligencia. Otra manera de poner el asunto es decir que esta disciplina busca
mejorar la capacidad de las computadoras de realizar acciones que los seres
humanos hacen mejor ( RICH
83). Curiosamente, las tareas en que
esta ciencia tuvo éxito más temprano son aquellas que corresponden a problemas
que los seres humanos consideramos difíciles: por ejemplo, jugar bien damas o
ajedrez, así como probar teoremas lógicos, o pasar una prueba de inteligencia
basada en interpretación analógica de figuras. En 1963, A. L. Samuel logró
producir un programa para jugar damas que no solo actuaba de conformidad con las
reglas sino que derrotaba a sus oponentes y aprendía a jugar mejor con la
experiencia ( SAMUEL
63). En ese mismo año, A. Newell, J.
C. Shaw y H. Simon ( NEWELL
63) produjeron un programa muy
competente para probar teoremas lógicos considerados difíciles, tomados de Principia
Mathematica de Whitehead y Russell ( WHITEHEAD
10). Desde entonces, el desarrollo de
ambas líneas de investigación han llevado a programas sumamente eficientes,
entre los cuales cabe destacar programas que juegan ajedrez con la perfección
de un maestro de este juego, y que a muy corto plazo serán probablemente
capaces de contender de igual a igual con los campeones del mundo ( BERLINER
88). En cambio, las mayores
dificultades se han encontrado en emular las capacidades de la mente humana para
resolver problemas superficiales, como por ejemplo conducirse con éxito en una
insulsa conversación de salón. No obstante, se han sentado bases importantes
para avanzar también en ese espinoso campo, con el desarrollo de técnicas
generales de solución de problemas y de comprensión y generación del lenguaje
ordinario.
Es importante anotar que, tanto en lo relativo
a los juegos como a la prueba de teoremas lógicos, se creyó en un principio
que, a pesar de su obvia dificultad, estos problemas podrían ser fácilmente
solucionables por una máquina mediante la técnica de un barrido completo
de posibilidades. Esta idea, sin embargo, resultó falsa, por cuanto no es
posible superar la complejidad de la llamada explosión combinatoria generada
por tales problemas NOTA
15. Las computadoras, tanto como los
jugadores humanos, tienen que seleccionar entre las enormes posibilidades de
ramificar el juego (o la prueba lógica) aquellas ramas que más prometen, y
ello sólo puede hacerse basándose en conocimiento sobre el campo
respectivo.
Otro esfuerzo temprano de la inteligencia
artificial fue el realizado por Newell y Simon ( NEWELL
63b), en relación con el tipo de
problemas que uno resuelve todos los días, por ejemplo al preparar su desayuno
o escoger ruta para llegar a su lugar de trabajo. En relación con esto, dichos
autores desarrollaron la técnica del análisis de fines y medios, y
construyeron un programa basado en dicha técnica, con el pomposo nombre de
Solucionador General de Problemas NOTA 16. Este programa hacía
uso de muy poco conocimiento, en la forma de unas tablas de diferencias entre
estado actual y estado deseado, y los correspondientes operadores para
eliminarlas. Esta investigación dejó como legado permanente la distinción teórica
entre métodos débiles (los de gran alcance de aplicación y de poco
poder) y métodos fuertes (los de poco alcance y mucho poder) que ha sido
la base para desarrollos posteriores, especialmente la tecnología de los sistemas
expertos (programas que tienen gran poder sobre un dominio muy limitado del
conocimiento) NOTA 17.
Conforme la disciplina fue desarrollando
mejores técnicas para manejar cantidades considerables de conocimientos sobre
el mundo, le fue posible acometer tareas importantes en distintos campos: la
percepción (tanto visión como comprensión de lenguaje hablado), comprensión
de lenguaje escrito, planificación, navegación de aparatos mecánicos por
cuartos congestionados de mobiliario, manipulación de objetos por un brazo mecánico,
y -finalmente- resolución de problemas sobre dominios técnicos concretos que
requieren experticia, como el diagnóstico médico, la prospección geológica,
el análisis químico, las inversiones en la bolsa o el diseño de arquitecturas
informáticas. Estos últimos desarrollos se dieron a partir de la década de
los setenta, bajo la cobertura general de lo que se conoce como tecnología de
los sistemas expertos, ya mencionada antes. Desde mediados de la década de los
ochenta se trabaja intensamente en el área de aprendizaje, buscándose la
creación de sistemas expertos que aprendan -y no solo apliquen una base de
conocimientos programada por adelantado- y en sistemas expertos que razonan a
partir de primeros principios -y no simplemente aplicando reglas de condición/acción
de carácter empírico. En los últimos años, los mayores esfuerzos se han
concentrado en el mejoramiento de los métodos de representación del
conocimiento, y en estudios teóricos sobre los fundamentos lógicos necesarios
para la acción inteligente ordinaria (sobre todo, desarrollo de lógicas
nomonotónicas NOTA 18).
Con base en su gran experiencia en el intento
de replicar las capacidades intelectuales humanas por medios artificiales,
McCarthy encuentra que las preocupaciones de Penrose sobre el tipo de física o
el tipo de algoritmo que sustenta la actividad mental resultan en realidad
inatinentes. "Las mayores dificultades para dotar de inteligencia a una
computadora" nos dice "no son problemas técnicos matemáticos. Más
bien, consisten en escoger un conjunto de predicados, funciones y fórmulas
adecuadamente generales para representar el conocimiento de sentido común".
En otras palabras, el problema no está en el tipo de hardware que
sustenta a la inteligencia, y que una física con distintos fundamentos que la
actual pudiera solucionar, ni siquiera en el tipo de software (la clase
de programas -algorítmicos o no- que edificáramos sobre esa física); sino más
bien en la manera en que deba representarse y organizarse el conocimiento que
sustenta el poder de la inteligencia.
Esta observación es oportuna porque Penrose,
ajeno a toda la temática trabajada por la inteligencia artificial a lo largo de
los últimos cuarenta años, se refiere a los métodos de la disciplina como si
fueran algoritmos matemáticos del estilo de los que se necesitan para resolver
problemas numéricos ordinarios. En cambio, la programación de inteligencia
artificial -también llamada programación heurística- descansa sobre
todo en el manejo de símbolos, especialmente listas, de carácter no numérico.
Pero además, como de lo que se trata es de emular los procedimientos del
intelecto humano, que raramente actúa al estilo matemático, sino más bien por
aproximación y basándose en hipótesis plausibles o muy probables, casi nunca
emplea directamente algoritmos rigurosos e infalibles para realizar sus
deducciones, sino más bien en reglas "de bolsillo" que los seres
humanos hemos llegado a aceptar como suficientemente confiables y que son
computacionalmente económicas -permiten llegar a una conclusión razonable
antes de que sea tarde para aplicarla-.
Cabe hacer aquí una distinción importante,
que Penrose no hace, y que podemos relacionar con los conceptos epistemológicos
que hemos establecido en capítulos anteriores. Sabemos lo que es una máquina
Turing y que su funcionamiento es indistinguible del enunciado de un algoritmo
(en realidad, fue propuesta como definición rigurosa del mismo concepto de
algoritmo). Además, conocemos -por la famosa tesis Turing-Church- que todo
procedimiento para ser eficazmente calculable debe corresponder a una tal máquina.
De ahí se sigue que toda emulación de la inteligencia deberá estar basada en
arquitecturas - hardware y software- de máquinas Turing. En este
punto Penrose no está de acuerdo porque sostiene, con muy cuestionable
fundamento, que en algún momento descubriremos las bases de procedimientos
eficaces no algorítmicos en un cierto tipo de física por ahora aún
inexistente.
Sabemos también que en la vida real los
algoritmos no son aplicables directamente, puesto que es muy raro que contemos
con información completa y segura que nos suministre premisas ciertas para los
respectivos razonamientos. Sin embargo, los seres humanos razonamos -cuando lo
hacemos- con el mayor rigor que permiten las circunstancias, y obtenemos muchas
veces, a pesar de todas las limitaciones epistemológicas mencionadas,
resultados positivos y útiles (por ejemplo, el que escribe estas líneas
espera, con conocimiento incompleto e inseguro, que estas líneas serán
adecuadamente entendidas por sus lectores). Podemos decir entonces que nuestros
procedimientos son (parcialmente pero frecuentemente) eficaces; en la medida en
que lo sean deben pues -por la tesis Turing-Church- ser reducibles a una máquina
Turing. Sin embargo, nuestros procedimientos no son seguros, porque no siempre
aciertan, y las máquinas Turing, los algoritmos, siempre deben terminar con la
respuesta correcta.
Es evidente que necesitamos aquí hacer una
distinción, y es una distinción de niveles, de esos niveles ontológicos que
hemos analizado con tanto detenimiento en los capítulos tercero y cuarto.
Podemos decir, entonces, que en el nivel de la computación (o
intencional, para usar la terminología de Dennett) nuestros procedimientos son
inseguros. Pero en el nivel de los mecanismos/algoritmos (o del diseño)
nuestros procedimientos son tan estrictos como la máquina Turing. Y esto es
efectivamente lo que pasa: un programa de inteligencia artificial está escrito
en algún lenguaje (por ejemplo Lisp o Prolog) con arreglo a algoritmos
absolutamente precisos (el programador sabe cómo funcionará cada línea de código,
cada función definida por él); pero el resultado de la acción de ese código,
en un nivel superior, puede ser visto como una recomendación de un sistema
experto que nos enuncia que tal o cual acción (por ejemplo, en la bolsa de
valores, o en el tratamiento de una enfermedad) es la que se ofrece como más
beneficiosa. Pero el sistema experto puede fallar en su recomendación, y el
paciente morir a consecuencia de un mal diagnóstico, o el inversionista
arruinarse por una mala inversión, por culpa de sus malos consejos. De nuevo,
el comportamiento racional humana no es infalible en el sentido en que lo
es un algoritmo matemático; pero si aceptamos la tesis mecanicista, su
comportamiento es producido, en algún nivel adecuado, por la interacción
de algoritmos mecánicos (equivalentes de máquinas Turing).
Esta distinción es evidente y se da por
supuesta en la comunidad de los investigadores de inteligencia artificial. Está
ausente, sin embargo, en las argumentaciones de Penrose, que no le dedica ni
media palabra. Para él la cuestión es saber si la inteligencia es algorítmica
o no lo es, sin ninguna otra cualificación. Para él no se plantea,
evidentemente por falta de familiaridad con los campos de la epistemología, de
la psicología o de la informática (el tema de los niveles es obvio y
omnipresente en cada uno de esos tres campos). Y en realidad, la categorización
ontológica es indispensable para ver con claridad en este complicado problema.
Definitivamente, en un nivel, nuestro pensamiento es algorítmico: en el nivel
de los mecanismos. Pero también, definitivamente, en otro nivel, el de la
computación o la intención, nuestro pensamiento no es algorítmico (puesto que
puede fallar) sino heurístico.
La distinción entre lo algorítmico (en
sentido puro) y lo heurístico surge muy temprano en la práctica de la
inteligencia artificial, como una necesaria consecuencia de la percatación de
que para resolver los problemas de diseño de una actividad intelectual
cualquiera debe superarse el formidable obstáculo de la explosión
combinatoria. En el juego de damas, o en el de ajedrez, la búsqueda exhaustiva
de las mejores jugadas es un programa inviable. La alternativa es introducir, en
momentos adecuados, una función heurística. Por ejemplo, se ha
desarrollado una técnica muy eficiente para prever el desarrollo de las
jugadas, llamada minimax; según ella, se prevé que en cada capa de jugadas, de
lo que se trata es de computar la ventaja que uno mismo o el adversario pueden
obtener, y correspondientemente valorar como positivo lo que nos favorece y como
negativo lo que favorece a la otra parte.
Pero para poder cuantificar esa ventaja
debemos tener una manera de valorar las situaciones finales de nuestro juego
mental anticipado. Es ahí donde debemos echar mano de conocimiento del
juego, y en donde la simple técnica computacional solo nos puede ayudar
indirectamente. Debemos diseñar una función, o sea un algoritmo preciso, para estimar
si la situación del juego es favorable o no para el que está evaluando la
partida.
Por ejemplo, podemos incluir como parte de esa función en el juego de ajedrez
el número y calidad de piezas sobre el tablero de cada uno de los jugadores
("Si en la posición habré perdido la reina, estoy prácticamente
perdido"). Pero también muchos otros elementos, como el soporte recíproco
que se brinden las piezas propias y las del adversario, las obstrucciones de
unas piezas sobre las acciones de las otras, etcétera. La función se llama
heurística, porque no puede saberse por adelantado (sin hacer cómputos
adelantados sobre ulteriores capas del juego) si, por ejemplo, la pérdida de la
reina no se va a compensar más adelante por un "mate en tres". En
consecuencia, no podemos estar completamente seguros de que la evaluación es
buena. Pero si la función es ideada por un jugador experto, podemos tener
confianza de que, en la mayor parte de las situaciones, nos dará buenos
resultados. El tipo de programación en que se usan este tipo de funciones es lo
que llamamos programación heurística.
Los algoritmos desarrollados hasta ahora en la
programación heurística son suficientes para dar cuenta de los métodos
fundamentales de la inteligencia, esos métodos "débiles" que pueden
aplicarse a toda clase de problemas. Lo que se necesita además de eso es la
experticia necesaria en los múltiples campos en que la inteligencia se ejerce,
apoyada en una representación adecuada del dominio correspondiente. En este
tema se produce un encuentro entre las posiciones, a menudo antitéticas, de los
dos patriarcas de la inteligencia artificial, John McCarthy y Marvin Minsky. En
efecto, según lo hemos visto en otras partes de esta obra, este último postula
como solución al problema de construir una mente artificial (o de entender la
natural), perfectamente compatible con el énfasis en la necesidad de vastas
acumulaciones de conocimiento sobre el mundo que postula aquí McCarthy. A
saber: un agregado de "agentes", cada uno encapsulado en sí mismo y
responsable de un cierto tipo de actividad o de representación del mundo, que
interactúan entre sí en formas muy complejas y ricas. Cada uno de los métodos
de interacción es relativamente sencillo: corresponde básicamente a un
intercambio de mensajes y, en el fondo, a la explotación, por cada uno de estos
módulos, de los recursos que pueden brindarle los otros. Uniendo las posiciones
de ambos autores, tendríamos una posición conjunta sobre el futuro desarrollo
de la inteligencia artificial, que insiste crucialmente en esfuerzos para lograr
una mejor representación del conocimiento, basada en la lógica o en otros
medios; representación que, en todo caso, deberá revestir una enorme
complejidad antes de que pueda dar cuenta de las extraordinarias capacidades de
sentido común de la mente humana.
McCarthy, un excelente lógico y matemático,
disfruta de una posición privilegiada para refutar los argumentos de Penrose
basados en el teorema de Gödel. Recuérdese que Penrose resucita un argumento
de Lucas en el sentido de que la mente humana tendría ventaja frente a la
computadora con inteligencia en relación con la producción de fórmulas de Gödel,
que percibiría como verdaderas pero serían indemostrables en un sistema dado
(que presume sería el único que podría manejar la computadora). La respuesta
de McCarthy es contundente, y además muy graciosa. Nos pide imaginar el
siguiente diálogo entre Penrose y una computadora dedicada por vocación a las
matemáticas:
Penrose:
Dígame el sistema lógico que usted usa y yo le diré una proposición
verdadera que no puede probar. |
¡Sobran comentarios!
Leer el texto de Daniel Dennett ( DENNETT
91), o su traducción en el capítulo
sexto de nuestra Antología.
En la obra de que está extractado este texto,
Dennett intenta llevar a sus últimas consecuencias el uso del paradigma
computacional para explicar los fenómenos mentales, aplicándolo al análisis
de la conciencia humana. El autor comienza por advertirnos que no debemos
esperar encontrar en la explicación de la conciencia ningún elemento
consciente. Nos hace notar que explicar un fenómeno significa librarse del
asombro original que nos produce lo desconocido. Para ello, debemos tomar lo que
deseamos explicar, en este caso la conciencia, y tratar de producir una
explicación (es decir un conjunto de premisas de las cuales puede deducirse el
fenómeno) estrictamente en términos de cosas que no incluyan ese mismo fenómeno;
en nuestro caso, cosas que no sean conscientes. Por ello no debe extrañarnos,
sino -al contrario- parecernos completamente natural, que la explicación
disuelva el misterio, y que la conciencia quede explicada con ayuda de procesos
y estructuras que no tienen nada de conscientes.
En segundo lugar, el autor presenta pruebas
impresionantes de cómo la aplicación de criterios tecnológicos puede disolver
un problema aparente, al circunscribir claramente lo que es posible construir y
lo que es literalmente inconstruible; o al establecer de qué manera ciertos
procesos no son sino el producto de la interacción eficaz entre varios otros
procesos más simples.
El resultado final del análisis de Dennett es
la propuesta de un nuevo modelo de la mente, lo que él llama el "modelo de
las versiones múltiples", que viene a reemplazar al "modelo del
teatro cartesiano" postulado por la filosofía dualista tradicional.
La nueva filosofía de la mente, en contraste
con la tradicional, se caracteriza por aplicar al problema de comprender los
hechos mentales, el punto de vista del método científico y el punto de vista
del quehacer tecnológico. En otras palabras, se trata de producir explicaciones
que despejen el "misterio" tradicional en los problemas de la mente y
de acercarse a los fenómenos mentales con la misma actitud con que enfrentaríamos
el funcionamiento de un artefacto cuyo diseño interior no conocemos.
Solo una teoría que dé cuenta de los eventos
conscientes en términos de eventos no conscientes puede dar cuenta en absoluto
de la conciencia, así como los sólidos y los líquidos y los gases no pueden
ser explicados sino en términos de cosas que no son ellas mismas ni sólidos ni
líquidos ni gases. Explicar el dolor sin despejar su carácter desagradable sería
circular -tanto como explicar la acción del opio por su virtud dormitiva es
circular, como ya lo comprendió Molière-. Similarmente, una explicación
adecuada de la risa debe dejar fuera la comicidad: su presencia meramente
pospondría el intento de contestar la pregunta por su naturaleza. Si este
enfoque nos parece extraño, como observa Daniel Dennett, ello sólo significa
que no hemos aprendido aún a pensar sobre la mente, como sí sabemos ya pensar
sobre los sólidos, los líquidos y los gases: "un misterio es un fenómeno
sobre el cual la gente no sabe como pensar todavía". En el fondo, nunca
llegamos a entender una explicación científica de un fenómeno natural:
simplemente nos acostumbramos a ella; nos habituamos a hablar del fenómeno
en los nuevos términos, dadas las ventajas inmensas de carácter pragmático
que representa el aceptarlos. Si además de seres prácticos somos poetas, o místicos,
siempre podemos poner temporalmente entre paréntesis la explicación científica
y volver a maravillarnos de que el sol "salga" por el este todas las
mañanas.
En cuanto al enfoque tecnológico, poner
atención al fenómeno mental de la misma manera en que atenderíamos a un
artefacto, permite el surgimiento de preguntas nuevas más fácilmente
contestables que las de la filosofía tradicional, tales como: ¿cuáles modelos
de la alucinación pueden evitar la explosión combinatoria implicada en suponer
que el mecanismo alucinatorio debe prever las reacciones del alucinado?; ¿cómo
puede el contenido de la experiencia ser elaborado por procesos (relativamente)
desprovistos de inteligencia y comprensión, del mismo modo que la música puede
salir de un choque de partículas en el disco de un gramófono? En cuanto a la
primera, podremos fácilmente mostrar que las alucinaciones fuertes son
simplemente computacionalmente imposibles. Una alucinación fuerte sería, por
ejemplo, las producidas por el "genio maligno" que Descartes supone
metodológicamente en sus Meditaciones metafísicas para explicar las
impresiones que recibimos del mundo exterior; o un fantasma con el que pudiéramos
conversar, que nos permitiera tocarlo y resistiera nuestro embate con solidez,
que proyectara una sombra como los cuerpos ordinarios, que fuera visible desde
cualquier ángulo, que lo encontráramos cómodamente sentado en el mismo sillón
después de ausentarnos brevemente de la sala en que nos hubiere aparecido, etc.
La respuesta tecnológica al primer
interrogante es que sólo un fantasma verdadero podría producir una alucinación
de ese tipo, y sólo un mundo real podría crear en la mente las impresiones
inducidas por el genio maligno de Descartes. En cuanto a la segunda pregunta,
sobre cómo producir cognición con elementos no cognoscitivos, puede considerársela
como el programa de investigación mismo de la moderna ciencia del conocimiento.
Parte de ese programa, por ejemplo, implica explicar el sentido común de la
gente por la interacción en el cerebro de sistemas "menos
inteligentes" que colaboran para producir la inteligencia ordinaria. Esos
sistemas menos inteligentes, quedarían explicados por la coalición de
subsistemas todavía menos inteligentes, hasta llegar a átomos de
inteligencia ninguna de cuyas partes tuviera ya inteligencia NOTA
19.
Uno de los obstáculos para la explicación
científica de la inteligencia estriba en la tendencia inveterada que tenemos de
creer que, por ser nosotros conciencia, tenemos una vía privada y privilegiada
al conocimiento de sus secretos. Un ejemplo está dado por la vieja inclinación
a creer que uno pueda descubrir conocimiento psicológico por simple introspección,
ahorrándose laboriosos experimentos en situaciones de observación objetiva
controlada. En otra parte hemos llamado a esa tendencia "la tentación del
científico social", y tratado de exorcizarla mediante un cuidadoso
distingo entre dos conceptos de subjetividad: subjetividad1
y subjetividad2, según nos estemos
refiriendo a la subjetividad del científico o a la subjetividad del
objeto de ciencia. En el caso de la introspección, estas dos subjetividades
quedarían confundidas, pues el observador sería al mismo tiempo el observado.
Estas confusiones deben siempre evitarse cuidadosamente, para asegurar la máxima
objetividad posible en las conclusiones científicas ( GUTIÉRREZ
82).
En el caso de la conciencia, según nos lo
recuerda Dennett, cuando en relatos sobre experiencias subjetivas pretendemos
estar usando no más que nuestros poderes de intuición u observación interna,
en realidad nos encontramos embarcados en procesos de amplia teorización
informal, las más de las veces carentes de un mínimo control experimental. La
verdad es que la gente se equivoca continuamente, incluso -como lo apunta
Dennett- dentro de contextos de experimentación controlada, en sus opiniones
intuitivas sobre lo que hace o sobre la forma en que lo hace. No se trata de que
mienta propiamente, sino de que confabula: llena lagunas de la
experiencia, adivina, agrega elementos "razonables", y en general
confunde la teoría con la observación. Hay amplia evidencia experimental,
recogida en multitud de experimentos psicológicos, de que "uno no tiene
autoridad para dar cuenta de lo que le está pasando, sino solamente sobre lo
que le parece que le está pasando".
Esta comprobación da base a Dennett para
presentar su método heterofenomenológico como un método neutral para
investigar y describir la fenomenología NOTA
20. Implica la extracción y
purificación de textos de sujetos con la capacidad de hablar, y el uso
de esos textos para engendrar un mundo teórico ficticio propio del sujeto, al
cual Dennett denomina heterofenomenológico del sujeto, o sea, un mundo
fenomenológico pero objetivado, hecho accesible a los otros. Amueblamos ese
mundo ficticio con toda clase de imágenes, eventos, sonidos, olores,
presentimientos y sentimientos que han sido descritos con sinceridad por el
sujeto como realmente existentes en su intimidad mental. Podemos decir que,
cuando se ha constituido en su integridad, este mundo retrata de manera neutral
en lo que consiste ser ese sujeto, con la ventaja de que lo hace
en los términos del propio sujeto.
Extraída esa heterofenomenología, el
investigador puede entonces pasar a considerar la heterofenomenología en todos
sus detalles. El método descansa en el supuesto de que los hechos internos en
que la gente cree, y sobre cuya existencia informa cuando expresa sus creencias
con sinceridad, son fenómenos que una teoría de la mente no puede pasar por
alto y debe explicar. Examen aparte merece la cuestión de si los ítemes que
quedan así representados existen de hecho como objetos, eventos y estados
reales en el cerebro de la persona. Esta es una cuestión eminentemente empírica
que debe ser investigada por las técnicas correspondientes. Si se tiene éxito
en descubrir candidatos reales adecuados que correspondan a estos elementos del
mundo heterofenomenológico, podemos identificarlos como los referentes de los términos
empleados por el sujeto; de lo contrario, nos quedaría siempre la obligación
de explicar por qué los sujetos creen que tales términos designan cosas
reales.
Dennett identifica como la fuente de algunas
de las paradojas de la conciencia que producen más perplejidad, la tendencia a
aferrarnos demasiado tiempo a hábitos de pensamiento que usualmente producen
buenos resultados prácticos, al evitarnos caer en dificultades. El caso más
relevante consiste en que, siempre que lidiamos con un ser consciente,
postulamos de inmediato la existencia de un punto de vista, desde el cual
tal ser consciente percibe el mundo que lo rodea. La función principal de ese
punto de vista es seleccionar una porción de la información disponible, y
ordenarla en grados de proximidad o accesibilidad en relación con el observador
(decimos que la "ponemos en perspectiva"), para permitir al observador
actuar selectiva y eficazmente con base en esa información. No hay duda que
esta postulación de punto de vista es un hábito útil de nuestro espíritu.
Sin embargo, su aplicación tiene límites, que la filosofía tradicional ha
ignorado, como veremos inmediatamente.
¿Qué sucede si, concentrándonos en el
observador mismo, seguimos pensando que dentro de él hay todavía un
punto de vista, es decir si tratamos de localizar el origen de la perspectiva
como si fuera un punto interno al individuo que observa? Lo que sucede es que
una presuposición común y útil para nuestra operación en el mundo externo
comienza ahora a decepcionarnos: tendería a indicarnos que existe un observador
interno, un homúnculo espectador dentro del ser humano ordinario. Aparte
de los problemas de recursividad infinita que esto plantea (¿habrá otro homúnculo
más pequeño que sería el observador interno del homúnculo original...?),
Dennett nos presenta resultados concluyentes de la investigación empírica que
demuestran -contra la tradición filosófica- que no existe un tal punto único
en el cerebro adonde toda la información del mundo exterior confluya y se
canalice. Esta comprobación tiene consecuencias muy vastas e importantes, que
no son en absoluto obvias y que incluso resultan contraintuitivas para una mente
acostumbrada a proyectar hacia adentro, sin mayor examen, sus hábitos de
pensamiento adquiridos en el comercio con el ambiente exterior. No obstante,
estos hallazgos son perfectamente compatibles con la más estricta aplicación
del método científico. No debe de extrañarnos que los resultados sean
contraintuitivos, habida cuenta de que la ciencia siempre busca explicar los fenómenos
que no comprendemos en términos de ideas ya comprendidas y generalmente más
claras y simples. Por lo demás, el fenómeno de la observación tendrá que ser
explicado por fenómenos que en sí mismos no son observaciones, so pena de caer
en una regresión infinita.
Dennett llama a la idea de que existe un lugar
central en el cerebro materialismo cartesiano: es la opinión a que uno
llega cuando descarta el dualismo de Descartes NOTA
21 pero conserva las imágenes
relativas a un teatro central (aunque fuera material) donde se representen los
datos del contenido de la conciencia. El materialismo cartesiano implica que
existe una demarcación espacial en algún lugar del cerebro, que determina el
orden de llegada o de "presentación" de los datos de la experiencia.
Este punto de llegada es semejante al escenario de un teatro, al cual confluyen
todos los esfuerzos de actores, director, escenógrafos, etc. para preparar la
función. El teatro cartesiano es una metáfora de cómo puede la experiencia
consciente producirse en el cerebro; en su forma original, el teatro cartesiano
funcionaba para un público: el alma espiritual. Adoptada por el materialismo,
la metáfora es mostrenca, en el sentido de que es un teatro que no observa
nadie; sin embargo, forma un elemento relevante de la posición materialista que
estamos comentando. Dennett advierte con mucha agudeza que el arrastre de esta
metáfora parece superficialmente una extrapolación inocente del hecho familiar
e innegable de que para intervalos de tiempo cotidianos y macroscópicos
se puede en verdad ordenar los eventos en dos categorías: "lo ya
observado" y "lo no observado todavía". Pero, en realidad, la
idea de un centro especial en el cerebro "donde todo se arme" ha
probado ser más bien una muy mala idea que confunde cualquier intento de pensar
con claridad y precisión sobre la conciencia.
Dennett sostiene que esa metáfora es una rémora
innecesaria y perjudicial para el pensamiento filosófico sobre la conciencia.
Una vez que queda descartado el fantasma de la cosa pensante de
Descartes, el escenario, la estación central o centro de operaciones en el
cerebro, no pueden cumplir ninguna función útil. La glándula pineal, que
Descartes suponía realizaba la conexión entre el alma y el cuerpo, no puede ya
tener la función de fax intermediario entre las dos sustancias; pero
tampoco podrá ser la oficina del Director Ejecutivo del cerebro; y por
supuesto, tampoco podrá desempeñar esa función ninguna otra parte del
cerebro, pues no hay ninguna razón empírica ni teórica para creer que el
cerebro mismo tenga ninguna presidencia ni santuario íntimo, la llegada al cual
constituyera la experiencia consciente. En breve, no hay ningún homúnculo
dentro del hombre, ni ningún "cerebrúnculo" dentro del cerebro.
No hay ningún indicio empírico de que lo haya; pero además, la teoría informática
nos muestra que no existe ningún papel que tal extraño ente podría jugar: la
"sociedad de la mente" de Minsky es una sociedad de mentes más pequeñas,
que a su vez se resuelven en mentes más pequeñas, pero al final tenemos que
desembocar en "átomos de inteligencia" cuyas partes no contienen
elemento mental alguno.
El modelo de la conciencia que Dennett propone
para sustituir al del teatro cartesiano se llama modelo de las versiones múltiples.
Según él, toda la variedad de percepción, pensamiento o actividad mental que
ocurre en el cerebro, se realiza por medio de procesos de interpretación y
elaboración paralelos y de múltiples canales. Para usar una metáfora útil,
la información que entra en el sistema nervioso es sometida en el cerebro a una
"revisión editorial" continua, como la que se haría en las oficinas
de un periódico.
La tesis del modelo de las versiones múltiples
produce una reacción de profunda extrañeza en la gente ("Siento que no es
así como yo percibo..."). Pero igual extrañeza producen los resultados
empíricos que respaldan la tesis; por ejemplo, es difícil aceptar que en
condiciones normales de lectura, los ojos avanzan por medio de sacudidas de
aproximadamente cinco fijaciones por segundo; sin embargo, es así. Pero tal
movimiento, al igual que el movimiento de la cabeza cuando oteamos nuestro
entorno, se elimina muy pronto precisamente por "corrección
editorial" en el trámite informático que tiene lugar desde el ojo hasta
la conciencia NOTA
22. Los psicólogos han descubierto
correcciones de este tipo en muchos momentos de la elaboración de la información
generada por los sentidos; algunas ocurren en etapas muy tempranas del trámite,
por ejemplo la que está asociada con la interpretación de profundidad en
estereogramas de puntos aleatorios, tanto más curiosa por cuanto estamos
acostumbrados a ligar la percepción de profundidad con el reconocimiento de los
objetos; en este experimento, sin embargo, lo único que se presenta a los ojos
(separadamente a cada uno) es la fotografía de una textura formada por puntos
distribuidos al azar, que no forman ningún objeto reconocible. No obstante, al
integrar las imágenes percibidas separadamente por los ojos, resulta claramente
perceptible una figura geométrica que sobresale en tercera dimensión contra el
fondo de puntos aleatorios. El fenómeno ocurre porque en efecto existe una
pequeñísima discrepancia de posición entre los puntos circunscritos por el
cuadrado virtual, entre las dos fotografías, en todo lo demás completamente idénticas.
Procesos de percepción que nos parecen
instantáneos, toman en realidad fracciones largas de segundo, y en ese tiempo
pueden ocurrir, y de hecho ocurren, varios agregados, enmiendas y hasta
sustituciones de un contenido por otro, en diversos órdenes temporales. La
conclusión es que "ver para creer" o "los sentidos no engañan"
son enunciados verdaderos solamente -en el mejor de los casos- en el nivel
supremo de abstracción, pero difícilmente en el nivel de los mecanismos o
algoritmos. ¡De nuevo encontramos un empleo importante para nuestra
categorización ontológica!
Contrariamente a lo que pretendieron los filósofos
empiristas o positivistas, no experimentamos directamente nada. Lo que
experimentamos es un producto de muchos procesos de interpretación y
reinterpretación -procesos editoriales, en efecto-. Estos procesos, que tienen
lugar como flujos de actividad neuronal en diversas partes del cerebro, toman
como insumos representaciones burdas y tendenciosas, y producen como resultado
representaciones agregadas, corregidas y más ricas que sus elementos
originales.
Como consecuencia de todo esto, Dennett
concluye que no existe un solo y definitivo "flujo de conciencia", que
no hay oficinas centrales, ni teatro cartesiano donde "todo se
integre" para ser aprobado por un "significador" central. Y que
en vez de un flujo de conciencia único, existen múltiples canales en los
cuales los circuitos especialistas, en literal pandemonio NOTA
23, tratan de hacer al mismo tiempo
sus varias cosas, y crean sobre la marcha versiones múltiples de la información
que pueden ser identificadas como narraciones. La mayor parte de estas
narraciones fragmentarias desempeñan papeles de corta duración; sin embargo,
algunas de ellas son promovidas a ulteriores papeles funcionales en la actividad
de lo que podemos llamar la máquina virtual del cerebro.
Como hace notar muy sagazmente Dennett, dentro
de un modelo de versiones múltiples y procesos paralelos, la discriminación de
aspectos o detalles no debe ser realizada por el cerebro más que una sola vez.
Es decir, cuando una comprobación de algún detalle particular se ha realizado,
gracias a la acción de uno de los especialistas dentro del cerebro, el
contenido de información que quede así fijado no debe ser examinado de nuevo
por ningún supervisor ni discriminador jefe. Esa es otra manera de decir que la
discriminación no conduce a una representación del elemento discriminado, para
beneficio de la audiencia del teatro cartesiano -pues simplemente no hay teatro
cartesiano-.
Esta afirmación de Dennett parece ir en
contra de la tesis representativa de la mente, basada en la hipótesis de los
sistemas de símbolos físicos que hemos examinado con detenimiento en el capítulo
cuarto. Sin embargo, no hay que olvidar varios aspectos. En primer lugar Dennett
está comprometido con esa tesis, como se desprende de sus planteamientos en el
artículo sobre los sistemas semánticos (los deseos y creencias deben estar
presentes en la mente como representaciones). En seguida, el propósito del
argumento que estamos comentando es sólo desbancar la idea del teatro
cartesiano, de modo que "representación" es usado aquí más bien en
el sentido de representación teatral, sin que se esté discutiendo si el
conocimiento es representativo o no representativo (en el sentido en que lo
querría un eliminacionista). Por otra parte, las distintas versiones de un
evento que corran simultáneamente por el cerebro, como los borradores en la
redacción de un periódico, tienen que ser representaciones en el sentido de
las expresiones simbólicas que se manejan en la hipótesis de los sistemas de símbolos
físicos. Pero además, el mismo Dennett nos dice inequívocamente en su libro
que el cerebro es capaz de tener representaciones de muchas clases; que puede
representar, por ejemplo, cosas como las siguientes:
La capacidad de representar los cinco primeros
objetos, el cerebro humano la tiene en común con, probablemente, todos los
animales. La de representar los últimos cinco, la tiene con exclusividad.
Estas fijaciones de contenido (que bien
podemos llamar representaciones en el sentido de expresiones simbólicas, aunque
no en el de representación teatral), están espacial y temporalmente
distribuidas en el cerebro, y son por supuesto localizables con precisión tanto
en el espacio como en el tiempo. Sin embargo, no está decidido si un contenido
particular así discriminado aparecerá eventualmente como un elemento de la
experiencia consciente, al igual que no está determinado que un párrafo
particular de un borrador que circula en la redacción del periódico va a
aparecer en el artículo publicado. Por lo tanto, no tiene mucho sentido
preguntar cuándo llega a ser consciente: en todo momento hay versiones múltiples
de "fragmentos narrativos" en varios estadios de edición en distintos
lugares del cerebro, en vez de una narración única y canónica. A este
respecto, es importantísimo considerar los estados de conciencia en estrecha
relación con los esfuerzos que se hagan para sondearlos. "Sondear" se
entiende en este contexto como la pregunta dirigida a la persona que experimenta
un flujo de conciencia, en relación con alguno de los elementos de este flujo,
sea que esta sea formulada por otra persona o por ella misma.
Estos sondeos del flujo de conciencia pueden
intervenir en distintos momentos y separados unos de otros por distintos
intervalos, y según la oportunidad en que se hagan, pueden producir efectos
completamente diferentes, precipitando diferentes narraciones. En particular, si
uno demora el sondeo demasiado, el resultado, el flujo respectivo puede no ser
ya narración del todo, por haber sido eliminado por el proceso editorial; si,
por el contrario, uno sondea demasiado temprano, puede enterarse por medio de
ese sondeo de cuán tempranamente es lograda una discriminación particular en
el flujo de conciencia, aunque en este caso deberá pagar como costo una
perturbación del progreso normal de ese flujo.
Así pues, aquello de lo que somos conscientes
dentro de una cierta duración de tiempo no se define independientemente de los
sondeos que usemos para precipitar las respectivas narraciones sobre ese período.
Dennett nos presenta como ejemplo el caso de la conducción de un vehículo por
varios kilómetros mientras estamos sumergidos en una interesante conversación
o silencioso soliloquio. De repente, en un intermedio de esa conversación,
podemos descubrir que no tenemos del todo recuerdo de la carretera, del tráfico,
o de las propias actividades de manejo en que hemos estado inmersos. ¿Estábamos
realmente inconscientes de todos los carros que pasaron, de los semáforos, de
las curvas de la carretera, etcétera? Con toda seguridad que no: si hubiéramos
sido sondeados a tiempo, en varios momento del camino, sobre lo que habríamos
visto justamente antes, por supuesto que habríamos tenido algo que contar. Pero
como no lo fuimos, esos detalles fueron eliminados por el proceso editorial en
forma irreversible.
Estas consideraciones llevan a Dennett a formular un principio psicológico
de incertidumbre, semejante al que Heisenberg estableció para la física
NOTA 24,
a saber:
No podemos atribuir a un evento dado un momento específico en el flujo de la conciencia, con independencia de los sondeos particulares que hagamos para determinarlo. |
Obviamente, este principio está sustentado por razones semejantes a las que
sustentan el principio homólogo de la física: cuando lidiamos con elementos últimos,
sean estos en la composición de la materia o en la composición de la
conciencia, es inevitable que los métodos de observación afecten de manera
irremediable los fenómenos que quieren ser observados.
Dennett acumula en su libro pruebas empíricas
que demuestran la inexistencia del teatro cartesiano y la existencia, en cambio,
de versiones múltiples paralelas de los contenidos de la conciencia. Una de las
más poderosas de estas pruebas se fundamenta en la base psicológica del cine,
el llamado fenómeno phi. En su forma más simple, el fenómeno consiste
en que si dos o más luces separadas por, a lo más, 4 grados de ángulo visual
se encienden brevemente en sucesión muy rápida, el sujeto percibe una sola
mancha, la cual parece moverse en forma reiterada, viajando de ida y vuelta
entre los dos puntos en que se encienden las luces.
El experimento realizado por Paul Kolers y
Michael von Grünau, por sugerencia del filósofo Nelson Goodman, es
especialmente instructivo. En tal experimento se encendieron dos luces de
distinto color durante 150 milisegundos cada una (dentro de un intervalo de 50
milisegundos); "la primera mancha pareció comenzar a moverse y entonces
cambiar de color abruptamente a la mitad de su ilusorio camino hacia la
segunda localización". Salta entonces la pregunta de cómo puede el
cerebro crear manchas en los momentos-lugares intermediarios entre el primer y
el segundo centelleo, precisamente antes de que ese segundo centelleo haya
ocurrido.
Tanto Goodman como Dennett (basándose este en
su modelo de las versiones múltiples) contestan que el cerebro crea
retrospectivamente el juicio de que hay posiciones intermedias, y que este
contenido deja una marca en la memoria. Pero Dennett considera que el cerebro no
necesita construir ninguna representación para rellenar esas lagunas, lo que
sería dispendioso de recursos. Puesto que el juicio ya está formado, el
cerebro puede dedicarse a otros menesteres. Una vez que una discriminación se
ha hecho, no tiene que realizarse otra vez: el cerebro simplemente se ajusta a
la conclusión lograda y usa la nueva interpretación para modular la conducta
subsecuente.
Otro ejemplo, muy revelador, tiene que ver con
suposiciones simplificadoras que el cerebro debe hacer para dar cuenta de hechos
que ocurren en muy corto tiempo. Se aplican con ritmo unos golpecitos de
martilletes mecánicos en dos o tres lugares a lo largo del brazo, digamos cinco
en la muñeca seguidos por dos cerca del codo y finalmente tres en la parte
superior del brazo. Los golpecitos se aplican con intervalos de entre 50 y 200
milisegundos. El efecto inesperado es que los golpecitos parecen viajar en
secuencia regular sobre puntos equidistantes hacia arriba, como si un animalito
se desplazara a lo largo del brazo. Uno se pregunta: ¿cómo sabe el cerebro que
después de cinco golpecitos en la muñeca va a haber unos golpecitos cerca del
codo? Los sujetos experimentan la "salida" de los golpecitos de la muñeca
comenzando con el segundo, y sin embargo en pruebas de control en las que los
golpecitos del codo nunca llegan a producirse, se sienten todos los cinco
golpecitos de la muñeca en la misma muñeca.
La explicación que da Dennett es que el
cambio en el espacio (a lo largo del brazo) lo discrimina el cerebro a lo largo
del tiempo. El número de golpecitos es también diferenciado. Aunque en la
realidad física los golpecitos están agrupados en localizaciones particulares,
el cerebro hace la suposición simplificadora de que se distribuyen regularmente
sobre la extensión espacio-temporal de la experiencia. El cerebro descansa en
esta interpretación -parsimoniosa pero equivocada- después de que los
golpecitos se registran, por supuesto, y esto tiene el efecto de editar (borrar)
interpretaciones parciales anteriores.
Esto no debiera parecernos tan extraño, si
hacemos un paralelo entre lo que sucede con nuestras representaciones en el
tiempo con lo que sucede con nuestras representaciones en el espacio: en efecto,
no representamos los objetos vistos como existentes en la retina, sino más bien
a cierta distancia de nosotros en el mundo exterior; algo muy parecido hacemos
con los objetos percibidos por los oídos. ¿Por qué no podría el cerebro
representar también los eventos en el punto temporal donde tenga mayor sentido
ambiental que sucedan, como lo hace con el punto espacial?
Si tomamos en cuenta que la distancia del dedo
del pie al cerebro es mucho más grande que la de la frente al cerebro, estímulos
aplicados simultáneamente en estos dos sitios arribarían a una supuesta
Presidencia del cerebro en sucesión descompasada (si suponemos constante la
velocidad de traslado de la información a lo largo de las diferentes vías).
Podríamos entonces preguntar cómo hace el cerebro para asegurar una
simultaneidad global. La respuesta de Dennett es que sería un error suponer que
el cerebro necesite resolver este problema, por una razón muy fuerte de
diseño: sería malgastar tiempo precioso conceder a todas las operaciones un
itinerario gobernado por lo que ocurriría en el peor de los casos (cuando la
discrepancia sería máxima, como en la comparación entre el viaje desde el
dedo del pie con el viaje desde la frente). En general, es un principio de
ingeniería que solamente en casos "de vida o muerte" vale la pena
diseñar un sistema con vistas al peor caso que puede presentarse, pues tales
previsiones degradan profundamente el funcionamiento de cualquier sistema. ¿Por
qué deberían señales muy importantes procedentes de la frente tener que
demorarse siempre en una sala de espera, solo por la razón de que en
alguna ocasión particular pudiera suceder que señales concurrentes de los
dedos de los pies convergieran de algún modo con ellas, alterando -por ejemplo-
una relación de causalidad? NOTA
25.
En cambio, lo que sí tiene que
asegurar el cerebro es que, en las circunstancias requeridas, la narración
obtenga "sentido ambiental", de modo que, por ejemplo, un efecto no
preceda a su causa. En otras palabras, no es tan importante la cronología de
las señales atinentes como su organización, original o "editada", y
lo único necesario es que esa organización dé base adecuada para el control
del comportamiento.
Estos ejemplos, en que se hace evidente que el
cerebro pone información que no estaba en los estímulos originales, o cambia
la distribución temporal de ellos, junto con los que se refieren al principio
de incertidumbre analizado antes, muestran claramente que no existe un
fundamento singular para el flujo de la conciencia. Al contrario, todo parece
indicar que en el cerebro fluyen corrientes de información complementarias o
incluso contrarias, que son selectivamente integradas de acuerdo con las
necesidades pragmáticas del individuo cognoscente. Además, puesto que la
cognición y el control -y por lo tanto la conciencia- están distribuidos a lo
largo y ancho del cerebro, se sigue que ningún tiempo puede ser señalado como
el preciso momento cuándo un evento se hace consciente. Como hemos visto, los
sondeos precipitan narraciones, de modo que el momento mismo en que se realizan
puede tener efectos revisionistas sobre las formas representativas usadas por el
cerebro. Todo esto le parece a Dennett argumento suficiente para rechazar en
forma categórica la idea de un carácter único en el flujo de conciencia.
Las funciones múltiples para un mismo órgano,
relativamente raras en el caso de los artefactos, abundan en cambio en la
naturaleza. Piénsese, por ejemplo, en todas las funciones que tiene la boca,
especialmente en los seres humanos. Una de las razones por las cuales los teóricos
de la mente tienen tanta dificultad para discernir en el cerebro un diseño
plausible para la conciencia, es el hecho de que han tendido a pensar que los
elementos cerebrales deben servir cada uno para una, y solo una, función. El
resultado es que está resultando tremendamente difícil escudriñar cómo
funciona el cerebro, precisamente por haber sido diseñado por un proceso -la
evolución- capaz de utilizar funcionalidades múltiples y superimpuestas, algo
sistemáticamente difícil de discernir por los métodos de la ingeniería
inversa NOTA
26.
La lentitud de la actividad mental consciente
hace evidente que el cerebro no fue realmente diseñado -alambrado- para tal
actividad. Los especialistas básicos de la conciencia son parte de nuestra
herencia animal: no fueron diseñados para realizar acciones particularmente
humanas, como leer o escribir, sino para agacharse en caso de peligro, evitar
depredadores, reconocer caras, agarrar, lanzar, recoger bayas y otras tareas
esenciales. Pero los enlistó la evolución, de modo oportunista, para nuevos
papeles, que solo por casualidad y aproximadamente podían corresponder a sus
talentos naturales.
Así, por ejemplo, "nuestros sistemas
visuales, como los de muchos otros animales superiores, incluso los peces, son
exquisitamente sensibles a patrones con un eje vertical de simetría". Esto
se debe probablemente a que en el mundo natural de nuestros remotos antepasados
las únicas cosas en la naturaleza que mostraban ejes de simetría vertical eran
otros animales, y solamente cuando estaban de frente (entonces no había
fachadas de catedrales, ni otros objetos construidos por el hombre que hoy
exhiben la misma clase de simetría). Así, la evolución desarrolló en favor
de nuestros antepasados un sistema de alarma muy eficiente, el cual se disparaba
(sobre todo) cuando eran mirados por otro animal, una posible pareja, posible
comida, o un depredador. Sin embargo, hoy día, la cultura ha superimpuesto a
este mecanismo los cánones estéticos de la arquitectura -llegados a su máxima
expresión en los ideales de belleza de los griegos clásicos-, con sus
contenidos de proporción y simetría bilaterales.
Abundando en este tema de la superposición de
la conciencia en sistemas neuronales más antiguos, el psicólogo Julian Jaynes,
en especulación atrevidamente original ( JAYNES
76), enfatiza que la misma conciencia
humana es una imposición cultural extremadamente reciente -comenzaría a
producirse apenas en el período homérico- sobre una arquitectura funcional
mucho más temprana, de carácter estrictamente vegetativo NOTA
27.
Como sabemos, nada de lo que el individuo
aprende es trasmitido biológicamente a su progenie. Sin embargo, los individuos
suficientemente afortunados para estar cerca, en su constitución genética, de
un buen truco aprendible NOTA
28 tenderán a tener más progenie,
que también tenderá por predisposición genética a estar cerca de ese buen
truco. Si no fuera por la plasticidad -es decir, la capacidad de aprender-, este
efecto, llamado técnicamente efecto Baldwin, no podría presentarse.
Pero gracias a él, la especie con plasticidad tenderá a evolucionar mucho más
rápido, y con más sentido de dirección, que aquellas que no la tienen. En
resumen, la especie con plasticidad magnifica sus capacidades evolutivas, sin
que para eso tengamos que aceptar la herencia de caracteres adquiridos por
aprendizaje.
El efecto Baldwin tiene especial aplicación
con respecto a la adquisición del lenguaje. El genotipo humano incluye muchas
adaptaciones que específicamente favorecen la adquisición del lenguaje. Fueron
adquiridas muy rápidamente, en términos de evolución, pero eso es
precisamente lo que habría que esperar, dado el efecto Baldwin, en una especie
con plasticidad: poder hablar es tan buen truco que cualquier individuo lento en
adquirirlo habría estado en pavorosa desventaja y tendría muy pocas
probabilidades de reproducirse y trasmitir su genoma a las subsiguientes
generaciones.
Llegó un tiempo en la evolución del lenguaje
-imagina Dennett- cuando las vocalizaciones debieron empezar a servir la función
de compartir información útil. Así, un buen día un homínido dotado de la
capacidad de vocalizar, habría podido pedir ayuda -equivocadamente- cuando no
había, al alcance de su voz, un oyente capaz de ofrecerla... ¡con excepción
de sí mismo! Al oír su propia invocación, este estímulo habría provocado
precisamente la clase de ayuda que la invocación habría causado si hubiese
venido de otro homínido. Así, para su sorpresa, el homínido habría
encontrado que el incidente lo estimuló para contestar a su propia pregunta.
La práctica de hacerse preguntas a uno mismo
puede ser claramente reconocida como un buen truco: es un método excelente de
promover una acción mejor informada. Supongamos que, aunque la información
correcta para algún propósito específico existiera ya en el cerebro,
estuviera en manos de un especialista incorrecto; el subsistema que necesitara
la información no podría entonces obtenerla directamente, simplemente porque
la evolución todavía no habría proveído la conexión interna adecuada NOTA
29. En estas circunstancias, podemos
especular que las grandes ventajas de hablar sotto voce consigo mismo
habrían sido fácilmente reconocidas, y habrían llevado pronto a los homínidos
a conversaciones internas completamente silenciosas.
Julian Jaynes ha argumentado persuasivamente
que las capacidades del cerebro para autoexhortación y autorrecordatorio son un
prerrequisito de autocontrol, sin los cuales la agricultura, los proyectos de
construcción y otras actividades civilizadas y civilizadoras nunca hubieran
podido organizarse. También ha postulado que un mecanismo arcaico para esta
autoexhortación, basado en la división en dos "cámaras" cerebrales
-correspondientes al que invoca y al que responde a la invocación- podría
haberse conservado hasta muy avanzados los tiempos históricos; tal bicamerismo,
históricamente anterior a la autoconciencia, proveería una explicación, por
ejemplo, para los relatos de apariciones de dioses en los tiempos mosaicos y homéricos.
NOTA 30
Esta hipótesis de la superposición de la
conciencia da base a Dennett para elucubrar una superposición de mayor
envergadura: la superposición de la cultura a la evolución. Para este
ambicioso proyecto usa las ideas de Richard Dawkins, según el cual las ideas se
integran por ellas mismas en unidades memorables discretas que llama memes,
como analogía de "genes" -los memes serían a la herencia cultural lo
mismo que los genes son a la herencia biológica-. Ejemplos de tales unidades
serían las ideas de la rueda o de portar vestiduras; las ideas de venganza, del
triángulo recto, del alfabeto, del calendario; o la idea de evolución por
selección natural -podría ser que la teoría de los memes, si tiene éxito, se
convirtiera ella misma en un meme-.
En El gene egoísta, DAWKINS
(1976) nos urge a considerar
seriamente la posibilidad de la evolución de estos racimos intelectuales o
memes. Dawkins argumenta persuasivamente que la teoría de la evolución por
selección natural debiera considerarse neutral en relación con las diferencias
entre memes y genes: ambos son solamente distintas clases de replicadores que
evolucionan en diferentes medios a velocidades diferentes. Un carro con ruedas
radiales no solo lleva grano o carga de un lugar a otro; lleva también la idea
memorable de un carro con ruedas radiales de una mente a otra. La evolución de
los memes no es simplemente análoga a la evolución biológica, sino un fenómeno
que obedece exactamente las leyes de la selección natural como quedan
especificadas por los requisitos de variación aleatoria de una generación a
otra, transmisión de características por herencia y supervivencia
de acuerdo con las diferencias en adaptación al medio NOTA
31.
Dawkins sugiere que tendemos a dejar
inadvertido el hecho fundamental de que "un aspecto cultural puede haber
evolucionado en la forma en que lo ha hecho simplemente por ser ventajoso
para sí mismo" y no necesariamente para la especie humana. No
obstante, algunos memes son buenos también desde nuestra perspectiva, y
no solo desde la suya propia en calidad de autorreplicadores egoístas: los
memes de la cooperación, la música, la escritura, la educación, la conciencia
ambiental, la reducción de armamentos. Otros memes son más controversiales;
podemos entender por qué se extienden, y por qué debemos tolerarlos, a pesar
de los problemas que causan: la burocracia, los embotellamientos de tráfico, la
comida rápida, la propaganda política... Todavía otros más son
incuestionablemente perniciosos y muy difíciles de erradicar: el antisemitismo,
el secuestro de aviones, los virus informáticos, el terrorismo, la corrupción
administrativa. Es posible decir que, gracias a los medios electrónicos de
información, los memes se expanden hoy día alrededor del mundo a la velocidad
de la luz, y se replican tan rápidamente que hacen aparecer la reproducción de
la mosca de la fruta y la de las células de levadura como producidas en cámara
lenta.
Puede llegar el día en que la selección
natural de los memes ocurra gracias a mecanismos distintos de la mente humana.
Sin embargo, todos los memes tienen que pasar todavía una etapa de capullo en
ese notable nido. Como las mentes están en corta provisión, y cada mente tiene
una capacidad limitada para albergar memes, se produce considerable competencia
entre ellos por entrar en cuantas más mentes sea posible. Esta competencia es
por el momento la fuerza selectiva de la "memosfera" NOTA
32.
Por otro lado, las mentes humanas mismas son
en grado considerable creación de los memes. "Miles de memes, la mayoría
sostenida por el lenguaje, pero también por mudas imágenes y otras estructuras
de datos, fijan su residencia en algún cerebro individual y moldean sus
tendencias, transformándolo en mente".
Es importante anotar que, comparada con la
plasticidad de la especie, que nos ha acompañado millones de años, la evolución
memética es un fenómeno reciente, que ha llegado a ser una fuerza de
suficiente poder solo en los últimos cien mil años y ha experimentado una
explosión vertiginosa únicamente a partir del desarrollo de la civilización
hace menos de diez mil años. Según sabemos, está restringida a una sola
especie terrestre, la nuestra.
La mejor manera de dar cuenta de la relación
entre la biología básica del cerebro y su superestructura memética es usar
una metáfora tomada de la informática. Podemos decir que las mentes
conscientes humanas son máquinas virtuales más o menos seriales
implantadas en un hardware eminentemente paralelo suministrado por la
evolución.
Es así que Dennett llega a la conclusión de
que todo parece indicar que la conciencia humana
En nuestros
cerebros existe una colección entreverada de circuitos especializados que,
gracias a una familia de hábitos inculcados en parte por la cultura y en parte
por autoexploración, conspira para producir una más o menos ordenada, más o
menos efectiva, más o menos bien diseñada máquina virtual, la máquina
joyceana NOTA 33.
Esta máquina enyunta en una causa común a
distintos órganos especializados con historias evolutivas independientes.
Podemos considerarla como el sistema operativo o el software del cerebro,
y es lo que realiza esa suerte de milagro político interior que consiste en
crear en cada ocasión un capataz virtual, sin dar a ninguna parte del sistema
poderes dictatoriales de largo plazo. ¿Quién está a cargo? -se pregunta
Dennett-. Debemos contestar que nadie, o que primero lo está una coalición de
especialistas y después alguna otra, dependiendo de las circunstancias del
trabajo interior.
El hecho de que la conciencia, o
"yo", no sea substancial (alambrado) sino virtual (programado y
cambiante) parece tener valor explicativo sobre muchos aspectos de la realidad
interior que han intrigado por igual a lo largo de los tiempos a filósofos,
moralistas, psicólogos y juristas. Algunos de esos aspectos, por ejemplo,
tienen que ver con la patente crueldad que puede manifestar la agresividad
humana, en todo disímil a la "crueldad necesaria" de la lucha por la
supervivencia del mundo animal NOTA
34. Es bien posible que tales matices
de encarnizamiento de la agresividad en los seres humanos NOTA 35 se base en la profunda
inseguridad inducida en el yo por la conciencia de su propia insustancialidad:
la mente es una máquina virtual que además se sabe virtual. No se trata
aquí del conocimiento de la propia mortalidad -asequible a algunos, si no a
todos, los animales- lo que está en juego, sino el conocimiento de la propia virtualidad,
del carácter eminentemente efímero de la conciencia como simple amalgama
transitoria de volátiles coaliciones de sistemas especializados en el cerebro.
El humilde origen de nuestra conciencia, como
producto del bricolage de materiales preexistentes, queda claramente de
manifiesto en sus abundantes límites y deficiencias. La notable flaqueza de
nuestra visión periférica (toda la visión excepto dos o tres grados alrededor
del puro centro) se nos oculta normalmente por las trayectorias suaves o las
repentinas sacudidas que hacen variar momentáneamente el contenido del área
foveal central de la retina (el resto de la retina es, según se sabe, como diez
veces menos discriminante que la fóvea).
Otra característica sobresaliente de la
conciencia es su discontinuidad, según se revela en el punto ciego -por donde
entra el nervio óptico- en que la retina es insensible a la luz, y en las
lagunas que dejan los movimientos de sacudida de los ojos, para tomar solo los
ejemplos más simples. La discontinuidad de la conciencia es llamativa en
especial por la frecuencia con que su continuidad ha sido alabada por profanos,
literatos y filósofos NOTA
36. Pero de hecho la conciencia
"está llena de lagunas y es escasa, no contiene ni la mitad de lo que la
gente piensa que contiene".
Solemos maravillarnos, en momentos de
autoconciencia intensificada, de la gloriosa riqueza de nuestra experiencia
consciente. Pero esa riqueza de que nos vanagloriamos no es en efecto sino
solamente la riqueza objetiva del mundo exterior, en su lujuriosa manifestación.
Como lo hemos aprendido de innumerables experimentos en psicología
cognoscitiva, tal riqueza nunca "entra" en nuestras mentes
conscientes: simplemente permanece disponible para una conciencia activa pero
intermitente, fragmentaria y limitada en muchos sentidos diferentes.
Nuestra visión de color no nos da acceso a
propiedades simples de los objetos, como lo pretendieran los filósofos
empiristas, aun en este siglo. La visión en colores "naturales"
coevolucionó desde el principio con colores cuya razón de ser era simplemente
un color coding NOTA
37, como el que encontramos en las líneas
de los trenes metropolitanos en algunos países NOTA
38, de rasgos naturales necesarios
para la supervivencia. En esto parece que debemos volver las cosas "de
cabeza": los arquitectos que diseñaron el metro de París, de México o de
Washington D.C. no inventaron el color coding, sino que simplemente volvieron a
utilizar los colores para su propósito primigenio. Algunas cosas en la
naturaleza necesitaban ser vistas y otras necesitaban verlas, así pues
evolucionó un sistema que tendió a minimizar la tarea de las últimas
acentuando la visibilidad de las primeras. Así, "el principio de la
codificación por colores es la base de la visión de color en los insectos, no
simplemente una reciente invención de una sagaz especie de mamífero". Los
pájaros, los peces y los reptiles tienen también visión en colores, aunque no
los perros ni los gatos, que todavía no la han inventado. Curiosamente, dentro
de los mamíferos, solo los primates la han desarrollado.
Estos hechos iluminan la cuestión ontológica
de las clases naturales, a que nos referimos en el capítulo tercero. En
el principio fueron los colores, para ser vistos por aquellos seres hechos para
verlos. Una vez que hubo criaturas que distinguían las bayas rojas de
las bayas verdes, pudieron ellas también distinguir los rubíes rojos de las
esmeraldas verdes, pero solo como una añadidura casual. El "cielo azul que
todos vemos" es azul porque las manzanas maduras son rojas, las uvas
moradas y la hierba verde y la vida necesitó como fondo de contraste el color
azul celeste.
Siguiendo el mismo argumento, no podemos
preguntarnos con sentido si la diferencia entre las esmeraldas y los rubíes es
una diferencia visible, a menos que especifiquemos al mismo tiempo un sistema de
visión determinado. Los colores no son "clases naturales"
precisamente porque son el producto de la evolución natural, la
cual tiene una tolerancia por fronteras desdibujadas entre categorías que
indignaría a los filósofos, aficionados a ideas claras y distintas. Dennett
llega a decir que si la vida de una criatura dependiera de empaquetar juntos a
la luna, el queso azul y las bicicletas, con toda seguridad la madre naturaleza
encontraría una manera de hacerla ver estas cosas como "intuitivamente la
misma y cabal clase de cosa".
Podemos concluir, en relación con el tema
ontológico, que no es objetivo de nuestros sistemas sensoriales el detectar
propiedades "básicas" o "naturales" del entorno, sino
solamente realizar nuestro propósito narcisista de permanecer vivos; como dice
Dennett, "no está entre las funciones de la naturaleza el crear máquinas
epistémicas". La vocación epistemológica es algo superimpuesto a
funciones biológicas anteriores, del mismo modo que lo son el lenguaje o la
conciencia.
Una de las deficiencias más reveladoras de la
conciencia es su gran fragilidad. Según lo recuerda Dennett, hay voluminosos
diagnósticos, perfectamente confiables, de que no existen solo un puñado o
unos cientos sino en realidad miles de casos de DPM (desorden de personalidad múltiple)
hasta el día de hoy. Casi invariablemente esos casos deben su existencia a
ultraje prolongado en la primera infancia, usualmente de carácter sexual, o a
severidad patológica en el seno de la familia. Así, se trata de un fenómeno
muy complejo que se extiende mucho más allá de los cerebros individuales de
quienes lo sufren. Aquí, como en muchas otras ocasiones, una deficiencia de la
conciencia nos pone sobre la pista de una de sus notas fundamentales; en este
caso su carácter eminentemente social. Se puede considerar como establecido por
la ciencia que las personalidades no son madreperlas que existan
independientemente, sino productos de los procesos sociales que nos crean; como
tales artefactos, están sujetas a cambios repentinos de estatus. La única
estabilidad -concluye Dennett- que podemos atribuir a la trayectoria de una
personalidad, como a la de un club, es el momentum que le imparte la red
de creencias que la constituye; cuando estas creencias se reblandecen, aquella
falla, sea temporal o permanentemente.
Como lo ha mostrado Marvin Minksy en La
sociedad de la mente, existe una continuidad natural entre la dinámica que
origina y explica el funcionamiento de las mentes y la que origina y explica el
funcionamiento de las sociedades: ambas resultan de la interacción de
innumerables procesos paralelos que se interpenetran en todas direcciones. Así
pues, una personalidad no es un punto matemático ni un ente metafísico, sino
una abstracción definida sobre las miríadas de atribuciones e interpretaciones
(incluidas las autoatribuciones y las autointerpretaciones) que componen la
biografía de un cuerpo viviente cuyo centro de gravedad narrativa (como
diría Dennett) ella misma es. Como tal, juega un papel singularmente importante
en la economía cognoscitiva del cuerpo viviente, porque de todos los modelos de
cosas del entorno que un cerebro activo debe construir mentalmente ninguna es más
crucial para su supervivencia y bienestar que el modelo que el agente se hace de
sí mismo.
Sea cual sea la posición que uno mantenga en
estas grandes polémicas, es claro que el día en que podamos construir un robot
que replique por lo menos lejanamente el comportamiento intelectual humano,
sabremos que existe al menos una teoría -la que hubiere orientado esa
construcción- que explicaría tal comportamiento, sea ella igual o diferente de
la que pudiera explicar el diseño del cerebro humano. Mientras llega ese día,
cada rendimiento de un mecanismo artificial isomórfico al del correspondiente
en el cerebro, constituirá una explicación de la capacidad humana asociada con
ese mecanismo. Así, la inteligencia artificial no solo puede verse como la
vertiente tecnológica de la ciencia cognoscitiva; podemos entenderla además
como una metodología para validar esta ciencia.
Para contestar estas preguntas
usted puede consultar cualesquiera de sus textos, con entera libertad. Estos
ejercicios requieren que usted haga un esfuerzo de imaginación y de
razonamiento analógico.
1) Comente la siguiente frase de Dennett:
"Un misterio es un fenómeno sobre el cual la gente no sabe como pensar
todavía". ¿Cuál es la recomendación implícita en estas palabras que
Dennett nos hace sobre cómo proceder en relación con esta clase de fenómenos?
2) Dennett nos dice que algunas de las
paradojas de la conciencia que producen más perplejidad surgen porque nos
aferramos demasiado tiempo a un buen hábito de pensamiento que usualmente nos
evita meternos en problemas. Encuentre un ejemplo en el cual se ilustre de qué
manera un hábito de pensamiento o conducta que rinde muy buenos beneficios en
la generalidad de los casos, resulta contraproducente en ciertos casos límites.
3) Compare la técnica de los libretos que se
usa en inteligencia artificial para hacer que una computadora entienda un cuento
con lo visto en el capítulo tercero sobre lógica no monotónica. ¿Tienen
alguna coincidencia? Si la tienen, explique en qué consiste.
4) Imagínese que usted es parte del equipo de
investigación de Roger Schank y que le ha sido encargado definir un libreto
para una situación que ocurre frecuentemente en los cuentos de niños. Escoja
la situación y escriba el libreto, usando el siguiente formato:
Nombre del libreto:
Condiciones iniciales |
.. |
Resultado |
.. |
Objetos de apoyo |
.. |
Roles |
.. |
Carriles |
.. |
Escenas |
.. |
5) Con ayuda del libreto que usted haya
definido, escriba un pequeño cuento para dárselo al "cuarto chino" e
improvise unas preguntas para probar su comprensión. Escriba unas posibles
respuestas del sistema que probarían que ha comprendido el cuento.
6) Dennett nos dice que sólo un fantasma real
podría relacionarse de una manera natural con nosotros. Explique, dentro de
esta perspectiva, por qué los fantasmas son elusivos (por ejemplo, desaparecen
cuando uno trata de atraparlos).
7) Contraponga y compare los modelos de la
mente del teatro cartesiano y de las versiones múltiples.
Contestaciones a los ejercicios
de aprendizaje
1) "Misterio" es una palabra que no
tiene lugar en la ciencia; si hay un fenómeno que todavía no haya podido
explicarse, procede entonces buscar las hipótesis adecuadas para tratar de
hacerlo. Pero no sólo es necesario formular hipótesis: a veces es todavía más
importante acuñar el vocabulario adecuado en que sea posible formular esas hipótesis.
Muchas veces es incluso indispensable adoptar un marco de referencia nuevo,
distinto de aquel dentro del cual el problema ha surgido, para poder comenzar a
plantear correctamente el problema. En muchas ocasiones el problema sólo existe
dentro del marco de referencia que hemos heredado de la tradición, y que
identificamos como "sentido común" o "intuición", pero el
problema se disuelve cuando comenzamos a verlo desde un punto de vista riguroso.
2) Cuando alguien sale a navegar con una
lancha en el Golfo de Nicoya, al regresar a Puntarenas desde, por ejemplo, Isla
Tortugas, puede elegir como punto de referencia para regresar a puerto "La
Punta". Tal referencia le servirá por un buen rato; pero llegará un
momento en que deba abandonar ese punto de referencia, porque de lo contrario
terminaría por encallar en la playa, en vez de enfilarse como sería debido a
los muelles del estero.
3) Lo que tienen en común los
"libretos" de la comprensión artificial del lenguaje y la lógica
nomonotónica es que en ambos casos se proveé un mecanismo para suplir la
información que falta para la resolución de un problema con algún "valor
de omisión".
4) Nombre del libreto: Fiesta de cumpleaños
Condiciones iniciales |
Recibimiento de la invitación, compra del regalo, compra o preparación del vestido para ir a la fiesta. |
Resultado |
Los niños vuelven a sus casas, satisfechos, pero también cansados, y usualmente llorosos por haber sido removidos de la fiesta violentamente por sus respectivas madres. |
Objetos de apoyo |
Regalos de cumpleaños, tinaja, cubo de helados, queque con velitas, bombas de hule para decoración, confeti. |
Roles |
El cumpleañero, los invitados, la mamá del cumpleañero, las mamás de los invitados. |
Carriles |
La fiesta puede celebrarse en el jardín, si hay buen tiempo, o en el garaje de la casa si llueve. |
Escenas |
La llegada, con entrega del regalo al cumpleañero. |
Juegos de diversas clases. |
|
Rompimiento de la tinaja, después de varios intentos de distintos niños, con los ojos vendados, seguida de rebatiña en el suelo de los caramelos y otros pequeños valores de que estaba llena la tinaja. |
|
Repartición del queque, que comienza por canto de "feliz cumpleaños", continúa con soplado de candelitas y consecuente aplaudida, y termina por la comilona del queque y de los helados que lo acompañan. |
|
Más juegos. |
|
Escenas opcionales de pequeños accidentes de los niños o riñas entre ellos. |
|
La pelea con las mamás porque los niños no quieren irse. |
5) "Juancito fue a la fiesta de cumpleaños
de Mabel. Se divirtió mucho, aunque no quiso cantar ni comer helado. Fue él
quien rompió la tinaja. Su madre lo llevó a la casa hecho un mar de lágrimas".
Preguntas: |
Respuestas correctas: |
¿Qué canción se negó a cantar Juancito? |
"Feliz cumpleaños" |
¿Alguien castigó a Juancito por haber roto la tinaja? |
Por supuesto que no. Lo felicitaron. |
¿Por qué lloró Juancito? |
Juancito lloró porque no quería irse de la fiesta. |
6) Los fantasmas, para toda persona realista, no pueden ser producto sino de
ilusiones ópticas o de alucinaciones. Ahora bien, las ilusiones son
transitorias, y generalmente se disuelven con solo cambiar de punto de vista. En
cuanto a una alucinación, no puede ser tan completa como la impresión que deja
la realidad misma, porque chocaría con dificultades computacionales. Un
fantasma que pudiera inspeccionarse por todos lados, con el que pudiéramos
hablar, etcétera, es una imposibilidad computacional -a menos que fuera real,
pero por hipótesis estamos descartando esa posibilidad-.
7)
teatro cartesiano |
versiones múltiples |
un lugar único adonde "todo se arma" |
pandemonio, procesos paralelos |
un solo flujo de conciencia |
muchos flujos de conciencia |
no hay construcción de información sino solo representación |
construcción editorial de la información |
la conciencia es continua |
la conciencia es discontinua |
conciencia clara y distinta |
conciencia depende de los sondeos que se le hagan |
Conteste por escrito, lo más
clara y completamente que pueda, sin consultar sus libros. Califique cada
respuesta comparándola con las respuestas que se ofrecen en seguida. Si alguna
de las preguntas resulta mal contestada, busque el material atinente en el texto
y repáselo hasta quedar satisfecho con su asimilación del mismo.
1) Describa el experimento mental llamado
"cuarto chino" y diga qué representa cada uno de sus elementos.
2) Explique de manera sucinta la tesis de
Searle sobre la posibilidad de que un programa informático comprenda el
lenguaje ordinario.
3) Explique en líneas generales la objeción
de Dennett al argumento de Searle.
4) Resuma el argumento de Penrose contra la
inteligencia artificial.
5) Resuma los argumentos esgrimidos por varios
autores contra la tesis de Penrose.
6) Explique cuál es el respectivo papel de
los métodos y el conocimiento, según lo han determinado los investigadores de
la inteligencia artificial (por ejemplo, en qué sentido son los métodos débiles
y el conocimiento fuerte).
7) Enuncie y explique el principio psicológico
de incertidumbre.
8) Dentro de la perspectiva que adopta Dennett
sobre la evolución del aparato cerebral, ¿qué lugar ocupa la conciencia en
relación con otros órganos o funciones biológicos más primitivos?
9) ¿En qué consiste la teoría de los memes
de Dawkins?
10) ¿Cómo se entienden las clases naturales
dentro de una perspectiva evolucionaria?
1) El cuarto representa un sistema informático
que se supone es capaz de comprender lenguaje ordinario (chino, por ejemplo).
Dentro de él, Searle realiza las funciones que realizaría la unidad central de
proceso, o sea, leer las instrucciones del programa respectivo y ejecutarlas. La
información que se le suministra a Searle (a la unidad central de proceso) es
de varias clases: un programa, escrito en un lenguaje que Searle entiende (español
en el experimento mental, que representa al lenguaje de máquina que entiende la
unidad central de proceso), compuesto por reglas para relacionar las dos
primeras horneadas de textos en chino. Se le da también varias horneadas de
textos chinos, a saber: una primera horneada que representa un libreto, o sea,
un modelo de una situación que ocurre frecuentemente en los cuentos; una
segunda horneada que representa un cuento; y una tercera horneada que representa
preguntas que se pueden hacer a propósito del cuento para probar si el sistema
ha entendido el cuento. La respuesta que el sistema da a la tercera horneada
representa contestaciones a esas preguntas.
2) Searle considera que el lenguaje ordinario
sólo puede ser comprendido verdaderamente, y no solamente ser simulada su
comprensión, por un ser con intencionalidad. A su vez, que solamente algo que
tenga los mismos poderes causales del cerebro puede tener intencionalidad.
Finalmente, que sea lo que sea lo que la intencionalidad es, es un fenómeno
biológico, y solo puede ser producido por medios biológicos.
3) Un programa capaz de entender chino debería
haber pasado la prueba de Turing, y sería enormemente más complejo que lo que
Searle supone en su ejemplo, donde el hombre dentro del cuarto lo único que se
supone que hace es comparar símbolos ininteligibles unos con otros. Los
procesos implicados en un programa de inteligencia artificial son muchísimo más
complicados que el simple apareamiento de caracteres. No tenemos derecho a
descalificar como capaces de producir una auténtica comprensión a los billones
de acciones de las múltiples partes sumamente estructuradas que compondrían un
programa que hubiera pasado la prueba de Turing. Después de todo, eso es lo que
tenemos base para suponer que hace el cerebro: integrar de una manera congruente
billones de acciones de partes sumamente estructuradas. Así pues, lo más grave
que puede decirse del argumento de Searle es que descalifica al cerebro (a
nosotros mismos) como seres que realmente posean en algún momento una auténtica
comprensión.
4) Básicamente Penrose arguye que el
pensamiento humano tiene capacidades intuitivas "no algorítmicas",
que se manifiestan, por ejemplo, en el poder que tienen los matemáticos de
construir fórmulas verdaderas que, sin embargo, no se pueden probar por un
sistema formal. Esos supuestos poderes no algorítmicos están basados en una física
que todavía no se ha descubierto y que, presumiblemente, resolverá el
conflicto entre la física cuántica y la física relativista.
5) La argumentación de Penrose incurre en la
falacia per ignorantiam al ofrecer pruebas con base en una física que
todavía no se ha constituido. Además, incurre en la falacia de autoridad, por
cuanto apela a su propio renombre como físico para lanzar dudas sobre una muy
bien confirmada conjetura de los matemáticos, la tesis Turing-Church. Por otro
lado, incurre en un error de hilación lógica (también llamado non sequitur)
al afirmar que ciertas fórmulas consideradas verdaderas dependen de una
facultad de intuición porque no pueden probarse en un sistema formal (algorítmico),
cuando es perfectamente posible probarlas en otro sistema formal diferente.
También se le ha criticado a Penrose que incurre en la falacia de composición,
pues supone que porque argumentos muy simples no demuestran tener inteligencia,
una combinación de muchos de ellos no podrá tenerla. Finalmente, se le critica
la desautorización de una ciencia que no conoce, o por lo menos cuyos logros no
se mencionan en su libro (a pesar de presentarse en él resúmenes de varias
ciencias). Finalmente, cabe hacerle la crítica de que al afirmar que el
pensamiento humano tiene características no algorítmicas omite hacer una
distinción ontológica (o de niveles de abstracción) muy importante: el
pensamiento aplica "heurísticas" (es decir, procedimientos que no
tienen garantizado el éxito, pero que generalmente lo logran) en el nivel de
la computación; pero esas heurísticas, para poder funcionar, tienen que
estar programadas algorítmicamente en el nivel de los mecanismos.
6) Los métodos, a veces calificados como
"métodos débiles", son las técnicas de que se vale el pensamiento
(natural o artificial) para resolver problemas de manera general, es decir, sin
tomar en cuenta las peculiaridades del caso. Por ejemplo, "considerar una
por una todas las combinaciones de los factores implicados" es un método débil.
Los métodos débiles tienen como características su gran generalidad (se
aplican a todos o a una inmensa cantidad de problemas) y, por otro lado, su muy
limitado poder para resolver los problemas. Por su parte, el conocimiento
constituye la fuerza del pensamiento, aunque tiene como característica
importante que cada tipo de conocimiento contribuye a la resolución de sólo un
muy limitado rango de problemas.
9) No podemos atribuir a un evento dado un
momento específico en el flujo de la conciencia, con independencia de los
sondeos particulares que hagamos para determinarlo. Esto quiere decir que
aquello de lo que somos conscientes dentro de una cierta duración de tiempo, no
se define independientemente de los sondeos que usemos para precipitar las
respectivas narraciones sobre ese período.
10) Los indicios que tenemos son en el sentido
de que la conciencia existe superimpuesta a otros fenómenos y estructuras biológicos
diseñados por la evolución para propósitos muy distintos. Los especialistas básicos
de la conciencia son parte de nuestra herencia animal y no fueron diseñados
para realizar acciones particularmente humanas, como leer o escribir, sino para
agacharse en caso de peligro, evitar depredadores, reconocer caras, agarrar,
lanzar, recoger bayas y otras tareas esenciales.
11) Las ideas se integran por ellas mismas en
agregados discretos que llamamos memes en analogía con los genes. Los memes son
a la herencia cultural lo que los genes son a la herencia biológica. La evolución
de los memes no es simplemente análoga a la evolución biológica, sino un fenómeno
que obedece a las leyes de la selección natural según los requisitos de
variación aleatoria, transmisión hereditaria y supervivencia diferencial.
12) No es objetivo de nuestros sistemas
sensoriales el detectar propiedades básicas o naturales del entorno, sino
solamente asegurar el propósito de la supervivencia del ser vivo. No está
entre las funciones de la naturaleza el crear máquinas epistémicas. La vocación
epistemológica es algo superimpuesto a funciones biológicas anteriores, del
mismo modo que lo son el lenguaje o la conciencia.
Copyright © 1997 Claudio Gutiérrez
NOTA
1 Naturalmente, en
la versión inglesa del texto Searle se refería al inglés, su idioma nativo.
NOTA
2 La palabra está
tomada, obviamente, de la tecnología teatral, donde el libreto describe el
conjunto de escenas, con indicación de personajes, contexto y objetos de apoyo
para la acción dramática.
NOTA
3 Para Renato
Descartes, filósofo francés del siglo XVII, la producción del pensamiento era
privativa de una sustancia espiritual, que él llamaba precisamente
"sustancia pensante", y que oponía a otra sustancia, la física, que
llamaba "sustancia extensa" o simplemente "extensión".
NOTA
4 Ponemos
"Cuarto Chino" con mayúsculas iniciales para enfatizar que como tal,
y por hipótesis, es un ser pensante.
NOTA
5 Confróntese el capítulo
primero de esta
obra.
NOTA
6 Una referencia
irónica al famoso cuento "La camisa nueva del emperador", con la que
el autor insinúa que el reconocimiento de carácter científico a la
inteligencia artificial no es sino una pose adoptada -contra evidencia- por
conformismo con una moda intelectual.
NOTA
7 Cotéjese la
explicación que damos sobre esta prueba de Gödel en el capítulo segundo;
igualmente, el comentario sobre la refutación de este argumento por John
McCarthy, más adelante en este capítulo.
NOTA
8 Esta tesis es
examinada por nosotros en el capítulo
segundo.
NOTA
9 En el capítulo
segundo explicamos
ampliamente por qué la tesis Turing-Church no puede probarse, a pesar de que
todos los matemáticos la aceptan como verdadera.
NOTA
10 Recuérdese que
probar hechos singulares negativos es imposible. Confróntese el capítulo
primero, en relación con la obra de Popper.
NOTA
11 Confróntese el
capítulo
segundo para un
resumen de la famosa prueba.
NOTA
12 Hasta el año
1972, prácticamente todos los programas de inteligencia artificial eran
escritos en Lisp. Después de esa fecha, con la creación de Prolog, el lenguaje
creado por McCarthy encontró un competidor importante, que ha ido ganando
terreno lentamente dentro de la comunidad científica. Sin embargo, a pesar de
este auge de la programación en lógica, es probable que todavía hoy la mayor
parte de la investigación en inteligencia artificial se haga en Lisp.
NOTA
13 En esta empresa
ha chocado muchas veces con Marvin Minsky, el cofundador de la disciplina, quien
cree que la lógica no es medio adecuado para representar el conocimiento de
sentido común; en sucesivas etapas ha abogado por medios alternativos, como los
"marcos", a los cuales nos hemos referido en este mismo capítulo.
NOTA
14 Ver capítulo
tercero.
NOTA
15 Por ejemplo, se
ha estimado que el número de partidas posibles en el juego de ajedrez es mayor
que el número de átomos en el universo.
NOTA
16 Confróntese lo
explicado sobre este programa, dentro del contexto de la hipótesis de búsqueda
heurística, en el capítulo cuarto.
NOTA
17 Los métodos débiles
han continuado usándose en prácticamente todo tipo de aplicaciones.
NOTA
18 Ver capítulo
tercero.
NOTA
19 Un arco reflejo
sería, por ejemplo, un tal átomo de inteligencia.
NOTA
20 Conjunto de
impresiones, ideas, deseos, temores, sentimientos, etc. que un sujeto
experimenta en su mente.
NOTA
21 Recuérdese que
Descartes interpretaba al ser humano como la convergencia de dos substancias
fundamentalmente diversas: la "cosa extensa" (el espacio, el cuerpo) y
la "cosa pensante" (el intelecto, la conciencia, el alma). El dualismo
en este sentido suele oponerse a la posición filosófica materialista, que
supone que no existe más que una clase de sustancia: la materia.
NOTA
22 Nótese el
empleo aquí, justificado por la costumbre, de la metáfora misma que estamos
criticando: hablamos de un trámite "desde el ojo hasta la conciencia"
como si la conciencia fuera un punto de llegada, en el mismo sentido en que la
retina es un punto de llegada de los rayos de luz. En realidad, precisamente no
se trata ni de un solo recorrido, ni de un lugar discernible "adonde todo
confluya", sino más bien de un conjunto de procesos paralelos que
intercambian información entre sí y forman, como resultado de la actividad
total, la impresión (¿o deberemos decir "ilusión"?) del flujo de la
conciencia.
NOTA
23
"Pandemonio" (todos los demonios) es la palabra clásica para lo que
hoy llamaríamos multiproceso.
NOTA
24 El principio de
incertidumbre de Heisenberg establece que hay un límite a la precisión con que
se pueden determinar cuantitativamente ciertos pares de propiedades, como por
ejemplo la posición de una partícula y su momentum (cantidad de movimiento), o
la energía y el tiempo en que ocurre. Estas limitaciones se pueden explicar de
manera aproximada e informal diciendo que, en lo extremadamente pequeño, las
condiciones necesarias para hacer la observación interactúan con el fenómeno
que se trata de observar, cambiándolo en un fenómeno ligeramente distinto.
NOTA
25 Por ejemplo,
podría ser que algo sucediera en la frente que fuera causa de un efecto
sensible en el pie, pero que, por la diferencia de llegada al cerebro de las
respectivas señales, apareciera como posterior al efecto. Pero el cerebro tiene
una manera de lidiear con estas situaciones mucho más efectiva, económica y
general: simplemente, las versiones provisionales se ajustan para lograr una
"redacción" que tenga "sentido ecológico".
NOTA
26 Se llama
ingeniería inversa al proceso de descubrir el diseño a partir de la máquina.
Bien podríamos considerar a la ciencia toda como un proyecto de ingeniería
inversa para discernir el diseño del universo.
NOTA
27 Ver adelante
una referencia más detallada sobre el mecanismo de esta superimposición y sus
ideas sobre la naturaleza original de la conciencia.
NOTA
28 Es decir,
aquellos individuos de la especie que por su constitución genética están
especialmente dotados para aprender el truco. Desde luego, se da por supuesto
que no nacen con la capacidad de realizarlo, pues su naturaleza biológica
simplemente los predispone a aprenderlo con facilidad.
NOTA
29 Esta hipótesis
supone, lo que es verosímil, que la evolución habría logrado primero dotar a
los homínidos de la capacidad de ayudarse mutuamente por signos, sin que eso
implicara en absoluto la autoconciencia (el poder de hablarse a sí mismo).
NOTA
30 La
autoconciencia misma, según Jaynes, no habría comenzado a existir sino a
partir del rompimiento de ese bicamerismo, lo que supone que tuvo lugar tan
cerca como los tiempos de Sócrates y Pericles.
NOTA 31
Como hemos visto en el capítulo anterior, el surgimiento de la vida
artificial
(evolución de organismos digitales, programas en una computadora virtual) es
otro tipo de evolución que no tiene nada que ver con los organismos basados en
la química del carbono. Pareciera que esto añade fuerza al reclamo de Dawkins
en relación con la posibilidad de que los memes evolucionen también por su
cuenta.
NOTA
32 Por analogía
con la biosfera, capa de seres vivos que cubre el planeta tierra.
NOTA
33 Dennett le da
este nombre en honor del célebre novelista irlandés James Joyce, que introdujo
en la literatura el concepto de "flujo de conciencia".
NOTA
34 Como terribles
ejemplos podemos citar, entre muchos otros, la "solución final al problema
judío" por parte de los nazis -que implicó el exterminio de 6 millones de
personas-, o el más reciente "programa de limpieza racial" emprendido
por los serbios en la antigua Yugoslavia -violación masiva de miles de mujeres
bosnias, ordenada por los jefes del ejército-.
NOTA
35 Debo la
percepción de este aspecto de la vida mental a una sagaz intervención del crítico
costarricense Andrés Sáenz, con ocasión de una presentación oral de estas
mismas ideas.
NOTA
36 Por ejemplo,
por Kant o Bergson.
NOTA
37 Inglés por
"codificación mediante el uso de colores".
NOTA
38 En San José,
Costa Rica, los taxis son todos rojos, lo que ayuda a distinguirlos en el tráfico.