Читать книгу Palabra de robot - Òscar Vilarroya Oliver - Страница 9
ОглавлениеCapítulo 2
EL CAMINO HACIA EL AIBO
Septiembre de 1948. Un grupo de investigadores se reúne en el Cambridge Institute of Technology para celebrar una conferencia bautizada con el nombre de «Mecanismos cerebrales en la conducta», pero que ha pasado a la historia como el Simposio Hixon (Gardner, 1985). Los investigadores provienen de campos de estudio muy diferentes, pero todos tienen como objetivo de su trabajo la arquitectura y el funcionamiento de la conducta perceptiva e inteligente.
El primer conferenciante es John von Neumann, el físico alemán considerado como el creador de los ordenadores y un genio de las matemáticas. Von Neumann dibuja en su conferencia de apertura la comparación entre los ordenadores electrónicos y el cerebro, comparación de la cual todavía no podemos desprendernos.
El tercer conferenciante, el psicólogo Karl Lashley, advierte que esta semejanza es inexacta, ya que el ordenador es una máquina digital y el cerebro es analógico. Su disertación central se titula «El problema del orden serial en la conducta», y es un ejemplo de giro copernicano dentro de la concepción de la actividad cerebral porque consigue que con su exposición se cierre una tradición secular. Con argumentos claros y sencillos, y ejemplos radicales, vacía de valor teórico la corriente psicológica de moda en esos tiempos, el conductismo, y propone los aspectos centrales a los que se dedicaría la nueva ciencia de la conducta.
El segundo conferenciante, uno de los primeros teóricos computacionales, Warren McCulloch, propone una hipótesis sobre cómo el cerebro procesa la información estableciendo un paralelismo entre lo que él denomina aparatos lógicos. A partir de las ideas expuestas en un artículo que publicó con Walter H. Pitts en 1943, presentó la prueba de que una red construida por elementos que obedeciesen a una simple regla de activación con un límite y produjesen una señal binaria de salida podía, en teoría, computar cualquier tipo de función.
Las diferencias entre los modelos de von Neumann y McCulloch, abismales a pesar de exponer enunciados cercanos, sobre todo en contraposición con Lashley, han impactado no sólo en la evolución posterior de las ciencias computacionales y neurobiológicas, sino incluso en la epistemología y la filosofía de la mente de los últimos cincuenta años. Sin embargo, el origen de sus diferencias comenzó mucho antes.
LOS ORÍGENES
Se dice que fue en la Grecia clásica donde nació la tradición de reproducir el razonamiento. Entre otros, Anaxágoras de Clazomenes, el filósofo presocrático, maestro de Eurípides y Pericles, que vivió aproximadamente entre el 500 y el 428 a. C., introdujo el concepto de mente tal como lo entendemos hoy en día. Otros intentaron reproducir algunas de sus habilidades –el mecanismo de Antiquitera (aproximadamente el 80 a. C.) intentó modelar los movimientos de los cuerpos pesados–, aunque de una manera muy rudimentaria.
Fue también entonces cuando se empezó a sospechar que el sistema nervioso tenía algún papel en la actividad mental: Alcmeón de Crotona (aproxidamente el 500 a. C.) localizó los procesos mentales en el cerebro. Sin embargo, otros distinguidos pensadores todavía dudaban de esta hipótesis. Aristóteles propuso, por ejemplo, que el cerebro servía para refrescar la sangre, mientras que otros, como Platón, defendieron la doctrina que entendía la mente como una entidad no material separada del cuerpo humano.
La esencia de las diferencias entre Alcmeón y Platón originó una tradición filosófica occidental representada por diferentes corrientes que fueron perfiladas sobre todo a partir de Descartes y que adoptaron una de las dos versiones de signo contrario del mismo principio, oposición que subsiste con extrema vitalidad en nuestros días: unos están convencidos de que el cerebro, la biología, es imprescindible para entender las capacidades mentales y, en consecuencia, basan su estudio en una estrategia que considera el conocimiento de los fenómenos neurobiológicos como una condición necesaria, aunque no suficiente, para entender los fenómenos mentales; los otros afirman que los fenómenos cerebrales son irrelevantes para la comprensión de los fenómenos mentales, ya que pertenecen a un nivel de análisis y reproducción independiente.
LA CRISTALIZACIÓN
Las dos posiciones, la que podríamos denominar opción formalista y la que, a partir de ahora, llamaremos opción arraigada, llegaron a la madurez a mediados del siglo XX gracias a ciertos instrumentos teóricos, de tal manera que se dieron las condiciones para que estos principios configurasen las bases de una ciencia moderna de la cognición.
Por un lado, el instrumento que permitió el inicio de la disección formalista de la conducta inteligente procede de los trabajos en matemática computacional. Los precursores más significativos son Boole, que impulsó definitivamente la lógica simbólica moderna, y Whitehead y Russell, que configuraron en su obra Principia Mathematica la demostración de que las matemáticas se basan en las leyes fundamentales de la lógica.
Estas ideas permitieron el advenimiento, durante los años treinta y cuarenta, de la matemática computacional, de la cual Alan Turing es el representante más significativo. Genio matemático y hombre infeliz, la sociedad de su época se aprovechó de sus ideas que, una vez aplicadas, han revolucionado la sociedad contemporánea, y después lo relegó a la marginación moral y social por su condición de homosexual. Turing publicó hacia mediados de los años treinta (Turing, 1936, 1950) la prueba que permitió concebir la existencia de una máquina sencilla que podía llevar a cabo cualquier tipo de cálculo o programa codificado en un sistema binario. Eso supuso la primera noción de lo que ahora llamamos ordenador, aunque se nos haga difícil creer que surgió de la imaginación de un individuo.
Por otro lado, faltaba un elemento esencial para el nacimiento de la formalización artificial de la conducta inteligente: la teoría de la información, las ideas básicas que se deben a Claude Shannon, un brillante ingeniero electrónico. Shannon (1938) probó que las operaciones básicas del pensamiento pueden expresarse simplemente a través de dos estados básicos de los interruptores electromagnéticos –el entrañable bit–, idea clave en la teoría de la información moderna. Por primera vez se podía pensar en la información y, por extensión, en los procesos cognitivos, independientemente de cualquier tipo de materialización.
Con estos antecedentes, la necesidad de conseguir, durante la Segunda Guerra Mundial, la superioridad sobre el enemigo, no solamente en el campo de batalla, sino en cualquier ámbito que tuviera implicación en el rendimiento de un ejército, como la información, transformó la voluntad de construir una máquina que reprodujera con más rapidez y más fiabilidad que un ser humano las funciones de cálculo y análisis en un proyecto de guerra. Von Neumann, que introdujo más tarde la idea de programa almacenado; Turing, que logró construir una máquina descifradora; Norbert Wiener, padre de la cibernética al desarrollar prototipos de ordenadores que controlaran las máquinas de guerra, son algunos de los responsables de estos logros.
Sin embargo, las máquinas pensantes requirieron algún tiempo para que los materiales y la teoría las convirtiese en máquinas rápidas y fiables. De hecho, el inicio de la Guerra Fría permitió una avalancha de inversiones gubernamentales para la investigación en estos campos; también permitió dar el siguiente gran paso: conformar la idea de guardar un programa en lugar de guardar solamente información en la memoria del ordenador.
Además de esto, la posición arraigada fracasó en la pretensión de convertirse en el principio de las ciencias cognitivas y se ocultó, más como una intuición que como un principio, detrás del trabajo empírico de la neurociencia. La causa fue la falta de trabajo teórico que favoreció la posición formalista, que se tradujo en un fracaso estrepitoso en las aplicaciones prácticas, como las primeras redes neuronales (Minsky y Papert, 1968).
La posición formalista triunfó, entonces, en la configuración de las ciencias que se propusieron la reproducción de la conducta inteligente y el estudio de los procesos psíquicos y sociales, en lo que hoy en día se conoce como ciencia cognitiva: la inteligencia artificial, con sus hijas: la cibernética y la biónica; la psicología, separada finalmente del conductismo y el psicoanálisis; la lingüística, que desistió de estudiar la lengua como un objeto independiente del ser humano; y la antropología, que se negó a continuar siendo una ciencia folclórica.
De hecho, la fecha clave para el nacimiento de la ciencia cognitiva es 1956, por la coincidencia de dos acontecimientos. Uno es el Simposio de la Teoría de la Información en el Massachusetts Institute of Technology (MIT), donde Allen Newell y Herbert Simon expusieron por primera vez la prueba completa de un teorema obtenida por un ordenador, Noam Chomsky presentó una de sus primeras versiones de la lingüística transformacional y George Miller explicó su famosa teoría de los siete elementos de la memoria a corto plazo.
El otro acontecimiento, que tuvo lugar el mismo verano, consistió en una reunión en el Dartmouth College, donde diversos investigadores trabajaban en inteligencia artificial. John MacCarthy fue quien propuso este término en la reunión, y fue aceptado por Marvin Minsky, Allen Newell y Herbert Simon, entre otros.
Pero, ¿en qué consiste la posición formalista, la dominante en los inicios de la ciencia cognitiva?
LA CIENCIA COGNITIVA FORMALISTA
La ciencia cognitiva formalista está basada en tres grandes principios (Pylyshyn, 1984; Posner, 1989; von Eckardt, 1993):
(I) El conocimiento puede ser formalizado como representaciones simbólicas con contenido y estructura.
(II) Los procesos cognitivos pueden ser simulados como operaciones formales que aplican reglas sobre símbolos.
(III) El pensamiento y otras funciones inteligentes no se definen por el tipo de material que forma el sistema que lo soporta (neuronas o chips), sino por su función abstracta.
Veamos cada punto por separado:
(I) El conocimiento se ha de entender como una gran base de datos. Las entradas de la gran base de datos son elementos simbólicos, es decir, estructuras con una forma y un contenido, como las palabras. En general, un símbolo es una cadena de caracteres que tiene las siguientes propiedades:
a) Un símbolo es un elemento matemáticamente discreto, es decir, que ni en el nivel de los estados eléctricos ni como descripción de cadena de caracteres existe un continuo entre dos símbolos. Entre símbolo y símbolo hay siempre un cambio; en un ordenador, por ejemplo, siempre se puede decir qué símbolo está activo y cuál no lo está.
b) Un símbolo representa objetos o estados del mundo.
c) Un símbolo es arbitrario. El tipo de cadena de caracteres que identifica un símbolo se ha decidido por motivos que no tienen nada que ver con lo que el símbolo representa, es decir, entre el símbolo y lo que éste representa no hay ninguna relación de similitud, ni de causa-efecto.
Esta manera de entender el conocimiento en una mente permite formalizar todo el conocimiento de manera combinatoria: los constituyentes atómicos, las entradas de las bases de datos, pueden combinarse en conjuntos moleculares que constituyen las estructuras simbólicas.
En resumen, tenemos un sistema de símbolos con una sintaxis combinatoria y una semántica. Ahora bien, entre las diferentes escuelas cognitivas hay diferencias en el momento de considerar si los símbolos que están representados en nuestro cerebro corresponden a palabras de nuestra lengua natural, el castellano, el inglés, etc., o están escritos en una lengua especial, que habitualmente se considera la lengua de la mente o mentalés.
(II) La hipótesis central formalista sobre cómo se producen los procesos cognitivos consiste en que la cognición es una especie de computación o cálculo. Muchos teóricos consideran que el primero que formuló tal hipótesis fue Hobbes, con su expresión Reasoning is nothing but reckoning («razonar no es otra cosa que calcular»). El desarrollo teórico de este principio proviene de la idea cartesiana de que toda comprensión consiste en formar y utilizar representaciones simbólicas apropiadas. Para Descartes, estas representaciones son descripciones complejas construidas a partir de ideas o elementos primitivos. Kant añadió que todo concepto consiste en las reglas que relacionan estos elementos primitivos y Frege demostró que estas reglas podían ser formalizadas de tal manera que su manipulación podía hacerse sin intuición o interpretación. Eso, y de acuerdo con el primer principio, se traduce en el hecho de que la cognición se puede entender fundamentalmente como una manipulación de símbolos, mientras que las relaciones que determinan el procesamiento cognitivo son en gran parte relaciones lógicas entre símbolos.
Ahora bien, ya que los símbolos se pueden manipular independientemente de su contenido, porque son elementos formales, la cognición puede ser formalizada con reglas que manipulen los símbolos. Esto permite que una máquina pueda también ser cognitiva, ya que puede transformar los símbolos que se le dan como input y que devuelve como output, sin necesidad de saber el contenido de los símbolos. En otras palabras, los procesos cognitivos en un sistema simbólico material están ciegos al contenido de los símbolos, tan sólo se interesan por su forma. Les resulta igual la manipulación de la palabra suerte que la de la palabra muerte.
(III) Que el pensamiento y otras funciones inteligentes no se definan por el tipo de material que forma su sistema (neuronas o chips), sino por su función abstracta, quiere decir que el significado de un determinado símbolo mental depende de su papel en la descripción abstracta de su función: la función saber jugar a ajedrez no depende del silicio del ordenador o de las proteínas del gran maestro que juega, sino que se basa en la representación de la información en símbolos (peón, caballo, reina, etc., en ambos sistemas) codificados según el tipo de sistema (binario en un ordenador y desconocido en un cerebro) y su manipulación a través de reglas explícitas ejecutadas en un orden determinado («si se come el caballo con la reina es jaque mate»; «de las N posibilidades que tengo, X es la que reduce mis pérdidas, así como disminuir las posibilidades de mi contrincante de ganar») para conseguir una finalidad determinada («ganar a mi contrincante»; «concluir el proceso realizando el último movimiento»).
LOS RESULTADOS
¿Cómo ha funcionado la perspectiva formalista en el campo de la reproducción de la inteligencia en sistemas autónomos, es decir, sin intervención humana?
Los primeros años se dedicaron a la conducta inteligente de tipo general, aunque estuvo aplicada a ámbitos concretos. Fueron años invertidos en la resolución de problemas, que servirían de modelos generales de conducta inteligente. Esta tendencia estuvo muy influida por los trabajos de Newell y Simon, quienes demostraron que los ordenadores podían hacer mucho más que simplemente calcular.
Los resultados de toda aquella primera oleada dieron bastantes logros, pero no sirvieron para establecer un modelo de inteligencia general. Entre otras cosas porque para que un sistema mostrase la más mínima inteligencia era necesaria una gran cantidad de información referencial. El problema de base de todos los programas es que no había manera de que los programas identificaran la relevancia de una situación o concepto y, por tanto, se tenían que considerar todas las alternativas posibles.
Otra perspectiva encabezada por Marvin Minsky tomó el relevo (1977). Hubo un cambio de los programas generalistas a los sistemas especializados. En los años setenta se intentó, en lugar de ofrecer programas generales que fallaban en ciertas situaciones, aportar programas restringidos a ámbitos concretos, pero que fueran fiables en todos los casos. Se entró en el mundo de los micromundos. Todas las características y posibilidades del ámbito en cuestión se asentaban en una base de datos de referencia que permitía al programa controlarlas en todo momento y hacer frente a cualquier problema que se presentara.
A pesar de esto, los micromundos tampoco ofrecieron grandes éxitos. El asunto es que, por más que se reduzca un mundo, siempre hay algún aspecto no relacionado con ese mundo que es necesario para encontrar una solución. Parte de lo necesario para comprender un micromundo es parte de lo necesario para comprender cualquier mundo. Si algo resulta artificial en la voluntad de controlar las variables del mundo es intentar escapar de lo que se denomina sentido común.
Estos fracasos llevaron a los investigadores a intentar representar el conocimiento del sentido común. La investigación se dirigió a desarrollar nuevos tipos de base de datos, más complejos y flexibles (Rumelhart y Ortony, 1978). Una línea de trabajo (Schank y Abelson, 1977) optó por segmentar la información relevante por contextos, de tal manera que no siempre fuera necesario tener activada toda la información del sistema. Otra línea (Winograd y Flores, 1987) trató los problemas del sentido común de manera general. La primera perspectiva fracasó porque, se mire como se mire, cuando se tiene que definir cualquier relevancia contextual siempre hay un agujero negro de nuevas características relevantes que no se han tenido en cuenta. La perspectiva de la relevancia general todavía intenta, treinta años después de sus inicios, encontrar toda la información que permita completar la base de datos de relevancia general.
Resumiendo, las esperanzas que se pusieron en la opción formalista para establecer los procesos de pensamiento así como la capacidad para reproducirlos han ido decayendo a medida que han pasado los años. A los ordenadores formalistas les cuesta mucho comprender, abstraer, hacer planes y, sobre todo, aprender. La cuestión es que para aquellas actividades en las cuales los humanos encuentran dificultad, como la fiabilidad en el manejo de datos o las operaciones con nombres complejos, los ordenadores formalistas se han revelado como sumamente útiles; pero para esas cosas que encontramos sencillas, como la percepción de objetos, la comprensión del habla o la identificación de la relevancia, los resultados son decepcionantes. ¿Cuál es la causa del fracaso de la posición formalista?
LOS PROBLEMAS DE LA POSICIÓN FORMALISTA
El problema de la posición formalista es lo que se conoce como frame problem (Dennett, 1984; Dreyfus, 1992). El frame problem, también conocido como el problema del sentido común, consiste en representar el conocimiento en un sistema de tal manera que pueda abarcar lo que cambiará y lo que no cambiará en una situación cuando pasen determinadas cosas. Por ejemplo, si accionamos un interruptor al entrar en una habitación, los humanos sabemos que habitualmente la luz se encenderá y que, entre muchas otras cosas, el techo no caerá ni se abrirán las ventanas. A pesar de que esto parece obvio, no es tan obvio cómo identificar y colocar esta información en un sistema formalista tradicional. Primero tenemos que identificar todo el conocimiento que nunca se ha considerado explícitamente pero que forma parte de cualquier proceso cognitivo. Y después eso se ha de colocar en un ordenador sin que ocupe toda la memoria disponible en el mundo, sin que se reduzca el proceso al infinito. El sentido común es difícil de formalizar.
Incluso en conductas en las que el lenguaje parece autosuficiente, nos encontramos con que siempre necesitamos un grado de sentido común. Supongamos que Pedro le dice a Juan: «Le compré un cachorro a María». Y Juan responde: «María ya tiene un cachorro. Te lo hará devolver». Ningún humano dudará que el nuevo cachorro será el que Pedro tendrá que devolver, pero un ordenador formalista lo encontrará ambiguo. Y es muy difícil encontrar una regla para superar esta situación. Por ejemplo, la regla devolver siempre lo nuevo no valdría para los bombones o las galletas.
En este punto es donde la diferencia con los humanos se hace más evidente. Cuando un ser humano sabe algo más sobre una cosa, con más facilidad, y rápidamente, encuentra la solución relevante. En cambio, cuanto más sabe un ordenador (cuando más grande es su base de datos), tarda más en dar con una solución.
Hay quien piensa que la clave para solucionar este problema radica en el hecho de que los ordenadores formalistas sólo tienen un tipo de conocimiento, los datos registrados como símbolos, mientras que los humanos tenemos dos tipos de conocimientos: los datos y las habilidades. Los humanos tenemos un conocimiento que sustenta las capacidades, como ir en bicicleta, conducir, tocar el piano, y el conocimiento de cosas como que «la capital de Francia es París», «el fuego quema», «Navidad es el 25 de diciembre».
El conocimiento de datos podría adecuarse a la concepción formalista de que el conocimiento puede ser almacenado en forma de representaciones simbólicas. En cambio, el conocimiento de las habilidades no parecería adecuarse a datos explícitos que programen o dirijan las conductas. No parece factible que un pianista virtuoso interprete una pieza musical consultando datos en una pretendida base de datos. Es cierto que al comienzo, cuando se aprenden estas habilidades, los humanos utilizamos un conjunto de instrucciones que se dan en cualquier proceso de enseñanza, como cuando se aprender a conducir y nos dicen que «para girar a la derecha hay que girar el volante a la derecha», aunque a la larga estas instrucciones de olvidan.
Hay quien dice que nada de lo que cuenta como conocimiento humano puede estipularse de manera formalista, como base de datos, sino que gran parte del conocimiento humano corresponde a un conocimiento de habilidades (Dreyfus, 1992). Conocer sería una cierta habilidad de vivir, de adaptarse al medio, en lugar de estar relacionado con la cantidad de información de la cual somos dueños. El concepto de vida y de adaptación es la clave que llevará al desarrollo de los AIBO.