Читать книгу El desafío crucial - José Antonio Bustamante - Страница 15
Encuentro con las máquinas pensantes
ОглавлениеLa Inteligencia Artificial no te odia ni te ama, pero estás compuesto de átomos que puede utilizar para algo más...
Eliezer Yudkowsky
Como ya hemos visto en nuestra visita a los talleres ocultos de la mente, dado el misterio que encierran las funciones cognitivas y la relación del hombre con el mundo, por miles de años se ha tratado de comprender cómo trabaja nuestra inteligencia y replicarla en algún tipo de máquina pensante. No nos hemos quedado satisfechos con el hecho de que las máquinas mecánicas o electrónicas nos ayuden en tareas simples o peligrosas de complejos cálculos matemáticos. Queremos que autómatas hagan tareas complicadas como agrupar fotos similares, diferenciar las células enfermas de las sanas o jugar juegos como el ajedrez. Todas esas tareas parecía, hasta hace poco, que requerían inteligencia humana o algo similar. Cuando Gary Kasparov, campeón mundial de ajedrez, fue vencido por la computadora IBM Deep Blue en 1997, empezamos a visualizar la potencia de la inteligencia de las máquinas. En 2016 un gran avance ocurrió cuando una computadora de Google tuvo éxito en ganarle a un jugador profesional de Go, un juego de origen japonés considerado demasiado complejo para un jugador artificial. Comparado con el ajedrez, tiene una variedad mucho mayor de opciones donde el jugador puede elegir. Mientras el ajedrez tiene un factor de dificultad de 35, el Go tiene un factor mayor a 250. A pesar de esta alta complejidad la computadora AlphaGo venció al profesional Lee Sedol. Estos casos precursores nos están indicando que no habrá vuelta atrás en la aparición de máquinas que tienen capacidades que ya sobrepasan el simple procesamiento de datos y agregan funciones cognitivas cada vez más complejas. Por ello, de una u otra forma, debería interesarnos saber por lo menos la esencia de cómo se constituyen y funcionan y así obtener posibles beneficios al generar estrategias de pensamiento complementarias derivadas de las enseñanzas de la epistemología y los hallazgos de las neurociencias con relación a la creatividad y el lenguaje. Será la tecnología y en especial aquella que emerge de la computación y los avanzados algoritmos que se usan para crear, simular y ejecutar las tareas hasta hace poco exclusivas de las personas, las que deberían convertirse en un aliado para seguir avanzando en entender y transformar la realidad. Sin embargo, como todo proceso que evolucione, algunos temen que la tecnología no se quedará sólo en eso, sino que vaya más allá y supere las capacidades humanas.
Para entender en toda su dimensión este nuevo mundo que ha comenzado a abrirse sin vuelta atrás, necesitamos hacer un rodeo e ir más lejos en las similitudes preguntándonos, como lo hacen muchos investigadores en estos días: ¿Sobre qué trata la vida? La respuesta tal vez será sorprendente, la vida trata sobre información, información algorítmica. La meta-biología, una rama muy reciente de esta ciencia, dice que la biología trata sobre software, la información genética es justo eso, es decir el ADN sería un lenguaje de programación universal. Siguiendo este planteamiento, se afirma que el mundo estaba lleno de software, incluso antes que supiéramos qué quería decir dicha palabra; es más, el origen de la vida es el origen del software. Así por ejemplo, en el ADN se producen saltos aleatorios que generan mutaciones adaptativas y evolutivas. “La evolución es un algoritmo” podríamos decir, como de alguna manera ya sugería en el siglo XIX el matemático británico y para muchos el padre de la computación, Charles Babbage.
Parece, entonces, ser el momento preciso para detenemos en nuestro camino en busca de la llave maestra que nos permita comprender los desafíos del trabajo del futuro, profundizando en el alcance de la palabra que será muy probablemente la más famosa del siglo XXI: Algoritmo. Al Jwarizmi, un gran matemático árabe, creó primero la palabra “álgebra” que da cuenta de todo un campo de las matemáticas y en su libro del siglo IX sobre aritmética usó por primera vez la palabra algoritmo. Éste es esencialmente una secuencia de acciones, una lista de instrucciones del tipo “haga esto, luego lo otro”. Entender en esencia lo que implica, más allá de que es una secuencia de acciones, será de gran utilidad en la búsqueda de nuevo conocimiento. Siguiendo a Gregory Chaitin, un afamado matemático y biólogo, digamos que comprender es comprimir, hacer algo en menos espacio, en menos tiempo y de modo más simple y que ello requiere un conjunto de reglas que explican un hecho o evento de manera sucinta, pero que mantiene en su base todas las posibilidades y un alcance de comprensión mucho mayor. Ejemplifiquemos primero con una pregunta: ¿por qué existe el día y la noche? Una respuesta simple: por la rotación de la Tierra. Sin embargo, a partir de allí se explica una tremenda cantidad de datos que pueden obtenerse de la observación directa o a través de instrumentos en áreas del conocimiento muy variadas, por ejemplo el cambio en el brillo de los objetos, la temperatura, la configuración atmosférica. Pongamos ahora un ejemplo numérico: entender el 0.33333... lo podemos representar como 1/3. El primer número requiere una cantidad infinita de memoria computacional para ser representado. El segundo puede “comprender”, comprimir, todos los datos del primero con mucha menos información. Las implicancias derivadas de estos dos simples ejemplos son extraordinarias, pues guardan entre líneas el mayor de los secretos del poder de la naturaleza, pero también de las “máquinas pensantes”, en definitiva de las reglas que gobiernan el aprendizaje, el desarrollo de competencias y la creación de nuevo conocimiento. Este proceso requiere entonces una forma especial de “escribir” los algoritmos, es decir la secuencia de acciones que comprimen una forma de entender o hacer algo (desde mostrar caminos alternativos a partir del flujo vehicular, predecir el estado del tiempo, hacer un diagnóstico médico o construir un organismo).
Con este gran potencial de los algoritmos era inevitable que adquirieran un rol tan relevante en la tecnología y en la vida moderna. Una o dos generaciones atrás mencionar dicha palabra habría dejado en blanco a mucha gente. Hoy es el centro crucial de la civilización. Ellos están dentro de todo lo que se fabrica. No están sólo en el teléfono celular o en los tablets, sino en el auto, en la casa, en las aplicaciones más diversas y hasta en los juguetes de los niños. Programas que los incluyen hacer volar los aviones, dirigen fábricas, intercambian y guían la producción de alimentos. La cuarta revolución industrial que está llegando sería imposible sin ellos.
Las computadoras están constituidas por millones de delgados transistores y los algoritmos lo que hacen es encender o apagar (variar el estado de ellos), millones de veces por segundo. El estado más simple es variar entre cero y uno para equivaler a un bit de información. Lo segundo es combinar dos bits comenzando a generar un “razonamiento lógico”. Si un transistor se enciende sólo cuando A y B lo hacen, se está realizando una primera pieza de razonamiento lógico. Si A sólo se enciende cuando lo hace B o C en forma independiente, se consigue otra pieza de razonamiento lógico. Y si A se enciende cuando B está apagado y viceversa, hay una tercera operación. Aunque resulte difícil de creer, todo algoritmo, independientemente del grado de complejidad que tenga, puede ser reducido sólo a estas tres operaciones: Y, O, NO. A menudo cuando pensamos en ello, damos por sentado que todo lo que se relaciona con las computadoras son números, pero ya podemos afirmar que no es así, las computadoras son todo acerca de lógica. La primera consecuencia de esta forma de funcionar sobre la base de operaciones lógicas que se replican y combinan se relaciona con costo, pues sería muy caro hacer una nueva computadora para cada cosa. Lo que se hace es un vasto ensamblaje de transistores que pueden hacer diferentes cosas dependiendo de cuáles se activen o permanezcan apagados. Un algoritmo elimina el exceso de transistores en la computadora. No es sólo un conjunto de instrucciones. Dichas instrucciones tienen que ser tan precisas como para que sean ejecutadas por una computadora, por ello una receta de cocina, que es un conjunto de instrucciones, no es estrictamente un algoritmo porque no tiene especificado exactamente el orden de hacer las cosas o los pasos exactos, pero puede llegar a convertirse en uno, como ya está ocurriendo con algunas máquinas que fabrican alimentos. Si se quiere programar un robot de cocina para que haga una torta tenemos que programar cómo reconocer el azúcar, levantar una cuchara y así sigue. Son un estándar exacto. Se dice a menudo que uno no puede comprender algo en toda su magnitud hasta que lo expresa por medio de un algoritmo, incluidas las ecuaciones matemáticas. Desde, por ejemplo Newton, hasta Einstein, en cualquier área de la ciencia si una teoría no puede ser expresada en un algoritmo no es completamente rigurosa. Para algunos investigadores de las ciencias de la computación, los algoritmos son una clase de sistemas comparables en riqueza de posibilidades sólo a la vida en sí misma. Sin embargo es necesario enfrentar tres tipos de obstáculos centrales: uno es la complejidad de espacio, en este caso el número de bits de información que se necesitan. El segundo es la cantidad de etapas que requiere la secuencia para ser ejecutada, que puede hacer al algoritmo lento o inútil. Y el tercero es la complejidad humana: cuando se hace muy difícil de comprender por las personas, se desecha.
Teniendo como referencia la complejidad descrita, ha comenzado a avanzar a pasos agigantados en los últimos años la noción de inteligencia artificial (IA). Según Marcos Hutter, académico alemán y Shane Legg, cofundador de Deep Mind, actualmente una empresa perteneciente a Google Alfphabet: se define como “la habilidad general de un agente para alcanzar objetivos en un amplio rango de ambientes o entornos, lo que implica razonamiento, memoria, comprensión, aprendizaje y planeación”. En esta línea el alcance de la definición es muy amplio e inquietante, pues si la inteligencia reside en la máquina o en el software es análogo a si ésta reside en las neuronas o en el cerebro o en las señales electroquímicas. Para lograr este propósito se necesitan avanzados algoritmos que permitan codificar de una manera realizable toda la complejidad que ellos implican.
Será necesario para ir adentrándose en este campo de la inteligencia artificial distinguir entre dos tipos muy diferentes: La IA Estrecha, también conocida como “débil” (IAE), que es con la cual hoy en día interactuamos sin estar muy conscientes de ello. El ejemplo más obvio es un smartphone, que tiene mucho más poder que las computadoras con que la NASA llevó un hombre a la Luna en 1969. El segundo tipo de inteligencia artificial es la denominada General (IAG) o también conocida como “fuerte”, podríamos agregar, “verdadera”. La manera más fácil de definirla es decir que la IAG se espera que pueda replicar “cualquier función cognitiva de los humanos”. Tendrá la habilidad de reflexionar sobre sus objetivos y decidir cómo ajustarlos (como se aprecia en la muy buena película de ciencia ficción Ex machina). Respecto a los avances en IAG, estos han sido inspirados, una vez más, en el modo de funcionamiento de la naturaleza, tomando como referencia la aparente simplicidad del cerebro de una abeja en relación con las complejas tareas que puede realizar. Volar, adaptarse al tipo de viento, identificar alimentos y depredadores y rápidamente decidir si pelear o escapar. Una abeja tiene alrededor de novecientas cincuenta mil neuronas y hoy existen computadoras de gigabytes y terabytes que sería esperable se comporten como abeja. Pero con los algoritmos tradicionales que resuelven problemas en computadoras de almacenamiento masivo y procesadores súper rápidos no se puede ni siquiera acercarse a realizar lo que el pequeño cerebro de una abeja puede lograr.