Читать книгу Las videntes - Jorge Luis Marzo - Страница 11
LA BOLA DE CRISTAL
ОглавлениеDicen que la luz que emiten las bolas de cristal sobre las que se inclinan las médiums para conocer lo que va a suceder tiene un color especial, tirando al azul. Aquel artilugio esférico, frío, transparente, frágil e inmóvil, capaz de transmitir imágenes de otros tiempos y espacios, lo tienen arrinconado en el desván. Desde que las máquinas hacen lo mismo, los operarios ya no visten turbantes y la experiencia se ha hecho más cómoda que en los tiempos en los que había que correr las cortinas del salón y reunirse alrededor de una mesa con las manos cogidas. ¿O no?
Ver el futuro tiene que ver con intentar el gobierno de la propia vida. Gobernar, kybernan, significa pilotar un barco, de cuya misma raíz surge cibernética. El observar el mundo desde la proa de nuestros ojos nos ha ayudado desde los orígenes a comprender, a aprender, a distinguir muchos de los elementos previsibles o no que nos rodean. Saber lo que más o menos te espera mañana genera un estado de cómoda seguridad; es la que busca el campesino al otear el cielo, el transportista al escuchar los partes de tráfico o el usuario que espera sus likes. La predicción es alimento para el hambre general de conocimiento y de cualquier industria humana, y gasolina de imaginarios y deseos. Hoy, esa predicción viene escrita en números matemáticos, y todo ya es gobernar un timón invisible en un mar azulado. Es invisible porque así camufla el hecho de que no está en nuestras manos. ¿O sí?
La intención aquí es trazar el curso que ha llevado a las máquinas a hacer suyo el lenguaje de los oráculos a la hora de interpretar y juzgarlo todo, especialmente a los humanos. Los ordenadores están aprendiendo muy rápido a hacer una cosa que hasta ahora les era muy difícil: ver imágenes, ver el mundo mediante imágenes, escribirlas, convertir en imágenes todo lo que escriben, llevándonos con ello a interpretar el mundo casi exclusivamente a través de ellas. Se han convertido en máquinas videntes.
Tiresias fue uno de los más célebres videntes de la Grecia clásica. Vio lo que no debía, a Atenea desnuda en el baño, y fue castigado con la ceguera. Luego, la diosa, arrepentida por imponer una pena tan severa, le concedió el don de la adivinación. El acceso a los secretos tuvo el efecto de dejar a Tiresias ciego ante el presente pero vidente del porvenir. La videncia te separa de la realidad para introducirte en el valor. Porque adivinar es hacerse divino, aceleradamente, por eso la economía es el gran barómetro de su estatus, ya que representa el dominio frenético de la planificación, de la toma de decisiones, y el modelo que regula el valor: nada sirve si no es productivo. Las predicciones son muy baratas porque ya hay muchos datos, razón por la cual se hacen ubicuas y expansivas. Y son muy rápidas de hacer. Una predicción más barata significa más predicciones. Una predicción muy rápida significa más plusvalía, porque el valor de los datos requiere que estén al día para que los pronósticos no sean ya viejos cuando los obtenemos. Ya conocemos cómo funciona el mercado: cuando el coste de algo cae, la producción se acelera y se gana más dinero. Es una promesa de plusvalía permanente. Los algoritmos no saben dónde parar: su productividad se basa en vincularlo todo, sin dejar nada fuera, no permiten que quede ninguna pieza del puzle sin montar: el estudio de dos neuronas solas no les dice nada, pero el análisis de todas las neuronas les cuenta todo, los hace omniscientes.
Cibernética y bolas de cristal. Muy esotérico. Por eso deberíamos saber de qué hablamos. Para empezar, solo hay que ir a cualquier página académica, empresarial, artística o activista y buscar «deep learning», «machine learning», «redes neuronales», «computer vision», «pattern recognition», «clustering», «regresión», «estimación bayesiana», «redes de capsula», etc., en definitiva, se acabará uno topando con la inteligencia artificial, o IA, si ahorramos algo de papel. Pero ¿qué es la IA? Comencemos por su escritura.
def generate_tokens(
self,
tokens_prefix: List[str],
tokens_to_generate: int,
top_k: int,
temperature: 0.8
) -> List[str]:
tokens = list(tokens_prefix)
for i in range(tokens_to_generate):
ntk_values, ntk_indices = self.get_next_top_k(tokens[- self. model.hparams.n_ctx:], top_k)
if temperature > 0:
ntk_values_temp = torch.div(ntk_values, temperature)
ntk_values_exp = torch.exp(ntk_values_temp)
ntk_values_exp_sum = torch.sum(ntk_values_exp)
ntk_values_mult = torch.div(ntk_values_exp, ntk_values_ exp_sum)
ntk_selected = torch.multinomial(ntk_values_mult, 1)
next_token_n = ntk_indices[ntk_selected]
next_token = self.id_to_token(next_token_n)
else:
next_token_n = ntk_indices[0]
next_token = self.id_to_token(next_token_n)
tokens.append(next_token)
if next_token == END_OF_TEXT:
break
return tokens1
Es un fragmento de código para la autogeneración de textos y poemas, por cierto, muy bellos: «La nit és plena de miracle / que és la fi dels déus de la memòria. / Som sols per la por i la mort, contra el somni i la paraula justa». Sin conocimientos de programación, solo somos capaces de comprender términos sueltos del código; se nos escapa el orden sintáctico, semántico, su lógica interna (cuando, si se mira bien, mucho tiene que ver con proposiciones condicionales, el colmo de la lógica: «si esto, entonces aquello»). Es como si el lenguaje sabido de letras y números se lo hubiera tragado una máquina o un animal de pensamiento extremadamente seco, y lo devolviera regurgitado en una secuencia misteriosa. Son signos que despiertan temor, no por ser lenguas ignotas e inaccesibles, sino porque son el reflejo de nuestras vidas procesadas matemáticamente y sin la menor indulgencia, aunque se presenten vestidas de poesía. Al abanderar la búsqueda de la verdad, las matemáticas se maquillan de libertad y prometen seguridad en un mundo volátil y precario. Todo ello produce fenómenos fascinantes en numerosas esferas de nuestra vida, como ver a grandes masas llevar en la mano un nuevo librito rojo, ahora en forma de catecismo ideológico sobre las ventajas de la IA en la vida social. Este es un fenómeno que entiendo que hay que estudiar en términos de biopolítica y de biodicción, o, lo que es lo mismo, bajo la premisa de que nos lleve a cavilar cómo la predicción gestiona nuestros cuerpos y deseos, qué efectos tiene a la hora de describirlos y, sobre todo, a la hora de ponerlos en relación con el todo. O sea, qué competencias nos quiere asignar a los humanos la vieja ideología de la predicción en el nuevo orden de cosas que instaura la inteligencia artificial.
La IA es un concepto muy amplio que se refiere al uso de la computación para imitar las funciones cognitivas del ser humano en campos muy variados. En lo que aquí nos interesa, es la capacidad de un sistema informático para interpretar correctamente datos externos a él sin partir de ningún modelo cerrado, aprender de dichos datos y emplear esos conocimientos para inferir escenarios de futuro. El objetivo de esas máquinas no es replicar los datos con los que se alimenta, sino la correcta predicción de nuevos datos. Es, por lo tanto, una tecnología de predicción.
El principal motor detrás de la IA es el cálculo estadístico, donde ir de las observaciones particulares a las descripciones generales se llama inferencia, y el aprendizaje se denomina estimación. La clasificación se llama análisis discriminatorio. Son términos importantes. El acontecimiento más grande de la física del siglo XX fue el descubrimiento de que el mundo no está sujeto al determinismo, sino al desorden. La lógica desarrollada durante los siglos en los que se creía que el mundo era un modelo regular, y que había sido diseñado para confirmar patrones repetitivos, encontró un gran acomodo con la aparición de las ciencias del caos, en donde la búsqueda de patrones se orientó hacia la detección del punto de no retorno, del momento en que se produce la singularidad. Allí surgieron las ciencias estadísticas encaminadas al establecimiento de probabilidades: el análisis de riesgos. Muchas de nuestras actividades implican procesos aleatorios y ahí entra la estadística para determinar modelos del azar y del libre albedrío. De esos cálculos se podrá inferir una predicción. Los humanos somos mejores que las máquinas para decidir qué hacer cuando no hay muchos datos. Pero cuando hay montones, porque montones son las singularidades, la estadística es bastante más hábil porque sabe cosas que nosotros no.
La inferencia es el objeto de estudio tradicional de la lógica (así como la materia es el de la química y la vida el de la biología). La lógica investiga los fundamentos por los cuales algunas inferencias son aceptables, y otras no. Cuando una inferencia es aceptable, lo es por su estructura lógica y no por el contenido específico del argumento o el lenguaje utilizado. La inteligencia artificial se ha construido sobre esos suelos: solo se debe a su propia lógica. Este asunto problemático recibe el nombre de black box, o caja negra, que define la dificultad, cuando no imposibilidad, de interpretar el proceso de aprendizaje de los algoritmos desde el exterior. Steven Strogatz, uno de los padres de las ciencias de las redes, opina que lo mejor que se puede hacer es sentarse junto a la máquina y escuchar: «No entenderemos por qué el oráculo tiene siempre razón, pero podremos verificar sus cálculos y sus predicciones con experimentos y observaciones y confirmar sus revelaciones». Un programador mexicano me lo expresó de forma si cabe más gráfica: «Es lo que hay, o te aclimatas o te aclimueres. Nunca se sabe muy bien por qué los algoritmos hacen lo que hacen, lo importante es que lo hagan». Este es precisamente uno de los principales argumentos de los nuevos adivinos para equiparar la inteligencia humana y la artificial y justificar la naturalidad de la segunda: del mismo modo que no es necesario (ni acaso podemos) conocer la dinámica interna que mueve a nuestro cerebro a activar ciertos músculos y redes neuronales cuando, por ejemplo, saltamos un charco, tampoco «aporta» mucho saber la dinámica última de un dispositivo inteligente que llega a hacer las cosas que se le piden, siempre y cuando las haga. Llegamos, por consiguiente, a un nuevo límite en la ética industrial de la mecánica: es el producto o el servicio lo que cuenta, de poco sirve debatir sobre los procedimientos de la máquina si, al fin y al cabo, cumple con sus promesas.
El aprendizaje automático (machine learning) es el modo en que las máquinas aprenden a buscar ciertas cosas a partir de un conjunto de datos, que deben ser muy numerosos para que aprender sea más rápido y preciso. El aprendizaje automático y la predicción son posibles porque el mundo parece tener regularidades. La predicción es el proceso de rellenar la información que falta: toma la información disponible, llamada «datos», y la usa para generar información que no tiene a partir de las regularidades que la experiencia enseña. La capacidad de generalizar es la fuerza básica del aprendizaje automático: permite crear patrones y luego generalizarlos mediante una regla. Una regla es lo que se crea a partir del análisis de patrones y se usa para predecir el futuro. Por lo tanto, la IA no nos trae realmente la inteligencia, sino un componente crítico de la inteligencia: la predicción.
La inteligencia artificial se nutre de datos y son de tres tipos: los datos de entrada, que son los datos a pelo; los datos de entrenamiento, que se utilizan para enseñar al algoritmo el modo de buscar patrones entre los datos a pelo; y los datos de retroalimentación, que se utilizan para mejorar el rendimiento del algoritmo mediante la experiencia, por ejemplo, diciéndole dónde ha fallado o señalándole «singularidades», lo contrario a las regularidades. En algunas situaciones, existe una considerable superposición, de tal manera que los mismos datos desempeñan los tres papeles. Pero los datos no son relevantes solamente porque tratamos con asuntos informáticos, sino sobre todo porque representan el telón de fondo de un conflicto más profundo: el propio cambio de paradigma científico.
Físicos como Luca Gammationi y Angelo Vulpiani han advertido que en los últimos años ha surgido una influyente línea de pensamiento que sostiene que, debido a que muchos sistemas complejos se resisten a la habitual aproximación matemática, es necesario ir más allá del modo tradicional de estudiar la naturaleza. Gracias a la actual disponibilidad de enormes masas de datos, la ciencia estaría a punto de entrar en una nueva era en la que la causalidad ya no jugaría el papel fundamental que ha tenido en los últimos siglos: la simple correlación de datos ya sería suficiente para explicar el funcionamiento del mundo. Esta teoría conduciría a plantear una nueva revolución científica que vendría a revelar un cuarto paradigma adicional a los tres ya existentes: el experimental, el teórico y el computacional. Un gurú informático como Chris Anderson, editor jefe de la revista Wired, escribió en 2008 un artículo en el que hablaba del fin del método científico gracias a la llegada del Big Data, o de lo que él llamaba la «ciencia de Google»: «La gran cantidad de datos disponibles deja al método científico obsoleto […]. Ya podemos analizar los datos sin necesidad de hipótesis». Preguntémonos: ¿es posible una ciencia puramente inductiva, predictiva, basada solo en observaciones supuestamente objetivas y exenta de toda teoría que anteponga un «por qué»? ¿Podemos llegar a pensar y aceptar que el resultado de la simple sintaxis lógica de unos datos cruzados no necesita de un marco determinado de interpretación para ser aprobado o rechazado? Se trata de un tipo de pensamiento que pretende maridar subrepticiamente un positivismo radical con los orígenes puramente augurales de la iglesia. La palabra latina templum describía antes que nada el fragmento de cielo dentro del cual se observaba el vuelo de las aves a fin de interpretar la voluntad de los dioses. Se talaba una sección determinada de bosque, los adivinos se sentaban en el centro del claro y levantaban sus miradas hacia esa ventana superior con la idea de que ese marco cancelara toda lógica discursiva anterior o posterior a la imagen que se producía. Se suprimían así las teorías generales de la causalidad para otorgar al instante un poder epidémico en la explicación general de las cosas. Habremos de ver este problema desde diversas ópticas, pues la noción de contexto (su definición in absentia) es un asunto nuclear si queremos hacer una crítica eficiente de la razón predictiva. Tengamos presente que la experiencia del vaticinio se conduce siempre mediante la cancelación de todo contexto: solo cuenta lo que se produce en el espacio previamente acotado y aislado de toda influencia exterior.
La IA funciona con algoritmos. El origen del término se encuentra en el nombre del matemático persa al-Juarismi (s. ix). Se le considera tanto el fundador del álgebra como el introductor del actual sistema numérico, basado en unas reglas o principios generales. Así, los algoritmos son una serie de instrucciones precisas y expresiones matemáticas que se usan para encontrar asociaciones, identificar tendencias y extraer las leyes y dinámicas de los fenómenos. Los sistemas algorítmicos se encargan de la búsqueda de conocimiento (cosas que no sabemos todavía), anticipando nuestros intereses y necesidades de información, por lo que el horizonte de nuestra imaginación está cada vez más determinado por los sistemas computacionales, incapaces de producir serendipia, el hallazgo afortunado e inesperado que se produce de manera accidental cuando se está buscando una cosa distinta. El nuevo mundo se nos presenta como algorítmicamente predecible y algorítmicamente previsto. En pocas palabras, la posibilidad de los pensamientos en paralelo que ha marcado la historia de las civilizaciones está cada vez más determinada por la «computabilidad efectiva», que solo permite hacer aquello que pueda ser computable. Ya digo que la inteligencia artificial se nos presenta como deudora solo frente a su propia lógica. Por eso, la previsión tiene un importante componente psicológico. El deseo de explicar el mundo en términos de simples relaciones de causa y efecto es una característica fundamental de los seres humanos y afecta a cómo percibimos los fenómenos, que no siempre se comportan mecánicamente. Las predicciones a menudo nos dicen más sobre la psicología de grupo que sobre la realidad. Esta es una de las cosas que recorrerán como un río subterráneo estas páginas.
Otra cosa importante. Ya hemos señalado que la IA ha encontrado la manera de leer las imágenes y aprender de ellas para juzgarlo todo. Creo que este proceso interpela directamente a los historiadores del arte, porque somos también responsables de lo que pasa. La forma en que las máquinas aprenden hoy a ver e interpretar el mundo es muy similar a los modos de catalogación desarrollados por la historia del arte o la antropología judicial. Pero no solo eso: designa el mundo a través de unas imágenes propias, resultado de sus cálculos: imágenes operativas, las llamó el artista Harun Farocki. Así, el universo humano es diseccionado mediante una iconografía de nuevo cuño, mediante visiones que no nos conciernen. Son máquinas cuya consistencia se está construyendo gracias a su decir veraz, a su veridicción matemática, que deja aparentemente inútil la opinión. En la medida en que su lenguaje deviene cada vez más visual, debemos volver a plantearnos el viejo problema del potencial de la visión mecánica para configurar sistemas del ver veraz, de la verovisión. Las imágenes técnicas siempre han tendido a ser interpretadas como verdades que desencarnan a todo sujeto, como las radiografías, que pretenden separar el trigo de la paja y exponer la realidad pura, la que es invisible y que, una vez mostrada, admite pocas contradicciones. Pero hoy las imágenes inteligentes se proponen como e-videncias, como indicios fehacientes no solo de la realidad sino de lo que debe constituirse como verdad de la realidad bajo el prisma de un ojo que todo lo ve, que cree saberlo todo porque percibe el éxito que tiene entre los humanos. No puedo estar equivocada, debe decirse esa pupila metálica para sus adentros, en la intimidad de sus relés y ruedas dentadas, ufana de los aplausos que recibe. Debemos entender que son las máquinas videntes las que hoy se erigen como árbitros de las contradicciones, dejándonos solo el papel de implementar hábilmente las recomendaciones que nos sugieren, cuando no imponen. ¿Qué explica entonces esta nueva especie de imagen? El lenguaje que siempre hemos utilizado es abrumadoramente iconográfico, es un alfabeto singular y bien antiguo. Empezamos con tres o cuatro imágenes en las cuevas y hoy acabamos diariamente en la cama con unos cuantos miles de imágenes artificiales impresas en la retina. Pero ¿qué vemos del mundo entre el trasiego visual desencadenado por unas imágenes que ya no son nuestras? ¿Qué etiquetas les estamos poniendo a los seres y las cosas gracias a estas imágenes? ¿Cómo percibimos nuestra ubicación en el tiempo a través de estos nuevos ojos-máquina?
La IA registra el mundo en símbolos y después los manipula usando su propia lógica para explicar el mundo. En 1977, las sondas Voyager 1 y Voyager 2 llevaron consigo al espacio exterior discos con sonidos e imágenes grabadas a fin de explicar la civilización humana a algún extraterrestre. Parece lógico que sean imágenes las que describan la humanidad a alguien que no conoce nuestro lenguaje. Al fin y al cabo, cuando nos encontramos con una persona cuyo idioma no hablamos, bien nos expresamos con gestos, bien con mímica, lo que está en relación con una representación. Tradicionalmente hemos pensado las imágenes como un medio para expresarnos entre los humanos, para contarnos y revelar cosas. Por ejemplo, las fotos las hemos hecho con unas máquinas para ilustrar una idea o un concepto, para que la abuela las guarde en el álbum y construya un relato de la familia, para presumir ante alguien de haber estado en la Gran Muralla china, o para indicarle a un colega médico el aspecto de un tumor. Pero ¿qué pasa cuando las fotos están hechas para que las máquinas –o los extraterrestres– puedan hablar entre ellas, sin contar con nosotros, con el fin de que nos analicen y pronostiquen? ¿Qué sucede cuando la función y el valor de las imágenes son determinados por lenguajes inhumanos, sin contar con nosotros? ¿Dónde quedan los ojos que no son máquinas? Lo dicho: ¿qué competencias nos asignan aquellos nuevos saberes inteligentes? Imaginemos a las sondas de regreso con un montón gigantesco de imágenes procesadas por algún marciano a partir de las 116 fotos que la NASA envió hace más de cuarenta años con la sana intención de interpretar lo que es la humanidad. ¿Cómo sería leído ese conjunto de nuevas imágenes? ¿Qué valor tendría entre nosotros esa aparente visión imparcial de nuestro mundo? ¿Qué lugar ocuparía en nuestra escala de verdades? ¿Y qué lugar sería el nuestro?
De esto va este libro. Para comprender cómo hemos llegado hasta aquí propongo tomar ciertos vericuetos que iluminen los nudos históricos con los que, a saltitos, fue atándose la verdad predictiva, una única forma de describir el mundo que no deja opciones a muchas alternativas. Vamos a intentar trazar una genealogía de la función de las imágenes en las ciencias dedicadas al pronóstico y la predicción, y el efecto que su implementación tiene hoy en nuestras vidas. Aunque en la psique humana encontramos la raíz del amor por el pronóstico, fue en el cientifismo visual y en el afán productivista de la imagen en donde ese impulso derivó hacia una ideología de lo objetivo, obsesionada por saberlo todo y por cancelar toda forma de incertidumbre. En el fondo, ese proceso ha acabado siendo una carrera para suspender el futuro, para prescribirlo bajo el dictado de vaticinios y terapias. Aquí, nos gustaría re-abrirlo un poco, nos gustaría «des-inventarlo» de modo que el porvenir no sea una mera celebración de los aciertos predictivos conseguidos en el ayer o un luto cínico e hipócrita por los descartes decididos en su día. Se trataría de proponer un horizonte en el que, no solo poder, sino querer equivocarnos.
1. Fragmento de código del proyecto Estrafet. Elocuencia y polifonía para redes neuronales, realizado por el Colectivo Estampa en 2019. Lo que hace este fragmento de código es pedirle a la red neuronal (la IA) cuáles son las palabras que tienen más probabilidades de ser las siguientes en un texto y le insta a escoger una en función de la «temperatura». La temperatura es el grado de semejanza de los términos que los programadores le indican a la máquina en relación con los textos de entrenamiento (en una escala de 1 a 9). Agradezco a los miembros del colectivo (Roc Albalat, Pau Artigas, Marc Padró, Marcel Pié, Daniel Pitarch) la cesión del material y el permiso de reproducción. https://tallerestampa.com/estampa/estrafet/