Читать книгу Digitalización de la guerra, lo humano, el arte y los espacios urbanos y productivos - Raúl Hernández Mar - Страница 9
LA ENCRUCIJADA TECNOLÓGICA Y EL SURGIMIENTO DE LA INTELIGENCIA ARTIFICIAL: UNA APROXIMACIÓN DESDE EL ANARQUISMO
ОглавлениеJoaquín Rodríguez Álvarez*
INTRODUCCIÓN
CONTEXTO: ANTE EL ABISMO
En medio de la creciente mecanización y organización tecnológica, la propaganda es simplemente el medio utilizado para evitar que estas cosas se sientan demasiado opresivas y para persuadir al hombre a someterse con buena gracia. Ellul (1973)
Vivimos inmersos en un proceso de revolución tecnológica cuyas implicaciones son difíciles de comprender en su totalidad, pero cuya profundidad se asemeja más a la revolución neolítica que a la industrial por cuanto que puede implicar una transformación profunda —radical— de la condición humana (Arendt, 2014). Una transición de lo humano que se produce en medio de un proceso de degradación ecológica sin precedentes, donde la pregunta no reside ya en si llegaremos o no al punto de no retorno, sino más bien cuándo se producirá.
Y es precisamente este caos ecológico, que hoy se configura como uno de los mayores retos, no para los Estados o la economía sino para la totalidad de la vida sobre el planeta, el que contiene en su propio seno el potencial para el surgimiento de una nueva conciencia global que tenga el potencial de aglutinar a la especie bajo un objetivo común: “la preservación de la vida”, que indefectiblemente choca de manera frontal no sólo con nuestro sistema productivo, sino también con el marco mental e ideológico que lo auspicia. Ya que tal y como lo afirmaba Bookchin:
Hablar de “límites al crecimiento” en una economía de mercado capitalista tiene tanto sentido como hablar de los límites de la guerra en una sociedad guerrera. Las piedades morales, que hoy expresan muchos ambientalistas bien intencionados son tan ingenuas, como las piedades morales de las multinacionales son manipuladoras. Ya no se puede “persuadir” al capitalismo para que limite el crecimiento, como tampoco se puede “persuadir” a un ser humano para que deje de respirar. Los intentos de capitalismo “verde”, para hacerlo “ecológico”, están condenados por la naturaleza misma del sistema, como un sistema de crecimiento sin fin (Bookchin, 1991:23).
Nos situamos así ante una crisis sin precedentes producida por la propia superestructura (ideología del sistema) (Bates, 1975; Femia, 1987; Gramsci, 1995) cuya magnitud ya no nos interpela, sino que nos obliga a reconfigurar los pilares básicos del mismo, ya que esta vez el llamado es más profundo que el de socialismo o barbarie, puesto que se trataría de ecología social o extinción. Y aunque el objetivo del capítulo no sea explorar el contexto global que alberga la crisis, sí que es necesario tener en cuenta su existencia como eje vertebrador de la teoría expuesta.
Por lo tanto, el contexto de crisis “ecosocial” (Bookchin, 1991) es básico para la comprensión del presente trabajo, ya que sería precisamente esta sociedad en crisis la que ha generado las condiciones sociotecnológicas que albergan el nacimiento, penetración y consolidación de la “inteligencia artificial” (IA), uno de nuestros mayores avances tecnológicos, cuyo futuro y aplicabilidad están en juego y cuya importancia resulta clave a la hora de imaginar y diseñar los futuros que vendrán.
Una inteligencia que, cabe destacar, debe ser reconocida como simulación (Baudrillard, 1994; Rodríguez, 2016; Rodríguez-Álvarez, 2019), en ningún caso como inteligencia real o vida sintética, ya que desvirtúa el objeto de la discusión situándonos en escenarios de ciencia ficción que no encajan con el estado del arte y de la tecnología actual, y donde la prospección de una singularidad (Bostrom, 2005; Chalmers, 2010; Barrat, 2013), al margen de ser un ejercicio teórico interesante, no se ajusta a nuestra realidad material, sino a promover agendas que potencien la “humanización” de la tecnología.
Pero es precisamente esta simulación de inteligencia, que es capaz de llevar a cabo de forma autónoma tareas que requieren de complejidad, la que está llamada a jugar un papel determinante en el desarrollo de nuestro futuro y el tipo de sociedad en la que viviremos (Rodríguez, 2016; Rodríguez-Álvarez, 2019) una vez se transite la superación de los marcos mentales (paradigmas) impuestos por la cultura capitalista, que hoy empieza a tomar la forma de incipiente sociedad algorítmica.1
La clave para la comprensión del impacto de la IA reside en la observación de delegaciones de procesos clave sobre entidades no humanas, lo que puede interpretarse también como una transferencia de responsabilidades o dejación de funciones. Es decir, por primera vez en la historia de nuestra especie compartimos nuestra existencia con entes capaces de tomar decisiones críticas sobre aspectos clave de la vida de un ser humano, así como sobre la vida misma a través de un proceso de delegación directa, donde el caso de las armas letales autónomas (Martínez-Quirante y Rodríguez-Álvarez, 2018) es quizá su materialización más aterradora, ya que implica la posibilidad de eliminar vidas humanas sin ningún tipo de control humano significativo. Es decir, estaríamos hablando de una delegación de capacidades letales sobre entes no humanos. Si bien los ejemplos de la influencia que ejerce la IA sobre el sistema actual son múltiples y también aterradores (O’Neil, 2017) desde el credit-scoring (Reserve Board, 2003) o el social-scoring (Allen, 2019) hasta procesos como el acceso a universidades, becas, reconocimiento facial (Sharkey, 2018a) y un largo etcétera que ocupa prácticamente la totalidad de capas o dimensiones del sistema que tradicionalmente ha ocupado lo humano.
Así, el surgimiento de la IA sería sólo comparable a otros hitos de la ciencia contemporánea, como puede ser la decodificación del genoma humano, en cuanto que supondría no ya el surgimiento sino el reconocimiento de una nueva geografía o dimensión de la experiencia humana, genética o digital, que indefectiblemente en el momento actual tiene afectaciones directas sobre la configuración de la realidad material (Bates, 1975), afectando así, de una forma determinante, nuestra propia condición en tanto que trasforma nuestras bases materiales de relación con el entorno.
Así, podríamos entender que la IA se erige como una pieza clave anticipando la configuración de lo poshumano en tanto que superación de los marcos mentales del humanismo tradicional antropocéntrico, referido a las ramificaciones de su representación vitrubiana y que ha sido tradicionalmente comprendido como postulado universal, pese a que esta imagen arquetípica coincide implícitamente sólo con el varón, blanco, urbanizado, hablante de un idioma estándar, heterosexual, inscrito en la unidad reproductiva base, ciudadano de pleno derecho de una comunidad política reconocida (Deleuze y Guattari, 2006). Es decir, es quizá la imagen menos representativa de la realidad contemporánea, y un claro ejemplo de cristalización del sistema de privilegios imperante (Irigaray, 2010; Braidoti, 2015), que auspicia una nueva comprensión holística del entorno a través de una tecnología con un potencial unificador sobre las diferentes dimensiones de lo humano.
El problema residiría, por tanto, no sólo en las potencialidades asociadas a la tecnología sino en el contexto en el que se inserta y se desarrolla, ya que la tecnología debe comprenderse como un amplificador de la voluntad humana que tiene la potencialidad de dar forma a la realidad (Ellul, Wilkinson y Merton, 1964; Marx, 1994, 2000; Wiener y Mohr, 1994), y por tanto no exenta de intencionalidad o ética, hecho que colisiona frontalmente con las metanarrativas estructuradas en torno a la misma y sobre las que se excusa su penetración social masiva, donde cualquier excusa es buena, incluso una pandemia, a fin de garantizar su cristalización social.2
Con esto no pretendemos, ni mucho menos, argumentar que la tecnología es “mala” o nociva per se, tal y como infieren determinadas aproximaciones de tipo anarco-primitivista (Kaczynski, 1995), sino hacer un llamado al empoderamiento social y comunitario sobre la misma, porque en su seno puede albergar las claves para un futuro ecológicamente sostenible, socialmente justo y políticamente libre.
Los nuevos marcos tecnológicos ofrecen posibilidades de dar vida a modelos institucionales descentralizados/stateless institutions (blockchain), relocalizando el ejercicio de la política en el municipio (Smart Community) a partir de redes extendidas de solidaridad y colaboración (cocreación/coproducción), al mismo tiempo que ofrece el potencial de acabar con las dinámicas del trabajo asalariado (autonomía), auspiciando de esta manera una ecología social (Bookchin, 1991) sustentada por unos avances tecnológicos orientados al bien de la comunidad, en una nueva geografía que diluye los marcos mentales binarios que tradicionalmente han contrapuesto lo rural/urbano, digital/material, natural/artificial, sin que ello comporte el establecimiento de ningún tipo de monismo, sino es para afirmar que sólo en el mantenimiento, protección y potenciación de la diversidad nuestras sociedades pueden progresar.
Si bien el advenimiento de estos potenciales futuros se ve ensombrecido o interferido por la tendencia actual de la tecnología, así como del contexto que la alberga, potenciada por la escasa atención o por las aproximaciones acríticas que determinados colectivos (llamados al cambio social) están prestando a su desarrollo y tendencia, siendo prioritario reestructurar las agendas de investigación para dar prioridad a aquellas aplicaciones orientadas a revertir los patrones de desarrollo de la presente crisis ecológica desde un prisma de la reconfiguración social, al no poder desligar la superestructura del sistema de la determinación u orientación tecnológica del mismo.
De no hacerlo, profundizaremos de una forma dramática en la tendencia actual, que parece avanzar irremediablemente hacia un horizonte donde se manifiestan los peores presagios de Baudrillard (Baudrillard, 1987, 1994). Un paisaje simbólico/ideológico en el que Huxley se encuentra con Orwell, donde el soma se materializa a través de la cultura del entretenimiento (Postman, 2006) potenciada por el rol de las redes sociales digitales (digital social-networks) y donde el control social orwelliano lo llevamos en nuestros propios bolsillos.
Se trata de un contexto en el que la humanidad está protagonizando un proceso de regresión civil y social a través, en primer lugar, de una cesión masiva de datos que fluyen no simplemente hacia el Estado, sino a grandes corporativos privados cuyas agendas, por motivos obvios, no están alineadas con las sociales. Y en segundo lugar, a través de la aceptación de una serie de metanarrativas cuyo único objetivo, podríamos decir, es de tipo propagandístico, ya que intentan edulcorar la actual tendencia opresiva de los marcos tecnológicos a fin de conseguir manufacturar su aceptación social y política.
Es por tanto de vital importancia reconocer la capacidad alienadora de la tecnología, tal y como se ha venido demostrando a través de un gran número de obras y aproximaciones, entre las que podríamos destacar los trabajos de Jacques Ellul, Jean Baudrillard, Neil Postman o Leo Marx, entre otros (Ellul, Wilkinson y Merton, 1964; Marx, 1964; Bimber, 1994; Wiener y Mohr, 1994; Baudrillard, 1995), de la misma forma que debe ser subrayado su potencial para el control y la manipulación social (Veblen, 2009, 2013; Herman y Chomsky, 2010).
Son fuerzas potenciales que nos sitúan no sólo ante un abismo que amenaza nuestras libertadas, sino que pueden propiciar nuestra propia extinción a través de la sustracción directa de nuestra realidad material; una sustracción que se materializa en numerosas ocasiones a través de movimientos negacionistas de la crisis climática o en aquellos sujetos que, si bien no la niegan, minimizan su impacto optando por estrategias de reorganización del sistema productivo. Pero, de hecho, el riesgo no reside aquí, sino en la propia invisibilización de la crisis climática en el imaginario colectivo promovido por un sistema de entrenamiento e información que deforma la prioridad de las agendas. Lo que nos situaría en un contexto en el cual, el hecho de ignorar o rebajar el impacto de la crisis no sólo es síntoma de alienación, sino que en algunas ocasiones puede ser interpretado como una manifestación de los impulsos de muerte (Freud, 1920).
Es decir, la tecnología hoy en día, pese a poseer en su seno potenciales futuros de liberación, se encuentra orientada hacia el establecimiento de futuros de subyugación y alienación dominada por las pulsiones de muerte inherentes a nuestros sistemas productivo-ideológicos. Una tecnología que no sólo erosiona la democracia liberal, tal y como nos muestra el caso de Cambridge Analytica (Berghel, 2018) sino la propia condición humana al desarrollar patrones de inferencia con la llamada “realidad material” —en plena disolución con la digital en la actualidad— mediante los cuales un software puede tener incidencia real y plena sobre nuestra esfera. Una soledad compartida con simulaciones.
Un abismo distópico donde a la subyugación ya ejercida por las clases dominantes, debemos añadir el potencial opresor y de control de los marcos tecnológicos actuales y en sus presentes líneas de desarrollo, todo ellos en un nuevo espacio simbólico que se configura como una nueva frontera, llena de potencialidades, pero con un domino de los impulsos de muerte.
NUEVAS FRONTERAS
[…] la organización jerárquica no culminó con la estructuración de la sociedad “civil” en un sistema institucionalizado de obediencia y mandato. A su tiempo, la jerarquía empezó a invadir áreas menos tangibles. A la actividad mental, se le concedió supremacía sobre el trabajo físico; a la experiencia intelectual sobre la sensualidad; al “principio de realidad” sobre el “principio de placer”; y finalmente, la razón, la moralidad, y el espíritu fueron penetrados por un inefable autoritarismo, que habría de vengarse tomando el control del lenguaje y de las más rudimentarias formas de simbolización. Bookchin (1991)
La historia de la humanidad ha venido determinada en gran parte por la conquista de fronteras tecnoespaciales, es decir, revoluciones tecnológicas que nos han permitido alcanzar otras dimensiones de nuestra experiencia sobre el contexto, así la agricultura comportó una ocupación espacial fija del entorno y su recreación simbólica a través de mitos y espiritualidades más o menos complejas que se estructuraron como sistemas interpretativos del entorno (una interpretación intersubjetivada por la representación), de la misma manera que la decodificación del genoma nos permitió expandirnos y expandir nuestra propia naturaleza, generando a su vez nuevos espacios simbólicos y culturales donde algunas teorías, como el transhumanismo, encuentran campo de expresión y crecimiento (Bostrom, 2005; Gelles, 2009). Un proceso de reconfiguración de los espacios físicos y simbólicos, que va asociado a otras muchas tecnologías, tal y como podría ser la máquina de vapor, que nos abrió la posibilidad de fuerzas motrices que transformaron nuestra noción de distancia, nuestros paisajes, proveyéndonos además de una nueva estructura sociojerárquica. Tal y como Marx afirmaba: “el molino manual nos da la sociedad del señor feudal; la máquina de vapor, nos da la del capitalista industrial” (Marx, 2013)
Espacios “conquistados” que hemos ido poblando de símbolos, esperanzas y miedos a través de metanarrativas que nos han permitido alcanzar una relativa comprensión sobre el entorno, siempre condicionada por el alcance de nuestros propios instrumentos y la estructura de pensamiento.
Observamos así una relación o vínculo directo claro entre tecnología y cambio social (White, 1973), en lo que podría entenderse como una aproximación monista o determinista de la historia. Podríamos decir que la tecnología ha sido clave para la conquista de nuevos espacios físicos, simbólicos, intelectuales y eróticos, observando la existencia de tecnologías que han expandido nuestros horizontes, y horizontes que han expandido nuestra visión y comprensión del mundo.
El proceso de conquista y expolio de América por parte de Europa, por ejemplo, fue sustentando por unas determinadas tecnologías y técnicas que posibilitaron la navegación transoceánica, así como de un entramado ideológico-simbólico que ofreció cobertura intelectual al mismo (evangelización). Una combinación tecnoideológica al servicio de una causa (el etnoestado católico) que a su vez supuso cambios socioorganizativos en el Viejo Continente, además de en el Nuevo, generando una nueva cosmovisión del entorno que acabaría desembocando en el imperialismo como manifestación más agresiva y también lesiva con el medio, y que perdura hasta la actualidad. Una dinámica de interdependencia compleja que a su vez acabaría transformando el propio etnoestado católico (Mbembe, 2011; Spade y Willse, 2014). Tal y como lo afirmaba Culkin, “nosotros damos forma a nuestras herramientas, y luego éstas nos dan forma a nosotros” (Culkin, 1967). Surgie así un nuevo orden de tipo jerárquico: el país monocultivo subyugado a los intereses metropolitanos, un balance entre unidad productiva oprimida y centro de explotación institucionalizado que reconfigura ambas sociedades. De la misma forma en que el descubrimiento y conquista del átomo determinó toda una generación basada en el miedo a la destrucción mutua asegurada, dando forma a una nueva percepción de la escala de “lo humano”.
Con esto se pretende reforzar la idea de que, tan importantes como la tecnología en sí misma, son los marcos ideológicos de la sociedad que la alberga, ya que conjuntamente determinarán el porvenir de las mismas, en un proceso de coproducción (McLuhan, 1994; Jasanoff, 2007; Needham, 2008; Nevens y Frantzeskaki, 2013; Jasanoff, 2016) en el que nosotros damos forma a la tecnología y ésta nos da forma a nosotros, y juntos traspasamos nuevas fronteras siendo otros diferentes a los que comenzaron el viaje, como en el río de Heráclito. En otras palabras, nada tiene de “malo” el descubrimiento del átomo o de técnicas de navegación avanzadas, el problema reside en el núcleo socioideológico de la sociedad que las alberga, y su capacidad para alinearlas y realinearse en torno a unos objetivos enraizados en la superestructura del sistema.
Un proceso tecnosocial que muchas metanarrativas dibujan sobre parámetros de descubrimiento y conquista (con la implícita y subsecuente relación patrimonialista) sembrando así futuros de subyugación tanto para nosotros como para el resto de las especies, ya que el espacio conquistado nunca puede ser comprendido como libre (conquista de América, conquista del Oeste, conquista espacial…).
Y ha sido esa comprensión patrimonialista del entorno, y de lo común, la que nos ha llevado al abismo actual. Incapaces de reconocer hechos tan simples como los relativos a la producción de lo común, técnicas y tecnologías que no existirían sin una aportación colectiva (Kropotkin, 1977), de datos en el caso de la IA, y que por tanto requieren de modelos comunales de gestión bajo fórmulas de reconocimiento de privacidad/intimidad, que no propiedad, sobre la propia naturaleza de los datos. Es decir, los datos no son de nadie, pero tampoco lo son de todos, modelo en el que la intimidad debería erigirse como vector de gestión.
Este proceso de coproducción sociotecnológico que hoy parece guiado por una “mano invisible”), que parece seguir influyendo en los últimos grandes avances tecnológicos, los cuales se encuentran en riesgo de monopolización por parte de los grandes gigantes tecnológicos, compañías que en la actualidad trabajan incasablemente por establecer nociones de propiedad sobre los datos (generados por todos), que nutren los algoritmos.
A este respecto cabe destacar la explotación a la que algunos gigantes tecnológicos someten a la población, que se ve obligada a trabajar de forma gratuita, para solventar el propio proceso de aprendizaje de la IA, como es el caso del uso de los captcha3 por algunos gigantes informáticos como Google, en los casos en que utilizan imágenes borrosas (de letras y números) que las máquinas tienen dificultad para interpretar y son sometidas a humanos como peaje previo de acceso a un determinado contenido digital, y que sirve a los intereses de la compañía a fin de mejorar sus algoritmos de reconocimiento de imagen.
Una coproducción de conocimiento que resta patrimonializado en manos de aquellos que tienen el control de medios de producción, hasta aquí nada nuevo (Simkhovitch y Kropotkin, 1903; Kropotkin, 1977; Derrida, 1995; Marx, 2008a). Así, el espacio de la IA se erige para muchos como una nueva frontera por conquistar, y por tanto transformada en producto, huyendo de otros marcos menos convencionales que podrían auspiciar un reconocimiento de la “intimidad” de los datos, y una dirección y adaptación comunal de la tecnología (Jasanoff, 2007).
El factor clave que diferenciaría el potencial impacto de la IA sobre la configuración de “lo humano” hacia su transición poshumana, devendría del hecho de que en la actualidad nos situamos frente a una tecnología con capacidad de influencia directa sobre todas las dimensiones de la construcción de una nueva geografía o espacialidad que tiene la capacidad intrínseca y el direccionamiento ideológico necesario para reproducir los sistemas de opresión y marginalización existentes en nuestra sociedad, además de cristalizarlos con base en una codificación algorítmica, donde la reproducción del racismo (Boyd, Levy y Marwick, 2014) o la cristalización de los círculos de pobreza (Reserve Board, 2003) son algunos de los signos que ya permite observar el sistema tal y como refleja la obra de Noble, Algorithms of Oppression: How Search Engines Reinforce Racism (Noble, 2016) y que pronostican la cristalización de las actuales dinámicas de subyugación.
Finalmente, y con el objetivo de acabar de perfilar la nueva frontera ante la que nos sitúa la IA, cabe destacar, tal y como lo hemos mencionado previamente, que cubre o tiene el potencial de inferir de modo directo sobre todas y cada una de las dimensiones que tradicionalmente ha ocupado lo humano y que podríamos identificar con lo físico; referido a la totalidad de nuestra realidad material; lo ideológico referido al sistema interpretativo que configura nuestra comprensión del entorno; lo simbólico referido a nuestros sistemas representativos; lo erótico referido a las pulsiones de vida en el sentido freudiano del término, subrayando la inferencia de la IA sobre las pulsiones sexuales (Freud, 2016) y lo digital entendido como una nueva dimensión de desarrollo de lo humano, donde se conjugan elementos simbólicos, aspiracionales, funcionales, productivos, así como recreativos y relacionales, una dimensión sustentada sobre la simulación (Baudrillard, 1983) pero que permite y alienta representaciones “deformadas” o “reformadas” del sujeto con base en multiplicidad de parámetros, muchos de los cuales se relacionan con valores puramente aspiracionales (cómo quiero ser visto, cómo quiero que me perciban).
Podríamos afirmar, como exploración de la presente línea argumentativa, que como humanos tenemos una dimensión física o material en cuanto que podemos no sólo relacionarnos sino ejercer transformaciones reales sobre nuestro entorno físico (la presente crisis climática es una muestra de dicha capacidad). Tenemos una dimensión ideológica en tanto que observamos nuestra realidad filtrada, a través de una serie de parámetros mentales que nos ofrecen una aproximación holística a la complejidad que nos envuelve (Žižek, 1997) y nos permiten ejecutar acciones/decisiones. Tenemos una dimensión simbólica/espiritual por cuanto que somos capaces de elaborar representaciones/simulacros cuyo valor social supera su valor de uso (Derrida, 2012), así como una dimensión erótica estructurada en torno a un principio del placer, cuyo límite se encuentra en la propia naturaleza de la jerarquización social, representada psicológicamente por el principio de realidad (cuya naturaleza sería fruto de un proceso de construcción y subyugación social); finalmente, una compleja dimensión digital que permite ciertos niveles de disociación respecto a nuestra representación física, generando una nueva geografía cuya complejidad el presente artículo no pretende abarcar.
La clave residiría por tanto en que la IA, como sistema tecnológico, tiene el potencial implícito de realizar avances sobre todas las dimensiones anteriormente descritas, teniendo la capacidad de inferir de forma directa una vez ejecutada la delegación de capacidades, y la sustracción de un control humano significativo (Roff, 2016; Rodríguez-Álvarez, 2019). Es decir, no estamos ante el alumbramiento de un ser sintético sino ante el surgimiento de una simulación de nuestra representación simbólica que tiene un efecto directo sobre la forma en que comprendemos y nos relacionamos con nuestro entorno.
Hay efectos que pueden ser comprendidos a partir de algunas de sus materializaciones:
• Lo físico: podríamos enumerar las potenciales afectaciones generadas por las armas letales autónomas (Martínez-Quirante y Rodríguez-Álvarez, 2018; Rodríguez-Álvarez y Martínez-Quirante, 2019), o los sistemas de producción autónomos (agricultura, industria…) (Hassan, Ullah e Iqbal, 2016), o por el rol que pueden tener sobre nuestra realidad material los drones civiles autónomos, los robots de acompañamiento autónomos… O incluso la capacidad de impacto sobre nuestro sistema económico erigiendo los datos, nueva sangre del sistema, como nuevo producto estrella.
• Lo ideológico: auspiciando la generación de nuevos marcos metales, como el poshumanismo (Braidoti, 2015), el Objetivismo (Rand, 2020), el transhumanismo, o a través de la potenciación de eventos concretos, como la Primavera Árabe (Huang, 2011) —procesos que conjugan afectaciones en diversas dimensiones.
• Lo simbólico: la IA comprendida como última frontera (Barrat, 2013), así como el reconocimiento de su capacidad para generar símbolos y metáforas funcionales, Skynet, Singularity.
• Lo erótico: la inteligencia artificial como proveedora de placer sexual a través de robots destinados a este uso (Sharkey y Wynsberghe, 2017), o relativo a su capacidad para generar espacios de placer y deseo, así como su capacidad intrínseca para representar/simular la vida.
• Lo digital: que podría ser comprendido como el ecosistema originario y propio de la misma, donde encontraríamos la recreación/simulación/representación de espacios de sociabilidad, interacción, aprendizaje, consumo, productividad y placer, que van desde portales de búsqueda de pareja a través de IA, portales de noticias basados en algoritmos de personalización (Facebook, Google), centros de compras con sugerencias realizadas por IA (Amazon), portales educativos personalizados, pornografía personalizada, etc., induciendo a cambios en el comportamiento (Moore y McElroy, 2012) y por tanto afectando de forma indirecta al resto de dimensiones del sujeto.
Es decir, estamos ante una tecnología que tiene un potencial claro de afectación sobre la configuración de la condición humana (Arendt, 2014). Una nueva frontera que tiene la capacidad de reconfigurarnos, siendo por tanto imprescindible deconstruir aquellas mitologías/narrativas que se orientan a una reproducción de los sistemas de opresión, ahora trasladados a una comprensión algorítmica, teniendo como principal objetivo la revaloración de la vida como objeto auténtico de la praxis, siendo la tecnología un medio para inducir el cambio.
DECONSTRUCCIÓN DE LOS METARRELATOS ALREDEDOR DE LA INTELIGENCIA ARTIFICIAL
A lo largo de la historia no han sido pocos los sistemas tecnológicos que han alumbrado metarrelatos complejos que convergen con formas simbólicas, generando disociaciones entre realidad y ficción (Rodríguez, 2016). Así ocurrió con el surgimiento del calendario, asociado a la revolución neolítica, en tanto que tecnología que permitía la reproducción de los ciclos agrícolas y que acabó albergando un tipo de pensamiento mágico relacionado con la trazabilidad del tiempo y su relación con los ciclos astrales (Calleman, 2004), desembocando en fenómenos de opresión/control a través de la previsión de fenómenos astrales complejos (predicción de eclipses por ejemplo) entre otros (Ellul, Wilkinson y Merton, 1964).
No es necesario retroceder al pasado remoto para observar la reproductibilidad del fenómeno en sociedades reconocidas como científicas tal y como lo acreditaría, por ejemplo, el caso del descubrimiento de la radiación y sus subsecuentes ámbitos de aplicación, cuyo desarrollo se vio envuelto en numerosas controversias, algunas de tipo científico, pero no su totalidad.
Así, encontramos mitos surgidos alrededor de sus propiedades curativas y la seguridad de su uso en las décadas de los años veinte y treinta del siglo pasado. Es necesario comprender hasta qué punto se desarrolló esta mitificación de la seguridad respecto a la radiactividad que condujo a la elaboración de productos de consumo generalista de todo tipo, incluyendo dentífricos, chocolates, cremas cutáneas y un largo etcétera4 con el único objetivo de alentar su penetración social. Pero éstos no son ni mucho menos los únicos, es necesario destacar aquellos de tipo estructural que han tenido efectos profundos sobre el orden global y lo humano, mitos que condicionaron la política humana durante décadas, como el de la destrucción mutua asegurada (Wilson, 2008), o aquellos que se alumbraron bajo la forma de promesas de futuros de fuentes de energía limpias, baratas y seguras y que tomarían la forma en programas como Átomos para la Paz (Atoms for Peace).
Así, encontramos la estructuración de una serie de metarrelatos alrededor de la tecnología que tuvieron la habilidad de monopolizar su desarrollo bajo el prisma de la hegemonía cultural (Bates, 1975; Femia, 1987) que, cabe destacar, no condujeron a futuros de liberación o a una producción global de “bien”, sino a la perpetuación de dinámicas de opresión y subyugación cuya materialización se manifiesta en todos y cada uno de los conflictos proxy que se desarrollaron durante el periodo de la Guerra Fría.
Podemos encontrar otros ejemplos donde se repite esta dinámica, como podría ser en el ámbito de la biogenética, donde bajo las promesas de cultivos resistentes y el final del hambre en el mundo se encubrió una patrimonialización de la tecnología, cuyos intereses una vez más no pivotan alrededor del bien común, sino alrededor de los del sistema de producción capitalista, donde el gen terminator (Ohlgart, 2002) se erige como ejemplo paradigmático, reproduciendo con su mera existencia las dinámicas de opresión y posesión instaladas en el medio rural y agrícola, con graves amenazas para la soberanía alimentaria (tal y como ocurrió en Haití con Monsanto). Es otra tecnología con potencial liberador orientada a la cristalización del orden social y la consagración de un sistema productivo, que continúa incentivando el monocultivo, a pesar de la plena conciencia sobre sus efectos erosivos en el ecosistema.
Hoy en día parece que el ciclo vuelve a repetirse en relación con la IA. En los foros internacionales de primer nivel se vuelven a extender promesas sobre escenarios utópicos a los cuales se llega a través de un único camino: cesión de datos, cesión de privacidad y en última instancia, cesión de humanidad (Griffin, 2018; Sharkey, 2018b). Y es que el mundo de la IA está lleno de sombras que hay que desvelar, sobre todo teniendo en cuenta que muchos de los datos cedidos por los usuarios corren el riesgo de ser utilizados en su contra, ya sea por corporaciones privadas o por programas militares, como está ocurriendo con los programas de reconocimiento facial (Statt, 2018).
Los metarrelatos van orientados, como en ocasiones anteriores, al secuestro de la tecnología por parte de una elite dominante propietaria de los medios de producción, entre los cuales nos incluimos, ya que, en un sistema basado en la generación de datos, el medio de producción somos nosotros. Hecho relevante, con afectaciones profundas que derivan en una patrimonialización de la vida y una victoria de los impulsos de muerte (Mbembe, 2008); el sistema que se destruye a través del colapso ecológico (Diamond, 1994).
Por lo anterior, en el mundo digital, si alguna cosa es gratis es simplemente porque el que está en venta eres tú (Martínez-Quirante y Rodríguez-Álvarez, 2020). Este se hace más visible si tenemos en cuenta que el comercio del petróleo ha quedado superado por el de los datos, ya que éstos son la materia prima más valorada del planeta (The Economist, 2017). Lo anterior se sustenta en que un algoritmo sin datos no es nada y, por tanto, no hay IA, motivo por el cual es imperativo que sea comprendida como un bien social comunal.
Si no lo hacemos, iremos como leemings al abismo de una sociedad algorítmica donde nuestro propio comportamiento y lenguaje se irán transformando, atendiendo a las necesidades impuestas por los algoritmos y no al contrario. El caso de Cambridge Analytica (en el que mercadearon con los datos privados de más de 50 millones de personas) es un ejemplo paradigmático de nuestras vulnerabilidades sociales e individuales (Berghel, 2018; Cadwalladr y Graham-Harrison, 2018). Pero también lo son los experimentos sociales de Facebook (Hill, 2014) o sus excusas y estrategias para conseguir más datos y así perfeccionar el sistema, como su “10 year challenge”, mediante el cual se invitaba a los usuarios a compartir sus fotografías actuales y de diez años antes a fin de refinar el software de reconocimiento de imagen y envejecimiento de la compañía. Son ejemplos puntuales que evocan un pasado reciente donde la mistificación tecnológica llevó a acciones que hoy nos parecen completamente ridículas (como la pasta de dientes radiactiva), pero en las que estamos incurriendo de forma sistemática en lo relativo a la penetración de la inteligencia artificial.
Esta tendencia muestra lo relativamente sencillo que resulta aprovecharse de una sociedad donde el pensamiento crítico ha sido relegado a su más mínima expresión por sistemas educativos y mediáticos que lo han devaluado (Postman, 2006), y donde la proliferación de discursos paternalistas que invocan la protección del Estado resultan lesivos para el mantenimiento y avance de las libertades civiles.
Ahora bien, el problema es mucho más profundo porque, tal y como lo mencionábamos con anterioridad, nos enfrentamos a una tecnología con potencialidades de acción completa sobre las diferentes dimensiones de lo humano, por los que los cambios producidos sobre nuestra condición pueden determinar el devenir de lo poshumano, situándonos en una encrucijada entre utopía y distopía. Por ello resulta de especial relevancia describir los metarrelatos que justifican la necesidad teórica, así como el beneficio social, de usar tecologías que son potencialmente invasivas de nuestra privacidad y proclives a desarrollar patrones de manipulación social. Dichos metarrelatos se basan en tres mitos fundamentales.
El primer mito es que las máquinas pueden adoptar comportamientos ético-morales si son codificados correctamente (Tasioulas, 2018). Pero parece evidente que una máquina no puede tener ni ética, ni moral, ni intuición propia (Asaro, 2012). En todo caso, podrá reproducir la ética de quien lo ha codificado, por lo que será necesario preguntarnos qué ética: ¿una ética del deber?; ¿una ética utilitarista?; ¿cómo estableceremos un acuerdo acerca de ello? Es más, en el hipotético caso de que este acuerdo se alcanzara y la pudieran codificar, deberíamos preguntarnos si una vez codificada la IA, el sistema evolucionará por sí solo o nos condenará a una sociedad de tipo inmovilista donde el bien y el mal queden cristalizados en la base de una construcción subjetivizada en los algoritmos. Y si evoluciona… ¿cuál será su hito?
En definitiva, la IA en ningún caso puede considerarse como un agente moral, por el simple hecho de que se trata de una simulación y no un ser autoconsciente y, por lo tanto, no es capaz de comprender, bajo ningún tipo de parámetro, una cosa tan sencilla y central como es el valor de una vida humana (Yampolskiy, 2013).
El segundo mito se basa en que la IA puede tomar decisiones de forma más efectiva, más ecuánime y más justa que un humano. Nada más lejos de la realidad. En primer lugar, porque la IA reproduce por emulación el sistema ético-ideológico de sus creadores, es decir, reproduce nuestra falta de imparcialidad. Como lo muestra Cathy O’Neil en su obra Armas de destrucción matemática (O’Neil, 2017), creer en la infalibilidad de los algoritmos puede llevar a resultados dramáticos, erigiendo dogmas pseudosimbólico-espirituales que disocien la experiencia real y la digital comportando fenómenos de discriminación/marginalización o simplemente de tipo represivo, como los ocurridos con las evaluaciones de profesores en el estado de Washington, o como lo mostró la American Civil Liberties Union con respecto a los sistemas de reconocimiento facial, que tienen una alta tendencia a identificar sujetos no caucásicos como criminales (Snow, 2018).
Estamos ante una tecnología diseñada por hombres blancos, con el sistema mental propio de los mismos, donde sus filias y fobias tienden a ser trasladadas a sus creaciones. Es más, al tratarse de un sistema heurístico resulta altamente complejo saber el proceso mediante el cual la IA ha tomado una determinada decisión. Por lo tanto, si resulta imposible deconstruir o explicar el proceso que ha llevado a una determinada decisión en la IA, siendo por tanto una irresponsabilidad dejarlas que operen libremente, sin filtros claros de control humanos significativo.
Y, finalmente, llegamos al tercer mito que afirma que la IA es más fiable que la inteligencia humana, cosa que en análisis muy específicos podría ser aceptado, pero nunca en términos generales. Hay que destacar aquí el trabajo hecho por la ONG británica Big Brother Watch (BBW, 2019) que, apelando al acto de libertad de información, consiguieron que el gobierno revelara la fiabilidad de los sistemas de reconocimiento facial que se utilizaron durante el Carnaval de Candem. El resultado fue que sólo 5% de las identificaciones de criminales hechas a través del sistema d’IA eran correctas, dando un error medio de 95% tal y como subraya Noel Sharkey en su artículo “Saying No! to lethal autonomous targeting” (Sharkey, 2010).
Esta mitología tiene todavía resultados mucho más preocupantes si tenemos en cuenta los estudios que nos hablan de un proceso mental descrito como “Automation Bias” (Cummings, 2004) —sesgo de automatización— donde se explica que los humanos tenemos tendencia a dar por válidos los juicios y análisis hechos por la IA, dado que pensamos (ya que hemos sido condicionados) que es más efectiva y fiable que nosotros mismos.
Pero lo más sorprendente es que a pesar de saber que la IA no puede ser considerada como un agente moral, y a pesar de saber sus limitaciones a la hora de interpretar la realidad a causa de los sesgos propios de sus creadores y de la propia sociedad (especialmente en sistemas que se nutren de lenguaje natural) además del componente heurístico que dificulta el análisis final sobre su análisis. Su penetración sigue aumentando y cada vez más procesos son guiados a través de estos sistemas.
El triunfo de estas metanarrativas, tal y como pasó con los sets tecnológicos anteriormente descritos, sólo pueden conllevar una incorporación acrítica de los mismos, cuyos costos se prevén altos e impredecibles y cuyas consecuencias resultan difíciles de atisbar. De sobra es conocido el programa COMPASS5 y los impactos que tiene sobre el sistema de justicia (Dike, 2017) cristalizando las diferencias raciales y potenciando los sesgos humanos sobre el proceso. Sistemas que se encuentran en fase de proliferación con multiplicidad de usos (muchos de ellos orientados a los sistemas de seguridad pública y justicia). Pero lo cierto es que aún estamos a tiempo de evitar el Chernóbil o el gen terminator de la inteligencia artificial a través de la estructuración de una narrativa crítica y realista, relativa a la capacidad y estado de la cuestión, y subrayando la crisis ecológica y social como eje vertebrador, además de incidir en la necesidad de incluir procesos de control humano significativo.
A este respecto cabe destacar que no es suficiente con ubicar la crisis ecológica como base epistemológica a la cuestión de la gobernanza de la IA, ya que por sí sola no es garante de acometer cambios que rompan con las actuales dinámicas de opresión que los sistemas tecnológicos previamente descritos han reproducido y cristalizado. Afirmación que se sustenta por la apropiación realizada tanto a día de hoy como históricamente a la cuestión ecológica realizada desde los movimientos de extrema derecha y fascistas (Biehl y Standenmaier, 2019) donde la naturaleza puede erigirse como una excusa para la perpetuación de la opresión, e incluso como justificante para el genocidio, por lo que es inevitable vincular la crisis ecológica con el sistema productivo y mental que la ha amparado.
Es por ello vital avanzar hacia una comprensión desde la izquierda, del proceso de gobernanza tecnológico, resaltando el rol de las instituciones descentralizadas y paradigmas de propiedad comunal. Sería un error permitir que una tecnología clave, como en otros tiempos fue el fuego, la rueda, o la agricultura, y que es fruto del esfuerzo colectivo de las generaciones precedentes y posible gracias a la masiva aportación de datos de las presentes, caiga en manos de unos pocos que la patrimonialicen, sustrayéndole todo potencial liberador y restringiéndola al servicio de la perpetuación de un sistema que nos conduce inexorablemente a la extinción.
TECNOLOGÍA Y ECOLOGÍA SOCIAL
Nosotros, últimos hombres (humanos), los más recientes, los más abstractos, ya ni siquiera existimos, somos fantasmas. Colli (1978:40)
A lo largo del presente capítulo se ha realizado un análisis crítico de los marcos ideológicos y materiales que han permitido el surgimiento y penetración de la IA, al mismo tiempo que se ha alertado sobre las tendencias de desarrollo que dicha tecnología puede tener, así como sus potenciales efectos sobre el sistema. Unos efectos que podrían resumirse como la cristalización y profundización de las dinámicas de opresión que actualmente operan en nuestra sociedad. Unas dinámicas que, además, encontrarían un nuevo nivel justificativo basadas en las metanarrativas que rodean a la tecnología, así como con base en la propia naturaleza de la IA.
Una tendencia que nos llevaría a situarnos ante una discriminación/subyugación sustentada en una base algorítmica que busca transferir la responsabilidad ética de la subyugación a las máquinas, en lugar de a las elites propietarias de las mismas (en tanto que consideradas como medio de producción) bajo un proceso orientado a la “humanización” de las mismas, y donde la singularidad, como marco teórico, juega un papel importante en la cristalización de dicha agenda.
Estaríamos además ante un medio que tiene un potencial de afectación o inferencia sobre todas las dimensiones de “lo humano”, extendiendo así el dominio de la biopolítica foucaultiana (Foucault y Varela, 1978) a través de la cristalización necropolítica (Mbembe, 2011) y el triunfo de las pulsiones de muerte.
Pero ¿cuál es la alternativa? La respuesta a esta pregunta es compleja y multidimensional, ya que el cambio necesario no obliga simplemente a una reorientación de la tecnología con base en nuevas agendas, sino que afecta de manera profunda los pilares principales que sostienen nuestro sistema, tal y como es la noción de propiedad, trabajo asalariado y Estado.
Esto es así porque resulta fundamental deconstruir la propiedad, especialmente la tecnológica, en pos de métodos de gestión y gobierno comunitario/cooperativo de la misma que sean capaces de priorizar aquellas aplicaciones que respondan al bien común, el cual en la actualidad se orienta por encima de cualquier otra prioridad a la reversión de la crisis ecológica, una reversión que sólo es posible a través de una transformación de los marcos que la han inducido (sistema de producción capitalista).
Es decir, es necesario estructurar un gobierno de la tecnología que requiere de un compromiso social colectivo para la reorientación del sistema, o lo que es lo mismo, una nueva agenda tecnocientífica que tenga como imperativo urgente explorar aquellos sistemas que permitan una reorganización social basada en una ecología de la libertad (Bookchin, 1991) en donde la noción de autonomía puede representar un antes y un después en la disolución del trabajo asalariado, quizás uno de los elementos más nocivos del actual sistema, que conduce de facto a una alienación de la clase trabajadora, materializada a través de la plusvalía (Kropotkin, 1995; Marx, 2008b), pero cuyos impactos ocupan todas las dimensiones de nuestra experiencia y nos condenan a una esclavitud sistémica.
Si bien este esfuerzo redireccionador requiere de mayores estudios en el campo de la autonomía, como por ejemplo agricultura autónoma (y otros procesos de autonomía productiva), así como sobre la configuración de comunidades inteligentes (smart communities vs smart cities) que permitan ejercer un mayor control sobre los recursos utilizados para su desarrollo, a fin maximizar su eficiencia y reducir el impacto ecológico.
Es necesario asimismo avanzar en el estudio de las potencialidades que el blockchain nos ofrece para la generación de instituciones descentralizadas (stateless institutions) basadas también en una gestión eficiente de los datos, evitando el uso de todos aquellos que puedan vulnerar la intimidad del sujeto como principio articulador, además de definir modelos de producción científica que rompan con las actuales dinámicas del complejo tecnoindustrial orientadas a la maximización de beneficios y/o interés nacional, generalmente de índole militar, por agendas de investigación ecosociales.
En segundo lugar, debemos emplear esfuerzos en reubicar la noción de humanidad en un contexto poshumano, entendiéndonos como parte de una red de interdependencias complejas imprescindible para el mantenimiento de la vida sobre el planeta, una naturaleza y experiencia de lo real que tiene el potencial de ser expandida por nuestras capacitaciones tecnológicas, donde la preservación y potenciación de la diversidad, al igual que en el pool genético, ha de ser comprendida como el principal motor de evolución, y donde valores como solidaridad y cooperación superen aquellos endógenos al capitalismo como son la individualidad y la competitividad. Y donde los principios de jerarquía y control sean superados por paradigmas de igualdad y cocreación (Funtowicz y Ravetz, 1993), transformando así la comprensión y el rol de la ciencia, ya que tal y como afirmaba Giorgio Colli:
A los científicos modernos todavía no se les ha ocurrido algo que para los antiguos era obvio: que es preciso silenciar los conocimientos destinados a los pocos, que las fórmulas y las formulaciones abstractas peligrosas, capaces de evoluciones fatales, nefastas en sus aplicaciones, deben ser valoradas anticipadamente y en todo su alcance por quien las ha descubierto, y en consecuencia deben ser celosamente escondidas, sustraídas a la publicidad. La ciencia griega no alcanzó un gran desarrollo tecnológico porque no quiso alcanzarlo. Con el silencio, la ciencia asusta al Estado, y es respetada. El estado sólo puede vivir, luchar y fortalecerse con los medios ofrecidos por la cultura: es algo que sabe perfectamente, el jefe de la tribu depende visceralmente del hechicero (Colli, 1978:54).
Una ciencia y una tecnología que es necesario comprender como el resultado de un esfuerzo colectivo, y por tanto se debe garantizar el libre acceso a la misma, potenciando la transferencia de conocimiento sobre aquellas herramientas que el sistema ha interpuesto para patrimonializarlas (como por ejemplo los sistemas de patentes). Y es que, tal y como lo afirmaba Kropotkin:
Cada máquina tiene la misma historia: una larga serie de noches en blanco y de miseria; de desilusiones y de alegrías, de mejoras parciales halladas por varias generaciones de obreros desconocidos que han añadido a la invención primitiva esas pequeñeces sin las cuales permanecería estéril la idea más fecunda. Aún más: cada nueva invención es una síntesis resultante de mil inventos anteriores en el inmenso campo de la mecánica y de la industria. Todo se entrelaza: ciencia e industria, saber y aplicación. Los descubrimientos y las realizaciones prácticas que conducen a nuevas invenciones, el trabajo intelectual y el trabajo manual, la idea y los brazos. Cada descubrimiento, cada progreso, cada aumento de la riqueza de la humanidad, tiene su origen en la conjunción del trabajo manual e intelectual del pasado y del presente. Entonces, ¿con qué derecho alguien se apropia de la menor parcela de ese inmenso todo y dice: “Esto es sólo mío y no de todos”? (Kropotkin, 1977).
Es importante a este respecto señalar que la cristalización de los sistemas de propiedad conducen de forma inevitable al trabajo asalariado, entendido como un sistema de control/sometimiento, además de estructurarse como base de un complejo proceso de alienación de las clases trabajadoras. Una relación que se reproduce también bajo la forma de la democracia liberal como sistema de dominio sobre las mismas, estructurando una metanarrativa que transmite una falsa impresión de igualdad en el ejercicio del voto, mientras que el ejercicio del poder u autoridad en el sentido tradicional del término continúa restringido a una elite social.
Debemos, además, tener en cuenta que tradicionalmente el Estado se han organizado como un sistema productivo donde el equilibrio entre los derechos laborales y la ganancia de capital se determina a partir de la “ley de hierro de los salarios”, que afirma que los salarios reales siempre tienden, a la larga, hacia el salario mínimo necesario para sostener la vida del trabajador (Wolf, 2014), una ley que aunada con la teoría marxista de la alienación define un escenario que en esencia contiene los elementos estructurales básicos de una sociedad esclavista, aunque bajo el dominio de un poder blando (soft-power), que restringe el uso de la fuerza (cuando es posible), sustituyéndolo por mecanismos de seducción/adicción (como la cultura de entretenimiento actual).
Un sistema en el que la noción de democracia liberal se estructura como mito o metarrelato que maquilla la apariencia de las relaciones de poder, ya que se ve limitada en sus efectos por la “ley de hierro de la oligarquía”,6 (Michaels, 2016), la cual establece que todas las formas de organización, independientemente de cuán democráticas puedan ser al principio, eventual e inevitablemente desarrollarán tendencias oligárquicas, haciendo que la verdadera democracia sea práctica y teóricamente imposible, especialmente en grupos grandes y organizaciones complejas. Así, puede decirse que la relativa fluidez estructural en una democracia a pequeña escala sucumbe a la “viscosidad social” en una organización a gran escala.
Por tanto, según la “ley de hierro de la oligarquía”, la democracia y la organización a gran escala son incompatibles, hecho que ayuda a comprender el rol de la “democracia liberal” como un mito orientado a la seducción de las clases trabajadoras, impidiendo así confrontar la verdadera naturaleza del Estado. Un hecho que nos permite observar, a su vez, la necesidad de configurar marcos institucionales descentralizados (stateless institutions), donde la unidad de acción debe tener a lo sumo una arquitectura de tipo municipalista (Bookchin, 1989).
De no hacerlo entraremos en la fase avanzada de un sistema que nos oprime, nos aliena y tiene tendencia a destruir la vida en el sentido más amplio del término, conduciéndonos hacia el colapso ecológico, combinado con el surgimiento de una tecnología que tiene la capacidad de reproducirlo sobre una base algorítmica, “naturalizando” aún más las relaciones de poder/subyugación. Aún así, este rol determinista de la tecnología no debe llevarnos a creer que se trata de algo inevitable, ya que:
Este determinismo tiene, sin embargo, otro aspecto. Habrá una tentación de usar la palabra fatalismo en relación con los fenómenos descritos. El lector puede estar inclinado a decir que, si todo ocurre como se dice, el hombre es totalmente indefenso, ya sea para preservar su libertad personal o para cambiar el curso de los acontecimientos. Una vez más, creo que la pregunta está mal planteada. Me gustaría invertir los términos y decir: si el hombre, si cada uno de nosotros abdica sus responsabilidades con respecto a los valores; si cada uno de nosotros se limita a llevar una existencia trivial en una civilización tecnológica, con una mayor adaptación a sus objetivos; sin ni siquiera considerar la posibilidad de hacer una postura en contra de estos determinantes, entonces todo va a pasar tal y como se relata, y los determinantes serán transformados en inevitables (Ellul, Wilkinson y Merton, 1964:XXIX).
Es, por tanto, imprescindible concluir haciendo un llamado a la acción para explotar las potencialidades de liberación que contienen nuestros marcos tecnológicos, los cuales a su vez, deben ser liberados del dominio (hegemonía cultural) de una superestructura que los ha orientado a maximizar los beneficios de una elite a costa de la libertad de la mayoría, mientras nos dirigen hacia el colapso ecológico.
Debemos ser capaces de imaginar escenarios en los que se diluyan las formas de propiedad que han estructurado nuestra realidad y nos han hecho tan miserables, a fin de ser capaces de reconstruir nuestro mundo, que vive a través de nuestra experiencia. Es necesario estructurar una sociedad a nuestra escala, potenciando nuestra relación con el entorno y reconociendo lo municipal como área de acción de lo político.
Debemos redefinir “lo humano” en un contexto poshumano, cuyo surgimiento debe aparejarse a la disolución de las jerarquías y la superación del autoritarismo, que como afirmaba Bookschin, penetró nuestra razón, moralidad y espíritu, tomando el control del lenguaje y de las más rudimentarias formas de simbolización. Es imprescindible, por tanto, recuperar las palabras y el lenguaje como función humana, antes que algorítmica.
Y finalmente, debemos realinear nuestro potencial, como especie, en la preservación de la vida y la diversidad.
BIBLIOGRAFÍA
Allen, G. (2019), Understanding China’s AI Strategy, CNAS, disponible en <https://www.cnas.org/publications/reports/unders tanding-chinas-ai-strategy>, consultado el 17 de abril de 2019.
Arendt, H. (2014), La condición humana, 8a ed., Barcelona, Vives.
Asaro, P. (2012), “On Banning Autonomous Weapon Systems: Human Rights, Automation and the Dehumanization of Lethal Decision-Making”, en International Review of the Red Cross, vol. 94, núm. 886, pp. 687-709.
Barrat, J. (2013), Our Final Invention : Artificial Intelligence and the End of the Human Era, Nueva York, St. Martin’s Press.
Bates, T. (1975), “Gramsci and the Theory of Hegemony”, en Journal of the History of Ideas, vol. 32, núm. 2, pp. 351-356.
Baudrillard, J. (1983), “The Precession of Simulacra”, en D. Hlynka (ed.), Paradigms Regained, New Jersey, Educational Technology Publications, pp. 448-468.
Baudrillard, J. (1987), “Cool Memories 1980-1985”, Collection Débats, disponible en <http://catalogue.bnf.fr/ark:/12148/cb34910351d>.
Baudrillard, J. (1994), Simulacra and Simulation, Detroit, University of Michigan Press.
Baudrillard, J. (1995), The Gulf War did not Take Place, Indiana, Indiana University Press.
Big Brother Watch (BBW) (2019), “Big Brother Watch: Defending Civil Liberties, Protecting Privacy”, disponible en <https://bigbrotherwatch.org.uk/>, consultado el 4 de junio de 2020.
Berghel, H. (2018), “Malice Domestic: The Cambridge Analytica Dystopia”, en Computer, vol. 51, núm. 5, pp. 84-89.
Biehl, J. y P. Standenmaier (2019), Ecofascismo: lecciones sobre la experiencia alemana, Barcelona, Virus.
Bimber, B. (1994), “Three Faces of Technological Determinism”, en Merrit Smith y Leo Marx (eds.), Does Technolgy Drive History?, Cambridge, Massachusetts, MIT Press, pp. 79–100.
Bookchin, M. (1989), Remaking Society, Montreal, Black Rose Books.
Bookchin, M. (1991), La ecología de la libertad, Madrid, Madre Tierra.
Bostrom, N. (2005), “A History of Transhumanist Thought”, en Journal of Evolution and Technology, vol. 14, núm. 1, pp. 1-25.
Boyd, D.; K. Levy y A. Marwick (2014), The Networked Nature of Algorithmic Discrimination, disponible en <http://www.danah.org/papers/2014/DataDiscrimination.pdf>, consultado el 15 de abril de 2019.
Braidoti, R. (2015), Lo posthumano, Barcelona, Gedisa.
Cadwalladr, C. y E. Graham-Harrison (2018), “Revealed: 50 Million Facebook Profiles Harvested for Cambridge Analytica in Major Data Breach”, en The Guardian, disponible en <https://www.theguardian.com/news/2018/mar/17/>, consultado el 4 de junio de 2020.
Calleman, C.J. (2004), The Mayan Calendar and the Transformation of Consciousnesss, Nueva York, Simon & Schuster.
Chalmers, D.J. (2010), “The Singularity: A Philosophical Analysis”, en Susan Schneider (ed.), Science Fiction and Philosophy, 2a. ed., United Kingdom, Wiley, pp. 171-225.
Colli, G. (1978), Después de Nietzsche, Barcelona, Anagrama.
Culkin, J. (1967), “A Schoolmas’s Guide to Marshall McLuhan”, en The Saturday Review, disponible en <https://static1.squa respace.com/static/5a6135761f318d1d719bd5d9/t/5b25363 42b6a2886441759d5/1529165365116/JOHN_CULKIN.pdf.>, consultado el 15 de abril de 2019.
Cummings, M. (2004), “Automation Bias in Intelligent Time Critical Decision Support Systems”, en AIAA 1st Intelligent Systems Technical Conference, Reston, Virigina, American Institute of Aeronautics and Astronautics, disponible en DOI <10.2514/ 6.2004-6313>.
Deleuze, G. y F. Guattari (2006), Millepiani, Roma, Castelvecchi.
Derrida, J. (1995), Espectros de Marx: el estado de la deuda, el trabajo del duelo y la nueva internacional, 5a. ed., editado por J. Alarcón, Madrid, Trotta.
Derrida, J. (2012), Specters of Marx: The State of the Debt, the Work of Mourning and the New International, Nueva York, Routledge.
Diamond, J. (1994), “Ecological Collapses of Past Civilizations”, en Proceedings of the American Philosophical Society, vol. 138, núm. 3, pp. 363-370, disponible en <https://www.jstor.org/stable/986741>, consultado el 4 de junio de 2020.
Dike, A. (2017), “COMPAS AI Based Court System”, en The National Law Revie, 25 de octubre, disponible en <https://www.natlawreview.com/article/would-you-trust-artificially-intelligent-expert>, consultado el 5 de junio de 2020.
Ellul, J. (1973), Propaganda: The Formation of Men’s Attitudes, Nueva York, Vintage Books.
Ellul, J.; J. Wilkinson y R. Merton (1964), The Technological Society, Nueva York, Random House.
Femia, J. (1987), Gramsci’s Political Thought: Hegemony, Consciousness, and the Revolutionary Process, 4a. ed., Londres, Claredon Press.
Foucault, M. y J. Varela (1978), Microfísica del poder, Madrid, Endymion Ediciones.
Freud, S. (1920), “Beyond the Pleasure Principle”, en The Standard Edition of the Complete Psychological Works of Sigmund Freud, Volume XVIII (1920-1922): Beyond the Pleasure Principle, Group Psychology and Other Works, pp. 1-64, disponible en DOI <10.3 366/pah.2015.0169>.
Freud, S. (2016), Más allá del principio del placer, Buenos Aires, Amorrortu.
Funtowicz, S.O y J.R. Ravetz (1993), La ciencia posnormal: ciencia con la gente, Barcelona, Romanya/Valls.
Gelles, D. (2009), “Immortality 2.0-A Silicon Valley Insider Looks at California’s Transhumanist Movement”, en Futurist, vol. 43, núm. 1, p. 34.
Gramsci, A. (1995), Further Selections from the Prison Notebooks, Saint Paul, University of Minnesota Press.
Griffin, A. (2018), Saudi Arabia Grants Citizenship to a Robot for the First Time Ever | The Independent, Independent, disponible en <https://www.independent.co.uk/life-style/gadgets-and-tech/news/saudi-arabia-robot-sophia-citizenship-android-riyadh-citizen-passport-future-a8021601.html>, consultado el 15 de abril de 2019.
Hassan, M.U.; M. Ullah y J. Iqbal (2016). “Towards Autonomy in Agriculture: Design and Prototyping of a Robotic Vehicle with Seed Selector”, en 2016 2nd International Conference on Robotics and Artificial Intelligence, ICRAI 2016, Institute of Electrical and Electronics Engineers Inc., pp. 37-44, disponible en DOI <10.1109/ICRAI.2016.7791225>.
Herman, E. y N. Chomsky (2010), Manufacturing Consent: The Political Economy of the Mass Media, 2a. ed., Londres, Random House.
Hill, K. (2014), “Facebook Manipulated 689,003 Users’ Emotions For Science”, en Forbes, 28 de junio, disponible en <https://www.forbes.com/sites/kashmirhill/2014/06/28/facebook-manipulated-689003-users-emotions-for-science/#34003 49a197c>, consultado el 4 de junio de 2020.
Huang, C. (2011), “Facebook and Twitter Key to Arab Spring Uprisings: Report”, en The National. Abu Dhabi Media, disponible en <https://www.thenationalnews.com/uae/facebook-and-twitter-key-to-arab-spring-uprisings-report-1.428773>.
Irigaray, L. (2010), Speculum. L’altra donna, Milano, Feltrinelli Editore.
Jasanoff, S. (2007), Designs on Nature: Science and Democracy in Europe and the United States, Princeton, Princeton University Press.
Jasanoff, S. (2016), The Ethics of Invention: Technology and the Human Future, Nueva York, W.W. Norton & Company.
Kaczynski, T. (1995), “Industrial Society and its Future”, en Washington Post, p. SS1, disponible en DOI <10.1007/s13398-014-0173-7.2>.
Kropotkin, P. (1995), The Conquest of the Bread and Other Writings, Massachusetts, Cambridge University Press.
Kropotkin, P. A. (1977), La conquista del pan, Madrid, Jucar (Serie Biblioteca Histórica del Socialismo, núm. 55).
Martínez-Quirante, R. y J. Rodríguez-Álvarez (2020), “El lado oscuro de la inteligencia artificial”, en IDEES, núm. 48, disponible en <https://revistaidees.cat/es/el-lado-oscuro-de-la-inteligencia-artificial/>, consultado el 4 de junio de 2020.
Martínez-Quirante, R. y J. Rodríguez-Álvarez (2018), Inteligencia artificial y armas letales autónomas: un nuevo reto para Naciones Unidas, Gijón, Trea.
Marx, K. (2008a), Critique of the Gotha Program, Maryland, Wildside Press.
Marx, K. (2008b). The Poverty of Philosophy, Nueva York, Cosimo Classics.
Marx, K. (2013), Miseria de la filosofía: respuesta a la filosofía de la miseria de Proudhon, 10a ed., Madrid, Siglo XXI.
Marx, L. (1964), The Machine in the Garden: Technology and the Pastoral Ideal in America, Oxford, Oxford University Press.
Marx, L. (1994), “The Idea of ‘Technology’ and Postmodern Pessimism”, en Yaron Ezrahi, Everett Mendelsohn y Howard Segal (eds.), Technology, Pessimism, and Postmodernism, Dordrecht, Springer Netherlands, pp. 11-28.
Marx, L. (2000), The Machine in the Garden: Technology and the Pastoral Ideal in America, Oxford, Oxford University Press.
Mbembe, A. (2008), “Necropolitics”, en Stepehn Morton, Foucault in an Age of Terror, Londres, Palgrave Macmillan, pp. 152-182.
Mbembe, A. (2011), Necropolítica, Barcelona, Melusina.
McLuhan, M. (1994), Understanding Media: The Extensions of Man, Cambridge, Massachusetts, MIT Press.
Michaels, R. (2016), Political Parties: A Sociological Study of the Oligarchial Tendencies of Modern Democracy, Connecticut, Martino Fine Books.
Moore, K. y J.C. McElroy (2012), “The Influence of Personality on Facebook Usage, Wall Postings, and Regret”, en Computers in Human Behavior, vol. 28, núm. 1, pp. 267-274.
Needham, C. (2008), “Realising the Potential of Co-Production: Negotiating Improvements in Public Services”, en Social Policy and Society, vol. 7, núm. 2, pp. 221-231.
Nevens, F. y N. Frantzeskaki (2013). “Urban Transition Labs: Co-Creating Transformative Action for Sustainable Cities”, en Journal of Cleaner Production, vol. 50, pp. 111-122.
Noble, S.U. (2016), Algorithms of Oppression: How Search Engines Reinforce Racism, Nueva York, New York University Press.
O’Neil, C. (2017), Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Nueva York, Broadway Books.
Ohlgart, S. (2002), “The Terminator Gene: Intellectual Property Rights vs. the Farmers’ Common Law Right to Save Seed”, Drake Journal of Agricultural Law, vol. 7, núm. 11, pp. 473-488.
Postman, N. (2006), Amusing Ourselves to Death: Public Discourse in the Age of Show Business, 20a. ed., Londres, Penguin.
Rand, A. (2020), Aynrand.org, disponible en <https://aynrand.org/ideas/philosophy/>.
Reserve Board, F. (2003), Board of Governors of the Federal Reserve System Report to the Congress on Credit Scoring and Its Effects on the Availability and Affordability of Credit, Washington, disponible en <https://www.federalreserve.gov/boarddocs/rpt congress/creditscore/creditscore.pdf>, consultado el 15 de abril de 2019.
Rodríguez, J. (2016), La civilización ausente: tecnología y sociedad en la era de la incertidumbre, Gijón, Trea.
Rodríguez-Álvarez, J. (2019), “Rethinking Paradigms in the Technolo-Ecological Transition”, en Journal of Law, vol. 1, núm. 2, pp. 169-184.
Rodríguez-Álvarez, J. y R. Martínez-Quirante (2019), Towards a New AI Race. The Challenge of Lethal Autonomous Weapons Systems (Laws) for the United Nations, Cizur Menor, Navarra, Tomson Reuters Aranzadi.
Roff, H. (2016), “Meaningful Human Control or Appropriate Human Judgment? The Necessary Limits on Autonomous Weapons”, en Briefing Paper Prepared for the Review Conference of the Convention on Conventional Weapons, disponible en <https://article36.org/wp-content/uploads/2016/12/Control-or-Judgment_-Understanding-the-Scope.pdf>.
Sharkey, N. (2010), “Saying ‘No!’ to Lethal Autonomous Targeting”, en Journal of Military Ethics, vol. 9, núm. 4, pp. 369-383.
Sharkey, N. (2018a), “Get Out of My Face, Get Out of My Home: The Authoritarian Tipping Point”, en Forbes, disponible en <https://www.forbes.com/sites/noelsharkey/2018/11/23/get-out-of-my-face-get-out-of-my-home-the-authoritarian-tipping-point/>, consultado el 15 de abril de2019.
Sharkey, N. (2018b), “Mama Mia It’s Sophia: A Show Robot Or Dangerous Platform To Mislead?”, en Forbes, disponible en <https://www.forbes.com/sites/noelsharkey/2018/11/17/ma ma-mia-its-sophia-a-show-robot-or-dangerous-platform-to-mislead/#5b2021b17ac9>.
Sharkey, N. y A. Wynsberghe (2017), Our Sexual Future with Robots, Netherlands, Foundation for Responsible Robotics.
Simkhovitch, V.G. y P. Kropotkin (1903), “Mutual Aid a Factor of Evolution”, en Political Science Quarterly, disponible en DOI <10.2307/2140787>.
Snow, J. (2018), “Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots”, en ACLU, disponible en <https://www.aclu.org/blog/privacy-technology/survei llance-technologies/amazons-face-recognition-falsely-mat ched-28>.
Spade, D. y C. Willse (2014), “Sex, Gender, and War in an Age of Multicultural Imperialism”, disponible en <http://againste quality.org/files/Spade_Wilse_Manning_2014.pdf>, consultado el 16 de abril de 2019.
Statt, N. (2018), “Amazon Told Employees it Would Continue to Sell Facial Recognition Software to Law Enforcement”, en The Verge, disponible en <https://www.theverge.com/2018/11/8/ 18077292/amazon-rekognition-jeff-bezos-andrew-jassy-fa cial-recognition-ice-rights-violations>, consultado el 17 de abril de 2019.
Tasioulas, J. (2018), “First Steps Towards an Ethics of Robots and Artificial Intelligence”, disponible en <https://www.academia.edu/36555833/First_Steps_Towards_an_Ethics_of_Robots_ and_Artificial_Intelligence?auto=download>, consultado el 17 de abril de 2019.
The Economist (2017), “Regulating the Internet Giants - The World’s Most Valuable Resource is no Longer Oil, but Data”, en The Economist, 6 de mayo, disponible en <https://www.economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data>, consultado el 4 de junio 2020.
Veblen, T. (2009), The Theory of the Leisure Class, A Penn State Electronic Classics Series Publication, United Kingdom, Oxford University Press.
Veblen, T. (2013), The Place of Science in Modern Civilisation: And Other Essays, 3a. ed., Nueva York, B.W. Huebsch.
White, L. (1973), Tecnología medieval y cambio social, Barcelona, Paidós.
Wiener, J.L. y L.A. Mohr (1994), “Technopoly: The Surrender of Culture to Technology”, en Journal of Public Policy & Marketing, vol. 13, núm. 2, pp. 326-327, disponible en DOI <10.10 07/BF02948575>.
Wilson, W. (2008), “The Myth of Nuclear Deterrence”, en NonProliferation Review, vol. 15, núm. 3, pp. 421-439.
Wolf, J. (2014), “Iron Law of Wages”, en The Encyclopedia of Political Thought, United Kingdom, Wiley.
Yampolskiy, R.V. (2013), Attempts to Attribute Moral Agency to Intelligent Machines are Misguided, disponible en <https://www.academia.edu/4095936/Attempts_to_Attribute_Moral_Agency_to_Intelligent_Machines_are_Misguided>.
Žižek, S. (1997), “The Supposed Subjects of Ideology”, en Critical Quarterly, vol. 39, núm. 2, pp. 39-59, disponible en DOI <10. 1111/1467-8705.00097>.
1 Por sociedad algorítmica entendemos aquella que adapta sus funciones materiales y lingüísticas a las necesidades de los algoritmos, recreando así dinámicas de opresión desde la propia tecnología.
2 No podemos pasar por alto, a la hora de escribir el presente artículo, el impacto que la crisis generada por el Sars-Cov II sobre la narrativa tecnológica, presentada de forma constante como posible solución a la misma, a través de aplicativos orientados a un mayor control social, prácticamente orwelliano.
3 Captcha es el acrónimo en inglés para Completely Automated Public Turing Test to Tell Computers and Humans Apart (prueba de Turing completamente automática y pública para diferenciar ordenadores de humanos).
4 Como ejemplos podemos citar “Stardad Radio”, “Radithor”, cremas como “Thor-Radia”, “Revigator”, que producía agua radiactiva para el consumo familiar; “Doramand”, una pasta dentífrica radiactiva, o “Burkbraun Radium”, un chocolate radiactivo fabricado en Alemania.
5 Acrónimo en inglés de: Perfil Correccional de Gestión de Delincuentes para Sanciones Alternativas. Este programa es una herramienta de gestión de casos y apoyo a la decisión desarrollada y propiedad de Northpointe (ahora Equivant) utilizada por los tribunales de Estados Unidos. Para evaluar la probabilidad de que un acusado se convierta en reincidente.
6 Desarrollada por primera vez por el sociólogo germano-italiano Robert Michaels en su obra de 1911, Partidos políticos.
* Profesor de la Escuela de Prevención y Seguridad de la UAB, profesor asociado, Departamento de Ciencias Histórico-Jurídicas, Facultad de Derecho UAB. Miembro del Comité Internacional para la regulación del armamento robótico (ICRAC). Delegado en la Convención sobre ciertos tipos de armamento convencional de Naciones Unidas (CCW-UN). Correo electrónico: <joaquin.rodriguez@uab.cat>.