Читать книгу La universidad cambiante. El uso de nuevas tecnologías y transferencia de resultados para la inclusión y el cambio social - Manuela Durán Bernardino - Страница 9
3. LA INTERACCIÓN ROBOT-HUMANO EN LOS PROCESOS PRODUCTIVOS (ALGUNOS ASPECTOS CRÍTICOS) 3.1. EL NUEVO GOBIERNO “ALGORITMOCRÁTICO” DE LA EMPRESA
ОглавлениеLa gestión de personal mediante algoritmos es cada vez más frecuente en las empresas de base tecnológica, aunque tales métodos se comienzan a extender también a muchas otras empresas. Para ciertos modelos de negocio –o métodos de dirección y organización del trabajo–son valiosos, porque implican el “ejercicio oculto” del poder directivo, esto es, coadyuvan a una estrategia de ocultamiento de la verdadera condición de empleador o de imputación “impersonal” del poder a una entidad externa.
Se habla de una nueva algoritmocracia como forma de gobierno y gestión de la empresa. Se trata de una estructura de dominio impersonal ficticio sobre las personas trabajadoras. En realidad, bajo la apariencia aséptica de los outputs del proceso informatizado, se encubren verdaderas decisiones directivas y organizativas de un empleador que no quiere tener rostro humano. Sea como sea, la decisión jurídicamente será sólo imputable al empleador y este será su responsable, por muy despersonalizado que pueda ser este modo de gestión algorítmica de la empresa (v. gr. el despido de los trabajadores de una plataforma se produce –en algunos– casos mediante la desconexión de la misma o el no ofrecimiento de encargos, según los ratings de trabajador). La situación obligará a una mayor transparencia en cuanto a la selección de la tipología de datos y criterios que emplea el algoritmo para la toma de decisiones, así como en métodos de procesamiento y gestión de la información obtenida de la prestación de servicios del trabajador (el acceso al código). En todo caso, no es aceptable que el recurso a la gestión algorítmica termine por convertirse en un instrumento de “des-responsabilización” de los sujetos que lo ponen en funcionamiento.
Detrás de la programación algorítmica hay personas, nada es neutro y siempre hay intereses subyacentes que, en las relaciones de trabajo, sabemos sobradamente que son en una buena medida contrapuestos. Por lo tanto, no es de descartar, sino que sería conveniente –e incluso obligado– que tales criterios o parámetros se establecieran mediante el recurso a la negociación colectiva, pues integraría su contenido prototípicamente laboral (De Stefano, 2017). Del mismo modo, estas nuevas formas de gobierno de la empresa deben estar sujetas a los tradicionales métodos de control y a consenso propios de la democratización de las organizaciones productivas y de integración del conflicto social. La revolución digital no debería minar, como ya lo está haciendo, las instituciones que podríamos llamar de la democracia industrial y de la ciudadanía en la empresa, también en su plano de articulación y defensa de los intereses colectivos de los trabajadores. Lo contrario sería rendir a la persona trabajadora a la dictadura del algoritmo, emblema de una sociedad de la despersonalización en la cual desaparece la persona del decisor, reemplazado por procedimientos automatizados, y lo más grave, como señala Rodotá, desaparece la “persona en sí considerada, transformada en objeto de poderes incontrolables” (Rodotá, 2014: 37). Por lo tanto, se deben prever y reforzar los poderes de acceso por parte de sujetos colectivos que tienen reconocida la representación legal de los trabajadores como instrumento de reducción de las asimetrías de poder, así como para la mejora de la transparencia de tales sistemas de gobierno de la empresa (Rodotá, 2018: 330).
En materia de empleo, la inteligencia artificial ya está encontrando terreno en los procesos de selección y evaluación de personal, por no hablar de los robots que rastrean y extraen datos personales de los candidatos en la red para su valoración. ¿En qué medida alguien que expone su vida privada puede luego exigir que dicha información no sea tenida en cuenta? (Han, 2013).
No tardaremos en ver procesos judiciales donde los responsables de la empresa tendrán que rendir cuentas sobre la racionalidad, proporcionalidad y justificación de una decisión de tipo laboral adoptada mediante la utilización de algoritmos (o lo que es lo mismo, de los criterios y parámetros sobre los que el robot propone una medida que imputable al empleador). En tales casos, debieran operar los mecanismos de desplazamiento de la carga probatoria hacia la posición del empleador.
Por otra parte, el software (de evaluación del performance del trabajador) no es infalible, tiene errores y puede que no incluya todas las complejas variables que han de tenerse en cuenta para que la concreta decisión de gestión de personal pueda considerarse equitativa, justa y socialmente responsable. La propia programación –y las formas de inteligencia artificial– puede encerrar en su diseño los mismos sesgos discriminatorios (Ordinanza del Tribunale di Bologna, Sezione Lavoro, de 31 de diciembre de 2020), basados en estereotipos (racistas, sexistas o clasistas, por ejemplo), presentes en la sociedad en que se desarrollan. Tales aspectos exceden de la competencia de los propios programadores y nos enfrentan a cuestiones éticas y jurídicas de calado, pero que, de no ponerles remedio, de poco podrían servir para promover transformaciones sociales más equitativas y respetuosas con los derechos fundamentales. Problemática que surge de la dificultad para prever los efectos secundarios –e inesperados– de la optimización de objetivos aparentemente sencillos pero que luego determinan una “mala conducta algorítmica”. Este es un límite necesario a la IA, comprobar que los modelos empleados por los algoritmos –e incluso los propios modelos generados por los meta-algoritmos– cumplen con las normas sociales, para ello es necesario integrar estos criterios en la programación de los mismos (Kearns, 2020:18 y 233) y estar atentos a sus posibles consecuencias indeseables. En todo caso, la dicción del artículo 22.1 de Reglamento General de Protección de Datos es muy clara cuando establece que: “Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”.
Por ello el principio de precaución cobra relevancia mientras no se disponga de un adecuado contexto institucional para evitar que la relación “entre el hombre y la máquina venga gobernada tan solo por la lógica económica” (Rodotá, 2014: 40).